Zum Inhalt

Unternehmen scheitern an Responsible AI

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Eine internationale Studie offenbart gravierende Defizite beim verantwortlichen Umgang mit Enterprise AI. Fast jedes Unternehmen hat Zwischenfälle mit KI-Systemen erlebt und die wenigsten erfüllen notwendige Sicherheitsstandards. Das hat weitreichende Folgen.

Die Zahl der KI-Einsatzfelder explodiert. Vertriebsmitarbeitern ermöglicht die Entwicklung der Tools eine wichtige Unterstützung, erfordert aber auch ein steigendes Maß an Management.


Künstliche Intelligenz hat sich für die meisten Unternehmen als zweischneidiges Schwert erwiesen. Nach dem Boom der Generativen KI (Gen AI) ist mit agentischen KI-Systemen (Agentic AI) nun die nächste Phase der autonomen Entscheidungsfindung in Unternehmensprozessen eingeläutet. KI-Agenten treffen Entscheidungen selbstständig und handeln unabhängig, um Ziele zu erreichen. Wehe, wenn sie losgelassen?

KI-Projekte werden zum rechtlichen Risiko

Einerseits erkennen Unternehmen die erzielbaren Geschäftsvorteile und sind gewillt, Gen AI und Agentic AI in Unternehmensprozesse zu implementieren. Andererseits können diese Projekte gewaltig nach hinten losgehen. Generative und agentische KI-Modelle bringen mit ihren Black-Box-Eigenschaften fortschrittliche Anwendungen an die Grenzen der Erklärbarkeit und zusätzliche Risiken sowie Compliance-Herausforderungen für Unternehmen mit sich. Die Frage beim Einsatz von KI ist derzeit also nicht, ob etwas schiefgehen kann, sondern wie gravierend die Folgen sein werden. 

Rund 95 Prozent aller Top-Führungskräfte haben in den vergangenen beiden Jahren negative Folgen durch den KI-Einsatz einstecken müssen. Die Schäden reichen von Datenschutzverletzungen und ungenauen Vorhersagen hin zu Voreingenommenheit oder Nichteinhaltung gesetzlicher Vorschriften. Das berichtet der Report "Responsible Enterprise AI in the Agentic Era" des Infosys Knowledge Institutes, für den mehr als 1.500 Führungskräfte in Deutschland, Frankreich, Großbritannien, den USA und Australien Auskunft gaben.

Reputationsschäden wiegen schwerer als finanzielle Verluste

Die hohe Wahrscheinlichkeit eines KI-Vorfalls sollte Unternehmen auch mit Blick auf den EU AI Act, der seit August 2024 in Kraft ist und ab diesem August schärfere Regularien bringt, aufwecken. Denn künftig drohen Bußgelder von bis zu 35 Millionen Euro oder sieben Prozent des gruppenweiten Jahresumsatzes. Der EU AI Act verlangt systematisches Risikomanagement, umfassende Dokumentation und Meldepflichten bei KI-Zwischenfällen. Die Problembereiche, die laut Studie am häufigsten identifiziert wurden, und die daraus resultierenden Folgen sind:

  • 95 Prozent der C-Suite und Direktorenführungsebene haben negative Folgen beim Einsatz von Unternehmens-KI erfahren.
  • Fast drei Viertel haben den Schaden als "erheblich" eingestuft.
  • "Schwere" oder "extrem schwere" Vorfälle berichten 39 Prozent.
  • Die häufigsten Vorfälle sind: Datenschutzverletzungen (33 Prozent), Systemausfälle (33 Prozent) ungenaue oder schädliche Vorhersagen (32 Prozent).
  • 77 Prozent der Schäden waren finanzielle Verluste.
  • Die durchschnittlichen Verluste belaufen sich auf 800.000 USD über zwei Jahre.
  • 53 Prozent erlitten Reputationsschäden und 46 Prozent rechtliche Konsequenzen.
  • Reputationsschäden werden als bedrohlicher empfunden als finanzielle Schäden.

Autonome KI-Systeme erfordern erweiterte RAI-Strategien

KI-Agenten verschärfen die rechtliche Situation. Rund 86 Prozent der Führungskräfte befürchten beim Einsatz von Agentic AI zusätzliche Risiken und Compliance-Herausforderungen. Responsible AI (RAI) bezeichnet die Praxis, Unternehmens-KI ethisch, sicher und transparent zu entwickeln und einzusetzen. Ein effektiver und proaktiver RAI-Ansatz ist unerlässlich, nicht nur, um Schäden zu minimieren, sondern auch, um Geschäftswachstum zu ermöglichen. Damit hat sich RAI zu einer entscheidenden Geschäftsfähigkeit entwickelt.

Obwohl bestehende Regulierungen von den meisten Betroffenen begrüßt werden und 78 Prozent RAI sogar als Wachstumsmotor bezeichneten, erfüllten nur zwei Prozent aller befragten Unternehmen die vollständigen Standards dafür und können als RAI-Leader gelten. Weitere 15 Prozent erfüllen etwa drei Viertel der Standards (Follower), während die große Mehrheit (83 Prozent) zu den Beginners zählt und RAI nur fragmentarisch anwendet.

Strategien erfolgreicher Responsible-AI-Vorreiter

Die Ausgaben für RAI machen durchschnittlich 25 Prozent der gesamten KI-Kosten aus. Interessanterweise liegt der Anteil der RAI-Leader mit 21 Prozent unter dem der Follower und Leader. Die meisten Führungskräfte glauben jedoch, dass die RAI-Finanzierung im Durchschnitt um 30 Prozent erhöht werden sollte. Das deutet auf eine Unterinvestition hin, trotz des bereits erheblichen Anteils am Gesamt-KI-Budget.

Die wenigen RAI-Vorreiter zeigen, wie es geht. Sie verzeichnen 39 Prozent niedrigere Kosten pro KI-Zwischenfall und 18 Prozent geringere Schadenschwere. Die Studie schlägt vier spezifische Schritte vor, um Responsible AI von einer reinen Compliance-Funktion zu einem Wachstumstreiber in der Ära der agentischen KI zu entwickeln.

Von Compliance zu Wachstum in vier Schritten

  1. Von den RAI-Leadern lernen, die bereits eine breite Palette von KI-Vorfällen erlebt haben.
  2. Produkt- und Plattform-Betriebsmodelle kombinieren, um die Zusammenarbeit, Kontrolle und das Risikomanagement für verantwortungsvolle agentische KI-Entwicklung zu unterstützen.
  3. RAI-Leitplanken in einer Plattform mit KI-Agenten-Entwicklertools, Bibliothek und sicherer Umgebung für den Datenzugriff implementieren, damit die Wertschöpfung maximiert und Fehlschläge reduziert werden.
  4. Ein proaktives RAI-Büro etablieren, um Risiken zu identifizieren, Modelle zu schützen und Beratungsdienste anzubieten.
print
DRUCKEN

Die Hintergründe zu diesem Inhalt

Artificial Intelligence’s (AI’s) Responsible Use: How to Manage Digital Ethicswashing

Artificial intelligence (AI) applications’ increasing development highlights not only several opportunities for companies and stakeholders but also various risks. Specifically, the question arises whether AI’s (ir)responsible use might lead to …

Responsible and Robust AI in Companies

Artificial intelligence (AI) is spreading rapidly and permeating almost all areas of our lives—whether in the form of chatbots, newsfeeds, voice assistants or self-driving cars. Also in the economic work environment, AI is finding more and more …

KI-Agenten

In diesem Kapitel wird zunächst in das Konzept der KI-Agenten eingeführt. Es ist für Unternehmen wichtig, sich mit diesen Systemen auseinanderzusetzen, da sie zukünftig viele interne und externe Aufgaben und Prozesse vollkommen autonom ausführen …

Fairness in AI Systems Development: Beyond EU AI Act Compliance

Rapid popularisation of Artificial Intelligence (AI) has accelerated initiatives for ethical AI development. In the European Union (EU), the Artificial Intelligence Act (AIA) entered into force on the 1st of August 2024, which has steered the …

    Bildnachweise
    KI-Systeme/© Fukume / Generated with AI / stock.adobe.com, Schmalkalden/© Schmalkalden, NTT Data/© NTT Data, Verlagsgruppe Beltz/© Verlagsgruppe Beltz, EGYM Wellpass GmbH/© EGYM Wellpass GmbH, rku.it GmbH/© rku.it GmbH, zfm/© zfm, ibo Software GmbH/© ibo Software GmbH, Lorenz GmbH/© Lorenz GmbH, Axians Infoma GmbH/© Axians Infoma GmbH, genua GmbH/© genua GmbH, Prosoz Herten GmbH/© Prosoz Herten GmbH, Stormshield/© Stormshield, MACH AG/© MACH AG, OEDIV KG/© OEDIV KG, Rundstedt & Partner GmbH/© Rundstedt & Partner GmbH, Doxee AT GmbH/© Doxee AT GmbH