Unternehmen scheitern an Responsible AI
- 11.11.2025
- Risikomanagement
- Im Fokus
- Online-Artikel
Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.
Wählen Sie Textabschnitte aus um mit Künstlicher Intelligenz passenden Patente zu finden. powered by
Markieren Sie Textabschnitte, um KI-gestützt weitere passende Inhalte zu finden. powered by (Link öffnet in neuem Fenster)
Eine internationale Studie offenbart gravierende Defizite beim verantwortlichen Umgang mit Enterprise AI. Fast jedes Unternehmen hat Zwischenfälle mit KI-Systemen erlebt und die wenigsten erfüllen notwendige Sicherheitsstandards. Das hat weitreichende Folgen.
Die Zahl der KI-Einsatzfelder explodiert. Vertriebsmitarbeitern ermöglicht die Entwicklung der Tools eine wichtige Unterstützung, erfordert aber auch ein steigendes Maß an Management.
Fukume / Generated with AI / stock.adobe.com
Künstliche Intelligenz hat sich für die meisten Unternehmen als zweischneidiges Schwert erwiesen. Nach dem Boom der Generativen KI (Gen AI) ist mit agentischen KI-Systemen (Agentic AI) nun die nächste Phase der autonomen Entscheidungsfindung in Unternehmensprozessen eingeläutet. KI-Agenten treffen Entscheidungen selbstständig und handeln unabhängig, um Ziele zu erreichen. Wehe, wenn sie losgelassen?
KI-Projekte werden zum rechtlichen Risiko
Einerseits erkennen Unternehmen die erzielbaren Geschäftsvorteile und sind gewillt, Gen AI und Agentic AI in Unternehmensprozesse zu implementieren. Andererseits können diese Projekte gewaltig nach hinten losgehen. Generative und agentische KI-Modelle bringen mit ihren Black-Box-Eigenschaften fortschrittliche Anwendungen an die Grenzen der Erklärbarkeit und zusätzliche Risiken sowie Compliance-Herausforderungen für Unternehmen mit sich. Die Frage beim Einsatz von KI ist derzeit also nicht, ob etwas schiefgehen kann, sondern wie gravierend die Folgen sein werden.
Rund 95 Prozent aller Top-Führungskräfte haben in den vergangenen beiden Jahren negative Folgen durch den KI-Einsatz einstecken müssen. Die Schäden reichen von Datenschutzverletzungen und ungenauen Vorhersagen hin zu Voreingenommenheit oder Nichteinhaltung gesetzlicher Vorschriften. Das berichtet der Report "Responsible Enterprise AI in the Agentic Era" des Infosys Knowledge Institutes, für den mehr als 1.500 Führungskräfte in Deutschland, Frankreich, Großbritannien, den USA und Australien Auskunft gaben.
Reputationsschäden wiegen schwerer als finanzielle Verluste
Die hohe Wahrscheinlichkeit eines KI-Vorfalls sollte Unternehmen auch mit Blick auf den EU AI Act, der seit August 2024 in Kraft ist und ab diesem August schärfere Regularien bringt, aufwecken. Denn künftig drohen Bußgelder von bis zu 35 Millionen Euro oder sieben Prozent des gruppenweiten Jahresumsatzes. Der EU AI Act verlangt systematisches Risikomanagement, umfassende Dokumentation und Meldepflichten bei KI-Zwischenfällen. Die Problembereiche, die laut Studie am häufigsten identifiziert wurden, und die daraus resultierenden Folgen sind:
- 95 Prozent der C-Suite und Direktorenführungsebene haben negative Folgen beim Einsatz von Unternehmens-KI erfahren.
- Fast drei Viertel haben den Schaden als "erheblich" eingestuft.
- "Schwere" oder "extrem schwere" Vorfälle berichten 39 Prozent.
- Die häufigsten Vorfälle sind: Datenschutzverletzungen (33 Prozent), Systemausfälle (33 Prozent) ungenaue oder schädliche Vorhersagen (32 Prozent).
- 77 Prozent der Schäden waren finanzielle Verluste.
- Die durchschnittlichen Verluste belaufen sich auf 800.000 USD über zwei Jahre.
- 53 Prozent erlitten Reputationsschäden und 46 Prozent rechtliche Konsequenzen.
- Reputationsschäden werden als bedrohlicher empfunden als finanzielle Schäden.
Autonome KI-Systeme erfordern erweiterte RAI-Strategien
KI-Agenten verschärfen die rechtliche Situation. Rund 86 Prozent der Führungskräfte befürchten beim Einsatz von Agentic AI zusätzliche Risiken und Compliance-Herausforderungen. Responsible AI (RAI) bezeichnet die Praxis, Unternehmens-KI ethisch, sicher und transparent zu entwickeln und einzusetzen. Ein effektiver und proaktiver RAI-Ansatz ist unerlässlich, nicht nur, um Schäden zu minimieren, sondern auch, um Geschäftswachstum zu ermöglichen. Damit hat sich RAI zu einer entscheidenden Geschäftsfähigkeit entwickelt.
Obwohl bestehende Regulierungen von den meisten Betroffenen begrüßt werden und 78 Prozent RAI sogar als Wachstumsmotor bezeichneten, erfüllten nur zwei Prozent aller befragten Unternehmen die vollständigen Standards dafür und können als RAI-Leader gelten. Weitere 15 Prozent erfüllen etwa drei Viertel der Standards (Follower), während die große Mehrheit (83 Prozent) zu den Beginners zählt und RAI nur fragmentarisch anwendet.
Strategien erfolgreicher Responsible-AI-Vorreiter
Die Ausgaben für RAI machen durchschnittlich 25 Prozent der gesamten KI-Kosten aus. Interessanterweise liegt der Anteil der RAI-Leader mit 21 Prozent unter dem der Follower und Leader. Die meisten Führungskräfte glauben jedoch, dass die RAI-Finanzierung im Durchschnitt um 30 Prozent erhöht werden sollte. Das deutet auf eine Unterinvestition hin, trotz des bereits erheblichen Anteils am Gesamt-KI-Budget.
Die wenigen RAI-Vorreiter zeigen, wie es geht. Sie verzeichnen 39 Prozent niedrigere Kosten pro KI-Zwischenfall und 18 Prozent geringere Schadenschwere. Die Studie schlägt vier spezifische Schritte vor, um Responsible AI von einer reinen Compliance-Funktion zu einem Wachstumstreiber in der Ära der agentischen KI zu entwickeln.
Von Compliance zu Wachstum in vier Schritten |
|