Skip to main content
Top

Open Access 05-09-2024 | Spektrum

Governance von künstlicher Intelligenz – Eine Methode zur Transformation vorhandener Governance-Mechanismen in Unternehmen

Authors: Dominik Protschky, Moritz Schüll, Nils Urbach

Published in: Wirtschaftsinformatik & Management

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …
Notes

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.
Unternehmen stehen vor der Herausforderung, den mit der Integration von künstlicher Intelligenz (KI) einhergehenden Risiken entgegenzuwirken, um die Wertschöpfungspotenziale durch den Einsatz der Technologie bestmöglich zur Entfaltung zu bringen. Dabei müssen traditionelle Governance-Mechanismen oft angepasst werden, um die spezifischen Anforderungen und Risiken von KI-Anwendungen abzudecken. Der vorliegende Beitrag stellt eine im Rahmen einer wissenschaftlichen Studie entwickelte Methode vor, die eine systematische Transformation bestehender Governance-Mechanismen hin zu einer umfassenden KI-Governance ermöglicht. Diese Methode bietet eine praxisorientierte Anleitung, die Governance-Manager und -Berater durch konkrete Handlungsschritte dabei unterstützt, KI-spezifische Überlegungen in bestehende Governance-Mechanismen zu integrieren. Durch einen iterativen Ansatz und die kontinuierliche Anpassung an technologische Entwicklungen hilft die Methode Unternehmen, die Wertschöpfungspotenziale von KI zu realisieren und gleichzeitig die Risiken zu kontrollieren.
Zusammenfassung
  • Der vorliegende Beitrag stellt eine im Rahmen einer wissenschaftlichen Studie entwickelte Methode vor, die Unternehmen bei der Transformation von vorhandenen Governance-Mechanismen hin zu einer umfassenden KI-Governance anleitet.
  • KI-Governance wird durch KI-bedingte Herausforderungen und Risiken für Unternehmen zunehmend wichtiger, um die Wertschöpfungspotenziale dieser Technologie zu heben.
  • Es werden konkrete Handlungsschritte aufgezeigt, die Governance-Manager und -Berater im Rahmen dieser Transformation anleiten.
Kernthesen
  • Die Nutzung von KI im Unternehmen geht mit sehr diversen Anforderungen an die Unternehmens-Governance einher, die sich je nach konkretem Anwendungsfall der KI stark unterscheiden.
  • Die KI-Governance sollte nicht losgelöst, sondern integriert mit den bestehenden Governance-Ansätzen im Unternehmen für IT-Governance, Data Governance etc. entwickelt werden.
  • KI-Governance wird nicht durch einen linearen Transformationsprozess aufgebaut, sondern bedingt ein iteratives Vorgehen, welches kontinuierlich die neuesten technologischen Entwicklungen und die damit einhergehenden Risiken berücksichtigt.
Handlungsempfehlungen
  • Unternehmen sollten eine übergreifende KI-Strategie und KI-Roadmap als Ausgangspunkt für die KI-Governance-Transformation nutzen.
  • Unternehmen sollten ihr Portfolio von KI-Governance-Mechanismen laufend an die aktuellen technologischen Entwicklungen und deren Risiken anpassen.
  • Unternehmen sollten die Erkenntnisse aus ihrer KI-Governance-Transformation laufend in die Weiterentwicklung der KI-Strategie und KI-Roadmap einfließen lassen.

Die Notwendigkeit von KI-Governance

Unternehmen integrieren zunehmend Anwendungen basierend auf künstlicher Intelligenz (KI) in ihre Geschäftsprozesse [1]. Diese Integration ist jedoch nicht ohne Herausforderungen [2]. KI-Anwendungen mit ihrer inhärenten Komplexität stellen Unternehmen vor Governance-Herausforderungen, die bewältigt werden müssen, um das Potenzial der Technologie voll auszuschöpfen und gleichzeitig die damit verbundenen Risiken zu adressieren. Die Frage, ob im Unternehmen bestehende Governance-Ansätze ausreichen, um diese Herausforderungen zu bewältigen, ist daher von großer Bedeutung. Sie hat erhebliche praktische Auswirkungen für Unternehmen, die einen ausgewogenen Ansatz für den Einsatz von KI-Anwendungen anstreben, bei dem das Wertschöpfungspotenzial dieser Technologien einerseits nicht durch den Governance-Rahmen behindert wird, andererseits die Governance aber die neuen Risiken adressiert.
Befürworter von KI-Governance-Bemühungen argumentieren, dass die besonderen Merkmale von KI-Technologien auch maßgeschneiderte Governance-Mechanismen erfordern [1]. So wurden erste Frameworks explizit in Bezug auf KI-Risiken erarbeitet (z. B. ISO/IEC 42001:2023 [3], AIGA Modell [4]). Diese Frameworks versuchen, Mechanismen und Ansätze zur Bewältigung von Risiken bereitzustellen, die mit dem Einsatz von KI-Technologien einhergehen können. Skeptiker hingegen vertreten die Ansicht, dass bestehende Frameworks ausreichen könnten [5]. Ungeachtet der Perspektive, bleibt der Weg zu einer systematischen KI-Governance für viele Unternehmen derzeit komplex [6].
In diesem Artikel präsentieren wir daher eine Methode für die Transformation hin zu KI-Governance, basierend auf den Erkenntnissen von 14 Experten aus dem KI-Governance-Bereich. Unsere Ergebnisse zeigen, dass Organisationen, die ihre Governance in Richtung einer systematischen KI-Governance umgestalten wollen, einen iterativen Prozess durchlaufen sollten. Während die empirischen Erkenntnisse zeigen, dass sich die meisten aktuellen KI-Governance-Initiativen in der Praxis auf eine lokale, fachbereichszentrische Perspektive auf KI-Anwendungen konzentrieren, beschreibt unsere Transformationsmethode die Notwendigkeit organisationsweiter Transformationsstrategien für eine erfolgreiche KI-Governance.
Zu diesem Zweck bietet die von uns entwickelte Transformationsmethode eine Orientierung für Governance-Manager und -Berater, um spezifische KI-Überlegungen in das bestehende organisatorische Governance-Rahmenwerk zu integrieren. Unsere Methode kann dabei als Vorlage für solche Bemühungen verwendet werden, um sicherzustellen, dass alle relevanten Aspekte bei der Transformation berücksichtigt werden.

Der Einsatz von KI geht mit unterschiedlichen Risiken einher

Die Einführung von KI in Unternehmen bringt eine Vielzahl von Risiken in sich. Diese Risiken lassen sich in verschiedene Kategorien einteilen, die jeweils unterschiedliche Herausforderungen mit sich bringen und sich gegenseitig bedingen. In diesem Kapitel wird eine Auswahl an möglichen technischen, sozialen, ethischen, regulatorischen und ökonomischen Risiken von KI-Anwendungen im betrieblichen Einsatz erläutert, die eine KI-Governance in Unternehmen adressieren sollte. Abb. 1 stellt ausgewählte Risiken von KI-Anwendungen grafisch dar.
Technische Risiken umfassen Herausforderungen und Gefahren, die direkt aus der technischen Implementierung und dem Betrieb von KI-Anwendungen resultieren [1, 6]. (1) So kann es zur Black-Box-Problematik kommen, da KI-Algorithmen ihre eigenen Regeln aus Daten ableiten, anstatt vordefinierte Regeln zu verwenden. Dies führt zu einer geringen Transparenz darüber, wie diese Algorithmen zu ihren Entscheidungen kommen. (2) Probleme bei schlechter Datenqualität können auftreten, da ohne entsprechende Mechanismen Unklarheiten über die Herkunft und Qualität der Daten bestehen können, was bspw. zu verzerrten Ergebnissen führen kann. (3) Neue Sicherheitsrisiken treten auf, da KI-Systeme neue Angriffsvektoren eröffnen (beispielsweise die gezielten Änderungen von Eingabedaten), durch welche Modelle anfällig für Manipulationen und Angriffe sein können.
Soziale Risiken betreffen die Auswirkungen von KI-Anwendungen auf die Gesellschaft und das soziale Gefüge im Unternehmen [1, 5]. (1) Vertrauen ist entscheidend, um sicherzustellen, dass KI-Systeme als zuverlässig, sicher und ethisch angesehen werden. Dies ist insbesondere auch vom konkreten Anwendungsbereich des KI-Systems abhängig. Geringes Vertrauen kann tiefer gehenden Problemen wie den Rückgang der Nutzung, Reputationsschäden und Innovationshemmnisse nach sich ziehen. (2) Akzeptanz ist essenziell, um sicherzustellen, dass KI-Systeme im Alltag der Mitarbeiter und Geschäftsprozesse effektiv genutzt werden. Fehlende Akzeptanz kann operative Schwierigkeiten wie Widerstand der Mitarbeiter, geringere Produktivität und erhöhte Schulungskosten verursachen. (3) Eine Umstrukturierung von Arbeitsplätzen resultiert daraus, dass KI-Anwendungen Arbeitskräfte substituieren oder deren Aufgabenprofil maßgeblich beeinflussen. Dies kann Bedenken hinsichtlich eines Arbeitsplatzverlustes bei Mitarbeitenden aufwerfen.
Ethische Risiken beziehen sich auf moralische und ethische Fragestellungen, die durch den Einsatz von KI-Systemen aufgeworfen werden [4, 5]. (1) Diskriminierungen von Personen können durch KI-Anwendungen verstärkt werden, wenn die zugrunde liegenden Daten verzerrt sind. (2) Risiken bezüglich der Entscheidungsfindung treten dann auf, wenn KI-Systeme in moralischen Konfliktsituationen Entscheidungen treffen müssen. (3) Die Verletzung ethischer Werte stellt dahin gehend ein Risiko dar, da die Repräsentation solcher Werte in KI-Anwendungen nicht immer eindeutig festgelegt werden kann.
Regulatorische Risiken umfassen die Herausforderungen, die sich aus der Notwendigkeit ergeben, KI-Anwendungen gesetzeskonform und rechtssicher zu gestalten [4, 6]. (1) Unklare Haftungsfragen treten dadurch auf, dass die fehlende Transparenz und die autonome Handlungsfähigkeit von KI-Systemen es erschweren, die Verantwortlichkeiten für Fehler oder Fehlverhalten zu bestimmen. (2) Risiken von Kollisionen mit dem Datenschutz treten immer dann auf, sobald personenbezogene Daten in KI-Anwendungen genutzt werden. (3) Die Black-Box-Natur vieler KI-Systeme führt zu fehlender Nachvollziehbarkeit von Entscheidungen, was insbesondere die Bereiche betrifft, in denen eine solche Nachvollziehbarkeit regulatorisch erforderlich ist.
Ökonomische Risiken beziehen sich auf finanzielle und wirtschaftliche Herausforderungen, die durch die Implementierung und Nutzung von KI-Anwendungen entstehen können [1, 4]. (1) Die im Vorfeld hohen Investitionskosten, welche für die Entwicklung und Implementierung von KI-Systemen erforderlich sind, können ein erhebliches finanzielles Risiko darstellen. (2) Nicht realisierte ökonomische Vorteile können auftreten, wenn KI-Anwendungen im Unternehmen beispielsweise aufgrund eines fehlenden Change Managements nicht wie intendiert genutzt werden. (3) Ein Markenschaden durch Fehlverhalten kann durch diskriminierende oder fehlerhafte KI-Anwendungen dem Ansehen eines Unternehmens schaden.

KI-Anwendungen benötigen unterschiedliche Governance-Mechanismen

Die Einführung von KI-Anwendungen bringt Risiken mit sich, die je nach Anwendungsbereich unterschiedliche Governance-Mechanismen erfordern. Bei KI-gestützten Personalentscheidungen verwenden Unternehmen KI-Anwendungen, um Bewerbungen zu sichten und Einstellungsentscheidungen zu treffen. Hier können technische Risiken bzgl. Datenqualität und Bias auftreten, was zu diskriminierenden Entscheidungen führen kann. Soziale Risiken bestehen darin, dass Mitarbeiter dem System misstrauen könnten, wenn sie die Entscheidungsprozesse der KI-Anwendung nicht nachvollziehen können. Ethische Risiken beinhalten die Möglichkeit, dass die KI-Anwendung ungewollte Benachteiligungen verstärkt, etwa durch systematische Ablehnung bestimmter sozialer oder ethnischer Gruppen. Regulatorische Risiken betreffen die Einhaltung von Antidiskriminierungsgesetzen im Einstellungsprozess. Und ökonomische Risiken bestehen in möglichen Markenschäden durch diskriminierendes Verhalten der KI-Anwendung, was langfristig wirtschaftliche Nachteile mit sich bringen kann.
Im Gesundheitswesen werden KI-Systeme zur Diagnosestellung, Entwicklung von Behandlungsplänen oder Überwachung von Patienten eingesetzt. Technische Risiken umfassen die Black-Box-Problematik und die Datenqualität, die bei ungenauen oder unvollständigen medizinischen Daten zu falschen Diagnosen führen kann. Soziale Risiken entstehen durch die Notwendigkeit, das Vertrauen der Patienten in die Genauigkeit und Verlässlichkeit des KI-Systems zu gewinnen. Ethische Risiken betreffen die moralische Entscheidungsfindung, beispielsweise welche Behandlung unter Abwägung der potenziellen Nebenwirkungen priorisiert werden sollte. Regulatorische Risiken beinhalten Fragen der Haftung bei Behandlungsfehlern und die Einhaltung von Datenschutzvorschriften. Ökonomische Risiken ergeben sich aus den hohen Implementierungskosten, die durch den Nutzen der KI gerechtfertigt werden müssen.
Diese Beispiele verdeutlichen, dass unterschiedliche KI-Anwendungen abhängig vom Anwendungsbereich spezifische Risiken mit sich bringen und daher unterschiedliche Governance-Abwägungen erfordern. Für Diagnosesysteme im Gesundheitswesen sind Transparenz und Nachvollziehbarkeit der Entscheidungsprozesse essenziell. Bei personalbezogenen Anwendungen ist es wichtig, Bias zu erkennen und zu mindern, um diskriminierende Entscheidungen zu vermeiden. Maßnahmen zur Stärkung des Vertrauens und der Akzeptanz sind bei allen Anwendungen entscheidend, besonders aber bei solchen, die direkt mit Menschen interagieren. Klare rechtliche Rahmenbedingungen und Haftungsregelungen sind notwendig, um regulatorische Risiken zu managen. Eine sorgfältige Kosten-Nutzen-Analyse hilft, ökonomische Risiken zu bewerten und sicherzustellen, dass die Investitionen in KI-Technologien gerechtfertigt sind. Durch spezifische Governance-Mechanismen können Unternehmen die jeweiligen Risiken ihrer KI-Anwendungen besser managen und die Vorteile der Technologie optimal nutzen.
Die Erfahrung aus der Praxis zeigt aber wiederholt, dass sich der Weg hin zu einer KI-Governance für viele Unternehmen derzeit komplex gestaltet. Unternehmen tendieren häufig dazu, durch vereinzelte, dezentrale Pilotprojekte den Einsatz von KI-Anwendungen in Fachbereichen zu erproben, wodurch eine übergreifende Betrachtung aus Governance-Perspektive häufig zu kurz kommt. Diese übergreifende Betrachtung ist jedoch wichtig, um sicherzustellen, dass der Einsatz von KI-Anwendungen im Einklang mit den betrieblichen Zielen und Governance-Rahmenwerken steht.

Ein Transformationsmodell für KI-Governance

Basierend auf der Notwendigkeit einer übergreifenden KI-Governance und den mit dem KI-Einsatz einhergehenden Risiken für Unternehmen haben wir im Rahmen einer empirischen Interviewstudie mit 14 Experten aus den Bereichen Corporate Governance, IT-Governance und KI-Governance eine Methode entwickelt, die Unternehmen bei der Transformation ihrer bestehenden Governance-Mechanismen hin zu einer KI-Governance anleitet. Die Methode wurde als Artefakt mithilfe eines Design-Science-Research-Ansatzes nach Peffers et al. [7] wissenschaftlich entwickelt und validiert. Das Ziel der Methode ist nicht der Aufbau einer komplett neuen, separaten KI-Governance im Unternehmen, sondern vielmehr die Weiterentwicklung von und die Integration mit bestehenden Governance-Ansätzen im Unternehmen. Im Folgenden wird diese Methode anschaulich erläutert. Abb. 2 stellt die Transformationsmethode grafisch dar.

KI-Strategie und KI-Roadmap als Ausgangspunkt für KI-Governance-Transformation

Im ersten Schritt der KI-Governance-Transformation liegt der Schwerpunkt auf der Entwicklung einer KI-Strategie. In diesem Schritt sollte sich eine Organisation mit Schlüsselfragen beschäftigen wie: „Wie definieren wir KI?“, „Wofür soll KI eingesetzt werden?“ und „Was ist unsere Vision?“. Dies sind nur einige der Leitfragen, die ein Unternehmen zu Beginn seiner KI-Governance-Transformation berücksichtigen sollte. In Bezug auf KI-Governance sind die relevanten Aspekte der KI-Strategie insbesondere die beabsichtigte Implementierung von KI-Anwendungen und KI-Technologien innerhalb der Organisation (d. h. die interne KI-Nutzung) sowie die Auswirkungen auf interne Prozesse und Strukturen, und weniger die Strategien für KI-Produkte, die an externe Kunden geliefert werden sollen.
Sobald eine KI-Strategie definiert ist, welche die Absichten der Nutzung von KI-Anwendungen und KI-Technologien für interne Prozesse im Unternehmen strukturiert, zielt der zweite Schritt darauf ab, eine Roadmap aus der KI-Strategie abzuleiten. Diese Roadmap stellt einen übergreifenden Zeitplan dar, welcher klare Verantwortlichkeiten zuweist und eine Zielvorstellung davon liefert, was genau mit KI-Technologien erreicht werden soll.
Im dritten Schritt müssen Anwendungsfälle auf Grundlage von konkreten Geschäftsprozessen identifiziert werden. Anwendungsfälle, Proof of Concepts oder erste Prototypen können in dieser Phase hilfreich sein. Zu den wichtigsten Aspekten in dieser Phase gehören die Identifizierung und Einbeziehung der relevanten Interessengruppen. Die Implementierung von KI-Governance erfordert eine interdisziplinäre Zusammenarbeit; Nutzer, Entwickler, Mitarbeiter der Rechtsabteilung und andere sollten zu Beginn alle das gleiche Grundverständnis davon haben, was KI-Technologien sind und wie sie eingesetzt werden.

KI-Governance-Transformation ist ein iterativer Prozess

Der anschließende vierte Schritt der Transformationsmethode ist in vier Teilbereiche unterteilt. An dieser Stelle ist der iterative Charakter der entwickelten Methode zu erkennen. Es gibt keine feste Reihenfolge, in der die vier Teilschritte auszuführen sind. Die Teilschritte sollten in der Reihenfolge und Tiefe angegangen werden, die für die jeweilige Organisation am besten geeignet sind. Die vorgestellte Abfolge ist eine Variante, die alle im vierten Schritt der Methode zu berücksichtigende Aspekte aufzeigt.
In Teilschritt 4.1 sollten sowohl externe als auch interne Anforderungen berücksichtigt werden. Externe Anforderungen können sich beispielsweise auf den regulatorischen Rahmen beziehen, der beim Einsatz von KI zu beachten ist. Zu den internen Anforderungen können übergreifende Unternehmensrichtlinien oder ethische Richtlinien gehören.
In Teilschritt 4.2 sollte die Risikobewertung die Aufmerksamkeit auf potenzielle Risiken lenken. Der Einsatz von KI-Technologien kann Risiken mit sich bringen, die frühzeitig berücksichtigt werden sollten (siehe Abschnitt Der Einsatz von KI geht mit unterschiedlichen Risiken einher). Diese Risiken müssen aber nicht zwangsläufig durch den Einsatz von KI neu entstehen. So ist beispielsweise der Datenschutz ein Thema, mit dem sich Unternehmen bereits befassen, das sich aber durch den Einsatz von KI zu einem Risikofaktor entwickeln kann (beispielsweise bei der Verwendung von personenbezogenen Daten für das Training von KI-Algorithmen). Andere Gefahren können ethischer oder technischer Natur sein und Probleme im Zusammenhang mit algorithmischen Verzerrungen oder mangelnder Transparenz umfassen.
In Teilschritt 4.3 liegt der Schwerpunkt auf der Analyse bestehender Ansätze in der Corporate Governance, einschließlich IT-, Daten- und anderer verwendeter Governance-Ansätze. KI-Governance sollte nicht nur in einem Bereich oder einer Abteilung einer Organisation aufgesetzt werden, sondern das gesamte Unternehmen einbeziehen. Ziel dieses Schrittes ist es daher, ein umfassendes Verständnis der bestehenden Governance-Ansätze im Unternehmen zu erlangen und bisher nicht berücksichtigte Stakeholder zu identifizieren.
In Teilschritt 4.4 sollen die bestehenden Governance-Mechanismen mit den für die KI-Governance erforderlichen Mechanismen abgeglichen werden. Dadurch kann ermittelt werden, welche bestehenden Mechanismen angepasst werden müssen und welche neu hinzukommen sollten. Mit diesem Schritt soll verhindert werden, dass neue Mechanismen für die KI-Governance umgesetzt werden, obwohl möglicherweise bereits geeignete Mechanismen vorhanden sind oder geringfügige Anpassungen des bestehenden Portfolios an Governance-Mechanismen ausreichen würden, um die identifizierten Risiken zu adressieren.

KI-Governance muss laufend mit KI-Strategie und KI-Roadmap synchronisiert werden

Nach der Entwicklung des ersten Entwurfs für den KI-Governance-Ansatz in den Schritten eins bis vier konzentriert sich der fünfte Schritt der Methode auf die Gewährleistung einer sicheren KI-Nutzung. Wenn beispielsweise die sieben Säulen der EU [8] als Schlüsselfaktoren zur Bestimmung der sicheren KI-Nutzung in der Organisation festgelegt werden, sollten diese in den Governance-Entwurf aufgenommen werden. Wenn diese definierten Schlüsselfaktoren nicht erfüllt sind, muss zum vierten Schritt der Methode zurückgegangen und der ausgearbeitete Governance-Entwurf entsprechend angepasst werden. Somit kann dieser Schritt der Methode als Qualitätskontrolle angesehen werden, um sicherzustellen, dass alle zuvor definierten Faktoren berücksichtigt werden.
Sobald die Überprüfung abgeschlossen ist, konzentriert sich der sechste Schritt auf die tatsächliche Integration der KI-Governance. Die Integration beinhaltet die Formalisierung von Vorschriften und Regeln, z. B. in Verträgen, Compliance-Regelwerken oder einem Code of Ethics. Außerdem werden alle neuen oder angepassten Strukturen und Prozesse in Betrieb genommen. Wichtig ist, dass die KI-Governance nicht als separate, eigenständige Einheit betrachtet wird, sondern als integrale Erweiterung der bestehenden Governance-Ansätze. Der Integrationsprozess muss von einem Change Management begleitet werden. Mitarbeiter müssen für das Thema KI sensibilisiert und weitergebildet werden. Lösungen wie Mitarbeiterschulungen und unternehmensweite Kommunikation können das notwendige Bewusstsein schaffen.
Im siebten Schritt sollte schließlich die Evaluierung der KI-Governance durch kontinuierliche Überwachung, Einholung von Feedback und ständiges Hinterfragen des gewählten Governance-Ansatzes erfolgen. Schritt sieben bildet nicht den Abschluss der Transformation, sondern unterstreicht den iterativen Ansatz, indem er auf den ersten Schritt der Methode zurückgreift. Da sich KI-Technologien und KI-Anwendungsfälle derzeit schnell entwickeln, wird es notwendig sein, die KI-Strategie in Zukunft kontinuierlich anzupassen, was neue Iterationen der vorgestellten Methode auslöst.

Fazit und Handlungsempfehlungen

Die erfolgreiche Transformation hin zu einer KI-Governance hängt von der Fähigkeit des Unternehmens ab, das Portfolio an Governance-Mechanismen stetig an die aktuellen technologischen Entwicklungen und die damit einhergehenden Risiken anzupassen. Im wissenschaftlichen Diskurs wird KI auch als der Grenzbereich der Möglichkeiten moderner IT verstanden und unterliegt damit dem kontinuierlichen Wandel und der stetigen Weiterentwicklung [9]. Aus dieser Perspektive heraus präsentieren wir eine Methode, die durch ihre iterative Natur und die starke Integration mit bestehenden Governance-Ansätzen im Unternehmen den Grenzbereich der IT stetig berücksichtigt. So können neu entstehende Risiken adressiert werden und Wertschöpfungspotenziale gehoben werden. Die Methode unterstützt dabei Governance-Manager und -Berater im Aufbau einer KI-Governance und leitet den Transformationsprozess an.
Zusammenfassend ergeben sich für Unternehmen die folgenden Handlungsempfehlungen auf dem Weg zur KI-Governance. (1) Unternehmen sollten eine übergreifende KI-Strategie und KI-Roadmap als Ausgangspunkt für die KI-Governance-Transformation nutzen. Diese übergreifenden Artefakte stellen das einheitliche Vorgehen im Unternehmen sicher und vermeiden verteilte Einzelinitiativen individueller Fachbereiche. (2) Unternehmen sollten ihr Portfolio von KI-Governance-Mechanismen laufend an die aktuellen technologischen Entwicklungen und deren Risiken anpassen. Der heutige Grenzbereich der Möglichkeiten von KI ist morgen schon die IT von gestern. KI-Governance muss laufend auf die neuesten Entwicklungen reagieren und mit den anderen Governance-Ansätzen im Unternehmen integriert sein. (3) Unternehmen sollten die Erkenntnisse aus ihrer KI-Governance-Transformation laufend in die Weiterentwicklung der KI-Strategie und KI-Roadmap einfließen lassen. So können KI-Strategie und KI-Roadmap kontinuierlich verbessert werden und Governance-Belange frühzeitig in der nächsten Iteration des Transformationsprozesses mit bedacht werden.
Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.
Die in diesem Artikel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Weitere Details zur Lizenz entnehmen Sie bitte der Lizenzinformation auf http://​creativecommons.​org/​licenses/​by/​4.​0/​deed.​de.

Hinweis des Verlags

Der Verlag bleibt in Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutsadressen neutral.

Our product recommendations

WIRTSCHAFTSINFORMATIK

WI – WIRTSCHAFTSINFORMATIK – ist das Kommunikations-, Präsentations- und Diskussionsforum für alle Wirtschaftsinformatiker im deutschsprachigen Raum. Über 30 Herausgeber garantieren das hohe redaktionelle Niveau und den praktischen Nutzen für den Leser.

Business & Information Systems Engineering

BISE (Business & Information Systems Engineering) is an international scholarly and double-blind peer-reviewed journal that publishes scientific research on the effective and efficient design and utilization of information systems by individuals, groups, enterprises, and society for the improvement of social welfare.

Wirtschaftsinformatik & Management

Texte auf dem Stand der wissenschaftlichen Forschung, für Praktiker verständlich aufbereitet. Diese Idee ist die Basis von „Wirtschaftsinformatik & Management“ kurz WuM. So soll der Wissenstransfer von Universität zu Unternehmen gefördert werden.

Literature
1.
go back to reference Papagiannidis, E., Enholm, I. M., Dremel, C., Mikalef, P., & Krogstie, J. (2023). Toward AI Governance: Identifying Best Practices and Potential Barriers and Outcomes. Information Systems Frontiers, 25(1), 123–141.CrossRef Papagiannidis, E., Enholm, I. M., Dremel, C., Mikalef, P., & Krogstie, J. (2023). Toward AI Governance: Identifying Best Practices and Potential Barriers and Outcomes. Information Systems Frontiers, 25(1), 123–141.CrossRef
2.
go back to reference Benbya, H., Pachidi, S., & Jarvenpaa, S. L. (2021). Special Issue Editorial: Artificial Intelligence in Organizations: Implications for Information Systems Research. Journal of the Association for Information Systems, 22(2), 281–303.CrossRef Benbya, H., Pachidi, S., & Jarvenpaa, S. L. (2021). Special Issue Editorial: Artificial Intelligence in Organizations: Implications for Information Systems Research. Journal of the Association for Information Systems, 22(2), 281–303.CrossRef
4.
go back to reference Mäntymäki, M., Minkkinen, M., Birkstedt, T., & Viljanen, M. (2022). Putting AI Ethics into Practice: The Hourglass Model of Organizational AI Governance Mäntymäki, M., Minkkinen, M., Birkstedt, T., & Viljanen, M. (2022). Putting AI Ethics into Practice: The Hourglass Model of Organizational AI Governance
5.
go back to reference Seppälä, A., Birkstedt, T., & Mäntymäki, M. (2021). From Ethical AI Principles to Governed AI. ICIS 2021 Proceedings. Seppälä, A., Birkstedt, T., & Mäntymäki, M. (2021). From Ethical AI Principles to Governed AI. ICIS 2021 Proceedings.
6.
go back to reference Taeihagh, A. (2021). Governance of artificial intelligence. Policy and Society, 40(2), 137–157.CrossRef Taeihagh, A. (2021). Governance of artificial intelligence. Policy and Society, 40(2), 137–157.CrossRef
7.
go back to reference Peffers, K., Tuunanen, T., Rothenberger, M. A., & Chatterjee, S. (2007). A Design Science Research Methodology for Information Systems Research. Journal of Management Information Systems, 24(3), 45–77.CrossRef Peffers, K., Tuunanen, T., Rothenberger, M. A., & Chatterjee, S. (2007). A Design Science Research Methodology for Information Systems Research. Journal of Management Information Systems, 24(3), 45–77.CrossRef
9.
go back to reference Berente, N., Gu, B., Recker, J., & Santhanam, R. (2021). Managing Artificial Intelligence. MIS Quarterly, 45(3), 1433–1450. Berente, N., Gu, B., Recker, J., & Santhanam, R. (2021). Managing Artificial Intelligence. MIS Quarterly, 45(3), 1433–1450.
Metadata
Title
Governance von künstlicher Intelligenz – Eine Methode zur Transformation vorhandener Governance-Mechanismen in Unternehmen
Authors
Dominik Protschky
Moritz Schüll
Nils Urbach
Publication date
05-09-2024
Publisher
Springer Fachmedien Wiesbaden
Published in
Wirtschaftsinformatik & Management
Print ISSN: 1867-5905
Electronic ISSN: 1867-5913
DOI
https://doi.org/10.1365/s35764-024-00531-4

Premium Partner