Künstliche Intelligenz wird auch in der öffentlichen Verwaltung zunehmend eingesetzt. Doch KI-Systeme können „halluzinieren“, also falsche oder irreführende Informationen produzieren. Dieser Beitrag zeigt, wie Nutzende dieses Risiko erkennen, bewerten und durch geeignete Maßnahmen minimieren können.
Seit 15 Jahren existieren Systeme mit Künstlicher Intelligenz (KI), die dazu fähig sind, Inhalte, die ihnen vorgelegt werden, zu erkennen und zu bewerten. Seit November 2022 erobert allerdings eine zweite Art der KI die Welt und unsere Fantasie: die sogenannte Generative KI. Diese KI-Technologie ist nicht nur in der Lage, Inhalte zu erkennen und zu bewerten, sondern erstmals auch praxistauglich neu zu generieren. Der KI-Textautomat ChatGPT ist das bekannteste Beispiel. Doch Generative KI ist bereits heute in der Lage, nicht nur Sprache, sondern auch eine Vielzahl anderer Formate zu erzeugen.
Anzeige
Da KI nun auch zur Erschaffung neuer Inhalte eingesetzt wird, ist sie natürlich entsprechend anfällig für Fehler in diesem Bereich. Der Begriff der „Halluzination“ hat sich in den vergangenen zwei Jahren etabliert, um Fehler der Generativen KI zu beschreiben. Dieser Begriff wird sehr uneinheitlich und vielfältig verwendet. Generell bezeichnet er die Erzeugung von Inhalten durch Generative-KI-Systeme, die zwar plausibel erscheinen, jedoch nicht auf den vorgegebenen Daten basieren, nicht den Anweisungen und Erwartungen der Nutzenden entsprechen oder objektiv falsch sind. Halluzinationen können - je nach Definition - neben faktisch falschen auch missverständliche, verzerrte oder unvollständige Inhalte bezeichnen, ebenso unangemessene, unfaire oder schlichtweg offensive Antworten. Hinzu kommt: Sprachgenerierende KI-Modelle können überzeugend klingende, aber ungenaue bis falsche Informationen wie erfundene Statistiken oder Daten erzeugen. Diese Modelle erstellen manchmal auch präzise erscheinende, aber nicht existierende Quellenangaben - ein Problem zum Beispiel in der Wissenschaft oder Rechtsberatung.
Das Halluzinieren von Generativer KI kann verschiedene Ursachen haben:
Mangelnde oder fehlerhafte Trainingsdaten: Wenn das Modell mit unzureichenden oder fehlerhaften Daten trainiert wurde, kann es zu falschen Schlussfolgerungen kommen.
Überanpassung: Wenn das Modell zu stark auf die Trainingsdaten abgestimmt ist, kann es Schwierigkeiten haben, auf neue, unbekannte Daten zu reagieren, und kann in der Folge Halluzinationen produzieren.
Interpretationsfehler: Mitunter kann das Modell die Informationen in den Trainingsdaten falsch interpretieren und dadurch falsche Ergebnisse liefern.
Intuitiv ausgedrückt, orientiert sich KI an ähnlichen Lösungen, die sie bereits gesehen hat, und bewertet mit einer Wahrscheinlichkeit, welche davon zu ihrer konkreten Aufgabe am ehesten passt. Denn die Systeme basieren nicht auf verlässlichen Regeln, sondern auf statistischen Mustern und Wahrscheinlichkeiten. Dies ist zum einen für das gewaltige Potenzial verantwortlich, das es uns erlaubt, KI-Systeme für kognitive Aufgaben wie Objekterkennung oder Sprachgenerierung zu bauen, die wir Menschen in Regeln nicht beschreiben können. Zum anderen führt dies dazu, dass die Antworten von KI-Systemen immer mit einer gewissen Wahrscheinlichkeit korrekt sind - beziehungsweise mit einer gewissen Wahrscheinlichkeit auch falsch sein können.
Künstliche Intelligenz braucht keine Magic Mushrooms, um zu halluzinieren. In vier Schritten können Nutzende Halluzinationen erkennen und vermeiden.
Dazu kommt, dass Sprachmodelle wie ChatGPT in ihrer Kernkompetenz eigentlich nicht dafür konzipiert sind, faktisch korrekte Antworten zu geben. Sie wurden entwickelt, um die Erzeugung menschlicher Sprache zu imitieren, indem sie mit riesigen Mengen an Texten trainiert wurden. Sobald die KI neue Inhalte generiert, versucht sie, basierend auf den gelernten Mustern, sprachlich korrekte und plausible Antworten zu produzieren. Ein Beispiel: Wenn eine KI beim Training Texte über Städte und ihre Sehenswürdigkeiten analysiert hat, könnte sie bei der Frage nach Touristenattraktionen einer bestimmten Stadt plausibel klingende, aber nicht existierende Gebäude oder Plätze erfinden. Denn das System kombiniert bekannte Elemente wie „typische Sehenswürdigkeiten“ mit dem spezifischen Kontext, hier der gefragten Stadt, ohne zu „wissen“, ob diese Kombination tatsächlich existiert. Ihre Aufgabe, dem oder der Nutzenden eine sprachlich plausible Antwort zu liefern, hat sie damit jedenfalls schon erfüllt.
Anzeige
Diese grundsätzliche Funktionsweise macht KI-Systeme zwar sehr kreativ und vielseitig einsetzbar. Das bedeutet aber auch, dass ihre Ergebnisse inhaltlich nie ganz zuverlässig sein können und überprüft werden müssen.
KI-Entwicklerinnen und -Entwickler erarbeiten derzeit verschiedene Strategien, um dieses Problem zu adressieren. Generative KI-Modelle weisen eine zunehmende Größe auf, was tendenziell zu einer Steigerung ihrer Leistungsfähigkeit führt. Es wird auch immer mehr Wert auf die bessere Qualität und Auswahl der Trainingsdaten gelegt - zum Beispiel bezüglich Ausgewogenheit, Umgangston, Korrektheit oder Vollständigkeit. Aktuell wird auch mit eigenen Fact-Checkern experimentiert. Sie könnten in Zukunft den Nutzenden einen Hinweis darauf geben, wie zuversichtlich die KI in Bezug auf die Korrektheit ihrer Antworten ist. Viele dieser Techniken haben die Antwortqualität bereits deutlich verbessert, ohne aber das Problem gänzlich in den Griff bekommen zu haben. Die neuen Fähigkeiten, Inhalte zu generieren, und die enorme Flexibilität, die KI lernt, gehen mit der Einschränkung einher, dass die erzeugten Inhalte immer nur mit einer gewissen Wahrscheinlichkeit korrekt sind.
Was Nutzerinnen und Nutzer beachten sollten
Grundsätzlich bedeutet die Anfälligkeit von KI für Halluzinationen für Anwenderinnen und Anwender zwei Punkte:
1.
Externe Validierung: Vergleichen Sie die Ergebnisse des KI-Systems mit anderen Quellen, zum Beispiel Fachbüchern, Studien oder Datenbanken.
2.
Stichprobenartige Überprüfung: Überprüfen Sie regelmäßig die Ergebnisse des KI-Systems, insbesondere bei wichtigen Entscheidungen.
Auch für Fachanwendende in der öffentlichen Verwaltung ist es entscheidend, Halluzinationen zu erkennen und zu vermeiden. Vier Grundregeln sorgen für einen sicheren Umgang mit KI-Systemen:
1. Die passende Aufgabe wählen
Prüfen Sie vorab die Konsequenzen möglicher KI-Fehler. Für kreative Aufgaben wie Brainstorming sowie kreative Formulierungsvorschläge sind Halluzinationen oft sogar vorteilhaft.
Bei faktenbezogenen Aufgaben wie rechtlich relevanten Dokumenten ist hingegen besondere Vorsicht geboten.
2. Prüfen Sie die Ergebnisse inhaltlich und suchen Sie KI-Tools, die das einfach ermöglichen
Die Verantwortung für die Verwendung KI-generierter Inhalte liegt bei dem oder der Nutzenden. Bei sensiblen Inhalten oder in sensiblen Anwendungsfällen ist eine menschliche Kontrolle daher unerlässlich.
Nutzen Sie die Fähigkeit von KI-Tools, im Internet, in Datenbanken oder in Ihren Dokumenten zu recherchieren und dabei transparent und bequem - zum Beispiel per Mouseover - die Originaltexte anzuzeigen, aus denen Antworten erzeugt wurden. Das ermöglicht eine schnelle Inhaltskontrolle.
3. Wählen Sie das jeweils geeignete KI-Tool für Ihre Aufgabe aus
Sprachmodelle sind keine Suchmaschinen - sie kennen nur Informationen aus ihrem Training.
Überlegen Sie, ob das für die Erledigung Ihrer Aufgabe ausreicht oder ob die KI zu weiteren, spezifischen Informationen Zugang haben muss. Dementsprechend benötigen die KI-Tools beispielsweise einen Internetzugang für Echtzeitrecherche beziehungsweise die Möglichkeit, Ihre kontextspezifischen Daten wie Studien und Richtlinien als Grundlage aus Ihren Dokumenten einzulesen.
4. Effektives Prompting anwenden
Der oder die Nutzende kann durch die Form seiner oder ihrer Anweisung an die KI, den sogenannten Prompt, einen Beitrag zu einer verbesserten Antwortqualität leisten. Beschreiben Sie die Aufgabe für die KI möglichst spezifisch und detailliert.
Berücksichtigen Sie dabei alle relevanten Aspekte wie Inhalt, Struktur, Format und Stil des gewünschten Ergebnisses. Ein genaueres Beschreiben der Aufgabe führt zu besseren Ergebnissen.
Weisen Sie die KI an, nur Informationen zu verwenden, deren Korrektheit sie sicher ist.
Weisen Sie die KI an, in zwei Schritten zu arbeiten. Im ersten Schritt soll sie die Antwort zu ihrer Aufgabe erzeugen. Im zweiten Schritt soll sie in der Rolle eines strengen Fact Checkers kontrollieren, ob die Antwort korrekt, widerspruchsfrei und angemessen ist.
Kompakt
Halluzinationen Künstlicher Intelligenzen sind ein technisch bedingtes Phänomen: Sie entstehen durch die probabilistische Arbeitsweise von modernen KI-Systemen und sind daher nie vollständig vermeidbar.
Die Risiken von KI-Halluzinationen sind stark kontextabhängig: Während sie bei kreativen Aufgaben sogar nützlich sein können, stellen sie bei faktenbezogenen Aufgaben eine erhebliche Herausforderung dar.
Sichere KI-Nutzung erfordert systematisches Risikomanagement: Durch die richtige Auswahl von Anwendungsfällen, geeigneten Tools und konsequente Ergebniskontrolle können Nutzende Generative KI trotz dieser Einschränkung sicher nutzen.