Finds documents with both search terms in any word order, permitting "n" words as a maximum distance between them. Best choose between 15 and 30 (e.g. NEAR(recruit, professionals, 20)).
Finds documents with the search term in word versions or composites. The asterisk * marks whether you wish them BEFORE, BEHIND, or BEFORE and BEHIND the search term (e.g. lightweight*, *lightweight, *lightweight*).
Activate our intelligent search to find suitable subject content or patents.
Select sections of text to find matching patents with Artificial Intelligence.
powered by
Select sections of text to find additional relevant content using AI-assisted search.
powered by
(Link opens in a new window)
Zusammenfassung
Wir schildern, wie Wissen im Allgemeinen und in der Künstlichen Intelligenz (KI) dargestellt und verarbeitet wird. Der Fokus liegt auf der Vielfalt der Ansätze zur Wissensrepräsentation, die von einfachen textuellen Darstellungen über strukturierte Modelle bis hin zu komplexen semantischen Netzwerken reichen. Auch KI-Modelle sind eine auf Daten aufbauende Wissensrepräsentation. Der Bogen wird von regelbasierten, symbolischen Systemen zu neuronalen Netzen mit ihren jeweiligen Eigenschaften gespannt. Die Wahl der Wissensrepräsentationsmethode hängt von den spezifischen Anforderungen der Anwendung ab: Letztere bedingen einen Kompromiss zwischen Vertrauen in die Ergebnisse und der Akzeptanz von Unsicherheiten und erfordern eine ausgewogene Kombination verschiedener Ansätze.
Die Konservierung und Zurverfügungstellung von Wissen sind zwei der zentralen Punkte für den Fortschritt der Menschheit, nicht nur, aber insbesondere auf dem Feld der Technologien. Die große Herausforderung bei der Weitergabe und Konservierung von Wissen liegt dabei in der Art und Weise, wie Wissen repräsentiert und zugänglich gemacht wird. Unterschiedliche Wissensrepräsentationsformen, wie textuelle Dokumentationen, formale Regeln oder Datenmodelle, haben jeweils ihre eigenen Stärken und Schwächen. Die Herausforderung besteht darin, dieses Wissen so zu strukturieren, dass es sowohl langfristig erhalten bleibt als auch für verschiedene Zielgruppen verständlich und nutzbar ist. Insbesondere im technologischen Bereich, in dem Wissen häufig schnell veraltet und komplexe Systeme erfordert, muss die Repräsentation ausreichend flexibel sein, um zukünftige Entwicklungen abzubilden, gleichzeitig aber klar genug, um die Nachvollziehbarkeit und Anwendbarkeit sowie Konsistenz zu gewährleisten. Darüber hinaus stellen die Verknüpfung und Integration von verschiedenen Wissensdomänen eine weitere Schwierigkeit dar, da Wissen nicht isoliert existiert, sondern oft stark kontextabhängig ist.
Man kann davon ausgehen, dass die ersten Wissensrepräsentationsansätze der Menschheit in mündlicher Form passierten. Diese hat den Vorteil der Interaktion über natürliche Sprache und des Stellens von Rückfragen, wenn die zuhörenden Personen etwas nicht verstehen. Gleichzeitig gibt es aber auch den großen Nachteil, dass Wissen so leicht verloren gehen kann, beispielsweise durch Vergessen von Details oder den Tod des Wissensträgers. Maßgeblich ist hierbei aber die leichte Zugänglichkeit, die quasi allen Menschen offensteht, und die Flexibilität dieser Kommunikationsform (Beispiel: Nutzung von vereinfachter Sprache oder ergänzenden Diagrammen).
Advertisement
Nachfolgend wurde die Schrift und damit eine idealerweise persistente Form der Wissenskonservierung entwickelt, wobei sich hier die Schwächen natürlicher Sprache erneut und häufig zeigen. Menschen müssen die konkrete Sprache verstehen können, um das konservierte Wissen nutzen zu können. Zusätzlich besteht die Herausforderung, dass die lesende Person die gleiche Interpretation der Wörter und Sätze finden muss, die der Semantik und dem gegebenen Kontext entspricht, welche auch der ursprüngliche Autor des niedergeschriebenen Wissens hatte. Aufgrund der Vielfalt und Mehrdeutigkeit menschlicher Sprache ist dies eine große Herausforderung und teilweise die Ursache für lange Diskussionen. Doppeldeutige Begriffe, wie beispielsweise umfahren (um etwas herumfahren oder etwas überfahren), treten vielfältig auf und sind wohlbekannt, liefern aber nur einen kleinen Einblick in die Komplexität der schwierigen Interpretation von natürlicher Sprache.
Um diese Herausforderung zu adressieren, wurden schon früh spezielle Formen der Wissensrepräsentation erfunden. Die wohl bekannteste ist die Nutzung von mathematischen Formeln. Auch Datenbanken werden häufig genutzt, um die wissensrepräsentierende Struktur zu formalisieren und so Zusammenhänge einfacher auszudrücken. Aber auch die Nutzung von Programmiersprachen folgt diesem Prinzip, da Wissen über Prozessabläufe hier mit einer speziellen, formalisierten Sprache repräsentiert wird, um eine eindeutige Interpretation zu erschaffen, die zumeist Garantien über die erwarteten Ergebnisse nach einer Ausführung liefern kann. Hier zeigt sich, dass die Formalisierung von Wissensrepräsentationen große Vorteile hat, aber gleichzeitig die Hürden der Zugänglichkeit steigen, da Menschen diese Wissensrepräsentation nur dann korrekt verstehen, wenn sie über eine spezielle Qualifikation (z. B. zu Datenbankenmodellierung oder Programmierung) verfügen.
Entsprechend steht das so repräsentierte Wissen nur dann vielen Personen zur Verfügung, wenn deren Interpretation über Softwareanwendungen vorgenommen wird. In diesem Fall ist also nur dann eine Wissensabfrage möglich, wenn die abfragende Person selbst über das nötige Expertenwissen verfügt oder eine spezielle Anwendung zur Verfügung steht, die das dann interpretierte Wissen zugänglich macht.
Zu solchen Anwendungen zählen auch die Methoden der Künstlichen Intelligenz. Ob es sich um regelbasierte KI-Systeme handelt oder statistische KI-Systeme genutzt werden, in beiden Fällen wird eine existierende Wissensrepräsentation als Grundlage genutzt und nach vorgegebenen Verfahren interpretiert, so dass ein nutzbares Softwaresystem entsteht (Abb. 5.1). Beispiel: Bei statistischen Systemen heißt dies häufig, dass nach einem vorgegebenen Verfahren eine Abstraktion der zur Verfügung gestellten Informationen erstellt wird, die dann als Wissen genutzt wird.
Abb. 5.1
Transformation von primärer zu sekundärer Wissensrepräsentation mittels eines Softwaresystems
Entsprechend lässt sich das Verhalten von Systemen, die auf KI-Methoden aufbauen, nur auf zwei Arten beeinflussen: (1) durch die Darstellungsform der Informationen der adressierten Wissensdomäne und (2) durch die Wahl eines geeigneten KI-Verfahrens, welches genutzt wird, um das Wissen zu interpretieren.
Die Wahl des KI-Verfahrens (2) wird dabei voraussichtlich noch lange in der Informatikdomäne verankert sein, da es sich um einen komplexen technologischen Prozess handelt (vgl. auch Kap. 3). In diesem Kapitel fokussieren wir uns auf die Darstellung von Wissen, da dies die Form der Beeinflussung eines KI-Systems ist, welche in allen Anwendungsdomänen durch Personen mit der jeweiligen Fachexpertise vorgenommen wird. Inhaltliche Aspekte wie Bias (vgl. Kap. 6) werden dabei hier nicht betrachtet, sondern die Hintergründe der Wissensrepräsentation, welche für alle Unternehmen, Organisationen und die Gesellschaft insgesamt die beste Möglichkeit darstellen, Wissen nachvollziehbar zu repräsentieren und so das Verhalten von KI-Systemen so zu beeinflussen, dass es den eigenen Anforderungen entspricht und die gewünschte Wirkung entfaltet bzw. unerwünschtes Verhalten verhindert werden kann.
5.1 Primäre Wissensrepräsentationen
Dieser Abschnitt untersucht die verschiedenen Formen, in denen Wissen in KI-Systemen dargestellt werden kann, von textuellen Darstellungen, die auf natürlicher Sprache basieren, über strukturierte Repräsentationen (wie beispielsweise Datenbanken) bis hin zu semantischen Netzwerken (z. B. Ontologien), die tiefere Bedeutungszusammenhänge erfassen. Jede dieser Formen wird in Hinblick auf ihre spezifischen Vor- und Nachteile sowie auf typische Anwendungsfelder detailliert beschrieben.
Jedwede Wissensrepräsentation beinhaltet Transformationen und Kompressionen der Informationen der realen Welt und ist deswegen verlustbehaftet (Browning & Lecun, 2022).
5.1.1 Textuelle Wissensrepräsentation
5.1.1.1 Natürliche Sprache und KI
Natürliche Sprache ist eine der komplexesten Formen der Wissensrepräsentation, da sie reich an Bedeutungen und Kontexten ist. Früheste Schriftstücke der Menschheit sind beinahe 5000 Jahre alt (Böttner et al., 2017). Bei diesen handelt es sich u. a. um historische Aufzeichnungen, z. B. die der Schlacht von Kadesch auf dem Papyrus Sallier III (British Museum, 2024), literarische Werke (z. B. „Geschichte des Schiffbrüchigen“) und medizinische Texte (z. B. der Scholl, 2002). Die ägyptischen Hieroglyphen (Störig, 2022) beispielsweise wurden vornehmlich von Priestern und für religiöse Texte verwendet. Meist handelt es sich bei frühesten Dokumenten aber auch um profane Texte, die landwirtschaftliche Erträge, Steuern oder geschäftliche Vereinbarungen beschreiben.
Bei der Gestaltung von Texten genießt der Autor große Freiheiten, welche aber einen erheblichen Mehraufwand auf Seiten des Lesers bedingen. Zott beschreibt die Herausbildung formeller Medien anhand der (Weiter-)Entwicklung von Gelehrtenkorrespondenz zu wissenschaftlichen Zeitschriften (2003). Dies sind ursprünglich Briefe, die zwischen Mitgliedern der Wissenschaftlergemeinschaft ausgetauscht wurden, um ihre wissenschaftliche oder räumliche Isolierung zu durchbrechen. Diese Briefe verdichteten Informationen und verloren einen Teil ihrer gestalterischen Freiheit, da sie zunehmend durch strenge formale Strukturen und gelehrte Stilistik gekennzeichnet waren. Persönliche Noten traten zugunsten von Verknappung und Versachlichung des Briefinhaltes mit dem Anwachsen des Adressatenkreises (nämlich einer zunehmenden Zahl von Gelehrten) weiter in den Hintergrund. Der Brief erhielt zunächst die Gestalt eines Rundschreibens und mündete später in die Zeitschrift als offizielles wissenschaftliches Kommunikationsmittel.
Auch in den weiteren Abschnitten werden wir sehen, wie eine Formalisierung von Wissen dessen Konsumierbarkeit verändert.
Obwohl möglicherweise formalisiert, müssen Texte in dieser klassischen Form mehr oder weniger linear konsumiert werden. Das Aufkommen von Hypertexten (Storrer, 2019), in denen einzelne Begriffe hervorgehoben sind und mit ihnen verknüpfte weitere Informationen über hinterlegte Hyperlinks sofort abgerufen bzw. angezeigt werden können, stellt eine weitere Evolution der textuellen Wissensrepräsentation dar, die durch die Änderung des Mediums ermöglicht wurde. Datenrezeption erfährt damit eine Individualisierung. Texte erhalten ferner eine implizite Ordnung nach thematischen Aspekten, werden hochdynamisch und durch das Einbetten von Grafiken, Video- und Audiodateien multimodal. Den Durchbruch für diese Technologie brachte das Aufkommen des World Wide Web (Berners-Lee, 1992; Berners-Lee et al., 1992; Jacksi & Abass, 2019). Ihre womöglich wichtigste Rolle spielen Hypertexte in der Form editierbarer Wikis (Ebersbach et al., 2008).
Neben natürlichen Sprachen mit ihren teils schwer verständlichen Grammatiken und schier endlosem Vokabular schuf der Mensch auch formale Sprachen, welche mathematisch analysierbar sind. Solche Sprachen sind zum einen definiert durch das Alphabet der verwendbaren Symbole und zum anderen die daraus mittels Produktionsregeln bildbaren Wörter. Das Vokabular beinhaltet Terminalsymbole und Nichtterminale. Die Produktionsregeln sind im Wesentlichen Regeln zur schrittweisen Ersetzung von Nichtterminalsymbolen, wodurch die gewünschte Sprache aufgebaut wird. Die Komplexität der grammatischen Regeln dieser Sprache kann klassifiziert werden und induziert damit eine Klassifizierung der formalen Sprachen. Noam Chomsky definierte eine Hierarchie solcher formalen Grammatiken, indem er die Mächtigkeit der Regeln kategorisierte (Jäger & Rogers, 2012). Reguläre Grammatiken sind weniger ausdrucksstark, können aber von Maschinen z. B. in Form von Programmiersprachen effizienter verarbeitet werden. Für natürliche Sprachen existieren vermutlich keine formalen Grammatiken.
Maschinelles Textverständnis für natürliche Sprachen war bereits kurz nach dem Aufkommen von Computern ein großes Interesse von Linguisten. Zunächst dominierten symbolische Ansätze, bei denen Heuristiken, Wörterbücher und handgeschriebene Grammatiken kombiniert wurden. So lässt sich die Grundform eines Wortes oft durch Entfernen bestimmter Suffixe finden. Später wurden diese Ansätze durch statistische Auswertungen von Sprache verbessert und robuster gemacht. Wortstammbildung ist hierbei zum Beispiel durch eine statistische Modellierung von n-Grammen möglich. Diese statistischen Methoden erweiterten außerdem die regelbasierten Ansätze, indem sie beispielsweise die konzeptionell recht ähnlichen Decision Trees (DTs) verwendeten. Hidden Markov Models (HMMs) verbesserten die erreichten Ergebnisse weiter. Hier ist spannend zu bemerken, dass HMMs die Annahme zugrunde liegt, dass die beobachtete Folge von Symbolen von einem nicht beobachtbaren („hidden“) diskreten Zustand mit wohldefinierten Übergangswahrscheinlichkeiten abhängt. Sowohl DTs als auch HMMs komprimieren also bereits Wissen. Mit diesen Methoden konnten bereits wichtige Aufgaben wie Part-of-Speech Tagging, Named Entity Recognition oder Sentiment Analysis bewältigt werden. Automatische Textübersetzungen waren aber noch von mangelhafter Qualität. Größere Fortschritte speziell bei Übersetzungsaufgaben wurden später durch den Einsatz neuronaler Netze, insbesondere von Sequenz-zu-Sequenz-Modellen (Recursive Neural Networks, RNNs) erzielt. Diese arbeiten auf Folgen von Symbolen und sind meist so konstruiert, dass sie den Kontext der bereits gesehenen Symbole in einem internen Speicher repräsentieren. Mit diesen Ansätzen konnte auf das vorher notwendige, mühevolle Preprocessing zur Extraktion von Features verzichtet werden. Zwei erhebliche Durchbrüche zur Verwendung neuronaler Netze in der Sprachverarbeitung stellten word2vec dar (Mikolov et al., 2013), also die automatisierte Erfassung der Semantik von Worten in numerischer Form, und der Attention-Mechanismus (Vaswani et al., 2017) als Grundlage moderner großer Sprachmodelle (LLMs).
Natürlichsprachige Texte sind für die Rezeption durch Menschen gut geeignet, obwohl es mühevoll sein kann, dichte Abschnitte begreifend zu lesen. Menschen benötigen aufgrund ihrer Art, Informationen zu verarbeiten, aber kein perfektes Medium – gerade die oben erwähnten Gelehrtenbriefe lebten von den Möglichkeiten des unbestimmten, vorläufigen aber auch inspirierenden Ausdruckes (Zott, 2003). Automatisierte Sprachanalyse und Textverständnis jedoch sind mit einer Reihe von Problemen behaftet, da viele Worte oder ganze Sätze mehrdeutig sein können (Browning & Lecun, 2022; Wettler, 1989). In natürlichen Sprachen treten Homonyme auf, die sich nur durch den gegebenen Kontext unterscheiden lassen; das Wort Golf kann z. B. für eine Sportart, eine Meeresbucht oder ein spezielles Kraftfahrzeugmodell stehen. Auch die Interpretation von (Relativ-)Pronomen oder (insbesondere im Deutschen) zusammengesetzten Substantiven benötigt Kontext – im letzteren Fall ist oft nicht klar, was das Kompositionsglied spezifiziert. Es kann sich nicht nur die Bedeutung einzelner Worte im Laufe der Zeit wandeln – Ludwig Wittgenstein spricht ihnen darüber hinaus eine intrinsische Bedeutung ab: Die Bedeutung eines Wortes sei sein Gebrauch in der Sprache. Die Entdeckung der aus Kontextinformationen gewonnenen numerischen Wortrepräsentationen (word embeddings) bestätigt seine Thesen auf überraschende Weise (Wittgenstein, 1953). Diese Reichhaltigkeit und damit Rezeptionsschwierigkeit natürlichsprachiger Texte setzt sich in die Dimensionen Mengen- oder Häufigkeitsangaben, Modal- und Zeitformen sowie Negation von Aussagen fort (Bonatti et al., 2019). Information in natürlichsprachigen Texten ist häufig sehr ausgedünnt; für eine Speicherung auf Maschinen benötigt man oft eine kompaktere Darstellung der Informationen. Komplexe Konzepte wiederum lassen sich nur schwer in einfache Texte fassen.
5.1.2 Strukturierte Wissensrepräsentation
5.1.2.1 Datenbanken und relationale Modelle
Strukturierte Repräsentationen bieten klare Vorteile in Bezug auf die Verarbeitungseffizienz und die Möglichkeit zur Automatisierung von Schlussfolgerungen durch KI-Systeme. Die ersten schriftlichen Aufzeichnungen in Mesopotamien dienten vor allem der Verwaltung. Diese lagen deswegen bereits in Form von Listen und Tabellen vor. Von Anfang an scheint also Wissensrepräsentation mit den zugrunde liegenden Datenstrukturen und Algorithmen (und damit den Grundlagen der Informatik) eng verknüpft zu sein. Dies gilt umso mehr, als wir von einer derartigen Repräsentation einen effektiven und effizienten Zugriff sowohl von Menschen als auch von Maschinen auf diese Daten erwarten.
Derartige Tabellen lassen sich am einfachsten zeilenweise über kommaseparierte Werte (comma-separated values, CSV) darstellen. Sie entsprechen im Grunde den Arbeitsblättern allgemein bekannter Tabellenkalkulationen. Weitere gängige Formate für strukturierte Daten sind JSON (JavaScript Object Notation)1 und XML (Extensible Markup Language)2, die die flache Struktur von CSVs durch hierarchische Strukturen ergänzen und außerdem eine flexiblere Gestaltung zum Beispiel bezüglich des Hinzufügens von Feldern ermöglichen.
Diese Darstellungen bilden beispielsweise als sogenannte Data Frames eine geeignete Datengrundlage für viele klassische Machine-Learning-Techniken, wie Regression oder Decision Trees, benötigen aber oft eine Form der Normalisierung wegen fehlender Werte oder inkonsistentem Datenformat.
Derartige stets isoliert zu betrachtende Datensätze werden bei relationalen Datenbanken durch eine Modellierung von strukturierten Daten und ihren Beziehungen verbessert. Diese RDBMS (relationale Datenbankmanagementsysteme) sind weitverbreitet und können als Arbeitspferd der Industrie bezeichnet werden. Die Daten hängen hierbei von sogenannten Primärschlüsseln ab, welche zur Verbesserung der Abfragezeit auch indiziert werden können. Um Inkonsistenzen und Anomalien (zum Beispiel Widersprüche in den Daten nach Updates), aber auch eine redundante Speicherung der Informationen zu vermeiden, werden die Daten üblicherweise in sogenannte Normalformen transformiert. Diese Normalisierungen sorgen beispielsweise für geeignete Wertebereiche der Datenpunkte, vollständige Abhängigkeit der Datenpunkte von den Primärschlüsseln und Unabhängigkeit der Nichtschlüsselattribute.
Die Abfragesprache für relationale Datenbanken ist SQL (Structured Query Language). In ihr formulierte Abfragen können die Relationen auflösen. Das Verarbeiten von Daten in diesen Datenbanken erfolgt in der Regel durch Zusammenfügen von einzelnen Anweisungen zu atomaren Operationen, die die Datenbank in einem konsistenten Zustand halten. Außerdem sollen parallel ablaufende Transaktionen sich gegenseitig nicht beeinflussen und Maßnahmen zur Vermeidung von Datenverlust nach Ausfällen getroffen sein (ACID-Eigenschaft). Dieses transaktionale Verhalten führt aber auch zu großen Herausforderungen bei RDBMS bezüglich der Synchronisation von großen Datenmengen auf verteilten Systemen und der Performance von Lese-/Schreiboperationen.
Deswegen gibt es seit einigen Jahren ein ergänzendes Technologiefeld, das als NoSQL (not only SQL, also nicht nur tabellenorientierte Datenstrukturierung) bezeichnet wird (Cattell, 2011). In ihr ist die Skalierbarkeit (über mehrere Rechner oder gar Datenzentren) der Datenrepräsentation zentral. Eine Spielart der NoSQL sind sogenannte Graphdatenbanken, in denen einzelne Datenpunkte durch eine beliebige Menge an frei gestaltbaren Relationen verknüpft werden. Derartige Darstellungen sind für einen Menschen, aber auch für die maschinelle Verarbeitung häufig besser geeignet bzw. verständlicher.
5.1.2.2 Logikbasierte Repräsentationen
Unter Logik versteht man die Kunst des korrekten Ableitens oder des korrekten Argumentierens. Aus gewissen Voraussetzungen oder Annahmen A – dem vorhandenen Wissen – werden dabei durch Anwendung einer Interpretation I Schlussfolgerungen S gezogen: I(A) → S. Aussagen gelten dabei als logisch äquivalent, wenn ihre Terme identische Wahrheitswerte aufweisen (Freksa, 1992). Diese Terme können hierbei auch negiert (¬) beziehungsweise durch die Operatoren und (∧) beziehungsweise oder (∨) verknüpft werden. Dieses Vorgehen zur Wissensbildung stellt selbst eine Repräsentation von Wissen dar. Die formale Logik, insbesondere in Gestalt der Prädikatenlogik, bildet die Grundlage der Mathematik und damit sämtlicher Naturwissenschaften und technischer Fachrichtungen. Formale logische Systeme bestehen aus
1.
einer formalen Sprache, also einem Alphabet und zugehörigen syntaktischen Regeln, in welcher die Aussagen formuliert werden,
2.
Axiomen, also grundlegenden weder beweis- noch widerlegbaren Annahmen, mit denen die Wirklichkeit modelliert wird, und
3.
einem Regelwerk, welches festlegt, wie Schlussfolgerungen aus diesen Axiomen gezogen werden können. Ein einschlägiges Beispiel für eine derartige formale Regel ist Reductio ad absurdum.
Die bereits erwähnte Prädikatenlogik fokussiert sich dabei auf die beiden Begriffe der Existenz eines Objektes (∃) und der Gültigkeit einer Aussage für alle Objekte (∀). Mit ihrer Hilfe lässt sich beispielsweise formulieren, dass es für jede natürliche Zahl n eine natürliche Zahl m gibt, die größer als n ist:
Neben der Prädikatenlogik gibt es noch weitere Spielarten der Logik, zum Beispiel die Modallogik(en), bei der die zentralen Begriffe die der Notwendigkeit (□) und der Möglichkeit (◇) einer Aussage sind.
Logik ist ein mächtiges und ausgesprochen vielseitiges Werkzeug zur Darstellung und Ableitung von Fakten mit einem hohen Abstraktionsgrad (Freksa, 1992). Der Repräsentation von Wissen durch logische Aussagen und dem Einteilen der Welt in wahr und falsch sind jedoch natürliche Grenzen gesetzt: Enthält ein widerspruchsfreies logisches System gewisse fundamentale Axiome, so gibt es – wie Gödel (1931) zeigte – formal ausdrückbare Aussagen, die innerhalb des Systems nicht entscheidbar sind; zudem ist die eigene Widerspruchsfreiheit des Systems im System selbst nicht beweisbar.
5.1.3 Semantische Wissensrepräsentation
Strukturierte Darstellungen von Wissen sind ein großer Fortschritt im Vergleich zur Darstellung in ausschließlich natürlicher Sprache. Allerdings mangelt es häufig an einer nachvollziehbaren Interpretation von Zusammenhängen und Begriffsdefinitionen.
Entsprechend ist eine Verbesserung von strukturierten Darstellungen in Taxonomien zu sehen. Dies sind Klassifikationssysteme, die zur systematischen Einteilung und Organisation von Objekten, Konzepten oder Informationen in hierarchischen Strukturen (formal gesehen handelt es sich um die Datenstrukturen Baum oder Wald) verwendet werden. Sie dienen dazu, komplexe Informationen in einfachere, strukturierte und logische Gruppen aufzuteilen, oft nach dem Prinzip vom Allgemeinen zum Spezifischen. Die hierbei genutzten Begriffe sind im Allgemeinen auch definiert und somit abgrenzbar.
Taxonomien drücken also Beziehungen zwischen Wissensfragmenten auf der konzeptionellen Ebene aus. Dies ermöglicht eine bessere Einordnung und damit eine Auflösung von Mehrdeutigkeiten. Deshalb werden Taxonomien auch häufig als Typsysteme bezeichnet.
Ontologien erweitern Taxonomien dahingehend, dass es keine Einschränkung auf die hierarchische Einordnung von Wissensfragmenten gibt. Stattdessen gibt es vielfältige zusätzliche Informationen zwischen Wissensfragmenten und über diese (sog. Metainformationen), die ausgedrückt werden können (vgl. Abb. 5.2).
Entsprechend sind Ontologien definiert als formale, explizite Spezifikationen eines gemeinsamen Begriffsmodells, das eine bestimmte Domäne beschreibt, indem es die Entitäten (Objekte, Konzepte) und deren Beziehungen sowie die Regeln und Einschränkungen zwischen diesen definiert. Ontologien gehen über einfache Taxonomien hinaus, da sie nicht nur eine hierarchische Struktur von Kategorien bieten, sondern auch semantische Beziehungen und logische Regeln zwischen diesen Entitäten festlegen, um eine präzisere Modellierung von Wissen zu ermöglichen.
Taxonomien und Ontologien bieten also den Vorteil einer stärkeren Vereinheitlichung und Verständlichmachung der Wissensrepräsentation im Vergleich zur Modellierung mit ausschließlich strukturierten Elementen. Gleichzeitig werten sie Wissensfragmente mit zusätzlicher Bedeutung auf, was es beispielsweise KI-Systemen erleichtert, die von den wissensmodellierenden Menschen vorgesehene Interpretation zu erkennen bzw. zu lernen. Ein weiterer positiver Nebeneffekt ist darin zu sehen, dass es möglich ist, Ausgaben von generativer KI (z. B. ChatGPT, vgl. Kap. 6) mit dem Wissen aus der Ontologie abzugleichen und so idealerweise Widersprüche in erzeugten Antworten aufzudecken.
Mit den vorgestellten Wissensmodellierungen durch Taxonomien bzw. Ontologien ist es also möglich, zusätzliche Informationen zu Wissensfragmenten darzustellen. Allerdings existieren weitere Herausforderungen bei vielen realen Anwendungsfällen:
1.
Wissensmodellierungen müssen so allgemeingültig und verarbeitbar wie möglich sein, um automatisch zusammenführbar und auswertbar zu sein, so dass die anvisierten Vorteile nicht von manuellen (und damit nur bedingt skalierbaren) Tätigkeiten von Menschen abhängen.
2.
Der Umfang von Wissen wächst ständig und wahrscheinlich exponentiell, weswegen es eine große Herausforderung darstellt, alle relevanten Aspekte einer Wissensdomäne ausreichend und präzise zu formulieren. Dies ist einerseits dadurch begründet, dass im Allgemeinen viele Wissensdomänen miteinander verbunden sind, und andererseits, dass eine Untermodellierung die Nutzbarkeit einer Wissensmodellierung stark reduziert.
3.
Die naive Annahme, dass alles Wissen an einem zentralen Ort gesammelt wird (zentralisierte Wissensbasis), ist mit der Realität nicht vereinbar. Stattdessen existiert die Herausforderung, dass Wissensbasen an verschiedenen (logischen und physischen) Orten aufgebaut werden (verteilte Wissensbasis) und in Organisationen auch häufig durch verschiedene Struktureinheiten erstellt und gepflegt werden.
Zur Lösung dieser Herausforderungen wurde das Semantic Web bzw. Linked Data entwickelt. Die entsprechende Initiative des World Wide Web Consortium3 (kurz W3C) veröffentlichte allgemeingültige Empfehlungen (Quasi-Standards), welche grundlegende Strukturen von vernetzten, semantisch angereicherten Datenstrukturen beschreiben. Die grundlegenden Eigenschaften dieser Quasi-Standards sind:
1.
Technische Formate zur Wissensrepräsentation sollen allgemeinverständlich und weitgehend formal logisch formuliert sein und aufeinander aufbauen (vgl. Herausforderung 1), damit so dargestelltes Wissen idealerweise automatisch durch Maschinen interpretiert werden und dank der logischen Formulierungen auch neues Wissen abgeleitet werden kann.
2.
Die technische Speicherung von Wissen muss nicht immer zentral erfolgen, sondern Wissensbasen sollen auch dezentral, aber vernetzt abgebildet werden können (vgl. Herausforderung 3). Dies hat den großen Vorteil, dass bestimmte Wissensdomänen (z. B. geografisches Wissen, biologisches Wissen) dezentral durch entsprechende Expertengruppen aufgebaut, erweitert und gepflegt werden und alle anderen Wissensbasen von dem dargestellten Expertenwissen (automatisch) profitieren können (vgl. Herausforderung 2).
Das Semantic Web ist diesbezüglich das übergeordnete Konzept und repräsentiert eine Vision des (World Wide) Web, in dem Maschinen Inhalte verarbeiten bzw. verstehen können, weil diese strukturiert und semantisch angereichert sind. Eine Konkretisierung dieser Vision wird als Linked Data (Heath & Bizer, 2011) bezeichnet. Dabei sollen Daten nach den Prinzipien des Semantic Web verknüpft und zugänglich gemacht werden. Linked Data folgt dabei bestimmten praktischen Empfehlungen:
1.
Wissenselemente werden über mindestens eine Webadresse (Uniform Resource Identifiers, URI) eindeutig identifiziert. So wird die Benennung von Dingen mit einem referenzierbaren Speicherort verbunden, der über die bekannten Webstandards abgerufen werden kann.
2.
Bei der Abfrage der Webadresse eines Wissenselements sollen nützliche Informationen über diese Dinge bevorzugt im RDF-Format geliefert werden.
3.
Wissensentitäten sollen miteinander und zu anderen relevanten Datenquellen verknüpft werden, um zusätzliche Kontexte und Informationen bereitzustellen. Die dafür genutzten Web-Technologien sind ebenfalls RDF, URIs und HTTP. Datenbestände werden durch Verknüpfungen verständlicher und zugänglicher. Die Einstiegshürde ist niedriger, da der Fokus auf der einfachen Verknüpfung von Daten liegt.
5.2 KI-Modelle als Wissensrepräsentationen
In der Diskussion um Daten, Künstliche Intelligenz und ihre Anwendungsmöglichkeiten wird häufig übersehen, dass KI-Modelle nicht nur Werkzeuge zur Datenverarbeitung und Mustererkennung sind, sondern auch eine spezifische Form der Wissensrepräsentation darstellen. Die Fähigkeit eines KI-Modells, aus Daten zu lernen, Entscheidungen zu treffen und Vorhersagen zu machen beruht darauf, dass Wissen auf eine Art und Weise strukturiert im KI-Modell gespeichert wird, die es diesem erlaubt, es bei neuen Aufgaben wieder anzuwenden. KI-Modelle spiegeln dabei einen (abstrahierten) Ausschnitt aus der Realität wider und stellen deshalb eine Wissensrepräsentation dar, die auch die Ableitung neuer Erkenntnisse erlaubt.
5.2.1 Symbolische KI und regelbasierte Systeme
In diesem Unterabschnitt werden die symbolische Künstliche Intelligenz (KI) und ihre Anwendung in regelbasierten Systemen untersucht. Symbolische KI repräsentiert Wissen explizit durch Symbole und Regeln, die logische Beziehungen und Schlussfolgerungen ermöglichen. Der Abschnitt erläutert, wie diese Systeme Wissen formal darstellen, welche Rolle Logik und Regeln in diesem Kontext spielen und welche Anwendungsgebiete für symbolische KI besonders geeignet sind.
Die symbolische KI hat ihre Wurzeln im 19. und 20. Jahrhundert und basiert auf der Annahme, dass Wissen durch die Interpretation von Aussagen und Regeln ausgedrückt wird, wenn diese eindeutig interpretierbar (also formal) formuliert sind. Symbolische KI wird daher als Manipulation von Symbolen gemäß logischen Regeln definiert (Browning & Lecun, 2022; Barwise, 1977) und ist bereits seit der Frühzeit der Informatik vielfältig im Einsatz (vgl. Turing, 1950). Dabei kann die Ausdrucksmächtigkeit der Regeln sich je nach genutztem Formalismus unterscheiden (vgl. Abschn. 5.2.3). Für eine gegebene Datenmenge (genannt Faktenbasis) kann durch die Interpretation der zur Verfügung stehenden Regeln neues Wissen abgeleitet werden.
Beispiel zu logischer KI und Reasoning
Wir betrachten ein Beispiel, das sich der Fakten- und Regelbasis aus folgendem Beispiel bedient:
Gegebene Faktenbasis:
R1: Anton ist verwandt mit Beate.
R2: Beate ist verwandt mit Carl.
R3: Carl ist verwandt mit Doro.
Regelbasis (mit den Variablen X, Y, Z):
Wenn gilt:
(X ist verwandt mit Y) und (Y ist verwandt mit Z)
Dann füge den Fakt
(X ist verwandt mit Z)
zur Wissensbasis hinzu
Durch mehrmalige Anwendung von Regeln aus der Regelmenge auf die Faktenbasis wird (implizit oder explizit) neues Wissen ableitet: Durch die erste Anwendung werden die folgenden Aussagen zur Faktenbasis hinzugefügt:
R1 + R3 → R4: Anton ist verwandt mit Carl.
R2 + R3 → R5: Beate ist verwandt mit Doro.
Da sich die Faktenbasis durch die Anwendung der Regeln (R1 und R3 sowie R2 und R3) verändert hat, würden die Regeln erneut angewendet werden und zu folgenden neuen Fakten führen:
Wie leicht erkennbar ist, sind R6 und R7 äquivalent. Da die logische Aussagekraft der Menge von Fakten dadurch nicht verändert wird (vgl. Mengenlehre Cantor, 1895, 1897), ist dieses Duplikat irrelevant. Weiterführende Anwendungen der Regeln würden zu keinen neuen Erkenntnissen führen. Die Ausführung dieses symbolischen KI-Systems hat also zu drei neuen Fakten geführt, bevor ein stabiler Zustand (Fixpunkt) erreicht wurde. Bezüglich derartiger symbolischer KI-Systeme gilt, dass sie einen stabilen Zustand erreichen, solange bestehende Regeln und Fakten nicht verändert bzw. entfernt werden. Dies gilt auch, wenn die Anwendungsreihenfolge der Regeln verändert wird.
Zusätzlich haben symbolische KI-Verfahren den Vorteil, die Faktenbasis durch weitere logische Aussagen aufzuwerten. So wäre es für das o. g. Beispiel möglich, durch die folgende Aussage eine Symmetrie-Eigenschaft hinzuzufügen: Wenn gilt X ist verwandt mit Y, dann gilt auch Y ist verwandt mit X. Durch erneute Anwendung der Regeln lässt sich entsprechend neues Wissen erzeugen, das die realen Verwandtschaftsbeziehungen angemessen und der Realität entsprechend abbildet. Das heißt, die Faktenmenge wird durch diese zusätzliche Regel auf der Interpretationsebene aufgewertet, es entsteht also zusätzliches Wissen durch Reasoning. Ebenso lassen sich derartige Systeme interaktiv befragen, durch das Abfragen der Faktenbasis (z. B. Gib mir alle X, für die gilt: X ist verwandt mit Carl) ggf. nach dem Hinzufügen eigener Regeln (z. B. X ist Geschwister von Y, wenn gilt: …).
Entsprechend führen Anwendungen, die auf symbolischer KI aufbauen, zu konsistenten Ergebnissen. Gleichzeitig lassen sich die Herleitungsketten nachvollziehen, erzeugte Ergebnisse sind also erklärbar. Aus diesem Grund sind derartige Systeme vertrauenswürdig und für Anwendungsbereiche mit hohen Sicherheitsanforderungen (Safety) oder regulatorischen Anforderungen sehr gut geeignet. Die Wissensmodellierung erfolgt hier also in Form von formal repräsentierten Fakten und Regeln.
Die Darstellung von Fakten kann auf verschiedene Arten entstehen. Gleichzeitig gilt, dass die formal korrekte Formulierung von Fakten sehr aufwendig sein kann. Dies ist als einer der Gründe zu sehen, weswegen verteilte Wissensbasen aufgebaut wurden, welche jeweils Informationen aus verschiedenen Wissensdomänen beinhalten (vgl. Abschn. 5.2.3). Dies hebt das Problem von symbolischer KI hervor: Der Aufwand zur formalen Modellierung von größeren Wissensdomänen ist zeitaufwendig und häufig nicht in ausreichendem Umfang effizient durchführbar. Des Weiteren ist es möglich, dass zur Formulierung realer Gegebenheiten sehr anspruchsvolle Logiksysteme genutzt werden; dies hat insbesondere auch den Nachteil von möglicherweise langen Ausführungszeiten bei Anfragen.
Ungeachtet der Probleme, die mit formaler Logik verbunden sind, bildet diese die Grundlage für früheste Systeme der Künstlichen Intelligenz – sogenannte Expertensysteme. Diese kamen bereits in den 1950er-Jahren auf und wurden dazu entworfen, eine explizit formulierte und durch Domainexperten geschaffene Wissenssammlung zu verarbeiten, um bestimmte Fragen des Anwenders durch logische Schlussfolgerungen und Kombination von Fakten zu beantworten. Die Faktenmenge wird dabei durch logische Regeln der Form „wenn-dann“ dargestellt (vgl. obiges Beispiel). Die zur Definition von Expertensystemen verwendeten Sprachen, wie beispielsweise Prolog (Deransart et al., 1996), orientieren sich eng an der lange bekannten Prädikatenlogik (Barwise, 1977). Diese Programmiersprache fand – ebenso wie (jüngere) Alternativen, z. B. Curry (Antoy & Hanus, 2010) oder Mercury (Somogyi et al., 1995) – eine geringe Verbreitung und wird nur in spezifischen Anwendungsfällen eingesetzt.
Die Forschung an symbolischen KI-Systemen dominierte das Feld der Künstlichen Intelligenz bis weit in die 1980er-Jahre, u. a. weil sich funktionierende Systeme erstellen ließen. Allerdings war und ist das Formulieren von großen Faktenbasen (abseits von Allgemeinwissen) herausfordernd. Die notwendige Mitarbeit von Personen mit hoher Domainexpertise stellt dabei eine der Hauptschwierigkeiten bei der Schaffung und Wartung derartiger Systeme dar. Häufig ist nicht einmal der Weg zur Formalisierung eines bestimmten Fachgebietes a priori klar (Freksa, 1992). Ebenso können die Menge der Regeln und die Ausdrucksmächtigkeit in solchen Systemen große Größenordnungen erreichen, sodass ihre effiziente Auswertung schwierig und die optimale Reihenfolge der Anwendung dieser Regeln unklar ist. Für diese Operationen stehen die in der Theorie oft angenommenen unbegrenzten Rechen- und Speicherressourcen auf realen Systemen nicht zur Verfügung (Freksa, 1992). Als Konsequenz konnten sich Anwendungen der symbolischen KI bisher nicht in der Breite durchsetzen, während die zugrunde liegenden Konzepte aber in vielen Teilbereichen der Softwareentwicklung dauerhaft eingesetzt werden.5
5.2.2 Neuronale Netze als Wissensrepräsentation
Dieser Unterabschnitt untersucht die Rolle von neuronalen Netzen in der Wissensrepräsentation. Neuronale Netze stellen Wissen auf eine implizite Weise dar, indem sie Muster und Zusammenhänge in großen Datenmengen erkennen. Der Abschnitt erklärt, wie neuronale Netze Wissen verarbeiten und repräsentieren, und beleuchtet ihre Stärken bei der Analyse komplexer und unstrukturierter Daten.
Neuronale Künstliche Intelligenz basiert auf den Prinzipien des maschinellen Lernens und künstlicher neuronaler Netzwerke, die sich von den regelbasierten Ansätzen der symbolischen KI grundlegend unterscheiden. Während symbolische KI auf expliziten, formalisierten Regeln beruht, nutzt neuronale KI eine datengetriebene Herangehensweise, bei der Modelle anhand großer Datenmengen trainiert werden, um Muster zu erkennen und daraus Wissen zu extrahieren. Neuronale Netzwerke, inspiriert vom biologischen Gehirn, bestehen aus Schichten von künstlichen Neuronen, die in ihrer Funktionsweise lose den biologischen Neuronen nachempfunden sind (Wu & Feng, 2018). Wie in Abb. 5.3 dargestellt, empfängt jedes Neuron Eingabewerte, transformiert diese mittels mathematischer Operationen und gibt eine gewichtete Ausgabe weiter. Durch das Trainieren des Netzwerks, indem die Gewichte der Neuronen basierend auf den Fehlern bei der Vorhersage iterativ angepasst werden, kann das Modell lernen, komplexe Zusammenhänge in den Daten zu erkennen.
Betrachten wir folgendes Beispiel für die Funktionsweise eines neuronalen Netzes. Nehmen wir an, ein neuronales Netz soll die Verwandtschaftsbeziehungen aus einem Datensatz wie folgt ableiten:
1.
Anton ist verwandt mit Beate.
2.
Anton ist verwandt mit Carl.
3.
Beate ist verwandt mit Carl.
4.
Carl ist verwandt mit Doro.
Das neuronale Netz würde anhand vieler ähnlicher Datenbeispiele trainiert, um die Muster zu erkennen, die diese Verwandtschaftsbeziehungen bestimmen (es werden in der Realität aber deutlich mehr Trainingsbeispiele benötigt, um entsprechende Muster verlässlich zu erkennen). Dabei würde im Modell gelernt werden, dass es eine Beziehung gibt, wenn A verwandt ist mit B und B verwandt mit C, dann auch A verwandt mit C ist, wie durch die Fakten I, II, III auch ausgedrückt wird. Unter der Annahme einer ausreichenden Trainingsmenge könnte ein mögliches Ergebnis dann die Generierung neuer Fakten sein, wobei diese keine absoluten Aussagen repräsentieren, sondern wahrscheinliche Erkenntnisse, z. B. Anton ist verwandt mit Doro mit einer Wahrscheinlichkeit von 0,8 (im Wertebereich von 0,0 bis 1,0).
Im Gegensatz zur symbolischen KI erfolgt dies jedoch nicht durch explizite Regeln, sondern durch das Lernen von Mustern (d. h. statistischen Zusammenhängen), die die Beziehungen zwischen den Datenpunkten verdeutlichen. Es werden also keine logischen Schlussfolgerungen gezogen, sondern es wird aus beobachteten Wahrscheinlichkeiten eine Aussage hergeleitet. Entsprechend lassen sich keine allgemeinen logischen Aussagen hinzufügen, wie beispielsweise zur Symmetrie der Relation „ist verwandt mit“ (vgl. oben). Solche zusätzlichen Eigenschaften müssten ebenso aus den gegebenen Trainingsdaten gelernt werden. Dafür sind also weitere konkrete Beispiele (in großer Zahl) nötig, die dem Trainingsdatensatz hinzufügt werden müssten. Durch die Anwendung solcher neuronalen Modelle können aber nun nicht nur explizite, sondern auch implizite Beziehungen in großen, unstrukturierten Datensätzen gefunden werden. Gleichzeitig muss das im neuronalen Netz zu repräsentierende Wissen mit einer ausreichenden Anzahl von Beispielen im Trainingsdatensatz untersetzt werden, da sonst die Muster als Rauschen interpretiert werden und durch das statistische KI-Model nicht gelernt werden können. Die Wissensrepräsentation im KI-Modell repräsentiert die Eigenschaften des ursprünglich modellierten Wissens dann nur bedingt, d. h. es kann nicht garantiert werden, dass Informationen aus den Trainingsdaten auch wieder abgefragt werden können. Verschärfend kommt hinzu, dass eine wiederkehrende Verfeinerung des Modells auch negative Effekte haben kann, z. B. das Vergessen von bereits integrierten Informationen (Kemker et al., 2018; Zhai et al., 2023). Wir sprechen deshalb hier von einer latenten Repräsentation des abstrakten Wissens (z. B. über die Struktureigenschaften von Text), die nur auf Basis von aus großen Datenmengen gelernten statistischen Zusammenhängen über die Fähigkeit der korrekten Erzeugung von (allgemeingültigen) Fakten verfügt. Diese Fähigkeit lässt sich häufig aber nicht auf domänenspezifische Anwendungen übertragen (Ge et al., 2023).
Diese datengetriebene Herangehensweise hat zu signifikanten Fortschritten in der Bild- und Spracherkennung sowie bei komplexen Aufgaben wie maschineller Übersetzung geführt (Stahlberg, 2020).
Die Vorteile neuronaler KI bestehen in der
1.
automatischen Merkmalsextraktion: Neuronale Netze sind in der Lage, relevante Merkmale aus den Daten selbstständig zu lernen (unüberwachtes Lernen), ohne dass diese manuell definiert werden müssen.
2.
Generalisierung: Durch das Training auf großen Datenmengen können neuronale Netze auch auf Daten verallgemeinern, die sie während des Trainings nicht gesehen haben. Dies ermöglicht es ihnen, in neuen Situationen flexible Entscheidungen zu treffen.
3.
Anpassungsfähigkeit: Neuronale Modelle können dynamisch auf veränderte Daten und neue Kontexte reagieren, ohne dass bestehende Wissensstrukturen manuell angepasst werden müssen.
Trotz dieser Vorteile hat die neuronale KI auch einige Nachteile. Zum einen fehlt es neuronalen Modellen häufig an Nachvollziehbarkeit und Erklärbarkeit des Verhaltens bzw. der berechneten Ergebnisse. Während symbolische Systeme klare und nachvollziehbare Herleitungsketten liefern können, ist es oft schwierig zu verstehen, wie ein neuronales Netz zu einer bestimmten Vorhersage gelangt ist (Xu et al., 2019). Diese Black-Box-Eigenschaft stellt insbesondere in sicherheitskritischen und juristisch regulierten Anwendungsbereichen ein zentrales Problem dar. Ein weiteres Problem neuronaler Systeme besteht in ihrer Abhängigkeit von großen, qualitativ hochwertigen Datenmengen. Ohne ausreichendes Training auf vielfältigen Daten kann das Modell anfällig für Verzerrungen (Bias) oder Fehlinterpretationen werden. Zudem erfordert das Trainieren komplexer neuronaler Netzwerke hohe Rechenressourcen, was den Einsatz in bestimmten Szenarien einschränken kann.
Neuronale KI bietet durch ihre datengetriebene Natur und die Fähigkeit, komplexe Muster in unstrukturierten Daten zu erkennen, entscheidende Vorteile gegenüber regelbasierten Systemen der symbolischen KI. Die höhere Leistungsfähigkeit von Computern wirkt sich bei neuronalen KI-Methoden auch deutlich positiver auf die Anwendbarkeit aus als bei symbolischer KI. Insbesondere in Bereichen, in denen die Verarbeitung großer Datenmengen nötig ist und die Mustererkennung im Vordergrund steht, sind neuronale Netzwerke mit aktueller Computerhardware aus praktischer Sicht unschlagbar.
Moderne künstliche neuronale Netze, z. B. RNN, CNN, LSTM, GAN oder Autoencoder (Goodfellow et al., 2016), sind überwiegend mehrschichtig aufgebaut und besitzen eine große Anzahl von Neuronen, die jeweils zugeordnete mathematische Funktionen auf den zugelieferten Daten ausführen und das Ergebnis weitergeben. Obwohl in speziellen Fällen den einzelnen Neuronen oder wenigstens den einzelnen Schichten eine interpretierbare Funktion zugeordnet werden kann, so ist die konkrete Funktionsweise eines solchen neuronalen Netzes für Menschen bisher praktisch nicht nachvollziehbar erklärbar. Dies stellt ein ernsthaftes Hindernis beim Einsatz dieser Technologien durch einen menschlichen Nutzer dar, da neben anderen Herausforderungen (vgl. Wiewiórowski et al., 2023) der Kontext der so durch das neuronale Netz aus der Wissensrepräsentation gewonnenen Aussagen dem Menschen nicht zugänglich und ihr Wahrheitsgehalt nur mit sehr hohem Aufwand (im Allgemeinen manuell) überprüfbar ist. Neuronale Netze gleichen daher Black Boxes (Benı́tez et al., 1997). In dieser Hinsicht unterscheiden sich moderne neuronale Netze stark von sogenannten interpretierbaren Machine-Learning-Modellen, wie beispielsweise Decision Trees (Safavian & Landgrebe, 1991), welche aber für viele Anwendungsfälle deutlich unterlegen sind.
KI-Methoden, die auf künstlichen neuronalen Netzen aufbauen, erfordern also eine sorgfältige Handhabung aufgrund ihrer mangelnden Erklärbarkeit und der Abhängigkeit von Datenqualität und Rechenressourcen. Insbesondere in juristisch regulierten Anwendungsbereichen oder bei automatisierten Entscheidungen unter Einbezug von persönlichen Daten (vgl. DSGVO, Europäische Union, 2016) können neuronale KI-Methoden ohne Transparenz über das Verhalten häufig nicht eingesetzt werden bzw. ihre Stärken in der Automatisierung von Prozessen nicht voll ausspielen. Um diesem Problem zu begegnen, können Methoden zur Erklärbarkeit von KI (Explainable AI, XAI) helfen (Panigutti et al., 2023). Diese sind aber aktuell überwiegend noch nicht über Forschungsprototypen hinaus einsatzfähig. Derartige Erklärungen basieren entweder auf der Konstruktion expliziter Gegenbeispiele zur Entscheidung des KI-Systems (kontrafaktische Erklärung) oder der Analyse von Einflussfaktoren auf diese. Letztere kann beispielsweise durch spieltheoretische Argumente oder Approximation des Modells durch besser interpretierbare Ersatzmodelle erfolgen.
5.2.3 Hybridmodelle und integrierte Ansätze
In diesem Unterabschnitt wird die Kombination verschiedener Ansätze zur Wissensrepräsentation in sogenannten Hybridmodellen behandelt. Hybridmodelle integrieren symbolische KI und neuronale Netze, um die Stärken beider Ansätze zu vereinen. Es wird erklärt, wie diese Modelle funktionieren, welche Vorteile sie bieten und in welchen Anwendungsbereichen sie besonders nützlich sind.
Neuronale Künstliche Intelligenz (KI) basiert auf den Prinzipien des maschinellen Lernens und künstlicher neuronaler Netzwerke, die sich von den regelbasierten Ansätzen der symbolischen KI grundlegend unterscheiden. Während symbolische KI auf expliziten, formalisierten Regeln beruht, nutzt neuronale KI eine datengetriebene Herangehensweise, bei der Modelle anhand großer Datenmengen trainiert werden, um Muster zu erkennen und daraus Wissen zu extrahieren.
Wie in den vorherigen Abschnitten beschrieben, haben beide KI-Ansätze komplementäre Nachteile und Vorteile. Ein bedeutender Vorteil neuronaler KI ist ihre Fähigkeit, Informationen automatisch aus unstrukturierten Daten zu extrahieren, ohne dass explizit vorgegebene Regeln erforderlich sind. Beispielsweise kann ein neuronales Netz aus Bildern oder Texten lernen, ohne dass die Daten vorab manuell annotiert oder kategorisiert werden müssen. Dies steht im Kontrast zu symbolischen Systemen, die auf sorgfältig modellierte Fakten- und Regelbasen angewiesen sind; dann können jedoch Garantien für ihr Verhalten gegeben und das Verhalten überprüft bzw. erklärt werden.
Entsprechend gibt es bereits seit einiger Zeit Ansätze zur Vereinigung der beiden bisher gegensätzlich zueinander stehenden KI-Ansätze. Die Zusammenführung kann auf verschiedenen Ebenen stattfinden und wird unter verschiedenen Begriffen zusammengefasst, wie beispielsweise hybride KI (Nolle et al., 2023) oder neurosymbolische KI (Sarker et al., 2021). Die Annahme ist hierbei, die unbestrittenen Vorteile des jeweils anderen Ansatzes zu nutzen, um die jeweiligen Nachteile auszugleichen.
Im Beispiel aus dem vorherigen Absatz könnte ein Large Language Modell (vgl. Kap. 6) aus beliebigen Texten erkennen, dass Verwandtschaftsbeziehungen zwischen Personen existieren, z. B. „ist verheiratet mit“, „ist Tochter von“, „ist Großvater von“. Allerdings wird durch den statistischen Charakter eines solchen Sprachmodells jede dieser Beziehungen mit einer Wahrscheinlichkeit versehen; entsprechend ist es abhängig von der Häufigkeit und Eindeutigkeit, ob erkannt wird, dass die genannten Beziehungen auch eine Spezialisierung der Beziehung „ist verwandt mit“ darstellen. Dies gilt noch deutlicher für Beziehungen, die nur durch Anwendung von logischen Eigenschaften möglich ist. So ist eine Eigenschaft wie Urgroßnichte6 die Ableitung von neuem Wissen aus logischen Beziehungen. In einem neurosymbolischen KI-System soll es nun möglich sein, diese Regel zusätzlich zu integrieren.
Neurosymbolische KI-Systeme, die symbolische und neuronale Ansätze integrieren, gelten als vielversprechender Fortschritt in der Künstlichen Intelligenz, da sie die Stärken beider Paradigmen kombinieren und damit eine verbesserte Wissensrepräsentation darstellen könnten. Während symbolische KI-Systeme durch ihre Erklärbarkeit und Regelbasierung in Bereichen mit hohen Sicherheitsanforderungen vorteilhaft sind, bieten neuronale Netze eine herausragende Leistung in der Verarbeitung großer, unstrukturierter Datenmengen und der Erkennung komplexer Muster. Durch die Kombination dieser Ansätze können neurosymbolische Systeme sowohl komplexe kognitive Aufgaben effizient bewältigen als auch nachvollziehbare Entscheidungsprozesse ermöglichen.
Neurosymbolische Verfahren befinden sich derzeit noch in einer frühen Phase der Entwicklung, und ihre Verfügbarkeit ist im Vergleich zu rein symbolischen oder rein neuronalen Ansätzen eingeschränkt. Während einige experimentelle Implementierungen existieren (vgl. IBM, 2022), sind umfassende marktreife Anwendungen noch selten. Der Forschungsschwerpunkt liegt aktuell auf der Weiterentwicklung von Frameworks und Modellen, die sowohl die Leistungsfähigkeit neuronaler Netze als auch die Interpretierbarkeit symbolischer Systeme nutzen. Trotz vielversprechender Ergebnisse in einigen spezifischen Domänen, wie der Verarbeitung natürlicher Sprache und dem maschinellen Lernen, bleibt die praktische und skalierbare Anwendung neurosymbolischer KI-Techniken eine Herausforderung, die in den kommenden Jahren wahrscheinlich verstärkte Aufmerksamkeit erfahren wird, insbesondere um einen Ausgleich zwischen hoher Leistungsfähigkeit und Vertrauenswürdigkeit zu etablieren.
Langfristig könnten diese Systeme zu einer verbesserten Generalisierungsfähigkeit führen und somit die Anwendung von KI in sicherheitskritischen oder regulierten Bereichen, wie dem Gesundheitswesen oder der Finanzbranche, erleichtern. Zudem bieten sie das Potential, die Interpretierbarkeit neuronaler Netze zu erhöhen, indem sie symbolische Repräsentationen und logische Regeln in die Entscheidungsfindung einbeziehen. Zukünftige Entwicklungen in diesem Bereich könnten dazu beitragen, einige der aktuellen Einschränkungen beider Ansätze zu überwinden, insbesondere im Hinblick auf Skalierbarkeit, Effizienz und Erklärbarkeit, und so den Weg für robustere und vielseitigere KI-Lösungen ebnen.
5.3 Einflussfaktoren für Wissensrepräsentation
Sowohl in ihrer Rohform (vgl. Abschn. 5.1) als auch als KI-System (vgl. Abschn. 5.2) sind Wissensrepräsentationen abhängig von zur Verfügung gestellten Daten. In diesem Abschnitt wird die Bedeutung einer umfassenden Betrachtung der Dimensionen Datenvolumen, -qualität und -semantik für die Wissensrepräsentation in KI-Systemen hervorgehoben. Es wird erläutert, wie diese Dimensionen zusammenwirken, um eine robuste und verlässliche Wissensrepräsentation zu ermöglichen, die sowohl effektiv als auch vielseitig einsetzbar ist. Der Abschnitt zeigt auf, dass das Zusammenspiel dieser Faktoren entscheidend für den Erfolg von KI-Anwendungen ist.
Die für die Erstellung genutzte Wissensrepräsentation (Trainingsdaten bzw. Faktenbasis) spielt eine entscheidende Rolle in der Wissensrepräsentation von Künstlicher Intelligenz (KI). Je umfangreicher die zur Verfügung stehenden Wissensbasen sind, desto leistungsfähiger und vielseitiger können KI-Systeme agieren. Das Datenvolumen beeinflusst also maßgeblich die Einsatzfähigkeit von KI-Systemen.
In spezialisierten KI-Systemen führt eine Zunahme des Volumens der Wissensrepräsentation häufig zu einer erheblichen Steigerung der Qualität der Anwendung. Ein Beispiel hierfür ist die Bilderkennung: Frühe Bildverarbeitungsmodelle (neuronale KI), die auf kleineren, domänenspezifische Datensätze trainiert wurden, hatten oft Schwierigkeiten, präzise Vorhersagen bzw. Entscheidungen zu treffen, insbesondere bei komplexen oder neuen Eingabemustern. Mit der Verfügbarkeit größerer Bilddatensätze (z. B. Deng et al., 2009) hat sich jedoch die Leistung solcher Systeme deutlich verbessert.
So zeigen spezialisierte KI-Modelle zur Erkennung von Röntgenbildern in der Medizin, dass die Erhöhung der Datenmenge – zum Beispiel durch die Integration von Bilddaten aus verschiedenen Krankenhäusern weltweit – nicht nur die Genauigkeit der Diagnosen verbessert, sondern auch die Fähigkeit der Modelle, Krankheitsbilder zu erkennen (vgl. Koh et al., 2022). Hier zeigt sich, dass ein hoher Grad an Spezialisierung unterstützt durch umfangreiche Datensätze die Qualität der konkreten Aufgabe maßgeblich steigert. Solche spezialisierten KI-Systeme sind jedoch oft auf eng begrenzte Aufgaben ausgelegt, was sie für andere Anwendungsfälle weniger flexibel macht.
Im Gegensatz dazu gilt für moderne, generalisierte KI-Systeme, dass eine Zunahme des Datenvolumens nicht nur die Qualität der Ergebnisse verbessert, sondern auch die Bandbreite der Aufgaben, die ein System bewältigen kann, erheblich erweitert. Ein prominentes Beispiel dafür sind große Sprachmodelle (Large Language Models, LLMs), wie sie im Kap. 6 detaillierter beschrieben werden. Hier kann beobachtet werden, dass sich umso mehr Modell-Fähigkeiten (emerging abilities) zu entwickeln scheinen (vgl. Schaeffer et al., 2024; Chang et al., 2024), je mehr Daten für das Training dieser Modelle verwendet wurden. Diese sich entwickelnden Fähigkeiten beziehen sich auf das plötzliche Auftreten neuer, unerwarteter Kompetenzen, wenn das Modell mit einer kritischen Masse an Informationen trainiert wurde.
Ein Beispiel für solche emerging abilities zeigt sich in der Fähigkeit großer Sprachmodelle, nach einer Vergrößerung der Trainingsdaten bzw. des daraus resultierenden Modells nicht nur natürliche Sprache zu verarbeiten, sondern beispielsweise auch Programmcode zu analysieren und zu generieren. Dies verdeutlicht den fundamentalen Unterschied zu spezialisierten Systemen: Je mehr Daten diese modernen Systeme erhalten, desto vielfältiger werden die Aufgaben, die sie erfolgreich bearbeiten können.
Obwohl das Datenvolumen zweifellos ein zentraler Erfolgsfaktor einer Wissensrepräsentation ist, bringt es auch eine Reihe von Herausforderungen mit sich, die im Folgenden näher betrachtet werden.
Verfügbarkeit von Daten: Eine der größten Herausforderungen besteht darin, dass die benötigten Daten für viele domänenspezifische Anwendungsfälle schlichtweg nicht existieren oder schwer zugänglich sind. Dies ist besonders in spezialisierten Branchen wie beispielsweise der Pharmaforschung der Fall, wo hochsensible und vertrauliche Daten nur in begrenzter Menge vorliegen. Ein konkretes Beispiel zeigt sich in der Entwicklung von Medikamenten: Klinische Studien liefern wertvolle Daten, doch aufgrund von Datenschutzanforderungen oder limitierten Studienpopulationen kann dieses Wissen nur begrenzt in Form eines Datensatzes geteilt und genutzt werden. Der Mangel an ausreichend großen Datensätzen kann somit die Effizienz und Präzision von KI-Modellen in dieser Domäne behindern.
In vielen Szenarien sind die benötigten Daten auch nicht an einem zentralen Ort gespeichert, sondern über verschiedene Datenbanken und Systeme verteilt. Diese verteilte Datenspeicherung stellt eine zusätzliche Herausforderung dar, da sie die Integration und Konsolidierung der Daten erschwert. Ein konkretes Beispiel ist die Finanzindustrie, in der Kundendaten, Transaktionsdaten und Marktinformationen häufig in separaten Datenbanken gespeichert werden. Um ein KI-System zur Risikoanalyse oder zur Betrugserkennung zu entwickeln, müssen diese verstreuten Datenquellen effizient zusammengeführt werden, was sowohl technologische als auch organisatorische Lösungen erfordert. Datenintegrationsverfahren (vgl. Abschn. 5.2.3) oder die Nutzung von föderierten Lerntechniken können hier Abhilfe schaffen, indem sie die Kombination von Daten aus unterschiedlichen Quellen ermöglichen, ohne dass erstere physisch an einem Ort vorliegen müssen.
Qualitätssicherung der Daten: Um verlässliche Ergebnisse zu gewährleisten, muss das verfügbare Wissen die Realität so gut wie möglich repräsentieren. Dies erfordert eine strenge Qualitätssicherung, da ungenaue oder fehlerhafte Informationen zu fehlerhaften Ergebnissen in KI-Modellen führen können (oder im Fall von symbolischer KI zu Widersprüchen). Ein Beispiel hierfür ist die Entwicklung von KI-Systemen zur Fahrassistenz oder zum autonomen Fahren; dabei ist es entscheidend, dass die Sensor- und Bilddaten den realen Verkehrs- und Straßenbedingungen entsprechen. Qualitativ minderwertige Daten, etwa durch fehlerhafte Sensoren oder schlechte Wetterbedingungen beeinflusst, können die Leistungsfähigkeit der KI erheblich beeinträchtigen und potenziell zu gefährlichen Situationen führen. Daher ist die Sicherstellung der Datenqualität ein essenzieller Bestandteil der Datenverarbeitung in diesem Bereich.
In vielen Fällen stehen die benötigten Daten nicht in einem geeigneten Format zur Verfügung und müssen erst aufwendig aufbereitet werden. Dies stellt häufig eine technische Herausforderung dar, da die Daten aus unterschiedlichen Quellen stammen und in unterschiedlichen Formaten vorliegen können. Ein Beispiel hierfür ist die Verarbeitung von Text- und Bilddaten in der Gesundheitsforschung. Während medizinische Berichte häufig in unstrukturiertem Textformat vorliegen, müssen sie für die Verwendung in KI-Systemen strukturiert und standardisiert werden, um eine hochqualitative Auswertung zu ermöglichen. Dieser Prozess der Datenaufbereitung, der häufig manuelle Eingriffe oder den Einsatz spezieller Vorverarbeitungstechniken erfordert, kann zeitaufwendig und kostenintensiv sein.
Anreicherung mit Datensemantik: Durch die Integration von semantischen Informationen werden die Daten in einen kontextuellen Rahmen eingebettet, wodurch Zusammenhänge, Bedeutungen und strukturelle Beziehungen zwischen verschiedenen Datenpunkten explizit dargestellt werden (vgl. Abschn. 5.2.3). Dies verbessert das Verständnis der KI für die zugrunde liegenden Daten, so dass sie effizientere und präzisere Entscheidungen treffen kann. Besonders in Situationen, in denen der Zugang zu größeren Trainingsdatensätzen begrenzt ist, ermöglicht die semantische Anreicherung eine tiefergehende Nutzung vorhandener Informationen. Dadurch kann die KI lernen, komplexere Muster und Zusammenhänge zu erkennen, die durch reine datengetriebene Ansätze möglicherweise verborgen bleiben würden. Somit trägt die Anreicherung von Wissensrepräsentation mit Datensemantik maßgeblich zur Steigerung der Leistungsfähigkeit und Verlässlichkeit von KI-Systemen bei, ohne auf eine ständige Vergrößerung der Datengrundlage angewiesen zu sein. Die Anreicherung von Wissensrepräsentation mit Datensemantik ermöglicht eine qualitative Verbesserung von KI-Systemen, selbst wenn die Menge der zugrunde liegenden Trainingsdaten nicht weiter erhöht werden kann.
Die durch Datensemantik bereitgestellten Informationen, wie die Beziehungen und Zusammenhänge zwischen verschiedenen Datenpunkten, spielen eine entscheidende Rolle bei der Validierung der Ergebnisse von KI-Systemen. Indem semantische Verknüpfungen explizit dargestellt werden, können KI-Modelle nicht nur auf die isolierten Daten selbst zugreifen, sondern auch auf die Bedeutung der Daten im Kontext zueinander. Die so entstandene semantische Wissensschicht (Semantic Layer) ermöglicht eine tiefere Analyse und die Identifizierung potenzieller Inkonsistenzen oder Widersprüche in den von einem KI-Modell erzeugten Ergebnissen. Beispielsweise können durch die Betrachtung semantischer Zusammenhänge automatisch überprüfbare Regeln formuliert werden, anhand derer die Plausibilität von Vorhersagen oder Entscheidungen beurteilt wird (vgl. Jung et al., 2022; Kassner et al., 2023). Wenn die Ergebnisse eines KI-Systems im Widerspruch zu diesen semantischen Informationen stehen, können entsprechende Unstimmigkeiten erkannt und die Vertrauenswürdigkeit der Ergebnisse hinterfragt werden. Auf diese Weise trägt die Einbindung von Datensemantik wesentlich zur Qualitätskontrolle und Zuverlässigkeit von KI-Systemen bei, indem sie eine zusätzliche Ebene der Validierung bietet und potenzielle Fehlerquellen aufdeckt.
Die Verfügbarkeit und Verarbeitung großer Datenmengen spielen also eine zentrale Rolle bei der Entwicklung moderner KI-Systeme. Während spezialisierte Systeme von der Verbesserung der Datenqualität für spezifische Aufgaben profitieren, zeigt sich bei generalisierten KI-Modellen wie LLMs, dass eine Zunahme der Datenmenge wahrscheinlich zu einer Erweiterung der Fähigkeiten führt. Trotz des immensen Potenzials birgt der Umgang mit großen Datenmengen zahlreiche Herausforderungen, insbesondere in Bezug auf Verfügbarkeit, Qualität, Formatierung und Verteilung der Daten. Um diese Herausforderungen zu meistern, sind sowohl technologische Innovationen als auch methodische Fortschritte notwendig, die es ermöglichen, das volle Potenzial der Daten für die Wissensrepräsentation in KI-Systemen zu nutzen.
5.4 Praktische Anwendungen und Erkenntnisse
5.4.1 Wissensrepräsentation in der Praxis – digitale Zwillinge
Reale Systeme, insbesondere industrielle Anlagen, produzieren eine Vielfalt von Daten über ihren gesamten Lebenszyklus und verschiedene Prozesse hinweg (Ammann et al., 2024). Diese Daten sind von einer Vielzahl verschiedener Dimensionen geprägt: Es kann sich um technische oder physikalische Beschreibungen, aktuelle Sensormesswerte, aber auch Prozess- oder Geschäftsdaten handeln. Sie sind häufig nur von den jeweiligen Domänenexperten zu verstehen. Dies führt zu einer Verständnisbarriere zwischen verschiedenen handelnden Personen (Hubauer et al., 2018b).
Digitale Zwillinge (Batty, 2018; Zami et al., 2024; van der Valk et al., 2020; Hubauer et al., 2018b; Lietaert et al., 2021) schaffen ein gemeinsames Vokabular und verknüpfen sowohl verwandte Konzepte als auch miteinander in Beziehung stehende Daten. Das Konzept der digitalen Zwillinge wurde Anfang der 2000er-Jahre geprägt (Grieves, 2014; zitiert nach Batty, 2018). Ein solcher besteht aus drei Hauptkomponenten, nämlich dem physikalischen Objekt, einer virtuellen Repräsentation und einer Verknüpfung zwischen diesen beiden Objekten. Der Zustand des digitalen Zwillings basiert daher auf in einer Wissensrepräsentation hinterlegten oder in Realzeit aus Sensoren ausgelesenen Daten sowie dem über das physische Objekt vorhandene Wissen.
Numerische Daten können beispielsweise in Zeitreihendatenbanken außerhalb des digitalen Zwillings vorliegen und erst bei Bedarf abgefragt werden, ohne dass der Nutzer diese Indirektion bemerkt. Andere Daten können nach einer Sprachvorverarbeitung von Textdokumenten zum Beispiel in Form eines Knowledge Graphen (vgl. Abschn. 5.2.3) vorliegen. Diese Datenquellen können also sehr heterogen auf mehrere isolierte Silos verteilt oder auch von minderer Qualität sein. Digitale Zwillinge basieren oft auf den oben beschrieben Taxonomien bzw. Ontologien und ermöglichen es, diese Daten ohne Verwendung komplexer Anfragen zu verknüpfen. Dieser Prozess wird oft auch als semantische Datenintegration beschrieben (van der Valk et al., 2020; Lietaert et al., 2021; Hubauer et al., 2018a, b; Kalaycı et al., 2020).
Digitale Zwillinge erlauben aber nicht nur den effizienten und niederschwelligen Zugriff auf Daten, sondern können auch befähigt werden, die ihnen zugrunde liegende Wissensrepräsentation eigenständig durch Beobachtung von Ereignissen im physischen Objekt, um neue Fakten über dieses zu erweitern (Ringsquandl et al., 2017) bzw. die ihnen zugänglichen Datenreihen zu korrelieren und gegebenenfalls als neue Relationen zu verknüpfen (Ammann et al., 2024). Sie liefern also auch einen Beitrag zur Sicherung der Datenkonsistenz (vgl. hierzu auch Zami et al., 2024).
Digitale Zwillinge dienen darüber hinaus auch zur Bildung einer vorteilhaften Basis für weitere Downstream-Tasks der sekundären Wissensrepräsentation, z. B. Machine Learning (Hubauer et al., 2018a). Während klassische Ansätze häufig nur einen einzelnen Prozessschritt betrachten, erlauben digitale Zwillinge dem Modell den Zugriff auf die gesamte Wertschöpfungskette und sind daher von unschätzbarem Wert für die Entwicklung datengetriebener Produkte (Lietaert et al., 2021; Ploennigs et al., 2022; Berry & Bandara, 2024).
Moderne Smart Buildings sind komplexe Systeme mit vielen miteinander interagierenden Komponenten und damit gute Kandidaten für den erfolgreichen Einsatz digitaler Zwillinge (Cohen Boulakia et al., 2020; Berry & Bandara, 2024). Dies betrifft tatsächlich ihren gesamten Lebenszyklus, also sowohl Konstruktion (Katsigarakis et al., 2022) als auch laufenden Betrieb.
Bereits während der Konstruktion werden Daten aus verschiedenen Bereichen benötigt: Die Konstruktionsdomäne beinhaltet infrastrukturelle Aspekte, wie Bauplan,7 Raumaufteilung, Beschreibung des Strom- und Wassernetzes des Gebäudes, aber auch Informationen über die verbaute IoT-Technik. Die Ressourcendomäne beschreibt die Verfügbarkeit von Arbeitern und Maschinen und die Prozessdomäne unter anderem den Zeitplan zur Fertigstellung des Gebäudes (Katsigarakis et al., 2022; Cohen Boulakia et al., 2020).
Die Daten aus der Konstruktionsdomäne werden im laufenden Betrieb durch die Daten der verbauten Sensoren dynamisch ergänzt. Diese dienen, meist in der Form von Zeitreihen, zur Erfassung von Temperatur und Feuchtigkeit, der Licht und Stromnutzung, der Zusammensetzung der Raumluft und der Raumnutzung über Bewegungsmelder (Hubauer et al., 2018b; Cohen Boulakia et al., 2020). Auch externe Datenquellen wie z. B. Wetterdaten können der Wissensrepräsentation hinzugefügt werden. Ein idealer Digital Twin erlaubt bei Ein- oder Ausbau von Sensoren die komfortable Aktualisierung der erzeugten Datenströme (Cohen Boulakia et al., 2020).
Eine Reihe von Nutzungen dieser Daten ist denkbar (Hubauer et al., 2018b; Cohen Boulakia et al., 2020): So können KI-Modelle geschaffen werden, die eigenständig aufgrund der vorhandenen Temperaturmessungen, Informationen über geöffnete Fenster, den Betriebszustand von Lampen und weiterer meteorologischer Daten die Verblendungen der Fenster und die Heizungsanlage steuern und so die Nutzung optimieren. Siemens (Zistl, 2018) stellt fest, dass digitale Zwillinge neue Geschäftsmöglichkeiten, wie nutzungsabhängige Mietmodelle oder die automatisierte Beauftragung von Putzdiensten, ermöglichen. Auch die Erfüllung regulatorischer Bedingungen bei Umbaumaßnahmen kann über die Wissensrepräsentation des digitalen Zwillings geprüft werden. Gleichfalls kann der rechtzeitige Austausch von prognostiziert demnächst defekten Bauteilen (predictive maintenance) sichergestellt werden.
5.4.2 Erfolgsfaktoren und Lessons Learned
Die erfolgreiche Implementierung von Wissensrepräsentationen erfordert eine Vielzahl von Faktoren, die über rein technische Aspekte hinausgehen. In diesem Kapitel werden zentrale Erfolgsfaktoren und Erkenntnisse beleuchtet, die in der Praxis von besonderer Bedeutung sind.
Ein entscheidender Erfolgsfaktor ist die Einhaltung der FAIR-Prinzipien – Findable, Accessible, Interoperable, Reusable (Jacobsen et al., 2020; van Vlijmen et al., 2020; Wilkinson et al., 2016). Diese Prinzipien gewährleisten, dass Daten auffindbar, zugänglich, interoperabel und wiederverwendbar sind. Gerade im Kontext von Wissensrepräsentationen ist es wichtig, dass Daten in einer Form vorliegen, die nicht nur maschinell verarbeitet werden kann, sondern auch eindeutig interpretierbar (interoperable), langfristig verfügbar und für unterschiedliche Anwendungen nutzbar bleibt. FAIR fördert die Nachhaltigkeit und den Austausch von Wissen zwischen verschiedenen Systemen bzw. Akteuren und ist damit ein Katalysator für (wirtschaftlich erfolgreiche) Datenökosysteme.
Ein weiteres Schlüsselelement kann man unter dem Begriff der nicht-dogmatischen Wissensmodellierung zusammenfassen. Eine flexible und hybride Nutzung von verschiedenen Wissensrepräsentationen ist entscheidend für den Erfolg. Statt sich strikt an eine bestimmte Methode zu halten, sollten verschiedene Ansätze kombiniert werden. Dies kann beispielsweise durch die Vermischung strukturierter und semantischer Wissensrepräsentationen bzw. symbolischer und neuronaler KI-Modelle geschehen. Ziel dabei ist immer, die Vorteile der verschiedenen Paradigmen zu nutzen. So können Datenstrategien effizient umgesetzt werden, während die Wissensrepräsentation anpassungsfähig gegenüber neuen Anforderungen oder folgenden innovativen Ansätzen bleibt.
Ein besonders wertvoller Aspekt ist die Erschließung der Datenhistorie, da historische Daten oft wesentliche Einblicke in die Entwicklung von Systemen oder Prozessen bieten. Professionelle, zukunftsgerichtete Organisationen erstellen deshalb eine Datenstrategie (inklusive einer Wissensrepräsentationsstrategie), um strukturiert und nachhaltig die Grundlage für eine erfolgreiche Integration von KI-Innovationen zu ermöglichen. Ein Semantic Layer, der verschiedene Datentöpfe miteinander verknüpft, ist hierbei von zentraler Bedeutung. Ein solcher Layer ermöglicht es, Datenbestände zu integrieren und übergreifende Zusammenhänge zwischen den Daten (für Menschen und Maschinen) sichtbar zu machen. Dies verbessert die Auffindbarkeit relevanter Informationen und unterstützt die Analyse durch eine tiefere Verknüpfung von historischen und aktuellen Daten. Insbesondere ergänzt dieser Ansatz häufig bereits bestehende Wissensrepräsentationen (z. B. eine Landschaft von relationalen Datenbanken, vgl. Abschn. 5.1.2.1) und wertet diese auf, ohne umfangreiche Restrukturierungen der bestehenden Wissensrepräsentationen und deren Integration in (erfolgreiche) Anwendungen vornehmen zu müssen. Aus diesem Grund wird dieses Vorgehen berechtigterweise häufig in größeren oder lange existierenden Organisationen genutzt, um bestehende Wissensrepräsentationen für die nötigen KI-Integrationen vorzubereiten.
Darüber hinaus sollte berücksichtigt werden, dass jeder Datentyp seine optimale Repräsentation hat. Es gibt keine universelle Lösung für die Darstellung von Wissen. Unterschiedliche Datentypen, wie Text, Zahlen, Bilddaten oder Sensordaten, erfordern jeweils spezifische Repräsentationsformen, die optimal an ihre Struktur und den Anwendungsfall angepasst sind. Die Wahl der richtigen Repräsentation ist entscheidend für die Qualität der Ergebnisse und die Effizienz der Verarbeitung.
Trotz der beeindruckenden Fähigkeiten von Large Language Models (vgl. Kap. 6) sollte die Auswahl der Wissensrepräsentationen immer auf den jeweiligen Anwendungsfall ausgerichtet sein. LLMs bieten hervorragende Ergebnisse in vielen Bereichen der Textverarbeitung, sind jedoch nicht immer die beste Lösung für strukturierte Daten, spezialisierte Wissensdomänen oder Anwendungsfälle, die eine hohe Qualität erfordern. Darüber hinaus ist es sehr aufwendig, die Aktualität von erzeugten Informationen und die Vertrauenswürdigkeit herzustellen. Hier müssen die zugrunde liegenden primären Wissensrepräsentationen genutzt werden, um das Verhalten sekundärer Wissensrepräsentationen (z. B. KI) zu optimieren: Ein Weg hierbei ist, Wissensrepräsentationen semantisch so zu fundieren, dass sowohl beim Training entsprechender KI-Modelle eine hohe Präzision und Aussagekraft erreicht werden kann und zusätzlich a posteriori Ergebnisse kontrolliert werden können. Die Kombination von LLMs mit semantischen Modellen kann in solchen Fällen zu einer deutlich verbesserten Leistungsfähigkeit bei gleichzeitig höherer Vertrauenswürdigkeit von KI-getriebenen Anwendungen führen.
Insgesamt zeigt sich, dass der Erfolg von primären und sekundären Wissensrepräsentationssystemen nicht nur von der eingesetzten Technologie, sondern maßgeblich von der flexiblen, kontextsensitiven Anwendung und der Fähigkeit zur Interoperabilität abhängt. Der strategische Einsatz von Datensemantik, die Berücksichtigung der Datenhistorie und die Orientierung an den FAIR-Prinzipien bilden das Fundament für eine zukunftsorientierte und robuste Wissensmodellierung sowie den erfolgreichen Einsatz von Methoden der Künstlichen Intelligenz.
5.5 Schlussfolgerungen und Ausblick
In diesem Kapitel wurde die Frage erörtert, wie Wissen im Kontext von Künstlicher Intelligenz dargestellt, organisiert und verarbeitet wird. Der Schwerpunkt liegt auf verschiedenen Ansätzen zur Wissensrepräsentation, von textuellen Darstellungen über strukturierte und hierarchische Modelle bis hin zu komplexen semantischen Netzwerken. Diese unterschiedlichen Formen der Wissensdarstellung ermöglichen es, Wissen sowohl maschinell interpretierbar als auch für spezifische KI-Anwendungen nutzbar zu machen.
Ein zentrales Thema des Kapitels ist die Betrachtung von KI-Modellen selbst als Wissensrepräsentationen. Hierbei wird ein Bogen von regelbasierten/symbolischen Systemen zu neuronalen Netzen gespannt. Letztere stellen die Grundlage für die aktuellen Erfolge der KI dar. Symbolische KI, basierend auf expliziten Regeln und Logik, bietet eine klare und interpretierbare Repräsentation von Wissen und wird vor allem in Szenarien mit eindeutigem und qualitativ hochwertigem Datenmaterial eingesetzt. Neuronale KI hingegen erkennt durch das Lernen aus großen Datenmengen Muster und schafft eine Wissensrepräsentation, die weniger transparent, aber hochgradig anpassungsfähig ist.
Das Kapitel verdeutlicht den Unterschied zwischen Mustererkennung und logischer Schlussfolgerung; es zeigt auf, wie diese beiden Ansätze in der KI unterschiedliche Stärken und Schwächen haben. Während neuronale Netze große Datenmengen verarbeiten und Unsicherheiten bewältigen können, liefern logikbasierte Systeme klare und nachvollziehbare Ergebnisse auf Basis strukturierten Wissens. Durch regelbasierte Ansätze kann es also gelingen, Wissen explizit zu konservieren und genau dieses Wissen mit zusätzlicher Logik zu veredeln und abfragbar zu machen. Im Gegensatz dazu gelingt es statistischen Modellen nicht, eine Wissensmenge reproduzierbar zu repräsentieren, da hier nur statistische Zusammenhänge dargestellt werden. Eine weitergehende Logik existiert hier also nicht, und es kann nicht garantiert werden, dass das gewünschte Wissen überhaupt wiedergegeben werden kann. Gleichzeitig können entsprechende Modelle (insbesondere Large Language Models, s. Kap. 6) aber deutlich flexibler eingesetzt werden und sind insbesondere auch für sehr große Datenmengen geeignet.
Darüber hinaus wurden in diesem Kapitel die Einflüsse der datenbasierten Wissensrepräsentation auf die Entwicklung von KI-Systemen beleuchtet. Diesbezüglich wurden die verschiedenen Einflussfaktoren auf eine gute Qualität eines KI-Verfahrens aus Datensicht dargestellt, insbesondere abseits der naiven Steigerung des Volumens des Rohdatensatzes.
Mit Blick auf zukünftige Entwicklungen liegt ein vielversprechender Schwerpunkt in der Integration von symbolischen und neuronalen Ansätzen in sogenannten neurosymbolischen Systemen. Die so entstehende Wissensrepräsentation könnte die Vorteile beider Welten kombinieren, indem sie die Interpretierbarkeit und logische Struktur symbolischer KI mit der Flexibilität und Lernfähigkeit neuronaler Netze verbindet, während gleichzeitig Menschen die Kontrolle über die System behalten. Weiterhin wird die Anreicherung von Wissensrepräsentationen durch Datensemantik auch in der näheren Zukunft eine zentrale Rolle spielen, um KI-Systeme besser zu validieren und komplexe Zusammenhänge zwischen Daten transparent zu machen. In Zukunft könnte dies zu einer erhöhten Verlässlichkeit und Transparenz von KI führen, was besonders in sicherheitskritischen und regulatorisch stark kontrollierten Anwendungsbereichen von großer Bedeutung ist.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Die Bezeichnung Urgroßnichte beschreibt eine Familienbeziehung, bei der es sich um die Tochter einer Großnichte oder eines Großneffen handelt. Die Bezeichnung Großnichte bzw. Großneffe beschreibt eine Familienbeziehung, bei der es sich um die Tochter bzw. den Sohn eines Neffen oder einer Nichte einer Person handelt.
Ammann, L., et al. (2024). Automated knowledge graph learning in industrial processes. https://arxiv.org/abs/2407.02106. Zugegriffen am 20.01.2025.
Antoy, S., & Hanus, M. (2010). Functional logic programming. Communications of the ACM, 53(4), 74–85.CrossRef
Barwise, J. (1977). An introduction to first-order logic. In Studies in logic and the foundations of mathematics (S. 5–46). Elsevier.
Batty, M. (2018). Digital twins. Environment and Planning B: Urban Analytics and City Science, 45(5), 817–820.
Benı́tez, J. M., et al. (1997). Are artificial neural networks black boxes? IEEE Transactions on Neural Networks, 8(5), 1156–1164.CrossRef
Berners-Lee, T. (1992). The world-wide web. Computer Networks and ISDN Systems, 25(4–5), 454–459.CrossRef
Berners-Lee, T., et al. (1992). World-Wide Web: The information universe. Internet Research, 2(1), 52–58.
Berry, P., & Bandara, M. (2024). Complex network modelling and knowledge graphs for digital twins and industry 4.0.
Bonatti, P. A., et al. (2019). Knowledge graphs: New directions for knowledge representation on the semantic web (Dagstuhl Seminar 18371). In P. A. Bonatti et al. (Hrsg.), Dagstuhl reports (Bd. 8, 9, S. 29–111).
Cantor, G. (1895). Beiträge zur Begründung der transfiniten Mengenlehre. Mathematische Annalen, 46(4), 481–512.CrossRef
Cantor, G. (1897). Beiträge zur Begründung der transfiniten Mengenlehre. Mathematische Annalen, 49(2), 207–246.MathSciNetCrossRef
Cattell, R. (2011). Scalable SQL and NoSQL data stores. SIGMOD Record, 39(4), 12–27.CrossRef
Chang, Y., et al. (2024). A survey on evaluation of large language models. ACM Transactions on Intelligent Systems and Technology, 15(3), 1–45.CrossRef
Cohen Boulakia, B., et al. (2020). A reference architecture for smart building digital twin. In 2020 international workshop on semantic digital twins, SeDiT 2020.
Deng, J., et al. (2009). ImageNet: A large-scale hierarchical image database. In CVPR09.
Deransart, P., et al. (1996). Prolog: The standard. Reference manual. Springer.CrossRef
Ebersbach, A., et al. (2008). Wiki: Web collaboration. Springer Science & Business Media.
Europäische Union. (2016). Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) (Text von Bedeutung für den EWR) (S. 1–88). http://data.europa.eu/eli/reg/2016/679/oj. Zugegriffen am 20.01.2025.
Freksa, C. (1992). Über den Unterschied zwischen Logik-basierten und logischen Ansätzen zur Wissensrepräsentation. Künstliche Intell, 6(3), 95–98.
Gödel, K. (1931). Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik, 38(1), 173–198.MathSciNetCrossRef
Goodfellow, I., et al. (2016). Deep learning. MIT Press.
Grieves, M. (2014). Digital twin: Manufacturing excellence through virtual factory replication.
Heath, T. & Bizer C. (2011). Linked Data: Evolving the Web into a Global Data Space (1st edition). Synthesis Lectures on the Semantic Web: Theory and Technology, 1, 1; 1–136. Morgan & Claypool.
Hubauer, T., et al. (2018a). Use cases of the industrial knowledge graph at Siemens. In M. van Erp et al. (Hrsg.), Proceedings of the ISWC 2018 posters & demonstrations, industry and blue sky ideas tracks. https://ceur-ws.org/Vol-2180/paper-86.pdf. Zugegriffen am 20.01.2025.
Jacksi, K., & Abass, S. M. (2019). Development history of the world wide web. International Journal of Scientific & Technology Research, 8(9), 75–79.
Jacobsen, A., et al. (2020). FAIR principles: Interpretations and implementation considerations. Data Intelligence, 2, 10–29.CrossRef
Jäger, G., & Rogers, J. (2012). Formal language theory: Refining the Chomsky hierarchy. Philosophical Transactions of the Royal Society B. Biological Sciences, 367, 1598. S. 1956–1970.CrossRef
Jung, J., et al. (2022). Maieutic prompting: Logically consistent reasoning with recursive explanations. In Y. Goldberg et al. (Hrsg.), Proceedings of the 2022 conference on empirical methods in natural language processing. Abu Dhabi, Vereinigte Arabische Emirate (S. 1266–1279). Association for Computational Linguistics.CrossRef
Kalaycı, E. G., et al. (2020). Semantic integration of Bosch manufacturing data using virtual knowledge graphs. In J. Z. Pan et al. (Hrsg.), The Semantic Web – ISWC 2020 (S. 464–481). Springer International Publishing.
Kassner, N., et al. (2023). Language models with rationality. In Proceedings of the 2023 conference on empirical methods in natural language processing (S. 14190–14201).CrossRef
Katsigarakis, K., et al. (2022). A Digital Twin Platform generating Knowledge Graphs for construction projects. In Proceedings of the Third International Workshop On Semantic Digital Twins (SeDiT 2022), co-located with the 19th European Semantic Web Conference (ESWC 2022).
Kemker, R., et al. (2018). Measuring catastrophic forgetting in neural networks. In Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence and Thirtieth Innovative Applications of Artificial Intelligence Conference and Eighth AAAI Symposium on Educational Advances in Artificial Intelligence. AAAI’18/IAAI’18/EAAI’18. AAAI Press.
Koh, D.-M., et al. (2022). Artificial intelligence and machine learning in cancer imaging. Communications Medicine, 2(1), 133.CrossRef
Lietaert, P., et al. (2021). Knowledge graphs in digital twins for AI in production. In A. Dolgui et al. (Hrsg.), Advances in production management systems. Artificial intelligence for sustainable and resilient production systems (S. 249–257). Springer International Publishing.CrossRef
Mikolov, T., et al. (2013). Efficient estimation of word representations in vector space. http://arxiv.org/abs/1301.3781. Zugegriffen am 20.01.2025.
Nolle, L., et al. (2023). On explanations for hybrid artificial intelligence. In M. Bramer & F. Stahl (Hrsg.), Artificial intelligence XL (S. 3–15). Springer Nature Switzerland.CrossRef
Panigutti, C., et al. (2023). The role of explainable AI in the context of the AI Act. In Proceedings of the 2023 ACM conference on fairness, accountability, and transparency. FAccT ’23 (S. 1139–1150). Association for Computing Machinery.CrossRef
Ploennigs, J., et al. (2022). Scaling knowledge graphs for automating AI of digital twins. In The Semantic Web – ISWC 2022 (S. 810–826). Springer International Publishing.CrossRef
Ringsquandl, M., et al. (2017). On event-driven knowledge graph completion in digital factories. In 2017 IEEE International Conference on Big Data (Big Data) (S. 1676–1681). IEEE.CrossRef
Safavian, S. R., & Landgrebe, D. (1991). A survey of decision tree classifier methodology. IEEE Transactions on Systems, Man, and Cybernetics, 21(3), 660–674.MathSciNetCrossRef
Sarker, M. K., et al. (2021). Neuro-symbolic artificial intelligence. AI Communications, 34, 197–209.MathSciNetCrossRef
Schaeffer, R., et al. (2024). Are emergent abilities of large language models a mirage? Advances in Neural Information Processing Systems, 36.
Scholl, R. (2002). Der Papyrus Ebers. Die größte Buchrolle zur Heilkunde Altägyptens (= Schriften aus der Universitätsbibliothek Leipzig. Band 7). Leipzig: Universitäts-Bibliothek.
Somogyi, Z., et al. (1995). Mercury, an efficient purely declarative logic programming language. Australian Computer Science Communications, 17, 499–512.
Stahlberg, F. (2020). Neural machine translation: A review. Journal of Artificial Intelligence Research, 69, 343–418.MathSciNetCrossRef
Störig, H. J. (Hrsg.). (2022). Die Sprachen der Welt. Geschichte. Fakten. Geheimnisse. Anaconda.
Turing, A. M. (1950). Computing machinery and intelligence. Mind LIX, 236, 433–460.MathSciNetCrossRef
van der Valk, H., et al. (2020). A taxonomy of digital twins. In AMCIS 2020 Proceedings.
Vaswani, A., et al. (2017). Attention is all you need. CoRR abs/1706.03762. http://arxiv.org/abs/1706.03762. Zugegriffen am 20.01.2025.
van Vlijmen, H., et al. (2020). The need of industry to go FAIR. Data Intelligence, 2(1–2), 276–284.CrossRef
Wettler, M. (1989). Wissensrepräsentation: Typen und Modelle. In An international handbook on computer oriented language research and applications (S. 317–336). De Gruyter Mouton.
Wiewiórowski, W., et al. (2023). TechDispatch – Explainable artificial intelligence. #2/2023. Publications Office of the European Union. https://doi.org/10.2804/802043CrossRef
Wilkinson, M. D., et al. (2016). The FAIR Guiding Principles for scientific data management and stewardship. Scientific Data, 3(1), 1–9.CrossRef
Wittgenstein, L. (1953). Philosophical investigations. Basil Blackwell.
Wu, Y., & Feng, J. (2018). Development and application of artificial neural network. Wireless Personal Communications, 102, 1645–1656.CrossRef
Xu, F., et al. (2019). Explainable AI: A brief survey on history, research areas, approaches and challenges. In Natural language processing and Chinese computing: 8th cCF international conference, NLPCC 2019, Dunhuang, China, 09.–14. Oktober 2019, Proceedings, Teil II 8 (S. 563–574). Springer.CrossRef
Zami, M. B. A., et al. (2024). Digital Twin in Industries: A Comprehensive Survey. https://arxiv.org/abs/2412.00209. Zugegriffen am 20.01.2025.
Zhai, Y., et al. (2023). Investigating the catastrophic forgetting in multimodal large language models. In NeurIPS 2023 workshop on instruction tuning and instruction following.
Zott, R. (2003). Der Brief und das Blatt. Die Entstehung wissenschaftlicher Zeitschriften aus der Gelehrtenkorrespondenz. In: Wissenschaftliche Zeitschrift und Digitale Bibliothek: Wissenschaftsforschung Jahrbuch 2002 (S. 47–59). Gesellschaft für Wissenschaftsforschung.