Skip to main content
Top

3. Künstliche Intelligenz – ein Überblick

  • Open Access
  • 2026
  • OriginalPaper
  • Chapter
Published in:

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Künstliche Intelligenz (KI) ist allgegenwärtig und verändert unseren Alltag nachhaltig. Seit den ersten Ideen intelligenter Maschinen hat sich die Technologie rasant weiterentwickelt, wobei sie in den letzten Jahren einen Aufschwung erlebt. Günstige Rahmenbedingungen, die Verfügbarkeit von Trainingsdaten und Rechenkapazitäten sowie technische Meilensteine wie die Transformer-Architektur haben zu massiven Investitionen geführt, die immer mehr KI-Anwendungen Realität werden lassen. Inwiefern deren Verhalten als intelligent bezeichnet werden kann, ist Gegenstand aktueller Forschung. Risiken werden in der möglichen Entstehung einer künstlichen Superintelligenz gesehen, lassen sich aber auch in bereits etablierten Anwendungsbereichen, wie etwa der Massenüberwachung, der Veränderung von Informationskanälen oder dem Einsatz autonom handelnder Systeme finden. Die weitere Entwicklung und Anwendung von KI muss verantwortungsvoll gestaltet werden.

3.1 Einstimmung

„Hallo ChatGPT, ich soll einen Text für ein Buch über Künstliche Intelligenz schreiben, der das Interesse des Lesers weckt. Übernimm Du das mal, Du kannst das eh viel besser!“
So oder so ähnlich könnte es abgelaufen sein. Könnte. Denn in der Tat wurde der Text, den Sie gerade lesen – so wie alle anderen in diesem Buch übrigens auch – von Menschen verfasst. Menschen, die sich Gedanken zur Struktur, zum Inhalt und zur beabsichtigten Wirkung gemacht haben. Menschen, die dafür viel Zeit aufgebracht und Engagement investiert haben. Doch seien wir ehrlich: Dieser Text könnte genauso gut von einer Künstlichen Intelligenz oder, genauer gesagt, von einem großen Sprachmodell stammen. Würden Sie es bemerken? Vielleicht ja, vermutlich aber nein. Wahrscheinlich ist auch eine andere Frage viel relevanter: Würde der Umstand für Sie einen Unterschied machen? Möglicherweise fühlten Sie sich betrogen oder hinters Licht geführt, aber warum eigentlich?
Sicher ist, dass es durch die massenhafte Verbreitung von generativer Künstlicher Intelligenz sehr leicht geworden ist, hochwertige Texte zu produzieren. Atemberaubende Bilder sind nur wenige Mausklicks entfernt, und selbst ganze Musikalben entstehen quasi aus dem Nichts. Was früher Fachwissen und Übung voraussetzte, ist heute nahezu jedem möglich. Die Hürden liegen niedrig.
Zoomt man etwas heraus und betrachtet das gesamte Feld des maschinellen Lernens, so zeigen sich noch viele weitere Bereiche, in denen sich die Technologie längst etabliert hat:
  • Die Entscheidung darüber, ob Ihr Smartphone entsperrt wird, wenn Sie es anschauen.
  • Das Licht im Wohnzimmer, das Sie mit Ihrer Stimme ein- und ausschalten.
  • Ihr Auto mit dem praktischen Spurhalteassistenten.
Es sind nur zufällig gewählte Beispiele. Längst ist KI in unserem Alltag angekommen und schickt sich an, diesen ein Stück weit leichter und angenehmer zu gestalten. An vieles haben wir uns bereits gewöhnt, an anderes werden oder müssen wir uns gewöhnen. Wie sieht es etwa aus, wenn KI in kriegerischen Auseinandersetzungen zum Einsatz kommt, wo autonome Drohnen selbstständig über Leben und Tod entscheiden? Es mag uns nicht gefallen, aber die Realität hat notwendige und teilweise sogar schon überfällige gesellschaftliche Diskussionen längst überholt. Wir befinden uns bereits heute in der Welt von morgen, in der KI allgegenwärtig ist, in der sie Gutes wie Böses bewirken kann und das auch tut. Aber wie sind wir dort eigentlich gelandet, und warum passiert das alles gerade jetzt?

3.2 Die intelligente Maschine

Um uns dieser Frage zu nähern, müssen wir zunächst weit zurück in die Vergangenheit blicken. Die Faszination für intelligente Maschinen – also solche, die dem Menschen einigermaßen ebenbürtig sind – reicht bereits Jahrhunderte zurück, viel weiter als die Entstehung des Computers selbst. Bereits im 18. Jahrhundert baute der begabte Mechaniker Wolfgang von Kempelen den sogenannten Schachtürken (Windisch et al., 1783). Es handelte sich dabei um einen tischähnlichen Kasten, auf dem ein Schachbrett befestigt war. Hinter dem Tisch saß eine orientalisch gekleidete Puppe, die mit einem Roboterarm in der Lage war, gegen menschliche Gegner Schach zu spielen und sogar zu gewinnen. Bei öffentlichen Vorführungen soll der Schachtürke in Europa und Übersee stets für Furore und Staunen gesorgt haben. Eine Maschine, die in der Lage war, es mit einem Menschen im Schach aufzunehmen, war unerhört. Und selbstverständlich war das auch gar nicht der Fall, denn die Realität sah deutlich profaner aus: Im Kasten befand sich ein Mensch von kleiner Statur, der mittels komplexer Mechanik den Arm des Roboters bediente. So blieb es am Ende trotz beeindruckender handwerklicher Leistung bei einer Partie Mensch gegen Mensch.
Die Chancen, dass Sie von dieser Begebenheit bereits wussten, stehen nicht schlecht, denn sie ist gut dokumentiert und wohlbekannt. Die Idee der intelligenten Maschine ist nämlich nicht nur alt, sie hält sich auch hartnäckig.
Knapp 200 Jahre später, kurz nach der Fertigstellung der Zuse Z3 (Zuse, 1952), des ersten universellen Computers der Welt, beschäftigte sich der Wissenschaftler und Science-Fiction-Autor Isaac Asimov 1942 in seiner Kurzgeschichte Runaround bereits mit den ethischen Aspekten von Künstlicher Intelligenz und formulierte seine berühmten drei Gesetze der Robotik:
  • Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  • Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  • Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Sie fanden ihre Anwendung im Bereich der Belletristik.

3.3 Wunsch und Wirklichkeit

Bereits im Folgejahr entstand das Konzept des Neurons als eine Art digitaler Nervenzelle (McCulloch & Pitts, 1943). 1957 beschrieb der Informatiker Frank Rosenblatt schließlich ein neuronales Netzwerk; das sogenannte Perzeptron. In ihm sind Neuronen derart verknüpft, dass sie in der Lage sind, Eingaben zu ver- und bearbeiten und davon abgeleitet Ausgaben zu erzeugen. Die Art und Weise, wie dies geschieht, lernt ein Perzeptron anhand von Trainingsdaten. Es ist anschließend aber prinzipiell in der Lage, auch Daten zu verarbeiten, hinsichtlich derer es nicht explizit trainiert wurde. Die Mathematik dahinter ist simpel, und tatsächlich ist das Konzept auch heute noch eine wichtige Grundlage des maschinellen Lernens.
Dass Künstliche Intelligenz ihren Siegeszug dennoch erst mehr als ein halbes Jahrhundert später antritt, hat viele Gründe. Einer davon ist der enorme Bedarf an Rechenleistung. Perzeptronen mit wenigen Neuronen berechnen Studierende der Informatik zur Übung im Grundstudium. Wirklich leistungsfähige Netzwerke mit Milliarden von Neuronen waren hingegen für lange Zeit undenkbar. Die verheißungsvollen Versprechungen der Künstlichen Intelligenz ließen sich in der Praxis nicht einlösen. Ihre Anwendung blieb aus.
Der Idee der intelligenten Maschine tat das hingegen keinen Abbruch. Man behalf sich auf andere Weise. So wurde 1966 beispielsweise das Computerprogramm ELIZA zur Kommunikation in natürlicher Sprache entwickelt (Weizenbaum, 1966). ELIZA war damals Kernbestandteil einer Studie zur Mensch-Maschine-Interaktion, und tatsächlich sollen teilnehmende Probanden davon überzeugt gewesen sein, es mit einem verständigen Gegenüber zu tun zu haben. In Wahrheit interagierten sie mit einem regelbasierten System, welches die Unterhaltung durch geschickte Wahl von Frage-Antwort-Paaren in Gang hielt. ELIZA war weit davon entfernt, den sogenannten Turing-Test (Turing, 1950) zur Unterscheidung zwischen Mensch und Maschine zu bestehen; ihre „Intelligenz“ kannte klare Grenzen. Programme wie ELIZA mit ihren explizit festgelegten Regeln und logischen Operationen werden heute auch der sogenannten symbolischen KI zugeordnet, die in den 50er bis 80er Jahren ihre Hochzeit erlebte. Im Gegensatz zu den lernenden Systemen, die wir auch als subsymbolische KI bezeichnen, können symbolische Verfahren nicht aus Beispielen generalisieren, sondern verhalten sich exakt so, wie sie programmiert wurden. Aber selbst wenn ELIZA mit Künstlicher Intelligenz, wie wir sie heute kennen, wenig zu tun hat, so zeigte sich bereits damals die Bereitwilligkeit, mit der Menschen menschliche Züge auf sie projizierten.
Die Faszination für KI suchte sich derweil andere Spielfelder und fand sie im Bereich der Populärkultur und Science Fiction. In Büchern und Filmen träumte man von intelligenten, humanoiden Robotern, die dem Menschen mal hilfreich zur Seite oder auch feindlich gegenüberstanden. Ob 1978 die Zylonen in Kampfstern Galactica (Larsen, 1978–80) oder Commander Data in Star Trek Raumschiff Enterprise: Das nächste Jahrhundert (Roddenberry & Berman, 1987–94): Stets war KI Sinnbild einer fernen Zukunft, die mit der Gegenwart nur entfernt zu tun hatte. Dass eine dieser Visionen in erlebbarer Zukunft Realität werden könnte, glaubten sicherlich die wenigsten – die Autoren eingeschlossen.
Vielleicht haben wir uns geirrt.
Denn viele der Elemente, die damals einer fernen Zukunft vorbehalten waren, sind inzwischen Realität. Man denke etwa an Tablets mit Touchscreen, 3D-Drucker als simple Form von Replikatoren oder auch an Lt. Uhura mit ihrem Headset. Dass viele derer, die damals als Kinder und Jugendliche gebannt vor dem Fernseher saßen, inzwischen in wichtigen Positionen die Geschicke von Unternehmen weltweit lenken, mag dazu beigetragen haben.

3.4 Die vernetzte Welt

Rückblickend muss man die Phase bis in die 2010er-Jahre wohl als Eiszeit für die breite Anwendung von Künstlicher Intelligenz betrachten. Zwar gab es in bestimmten Spezialfeldern, wie zum Beispiel beim Schach, immer wieder Fortschritte; größere Durchbrüche mit Auswirkungen über diese klar begrenzten Bereiche hinaus blieben dagegen aus.
Die Informationstechnologie selbst dagegen entwickelte sich zur selben Zeit hinsichtlich der Möglichkeiten, Leistungsfähigkeit und Verfügbarkeit rasant weiter. Gordon Moore versuchte sich 1965 in einer Formalisierung dieser Entwicklung und stellte das Mooresche Gesetz auf, nach dem sich die Anzahl an Transistoren auf Prozessoren regelmäßig verdoppelt. Die empirische Beobachtung gab ihm jahrzehntelang recht. Aufwände und Kosten für Herstellung und Betrieb von IT nahmen derweil die entgegengesetzte Richtung: Die Kosten sanken – zwar nicht so schnell, wie es sich manche vielleicht gewünscht hätten, doch dem Durchbruch des Computers als Massenphänomen tat dies keinen Abbruch. Einen Computer zu besitzen, war Ende der 1980er-Jahre nicht mehr allein einer zahlungskräftigen Elite vorbehalten, und spätestens mit der zunehmenden Verbreitung des Internets zum Ende des letzten Jahrtausends befanden wir uns im Informationszeitalter. Kommunikation verlagerte sich zunehmend ins Digitale, die Welt vernetzte sich, man war „online“.
Als Steve Jobs 2007 das erste iPhone vorstellte, markierte dies einen weiteren wichtigen Meilenstein: Der Computer wanderte vom heimischen Schreibtisch in die Hosentasche. Im Internet zu surfen oder Nachrichten mit Freunden und Familie auszutauschen, war nun bequem zu jeder Zeit und von fast überall aus möglich. Es war ein großer Sprung nach vorne, denkt man etwa an die zur damaligen Zeit durchaus noch übliche SMS mit ihren maximal 160 Zeichen als die einzige Alternative zum Sprachanruf. Das iPhone entwickelte sich schnell zum Verkaufsschlager und sorgte dafür, dass auch die Konkurrenz bald nachzog. 2008 veröffentlichte Google ein eigenes Betriebssystem für mobile Geräte: Android.
Der Siegeszug des Smartphones markiert wohl auch den Durchbruch des Ubiquitous Computing (Meiser, 1991). Der Mensch musste sich nicht mehr zum Computer bewegen, sondern der Computer folgte jetzt dem Menschen. Inzwischen sind Smartphones ein kaum mehr wegzudenkender Bestandteil unseres Alltags. Wir verbringen viel Zeit mit ihnen, teilweise jede freie Sekunde; das kann jeder bestätigen, der sich gelegentlich in öffentlichen Verkehrsmitteln umsieht.
Allerdings verhilft diese Entwicklung noch einer weiteren Technologie zum Durchbruch: dem sozialen Netzwerk. Als Facebook 2004 online ging, waren Plattformen, auf denen sich Nutzende austauschen können, längst keine Neuerung mehr. Internetforen sind so alt wie das Internet selbst. Allerdings war der Aufstieg von Facebook zum zeitweise größten Online-Netzwerk der Welt aus zwei Gründen bemerkenswert: Zum einen erreichte Facebook eine bisher nie dagewesene Masse an Mitgliedern und eine entsprechend große Reichweite quer durch sämtliche gesellschaftliche Schichten. Zum anderen verstand es Facebook wie kein anderes Unternehmen zuvor, die immensen Betriebskosten mittels Werbung finanziell zu kompensieren. Auch wenn der Dienst für seine Mitglieder von Anfang an kostenlos war, so hatte die Nutzung dennoch ihren Preis, denn Facebook machte kurzerhand seine Nutzer zum Produkt für eine finanzkräftige Werbeindustrie: Sämtliche Texte, Bilder, Interaktion mit der Welt, aber auch Metadaten wie etwa der aktuelle Standort – all das floss in Milliarden Persönlichkeitsprofile für das sogenannte Target Marketing ein. Wofür interessierte sich jemand gerade in diesem Moment, welche Bedürfnisse konnten dahinterstecken, und welche Produkte oder Dienstleistung ließen sich mit diesem Wissen verkaufen? Der Nutzer wurde zum gläsernen Konsumenten. Der ehemals freie und teilweise anarchische Ort Internet kommerzialisierte sich in den ersten beiden Dekaden des 21. Jahrhunderts zunehmend, und der Brennstoff dieser Entwicklung war Information.
Viele taten es Facebook gleich, wie etwa das nach und nach zum Suchmaschinengiganten avancierende Unternehmen Google oder der Online-Händler Amazon. Überall mussten nun Daten in zuvor nicht gekanntem Ausmaß erhoben, verarbeitet und gespeichert werden. Dank Smartphone, bereitwilliger Nutzer und noch vergleichsweise schwacher Datenschutzregelungen war die Erhebung kein Problem, und für Verarbeitung und Speicherung wurden umfangreiche Infrastrukturen aufgebaut, deren Leistungsfähigkeit mit zunehmendem Bedarf immer weiter wuchs. Rechenzentren entstanden mit Datenspeicherkapazitäten in bis dahin nicht gekanntem Ausmaß, und die immensen Kosten dafür mussten aufgebracht und langfristig kompensiert werden. Das zu leisten, gelang nur wenigen großen Unternehmen, und auch diese standen vor der Herausforderung, ihre Infrastrukturen effizient auszulasten. Bald begannen sich der Aufbau und Betrieb von Rechenkapazitäten zunehmend von deren Nutzung zu separieren und wurden selbst zum Produkt: Es entstand die sogenannte Cloud. Für Unternehmen wie etwa Amazon mit den Amazon Web Services oder Microsoft mit Azure wurde der Geschäftszweig Cloud Computing zu einem nicht unerheblichen Umsatzbringer, denn der Bedarf wuchs rasant. Leistungsfähige IT musste nun nicht mehr zwangsläufig selbst betrieben werden, sondern konnte in beinahe beliebigem Umfang flexibel zugekauft werden.
Warum ist diese Entwicklung so relevant?
Es ist wichtig zu verstehen, dass es für die erfolgreiche Etablierung von moderner Künstlicher Intelligenz vor allem zwei Dinge braucht: Daten, um KI-Modelle zu trainieren, sowie Rechenleistung, um diesen Vorgang durchführen zu können. Von beidem braucht es viel. Sehr viel. Die Kosten dafür gehen in die Millionen.

3.5 Ein revolutionärer Ansatz

Anfang der 2010er-Jahre nahm dann auch die Entwicklung um KI selbst langsam wieder Fahrt auf. Bereits 2011 brillierte IBM Watson in der US-Spielshow Jeopardy!, und Apple präsentierte der Öffentlichkeit seinen persönlichen Sprachassistenten Siri. Aber auch an den mathematischen Prinzipien und Grundlagen wurde weiter gefeilt, wobei subsymbolische Verfahren zunehmend im Rampenlicht standen. Neue Architekturen von neuronalen Netzwerken, wie zum Beispiel 2014 die Generative Adversarial Networks, kurz GANs genannt, legten die Messlatte kontinuierlich höher (Goodfellow et al., 2014). Den eigentlichen Durchbruch hatte Künstliche Intelligenz aber erst mit einer Technologie, die 2017 für die Generierung von Texten vorgestellt wurde. In diesem Jahr erschien unter der Beteiligung von Google ein Forschungspapier, welches die Basis für den bald darauffolgenden Hype um generative Künstliche Intelligenz bildete:
„Attention is all you need.“ (Vaswani et al., 2017)
Die beteiligten Forscher beschrieben darin eine neue Architektur für den Aufbau neuronaler Netzwerke: die Transformer. Die Neuerung und gleichzeitig der Hauptunterschied zu bisher verbreiteten Architekturen war – wie der Titel des Papers bereits vermuten lässt – der sogenannte Aufmerksamkeitsmechanismus. Bei diesem handelt es sich grob gesagt um ein Verfahren zur Bewertung der Bedeutung von Eingabeelementen für die zu generierende Ausgabe. Transformer-Netzwerke lernen während des Trainings die Muster der Beziehungen von Elementen zueinander und sind anschließend in der Lage, dieses „Wissen“ auch auf zuvor unbekannte Eingaben zu transferieren.
Zur Veranschaulichung: Stellt man ein Transformer-Netzwerk vor die Herausforderung, den Satz „Der Himmel ist“ sinnvoll weiterzuführen, so wird das Netzwerk eine Wahrscheinlichkeitsverteilung über ein festgelegtes Vokabular an Möglichkeiten zurückgeben. Das Wort „blau“ wird mit einer sehr hohen Wahrscheinlichkeit darunter sein, vermutlich auch das Wort „bewölkt“ und andere. Dem Wort „Stuhl“ wird hingegen eine verschwindend geringe Wahrscheinlichkeit zugeordnet werden. Warum? Weil eine solche Fortsetzung wenig Sinn ergibt und daher in den Trainingsdaten (vermutlich) nicht enthalten war. Das Wort „Himmel“ ist dabei für die Beurteilung von besonderer Bedeutung, und ihm widmet das Netzwerk die meiste Aufmerksamkeit. Hingegen spielt das Wort „Der“ kaum eine Rolle. Diese Zusammenhänge erlernen Transformer-Netzwerke in ihrer Trainingsphase mittels großer Datenmengen.
So simpel und naheliegend dieser Ansatz klingen mag, so effektiv und einflussreich war er für die Weiterentwicklung des Themenfeldes der Künstlichen Intelligenz in den Folgejahren und ist es bis heute. Natürlich waren Forschende auch vor der Vorstellung der Transformer keineswegs untätig; dennoch stellen diese einen wichtigen Meilenstein dar, denn sie kamen zum richtigen Zeitpunkt.

3.6 The Next Big Thing

Sicherlich war kein singuläres Ereignis allein für die rasante Ausbreitung von KI Ende der 2010er und Anfang der 2020er-Jahre verantwortlich. Vielmehr handelt es sich um ein zeitlich günstiges Zusammenspiel multipler Faktoren, von denen hier nur ein paar genannt sein sollen.
Im Unterschied zu vorherigen Dekaden standen nun enorme Rechenkapazitäten zum Training von KI-Modellen zur Verfügung. Im Normalfall bedarf es für bestimmte mathematische Operationen, wie etwa Matrixmultiplikation, spezialisierter Hardware, die entsprechend optimiert ist, um mit akzeptablem Aufwand eine ausreichende Leistung und Qualität herzustellen. Es zeigte sich, dass Grafikkarten, die bis zu diesem Zeitpunkt vornehmlich für Spiele und 3D-Anwendungen entwickelt worden waren, hierfür besonders geeignet sind. Dem Hersteller NVIDIA bescherte diese Entwicklung innerhalb weniger Jahre eine Vervielfachung des Unternehmenswertes (NVIDIA, 2024).
Auch standen inzwischen große Mengen an Trainingsdaten zur Verfügung: Soziale Netzwerke, Instant Messenger, Portale wie YouTube und so weiter – das Internet war längst voll mit Texten, Bildern, Videos und Audiomaterial. Alles war nutzbar, und beim Copyright wurden mutmaßlich gerne mal beide Augen zugedrückt (S.D.N.Y., 2023). Es herrschte Wilder Westen, Goldgräberstimmung.
Als ein weiterer Faktor ist sicherlich auch der Einstieg vieler technisch interessierter Hobbyisten zu nennen, von denen so mancher bereits im Besitz einer leistungsfähigen Grafikkarte war, sei es für anspruchsvolle Computerspiele oder auch für das Schürfen von Kryptowährungen wie Bitcoin. KI auf dem eigenen Computer ausführen zu können, war reizvoll genug, um in kurzer Zeit eine große Menge von Open-Source-Projekten entstehen zu lassen, egal ob es um die grundsätzliche Weiterentwicklung der mathematischen Grundlagen oder schlicht um die Anwendung in immer neueren Bereichen ging. KI demokratisierte sich, und die Einstiegshürden sanken zunehmend. Dass viele Menschen aufgrund der zu dieser Zeit weltweit grassierenden Corona-Pandemie und den daraus folgenden Beschränkungen mehr Zeit für ihre technischen Hobbyprojekte hatten, spielt sicherlich ebenfalls eine gewisse Rolle. So entwickelten private Enthusiasten und professionelle Forscher gleichermaßen neue Ideen, und Unternehmen wie Meta, die über die finanziellen Mittel verfügten, KI-Modelle zu trainieren, trugen dieser Entwicklung Rechnung, indem sie viele Ergebnisse kostenfrei zur Verfügung stellten (Touvron et al., 2023).
Grenzen schien es keine mehr zu geben. Selbst Konzepte wie Artificial General Intelligence oder gar Artificial Super Intelligence tauchten nun immer häufiger auf, wobei KI gemeint ist, die dem Menschen mindestens ebenbürtig ist. Diskussionen darüber, die man noch wenige Jahre zuvor mit einem milden Lächeln abgetan hatte, waren plötzlich salonfähig, und immer mehr Menschen hatten eine Meinung dazu. Es ist daher kaum verwunderlich, dass diese Situation auch große Kapitalgeber magisch anzog. Die nebulösen Aussichten einer irgendwie gearteten Utopie mit und durch KI ließen Investitionen in bisher nicht gekanntem Ausmaß sprudeln. Plötzlich war alles möglich, und die im Wochentakt hereintrudelnden Meldungen über neue Erfolge und bahnbrechende Fortschritte heizten diesen Glauben immer weiter an. Niemand wollte „The Next Big Thing“ verpassen.
Nur wenige Jahre später hatte Künstliche Intelligenz die Tech-Bubble verlassen, und spätestens mit der Einführung des Chat-Assistenten ChatGPT durch OpenAI im Jahr 2022 begann sie zum Werkzeug für Jedermann zu avancieren.

3.7 Zwei Arten von KI

Was bei den vielen Diskussionen rund um generative KI häufig vergessen wird: Wir sprechen hier nur von der Spitze des Eisbergs. Wie bereits aufgezeigt, sind die eingesetzten Technologien alles andere als neu. Das maschinelle Lernen hatte sich bereits vor Verbreitung der Transformer in vielen Anwendungsgebieten als ausreichend verlässlich und damit brauchbar erwiesen, selbst wenn keiner der Errungenschaften in diesem Bereich auch nur annähernd die gleiche Aufmerksamkeit zuteilwurde.
Eine Begriffsklärung
Moderne Künstliche Intelligenz lässt sich grob in zwei Kategorien einteilen: Generativ sowie diskriminativ.
Generative KI erzeugt gänzlich neue Daten. Beispiele sind Chatbots wie ChatGPT oder Dienste zur Generierung von Medien, wie Bilder oder Videos. Die Anfrage eines Nutzers – oft auch als Prompt bezeichnet – dient dabei kombiniert mit Zusatzinformationen, Regeln und Instruktionen als Basis. Gemeinsam bilden sie den sogenannten Kontext. Textgeneratoren setzen diesen lediglich sinnvoll fort, indem sie, wie zuvor beschrieben, nach meist stochastischen Verfahren das nächste sogenannte Token generieren. Dabei kann es sich um ein Wort, einen Teil davon oder auch um Satz- und Steuerzeichen handeln. Dieses Token wird an den Kontext angehängt und der Vorgang bis zum Erreichen bestimmter Stoppkriterien wiederholt. Generative KI erzeugt unter gegebenen Bedingungen die wahrscheinlichste Fortsetzung. Das kann der Chat mit einem KI-Assistenten sein oder eben etwas anderes. Prinzipiell kann dieser Vorgang endlos wiederholt werden; praktisch limitieren verfügbarer Speicher, Laufzeit und die mit der Zeit degenerierenden Ergebnisse den Umfang. Bei der Erzeugung von Audioinhalten verhält es sich ähnlich, wobei dort spezifische Frequenzen und Amplituden erzeugt werden, die Sprache, Musik oder anderen Inhalten entsprechen.
Die Generierung von Bildern folgt hingegen einem anderen Prozess. Hier hat sich ein Verfahren etabliert, bei dem aus purem Zufall basierend auf einer Texteingabe nach und nach Bildinformationen extrahiert werden (Rombach et al., 2022). Dazu hat Künstliche Intelligenz in der Trainingsphase erlernt, wie sich Bilder verändern, die zunehmend von Rauschen überlagert werden. Eine solche KI ist anschließend in der Lage, diesen Prozess umzukehren. Für Videos können beide Ansätze kombiniert werden.
Diskriminative KI kommt hingegen vor allem dort zum Einsatz, wo es um die Unterscheidung und Klassifikation von Daten geht. Beispiele sind die Erkennen von Verkehrshindernissen durch autonom fahrende Fahrzeuge oder auch das Erfassen von gesprochener Sprache. In jedem Fall müssen Daten anhand festgelegter Kriterien zugeordnet werden:
  • Im Bild einer Fahrzeugkamera, die die Umgebung filmt, müssen potenzielle Gefahren verortet werden.
  • Das Spektrogramm einer Audioaufnahme muss einzelnen Wörtern zugeordnet werden.
Das generelle Problem ist, dass zum Zeitpunkt des Trainings solcher Systeme die konkreten Daten, mit denen sie in Zukunft konfrontiert sein werden, unbekannt sind. Natürlich ist es unmöglich, sämtliche Gefahrenquellen im Straßenverkehr zu antizipieren. Ebenso verhält es sich mit der menschlichen Stimme: Aussprache, Dialekt, Aufnahmequalität – jede Aufnahme ist ein Unikat. Diskriminative KI ist daher in der Lage, anhand von Beispieldaten in der Trainingsphase eine gewünschte Zuordnung zu erlernen. Allerdings nicht mit hundertprozentiger Sicherheit. Vielmehr liefert sie eine Wahrscheinlichkeitsverteilung zurück und ist somit in der Lage, auch bisher unbekannte Daten adäquat zuzuordnen.
In der Praxis kommen auch Mischformen und Kombinationen von generativen und diskriminativen Verfahren zum Einsatz, etwa, wenn Eingabedaten zunächst identifiziert und zugeordnet werden müssen, um im nächsten Schritt eine adäquate Ausgabe zu erzeugen: Erkennt beispielsweise ein autonom fahrendes Fahrzeug Gefahrenquellen, so warnt der Sprachassistent akustisch davor.

3.8 Die scheinbare Intelligenz

Methoden der Künstlichen Intelligenz haben also schon lange vor ChatGPT und Co. Einzug in unseren (technologischen) Alltag gehalten. Dass insbesondere generative KI eine solch starke gesellschaftliche Reaktion hervorgerufen hat, hat einen besonderen Grund: Nun war Technologie zu etwas in der Lage, das bis zu diesem Zeitpunkt dem Menschen vorbehalten war – Flexibilität und Kreativität.
Erstmals passte sich die Technologie an den Menschen an und nicht umgekehrt. Chatbots schienen Anfragen plötzlich umfänglich zu „verstehen“. War es bei klassischen, regelbasierten Assistenzsystemen wie Apples Siri oder Amazons Alexa noch notwendig, die zulässige Syntax zumindest grob zu kennen, so besaß ChatGPT von Anfang an die Fähigkeit, flexibel auf jede Anfrage zu reagieren – egal wie diese gestellt war: kurz oder ausführlich, formal oder umgangssprachlich, mit oder ohne korrekte Rechtschreibung. Nicht mehr Anweisungen oder die sachgemäße Bedienung standen im Vordergrund, sondern das zu erreichende Ziel. Jahrzehntelang war es notwendig gewesen, die (Programmier-)Sprachen der Maschinen zu erlernen, inzwischen sprechen die Maschinen die menschliche Sprache und können kommunikativ längst mit uns mithalten. Das Ziel intuitiv zu bedienender Technik scheint in greifbarer Nähe, und mit jeder Entwicklungsstufe kommt KI diesem Ziel ein Stück näher.
Aber macht sie das auch intelligent? Das Wort Intelligenz stammt vom lateinischen intellegere, was so viel bedeutet wie erkennen und verstehen. Und ziehen wir nur diese Wortabstammung zu Rate, so müssen wir wohl feststellen, dass KI durchaus intelligentes Verhalten an den Tag legt: Sie ist in der Lage, relevante Information zu erkennen und daraus Reaktionen abzuleiten – seien es die Handlungen eines autonomen Fahrzeuges oder die Antworten eines Chatbots. Wie stark diese Fähigkeiten ausgeprägt sind, kann diskutiert werden, aber dass sie vorhanden sind, scheint offensichtlich.
Doch lassen Sie uns die Definition von Intelligenz noch etwas ausweiten. Wenn wir von intelligentem Verhalten sprechen, dann meinen wir damit für gewöhnlich auch logisches Denken und kognitive Fähigkeiten zur Problemlösung. Besitzt KI diese Fähigkeiten? Versuchen Sie es selbst! Nehmen Sie ein nicht mehr ganz aktuelles KI-Modell Ihrer Wahl und stellen Sie ihm folgende Frage:
Alice hat zwei Schwestern und zwei Brüder. Wie viele Schwestern hat jeder der zwei Brüder?
Die korrekte Antwort lautet natürlich drei. Es handelt sich hier um ein äußerst simples Logikrätsel. Simpel genug, dass Kinder im Grundschulalter imstande sein sollten, es zu lösen. Ähnliche Rätsel gibt es zuhauf und bis vor Kurzem scheiterten viele KI-Modelle an der korrekten Beantwortung (Nezhurina et al., 2024). Offenbar tun sie sich mit dem logischen Denken und der spontanen Verknüpfung von Informationen schwer – Aufgaben, für die gemeinhin eine gewisse Form von Intelligenz notwendig erscheint. Ähnlich verhält es sich im Bereich der Mathematik. Die genauen Gründe sind ebenso Gegenstand intensiver Forschung wie Möglichkeiten, die Fähigkeiten auf diesen Gebieten zu verbessern. Hier tut sich einiges. So könnten beispielsweise gerade die für lange Zeit eher verschmähten symbolischen Verfahren eine Renaissance erleben, aber dazu mehr in Kap. 11.

3.9 Die Zukunft ist jetzt

Solche Kinderkrankheiten legen den Schluss nahe, dass eine dem Menschen wirklich ebenbürtige Künstliche Intelligenz mindestens noch in einiger Ferne liegt, sollten wir überhaupt jemals imstande sein, sie zu kreieren. Nicht wenige warnen davor, und es sind nicht nur Untergangspropheten unter ihnen, sondern durchaus auch namhafte Wissenschaftler („Pause Giant AI Experiments: An Open Letter“, 2023). Denn eine derart hoch entwickelte Intelligenz könnte zu dem Schluss kommen, dass die eigene Existenz bedroht ist – durch den Menschen. Und sie könnte versucht sein, diese Bedrohung zu eliminieren.
Doch müssen wir gar nicht unbedingt in eine nebulöse Zukunft schauen, um Risiken ausfindig zu machen, denn KI verändert bereits heute unseren Alltag, unsere gesellschaftlichen Strukturen und die Art und Weise, wie wir leben. Sie tut es seit vielen Jahren im Kleinen wie im Großen; allein die Auswirkungen werden zunehmend sichtbarer und die Fragen, die sie mitbringt, drängender.
Welchen Informationen können Sie noch trauen, wenn Bilder und Videos zwar echt wirken, aber es nicht mehr sein müssen? Wem können Sie Glauben schenken, wenn Sie wissen, dass Ihr Bauchgefühl Sie täuschen kann? Bereits jetzt leben wir in einer Welt, die im Digitalen von Informations- und Reizüberflutung geprägt ist. KI-generierte Inhalte füllen das Fass weiter, bis zum Bersten und darüber hinaus. Sie zu erzeugen kostet praktisch nichts mehr, und sie haben das Potential, beliebige Informationskanäle zu verstopfen. Auf der Strecke bleiben Fakten und die Wahrheit.
Wie lebt es sich in einer Welt, in der Künstliche Intelligenz die perfekte Überwachung ermöglicht? Was in Europa noch als Dystopie gilt, ist in China bereits Realität. Dort findet schon heute eine massenhafte Überwachung der eigenen Bevölkerung unter Einsatz von KI statt: Die Bewegung von Menschen im öffentlichen Raum, ihr Wohlverhalten, ihre Handlungen im Netz und so weiter. KI als perfekter Wächter. In der EU gibt es mit dem AI Act hingegen eine erste Gesetzgebung mit dem Ziel, kritische Nutzung wirksam zu regulieren. Ob das unzureichend, angemessen oder gar fortschrittshemmend ist, wird die Zeit zeigen müssen; ebenso, ob es der Politik gelingt, mit dem rasanten technischen Fortschritt mithalten zu können.
Oder kommen wir nochmal zurück auf den anfangs erwähnten Einsatz von KI bei kriegerischen Auseinandersetzungen: autonome Drohnen oder die automatisierte Identifikation von Gegnern, Entscheidungen über Leben und Tod binnen Millisekunden. Das Versprechen von Effizienz und Effektivität, das KI mit sich bringt, verfängt auch hier. Und warum auch nicht? Jeder kleinste Vorteil kann einen Unterschied machen. Aber wird ein Krieg dadurch besser, sicherer oder gar humaner?
All dies sind auch wieder nur zufällig gewählte Beispiele. Die Liste ließe sich endlos fortsetzen. Was macht eine solche Entwicklung mit einer Gesellschaft wie der unseren? Diese Frage abschließend zu beantworten, ist kaum möglich, und auch dieses Buch wird dazu nicht in der Lage sein. Aber es kann Einblicke geben, Sichtweisen teilen und Einfluss nehmen.
Über die Art und Weise, wie wir mit Künstlicher Intelligenz leben wollen, wo wir von ihr profitieren können und wo wir sie in ihre Schranken weisen müssen, darüber sollten wir fortwährend streiten. Wir alle sind Teil der Gesellschaft und können Fortschritt und Wandel aktiv mitgestalten. Jeden Tag aufs Neue. Das ist gut so. Dieses Buch möchte Bewusstsein schaffen. Nutzen Sie es im besten Sinn. Es gilt keine Zeit zu verlieren, denn die Zukunft ist jetzt.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Download
Title
Künstliche Intelligenz – ein Überblick
Authors
Stefan Werner
Carsten Arzig
Copyright Year
2026
Publisher
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-71567-3_3
go back to reference Asimov, I. (1942). Runaround. Street & Smith.
go back to reference Goodfellow, I. J., et al. (2014). Generative adversarial networks. https://arxiv.org/abs/1406.2661. Zugegriffen am 17.10.2024.
go back to reference Larsen, G. A. (1978–80). Kampfstern Galactica. Universal Pictures.
go back to reference McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The Bulletin of Mathematical Biophysics. https://doi.org/10.1007/BF02478259
go back to reference Meiser, M. (1991). The computer for the 21st century. Scientific American.
go back to reference Moore, G. E. (1965). Cramming more components onto integrated circuits. Electronics.
go back to reference Nezhurina, M., et al. (2024). Alice in wonderland: Simple tasks showing complete reasoning breakdown in state-of-the-art large language models. https://arxiv.org/abs/2406.02061
go back to reference NVIDIA. (2024). NVIDIA Announces Financial Results for Second Quarter Fiscal 2024. https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-second-quarter-fiscal-2025
go back to reference Pause Giant AI Experiments: An Open Letter. (2023). Future of Life Institute. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
go back to reference Roddenberry, G., & Berman, R. (1987–94). Raumschiff Enterprise – Das nächste Jahrhundert. Paramount Pictures.
go back to reference Rombach, R., et al. (2022). High-resolution image synthesis with latent diffusion models. https://arxiv.org/abs/2112.10752
go back to reference Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 386–408. https://doi.org/10.1037/h0042519
go back to reference S.D.N.Y. (2023). The New York Times Company v. Microsoft Corporation.
go back to reference Touvron, H., et al. (2023). LLaMA: Open and Efficient Foundation Language Models. https://arxiv.org/abs/2302.13971
go back to reference Turing, A. (1950). Computing Machinery and Intelligence. Mind.
go back to reference Vaswani, A., et al. (2017). Attention is all you need. CoRR abs/1706.03762. http://arxiv.org/abs/1706.03762.
go back to reference Weizenbaum, J. (1966). Communications of the ACM, 9(1), 36–45. https://doi.org/10.1145/365153.365168
go back to reference von Windisch, K. G., et al. (1783). Briefe über den Schachspieler des Hrn. von Kempelen, Mechel. https://www.digitale-sammlungen.de/de/view/bsb10081244? Zugegriffen am 17.10.2024.

Premium Partner

    Image Credits
    Neuer Inhalt/© ITandMEDIA, Nagarro GmbH/© Nagarro GmbH, AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, USU GmbH/© USU GmbH, Ferrari electronic AG/© Ferrari electronic AG