4. Mediengeschichtliche Einordnung und Einfluss von KI auf die zukünftige Entwicklung
- Open Access
- 2026
- OriginalPaper
- Chapter
Activate our intelligent search to find suitable subject content or patents.
Select sections of text to find matching patents with Artificial Intelligence. powered by
Select sections of text to find additional relevant content using AI-assisted search. powered by (Link opens in a new window)
Zusammenfassung
4.1 Der Ursprung
8. Oktober 2024: Nobelpreis für KI. Nein, nicht eine KI hat den Nobelpreis bekommen, sondern die menschlichen Wissenschaftler John Hopfield und Geoffrey Hinton für ihre Forschungen über maschinelles Lernen.
Natürlich ließe sich trefflich darüber spekulieren, wann eine KI doch einmal den Nobelpreis erhalten wird. In spätestens zehn Jahren – wenn wir den Marketing-Versprechen der KI-Apologeten Glauben schenken. Oder wahrscheinlich nie – wenn wir die Vorliebe der Nobelpreis-Komitees für ältere Menschen-Männer berücksichtigen.
Advertisement
Interessanter als solche Spekulationen sind aber zwei Fakten: Zum einen hat Hinton nach Jahrzehnten erfolgreicher Entwicklung und Arbeit für KI-Technologien 2023 seinen Job bei Google Brain gekündigt, um offener über die Risiken und Gefahren der Künstlichen Intelligenz sprechen zu können. Dieses Motiv spielt auch in seinen ersten Statements zur Nobelpreis-Auszeichnung eine Rolle. Auch Hopfield äußert sich partiell kritisch.
Zum anderen liegen die vom Nobelpreis-Komitee hauptsächlich gewürdigten Arbeiten von Hopfield und Hinton Jahrzehnte zurück. Hopfield hat die nach ihm benannten assoziativen neuronalen Netze Anfang der 80er-Jahre entwickelt, und Hintons „Boltzmann-Maschine“ bzw. Helmholtz-Maschine wurden Mitte der 80er-Jahre veröffentlicht. Des letzten Jahrhunderts wohlgemerkt!1
Die konzeptionellen Grundlagen für neuronale Netze stammen sogar aus den 1940er-Jahren, sind also gute 80 Jahre alt. Es könnte demnach sein, dass ein Blick in die Geschichte und Vorgeschichte der Künstlichen Intelligenz hilft, um aktuelle und künftige Entwicklungen einzuschätzen – gerade auch, wenn es um die gesellschaftliche Beherrschbarkeit ihres massenhaften Einsatzes geht.
Und wenn wir die Aufregungen um das Teilgebiet der sogenannten generativen Künstlichen Intelligenz verstehen wollen, muss der Bogen sogar noch größer gespannt und ein gezielter Blick auf die Geschichte und Theorie der Nutzung von Medientechniken zur Unterstützung menschlicher Kommunikation geworfen werden.
Advertisement
Denn die aufmerksamkeitserregenden Simulationen oder Fakes der Stimmen, des Aussehens, der Bewegungen etc. von Celebrities aus Musik, Kunst, Politik oder auch anderen gesellschaftlichen Bereichen sind im Kern mediale Anwendungen von KI-Technologien. Das Gabler Wirtschaftslexikon definiert beispielsweise: „Generative KI (‚KI‘ steht für ‚Künstliche Intelligenz‘) ist ein Sammelbegriff für KI-basierte Systeme, mit denen auf scheinbar professionelle und kreative Weise alle möglichen Ergebnisse produziert werden können, etwa Bilder, Video, Audio, Text, Code, 3D-Modelle und Simulationen“ (Bendel, 2024).
Damit wird generative KI als Medienphänomen eingeordnet. Auch das „KI-Gesetz“ der EU ist stark von dieser Perspektive geprägt (Europäisches Parlament, 2023a, b).
Selbstverständlich werden KI-Technologien und -Systeme auch in anderen Bereichen angewendet, etwa im Militär oder in Automobilen etc. Verschiedene Kapitel dieses Buchs behandeln diese Aspekte und Perspektiven auf die KI-Entwicklung. Aber die „Medienperspektive“ mit einem Fokus auf die Entwicklung der Digitalisierung bietet ganz eigene interessante Einsichten und Differenzierungsmöglichkeiten für die KI insgesamt und soll hier im Mittelpunkt stehen.
Werfen wir also einen Blick auf geschichtliche Wegmarken der Produktion und Wahrnehmung von Medien – Bilder, Video, Audio, Text, Code, 3D-Modelle und Simulationen – und ihre gesellschaftlichen Auswirkungen.
Ich beginne mit einer etwas ausführlicheren Analyse der ältesten nachgewiesenen Medientechnik, der Höhlenmalerei, weil sich hier bereits in den Techniken, Grundprinzipien und auch Problemen oder Risiken vieles zeigen lässt, was auch für die Einschätzung aktueller KI- und Digitalisierungstechniken hilfreich ist. Dann geht es in einem Sprint durch einige wesentliche Stationen der Medienentwicklung, wie die Überlistung menschlicher Wahrnehmung beim Film, die Überwindung der Raumgrenzen durch mobile Schrifttechnologien, die Vorbereitung der Digitalisierung durch Buchstabenschriften, die maschinelle Vervielfältigung durch den Buchdruck, den Einzug der Lichtgeschwindigkeit durch die Telegrafie sowie globale Kommunikationsinfrastrukturen durch Telefonie und Internet.
Im Zuge dessen kann herausgearbeitet werden, was an aktuellen KI-Entwicklungen wirklich neu ist und wo die Menschheit letztlich schon seit Jahrhunderten Erfahrungen im gesellschaftlich verantwortungsvollen Umgang mit medialen Techniken sammeln konnte.
Lesehinweis: Ich schlage zwar am Ende jeder mediengeschichtlichen Station bereits die eine oder andere Brücke zur KI, Sie können aber auch auf die Überblickstabelle vorspringen, mit der die Schlussargumentation des Artikels eingeleitet wird. Dann verpassen Sie aber etwas und blättern wahrscheinlich wieder zurück.
4.2 Bilder – ein Anfang der Medientechnik, kein Ende menschlicher Gesellschaften
Nach aktuellem Stand ist älteste nachgewiesene Bildtechnik die sogenannte Höhlenmalerei. Auf der indonesischen Insel Sulawesi finden sich Darstellungen eines Pustelschweins, die auf ca. 53.000 ± 2300 Jahre datiert wird (Brumm et al., 2021).
Ein dunkel umrandetes, vierbeiniges Tier mit orange-brauner Färbung, das nach rechts schaut. Das Pustelschwein ist Teil eines größeren Gemäldes, das wie eine abstrahierte Landschaft wirkt. Links oberhalb des Schweins sind zwei ausgestreckte Hände zu sehen.2
Was hat das uralte Bild eines Pustelschweins mit moderner Künstlicher Intelligenz zu tun? Sehr viel. Denn bereits damals zeigten sich wesentliche Techniken und vor allem Grundprinzipien, die bei KI (-Anwendungen) heute relevant sind. Und wir sehen auch Probleme oder Risiken, die in aktuellen Diskussionen über KI und andere digitale Techniken thematisiert werden, als wären sie neu.
Konkret
1.
Bildtechnik:
Offensichtlich war jemand – wahrscheinlich ein oder mehrere Menschen – in der Lage, Form- und Farbtechniken so zu verwenden, dass ein Bild auf der Höhlenwand angebracht werden konnte, sogar als Farbbild. Bei anderen Bildtechniken, wie Fotografie und Film, dauerte es jeweils Jahrzehnte der Entwicklung von Schwarzweiß- zu Farbbildern. Auf jeden Fall spricht viel für die These, dass diesem farbigen Kunstwerk ebenfalls Jahrzehnte, wenn nicht gar Jahrhunderte des Experimentierens mit verschiedenen Farb- und Formtechniken vorausgegangen sind.
2.
Speichertechnik:
Das Bild ist zwar stationär, also noch an die Räumlichkeit seiner Entstehung gebunden. Aber es durchbricht die Schranken der Zeit, d. h. es kann anders als Bildkommunikationsmittel, wie Gesten, Mimik oder auch Zeichnungen im Sand, noch Jahre oder Jahrtausende nach seiner Produktion angesehen und identifiziert werden – also die erste nachgewiesene Speichertechnik für Bildmaterial.
3.
Imitationsfähigkeit und -technik:
Das Bild an der Höhlenwand zeigt eine klar erkennbare Ähnlichkeit mit einem echten Pustelschwein, jedenfalls hinsichtlich der Kontur und der wesentlichen Körpermerkmale, wie Beine, Schwanz, Kopf, Ohren, Augen etc. Wer also auch immer für das Bild verantwortlich war, hatte offensichtlich den Willen, die Fähigkeit und die technischen Möglichkeiten, das wirkliche Tier möglichst genau abzubilden. Zu den Besonderheiten aller Bildmedien zählt übrigens die „Verdopplung der Welt“, d.h., spätestens seitdem können wir Objekte oder Aspekte der Wirklichkeit technisch abbilden und haben das Prinzip der Zeichen erfunden. Und wir können es nutzen, um über etwas zu kommunizieren, das in dem Moment nicht da ist. Stellen wir uns einen Säbelzahntiger vor. Es ist sicher eine große Errungenschaft der Menschheit, unseren Kindern oder Stammesmitgliedern den Säbelzahntiger zu zeigen und sie vor ihm zu warnen. Ein Beitrag zur Senkung der Kindersterblichkeit! Wir können aber auch Bilder von Nachbarn zeigen und sie diffamieren. Hierzu braucht es keine KI, sondern wir können das seit über 50.000 Jahren, und einzelne Menschen wollen es auch – wahrscheinlich, seit es Menschen gibt …
4.
Abweichungen vom Original:
Absicht, Manipulation oder Unfähigkeit, Fehler? Auffallend ist die deutlich andere Farbgebung. Nehmen wir an, dass indonesische Pustelschweine vor über 50.000 Jahren nicht orange-rot waren; heutige Exemplare sind grau, braun oder schwarz gefärbt. Dann kann gefolgert werden, dass die bunte Farbgebung des Höhlenbilds Absicht war und kein Fehler oder Unfähigkeit. Denn wir sehen deutlich an anderen Stellen des Höhlenbildes, dass Schwarz und Dunkelgrau als Farben technisch verfügbar waren und eingesetzt wurden. Also haben wir mit hoher Wahrscheinlichkeit ein erstes nachgewiesenes Beispiel für absichtliche Manipulation bei der Herstellung des (Ab-)Bildes. Warum diese Manipulation vorgenommen wurde und wozu sie dient, bleibt nach aktuellem Forschungsstand unklar. Manipulationen von Inhalten, also Gerüchte und Fake-News, waren schon viel früher in allen oralen Kulturen bekannte gesellschaftliche Herausforderungen. Aber spätestens mit der Höhlenmalerei erhalten sie „Unterstützung“ durch die Kraft medialer Bilder.
Medieninhalte leben länger. Die Person oder Personengruppe, die das Höhlenbild produziert hat, überwindet zwar dank der Medientechnik die Zeitschranke und hat etwas (fast) für die Ewigkeit geschaffen. Da aber die Kommunikatoren nicht mehr dabei sind, können sie nicht mitteilen, was gemeint war oder ob überhaupt etwas gemeint war. Auch Korrekturen von unbeabsichtigten oder absichtlichen Fehlinterpretationen der ursprünglichen Botschaft sind nicht mehr möglich. Dieser Preis des Kontrollverlusts über die Interpretation wird übrigens schon ab dem Moment entrichtet, in dem die Malerin oder der Maler die Höhle verlässt. Und es ist der Preis, den alle speichernden Medientechniken bis hin zu KI-Anwendungen einfordern: Überwindung der Zeitschranke = Verlust der Kontrolle über die Rezeption.
6.
Kontext und Einbettung:
Wenn sie fehlen, ist (fast) alles möglich. Schon bei diesem ersten Zeugnis der Medientechnik zeigt sich: Wenn die Kommunikatoren nicht (mehr) dabei sind und wenn es keine begleitenden Erklärungen oder Kontexte gibt, entsteht sehr viel Freiraum für Interpretationen. Aber das hat einen Preis: Wer das Bild betrachtet, hat viel Freiheit, das Bild und seine eventuelle Botschaft zu interpretieren. Dient das Bild des Pustelschweins der Warnung vor einer tierischen Gefahr oder dem Wecken von Neugier auf freundliche Gefährten oder schmackhafte Braten? Wird eine Gottheit symbolisiert oder ein Nachbar verunglimpft? Alle derartigen Interpretationen wären möglich. Es kann sogar sein, dass keine inhaltliche Botschaft mit dem Höhlenbild verbunden war und es nur um die Freude an der Darstellung ging. Je weniger Kontext, desto mehr Potential für Mehrdeutigkeiten, Missverständnisse, Missbrauch oder verfälschendes Framing.
7.
Mustererkennung und Imagination:
Segen und Fluch zugleich: Schon das Bild des Pustelschweins funktioniert nur, weil Menschen über zwei grundlegende Fähigkeiten verfügen, die für fast alle Medientechnologien essenziell sind. Zum einen können wir Muster erkennen, d.h., selbst wenn nicht alle Details genau einem Original entsprechen, Teile fehlen oder Zusätzliches abgebildet wird, kann unsere visuelle Wahrnehmung aus Einzelteilen Muster oder ganze Bilder herausfiltern oder auch bestimmte – vielleicht für uns besonders wichtige – Elemente herausfiltern. Es findet immer ein Selektions- und Kombinationsprozess statt. Zum anderen verfügen wir über die Fähigkeit der Imagination. Wir können also aus einem (Ab-)Bild auf ein Original schließen und sogar nicht im Bild erkennbare Elemente oder Eigenschaften, Geschichten und Gefühle hinzufügen. Mit einer modernen Metapher ausgedrückt: Menschen können Kopfkino. Diese Fähigkeit ist so stark, dass wir oft genug ihr Opfer werden. Hier liegt die wahre Wurzel für die Wirksamkeit von Bildmanipulationen, unabhängig davon, ob es statische oder bewegte Bilder sind: Wir laufen aufgrund menschlicher Dispositionen Gefahr, mehr oder anderes zu sehen als dargestellt. Wir sind anfällig dafür, dass mit Bildern starke Emotionen angesprochen werden und können uns in Bildwelten verlieren (Eskapismus) oder auch nach ihnen süchtig werden. Medientechniken bis hin zu KI-generierten Deepfake-Videos können dies ausnutzen oder natürlich auch als Gegenmittel wirken. Kernbotschaft dieses kleinen Ausflugs in die mediale Frühgeschichte ist: Wesentliche Konzepte der Medienentwicklung sind schon sehr alt in der Menschheitsgeschichte, vielleicht sogar Teil der Menschwerdung. Auch viele Risiken und Probleme sind bereits lange bekannt. Und da die Menschheit überlebt hat – und da mit hoher Wahrscheinlichkeit sogar Gesellschaften mit innovativer Mediennutzung erfolgreicher waren als medienverweigernde – muss es Lösungen geben: für die gesellschaftliche Eindämmung von Problemen und Risiken sowie für das Freisetzen der Vorteile, die Medientechniken auch bringen können und für die sie entwickelt wurden.
Allerdings gilt: Diverse Medientechniken bedeuten auch besondere und neue Herausforderungen. Diese müssen von den bekannten alten unterschieden werden. Sonst schießt eine Medienkritik bildlich gesprochen mit uralten Schleudern auf moderne Drohnen.
Schlagen wir einige erste Brücken zu aktuellen KI-Diskussionen:
-
Bildtechniken mit dem Anspruch von möglichst hoher Ähnlichkeit zum Original gibt es bereits seit über 50.000 Jahren; KI-Anwendungen können das besser und schneller, aber Prinzip und Anspruch sind geblieben.
-
Eine zentrale Rolle spielen die menschlichen Fähigkeiten zur Mustererkennung und Imagination: „Kopfkino“ ist älter als jedes Kino und jede KI; hierdurch sind Menschen zwar sehr bild-reich, aber auch sehr anfällig für Täuschungen oder Selbsttäuschungen.
-
Abweichungen, egal ob Fehler oder bewusste Manipulation etc., sind mindestens ebenso alt; KI-Anwendungen können das besser und schneller, aber Prinzip und Anspruch sind geblieben.
-
Mit der Speicherung von Bildern kann zwar die Kommunikation aus ihrer Verhaftung in der Gegenwart des/der Kommunikator*in gelöst werden, aber damit geht ein deutlicher Kontrollverlust einher. Das gilt auch für Bild-KI-Anwendungen.
Missinterpretationen – unbeabsichtigte oder bewusste – begleiten die Mediengeschichte ebenfalls seit Beginn und sind umso leichter, je weniger Kontext und inhaltliche Einbettung vorhanden ist, wie das Beispiel des Pustelschweins zeigt. In der Künstlichen Intelligenz wird mit sogenannten Embedding-Technologien versucht, hierfür Lösungen zu finden. Beim Embedding werden Begriffe oder Bilder mit verschiedenen Vektorisierungsverfahren in Beziehung zu anderen Begriffen oder Bildern gesetzt, um hierüber so etwas wie einen Kontext abzubilden und passende Bedeutungen zu identifizieren. Damit lassen sich Mehrdeutigkeiten oder auch inhaltliche Bedeutungsübertragungen auflösen. Beispielsweise kann aus der Abfolge Hitler – Deutschland + Italien der Name Mussolini abgeleitet werden (Barnard, 2023, sowie die Kap. 5 bzw. 6 in diesem Band).
4.3 Bewegtbild – die große Täuschung
Die Erfindung des Films als relativ moderne Medientechnologie ist untrennbar mit den Gebrüdern Lumière verbunden, die 1895 den Cinématographe veröffentlichten.4
Zentral ist mit Blick auf moderne Bewegtbildtechnologien und auch aktuelle KI-Diskussionen folgender Aspekt: Für die Aufnahme und das Abspielen eines Films wurde jeweils eine Frequenz von 16 Bildern pro Sekunde verwendet. Heutige Bewegtbildtechnologien im Fernsehen oder in Computerspielen verwenden höhere Frequenzen. Aber allen ist eines gemeinsam: Es wird bewusst damit gearbeitet, dass das menschliche Auge und die visuelle Verarbeitung im Gehirn einzelne Standbilder ab einer Frequenz von 16 Bildern pro Sekunde als Bewegung wahrnehmen. Höhere Frequenzen führen nur dazu, dass die Wahrnehmung auch garantiert eine flüssige und nicht ruckelnde Bewegung vorgaukelt.
Ich verwende den Begriff des Vorgaukelns bewusst, um zu verdeutlichen, dass bei Bewegtbildtechnologien eigentlich eine Art optischer Täuschung stattfindet, die auf Kenntnis der Grenzen menschlicher Wahrnehmung von optischen Reizen aus Einzelbildern, quasi Fotos, einen Film entstehen lässt – im Auge des Betrachters oder der Betrachterin.
Hiermit wird also anders als bei der o. g. Mustererkennungs- und Imaginationsfähigkeit eine biologische „Unzulänglichkeit“ der menschlichen Wahrnehmung ausgenutzt.
Eine schöne Ironie, dass ausgerechnet das Medium, das als eines der wirklichkeitsgetreusten gilt, auf einer Täuschung basiert. Die Manipulation dessen, was Rezipierende sehen, ist also keine Erfindung der Künstlichen Intelligenz, sondern wurde Jahrzehnte früher mit der Filmtechnik in die Medienwelt eingeführt und ist dieser Technik inhärent.
Allerdings muss differenziert werden: Diese Täuschung bezieht sich auf die Technik – nicht auf die Inhalte!5
Natürlich können auch sie bei der Aufnahme, der Verarbeitung oder dem Abspielen manipuliert werden. Und das findet auch immer wieder statt. Zu den bekanntesten Beispielen zählen etwa die Versuche, Einzelbilder oder kurze Sequenzen unterhalb der Wahrnehmungsgrenze für Werbung oder politische Einflussnahme in Filme einzuschmuggeln. Eine Manipulationstechnik, deren Wirksamkeit umstritten ist, die aber nichtsdestotrotz aus guten Gründen gesetzlich verboten ist.
Die inhaltliche Manipulation von Bewegtbildern, egal ob in Film, Video, TV, Streaming-Filmen oder Computerspielen, macht sich zwar manchmal die technisch bedingte optische Täuschung zunutze, arbeitet aber zumeist mit den bereits seit der Höhlenmalerei bekannten Prinzipien der menschlichen Mustererkennung und Imagination. Dies gilt auch für KI-Anwendungen für Bewegtbilder, beispielsweise bei den bekannten Fake-Videos über den Papst, Taylor Swift oder auch den deutschen Bundeskanzler.
Das Täuschen der menschlichen Wahrnehmung bildet übrigens auch die Essenz des nach Alan Turing benannten Tests. In seinem berühmten Aufsatz Computing Machinery and Intelligence beschreibt er 1950 ein Szenario, das er „Imitation Game“ (sic!) nennt: Ein Mensch ist in einem Raum und ein Computer in einem zweiten. In einem dritten Raum befindet sich eine Art Detektiv, der durch Fragen herausfinden soll, in welchem Raum der Computer ist. Wenn der Computer es schafft, den Detektiv zu überlisten, könne er „intelligent“ genannt werden (Turing, 1950).6
Hiermit bringt einer der Pioniere der Informatik die Aufgabe Künstlicher Intelligenz auf den Punkt: Maschinelles Agieren soll so gut imitieren oder auch täuschen, dass Menschen den Unterschied nicht mehr erkennen können. Nichts anderes versuchen viele aktuelle KI-Anwendungen zu erreichen.
Weit gefehlt wäre allerdings, dies für eine Erfindung der Informatik oder der KI zu halten. Denn die Imitation möglichst weit zu treiben, ist bereits der Höhlenmalerei inhärent. Die Malerei späterer Jahrhunderte hat u. a. im Umgang mit Perspektive bereits unterschiedlichste Darstellungstechniken entwickelt, um dem menschlichen Auge auf zweidimensionalen Bildern Dreidimensionalität vorzugaukeln. Dass mit diesen Techniken zugleich auch die Aufmerksamkeit und der Blick gelenkt werden können, wird gern genutzt und auch ausgenutzt. Fotografie, Film und Computerspiele bauen darauf auf. Und natürlich moderne KI-Anwendungen.
4.4 Mobile Schrifttechnologien – die Überwindung der Raumgrenzen
Ob es schon bei Bildern Techniken gab, sie nicht nur auf Wänden zu speichern, sondern auch auf Steintafeln o. ä. transportabel zu machen, ist mir nicht bekannt. Aber spätestens seit der Erfindung von Schriftzeichen, die schon vor über 5000 Jahren mit Farbe auf Tontafeln, Papyrus etc. aufgebracht wurden, werden Medieninhalte durch Medientechniken mobil. Natürlich kannte die Menschheit dieses Prinzip schon wesentlich länger, weil auch orale Kulturen ohne Schrifttechnologien Möglichkeiten gefunden hatten, Inhalte über Sprache, Gestik, Tanz, Musik etc. mithilfe menschlicher „Träger“ über Entfernungen hinweg zu transportieren. Aber die o. g. Schrifttechniken zeichnen sich dadurch aus, dass sie speziell dafür entwickelt und eingesetzt wurden, Inhalte eher kurzzeitig zu speichern und die Übertragungsfunktion in den Fokus zu stellen. Sie spielten beispielsweise eine wichtige Rolle, um das Römische Weltreich zusammenzuhalten.
Speicherungstechniken überwinden die Zeitschranken, Übertragungstechniken überwinden die Raumschranken. Die möglichen Risiken sind ähnlich, also insbesondere Kontrollverlust der Kommunikatoren, Möglichkeiten für Fehler oder Manipulationen, Missverständnisse durch andere Interpretationskulturen, seien sie zeitlich entfernt oder räumlich. Moderne KI-Technologien und -Anwendungen „erben“ diese Risiken und potenzieren sie u. a. durch höhere Geschwindigkeit (in Produktion und Verbreitung) sowie durch größere Genauigkeit oder auch scheinbare Plausibilität, so dass Fehler und Manipulationen schwieriger zu erkennen sind.
4.5 Buchstabenschrift – die große Abstraktion und Vorbereitung der Digitalisierung
Der Kern aktueller Digitaltechniken – inklusive der KI – ist die Nutzung des Binärsystems von Nullen und Einsen. Digitalisierung ist die Überführung von Informationen bzw. Daten in das Binärsystem. Das Binärsystem bedeutet die Verwendung des kleinstmöglichen Zeichensatzes von zwei Zeichen (0 und 1, oder andere) für die Darstellung, Bearbeitung, Verbreitung und Speicherung von Informationen. Demgegenüber verwendet das Zehnersystem zehn Zeichen, z. B. 0–9. Mathematisch gesehen sind Binärsystem und Zehnersystem gleichmächtig.
Dies gilt für alle Zeichensysteme mit einer festgelegten und begrenzten Zahl von verwendeten Zeichen und einem festen Regelsatz, der insbesondere Folgendes umfasst: klare Unterscheidbarkeit der Zeichen, Abstraktion der Zeichen von der Gestalt des Bezeichneten, keine Überlagerung der Zeichen, keine unabgesprochene Veränderung des Zeichensatzes.
Für Leser und Leserinnen mit Freude an Mathematik die Begründung der „Gleichmächtigkeit“: Auch wenn die Zahl der erlaubten Zeichen endlich ist, können damit unendlich viele Inhalte codiert werden, sofern die Länge der Zeichenfolgen nicht begrenzt ist. D. h. schon das Binärsystem mit dem kleinstmöglichen Satz von zwei unterscheidbaren Zeichen (0 und 1, oder beliebig andere zwei Zeichen) kann für die Darstellung unendlich vieler Inhalte verwendet werden. Ein Quartärsystem mit einem Satz von vier Zeichen kann ebenfalls „nur“ unendlich viele Inhalte darstellen; selbst „2 x unendlich“ ist unendlich; auch „2x x unendlich“ bleibt unendlich. Im Kern wird durch einen größeren Zeichensatz nur die benötigte durchschnittliche Länge der Zeichenfolgen kleiner; dafür wächst die Komplexität beim Erlernen eventuell.
Für Menschen haben sich Zeichensätze mit max. 100 Zeichen als gut praktikabel erwiesen, z. B. A-Z + a-z + Satzzeichen etc.; für Maschinen (Computer) ist das Binärsystem sehr effizient umsetzbar.
Demnach gilt: Ab der ersten ausgearbeiteten Buchstabenschrift mit einem endlichen Zeichensatz wird ein System genutzt, das konzeptionell alle Eigenschaften aufweist, die auch für ein Binärsystem gelten. Die dafür verwendeten Darstellungstechniken, wie Art der Zeichen, Papyrus und Stift, Tafel und Kreide, Buchdruck, Computer und Bildschirm etc., machen zwar teilweise erhebliche Unterschiede bezüglich Nutzbarkeit, Haltbarkeit, Geschwindigkeit oder Erlernbarkeit etc. Doch sie ändern nichts am Grundkonzept der Darstellung beliebiger und potenziell unendlich vieler Inhalte durch einen begrenzten Satz endlich vieler abstrakter und klar unterscheidbarer Zeichen.
Historisch belegt ist dies erstmals bei der Buchstabenschrift der phönizischen Kultur.
Also ist das Grundkonzept der Digitalisierung circa 3100 Jahre alt.7
Mit Blick auf die Digitalisierung ist der Schritt der Abstraktion von bildhaften Schriftzeichen zu abstrahierten Buchstaben zentral, denn er ermöglicht die Reduktion auf kleine Alphabete mit wenigen Zeichen.
Sie sind deshalb einerseits als Zeichensatz leicht erlernbar, erfordern aber andererseits eine besondere Art der Imagination, die noch einmal anders ist als die bei der Höhlenmalerei beschriebene. Denn da es keine bildliche Verbindung zwischen den Schriftzeichen und den damit beschriebenen Gegenständen gibt, müssen wir diese Verknüpfung im Lese-Schreib-Unterricht gründlich erlernen. Wenn das erlernt ist, können auch Texte in uns Bildwelten erzeugen und das Kopfkino bespielen.
Täuschungen und Manipulationen sind auf Basis von Buchstabenschriften grundsätzlich einfacher, weil die Bildähnlichkeit zwischen Schriftzeichen und Objekten als mögliches Korrektiv wegfällt. Zugleich ist die Reduktion auf wenige, klar unterscheidbare Zeichen eine wichtige Voraussetzung für eine leichtere Vervielfältigung – durch Menschen oder Maschinen.
Ohne den Reduktions- und Abstraktionsschritt der Buchstabenschriften wären die späteren Entwicklungen der maschinellen Vervielfältigung von Medieninhalten, der Digitalisierung und der darauf aufbauenden Künstlichen Intelligenz kaum vorstellbar.
Diese modernen Medientechnologien haben nicht nur die unbestreitbaren Vorteile von den Buchstabenschriften geerbt, sondern zugleich auch die damit einhergehenden Risiken, insbesondere der Distanz zwischen den Objekten und ihrer Beschreibung sowie des Kontrollverlusts der Kommunikatoren über die Rezeption und die besondere Bedeutung von Imagination und Kopfkino.
4.6 Buchdruck – maschinelle Vervielfältigung von Medieninhalten
Zwar gab es schon beginnend vor über 1100 Jahren in China erste Erfindungen für maschinellen Druck, sie konnten sich aber nicht durchsetzen, u. a., weil das chinesische Alphabet zu viele Zeichen umfasste. Durchgesetzt hat sich erst die Drucktechnologie von Johannes Gutenberg um das Jahr 1440 herum. Er hatte neben verschiedenen technischen Errungenschaften zu seiner Zeit den entscheidenden Vorteil, eine Buchstabenschrift mit deutlich kleinerem Zeichensatz verwenden zu dürfen, der auf dem phönizischen Alphabet basiert und fast identisch zu dem heute in Deutschland gebräuchlichen ist. Mit der Drucktechnik nach Gutenberg konnte die Vervielfältigung von Schriftmedien durch die mühsame Handarbeit von Mönchen und Nonnen ersetzt werden durch maschinellen Druck mit beweglichen Lettern: wesentlich genauer, deutlich schneller!
Damit wurde es erstmals in der Geschichte der Menschheit möglich, (fast) unendlich viele Kopien von Medieninhalten in kurzer Zeit und mit hoher Genauigkeit zu erstellen – in gewisser Weise die Geburt von Massenmedien, zunächst von Büchern, Kalendern und Flugblättern und später von Zeitungen.
Gesamtgesellschaftlich etabliert wurde in der Folge auch das für klassische Massenmedien charakteristische Grundprinzip einseitig gerichteter Kommunikation mit starken Rollen für Kommunikatoren oder entsprechende Organisationen, die in relativ kurzer Zeit eine Vielzahl von Leserinnen und Lesern erreichen konnten, während diese – nicht im Besitz von Druckmaschinen – ohne Möglichkeiten gleichmächtiger Reaktionen auf eine schwache Rolle reduziert wurden.
Dies wiederholte und verstärkte sich später bei den elektronischen Massenmedien Radio und Television sowie bei verschiedenen Anwendungen digitaler Medien auf Basis des Internets. Und es beschreibt auch eine der wesentlichen Herausforderungen diverser KI-Anwendungen, bei denen die aufwendige Technik- und Knowhow-Ausstattung auf Seiten großer Unternehmen oder staatlicher Institutionen konzentriert ist, während alle anderen ohne diese Ressourcen in eine schwache Rolle gedrängt werden.
Es ist übrigens kein Zufall, dass infolge der Erfindung des Buchdrucks bereits nach wenigen Jahren auch erste Regeln für Autorenschaft, Druckort und -zeit etc. unter dem Begriff Impressum eingeführt wurden (Funke, 1969) – ein Konzept, um gesellschaftlich die Kontrolle über maschinell vervielfältigte Medienprodukte zu sichern und beispielsweise die Verbreitung von Fakes oder Gewaltdarstellungen oder -aufrufen einzudämmen. Zugleich war es eine erste Umsetzung des Rechts auf geistiges Eigentum. Es stehen noch intelligente, global wirksame Umsetzungen dieses Konzepts für Produkte und Beiträge im Internet, den sozialen Medien und der KI aus.
4.7 Telegrafie – endlich Lichtgeschwindigkeit bzw. Echtzeitkommunikation
Viele kennen das berühmte SOS-Notsignal „…---…“. In der heutigen Zeit wird die Technik der Telegrafie, also des „Fern-Schreibens“, kaum noch genutzt. Dabei hat diese mediale Übertragungstechnik vor allem auf Basis der Erfindungen von Samuel Morse seit den 1830er-Jahren einige der wichtigsten Voraussetzungen für unsere aktuelle globale Telekommunikationsinfrastruktur geschaffen:
Erstens wurden mit der Telegrafie erstmals elektrische Signale für die Übertragung von Texten eingesetzt. Sie sind weltweit mit Lichtgeschwindigkeit übertragbar und haben damit der globalen Echtzeitkommunikation zum Durchbruch verholfen.8
Zweitens hat Morse mit dem nach ihm benannten Morse-Alphabet die Codierung von Schrift mit den beiden Zeichen Punkt (.) und Strich (-) die spätere Welt der Nullen und Einsen moderner Computer vorweggenommen.9 Nicht zufällig leitete Claude Elwood Shannon in den 1940er-Jahren seine Formel für die Berechnung von Bits ausdrücklich aus den Grundprinzipien der Morse-Telegrafie ab (Shannon, 1949).
Drittens wurde für die Telegrafie damit begonnen, ein weltweites Kabelnetzwerk zu verlegen, damit die Morsezeichen auch möglichst überall abgesendet und empfangen werden konnten. Bis 1870, also noch vor der Patentierung der Telefonie, umfasste das Telegrafienetz schon alle Kontinente.
Damit wurden durch die Telegrafie nicht nur die technischen Grundlagen für das Internet als globale Infrastruktur und für die Digitalisierung gelegt, sondern vor allem auch die weltweite Kommunikation in Echtzeit etabliert. Allerdings nicht in einer Form, die das gleichzeitige Erreichen vieler ermöglicht, sondern noch beschränkt auf die Kommunikation Einzelner mit Einzelnen.
Bekannt ist, dass die Telegrafie wie viele Medienkommunikationstechniken bereits sehr früh für militärische Zwecke genutzt wurde, u. a. im US-amerikanischen Bürgerkrieg 1861–1865.
Zu den weniger bekannten Fakten zählt, dass auch Nachrichtenagenturen, also „die Medien“, zu den ersten Anwendern gehörten, vor allem aber Banken, Börsen und Wirtschaftsunternehmen (Lehrstuhl Didaktik der Geschichte, o. J.; Wenzlhuemer, 2010).10 Geldsummen, Kontonummern, Börsenkurse etc. liegen weitgehend als Zahlen in einem Zehnersystem vor, sind also noch einfacher codierbar als Schriftzeichen.11
Insofern überrascht es kaum, dass Künstliche Intelligenz aktuell auch schon massiv beim sogenannten Trading zum Einsatz kommt. Beispielsweise werden Techniken wie Machine Learning und neuronale Netze für die Analyse von Handelsdaten, die Entwicklung von Handelsstrategien oder auch die Unterstützung bei individuellen Kauf- und Verkaufsentscheidungen eingesetzt (Wiegand, 2023).
4.8 Telefonie – die größte (Kommunikations-)Maschine der Welt
Als Alexander Graham Bell 1876 seine Patentanmeldung für das Telefon knapp gegen den Konkurrenten Elisha Gray durchsetzte, konnte man noch nicht ahnen, dass daraus innerhalb weniger Jahrzehnte die für lange Zeit größte Kommunikationsinfrastruktur der Erde entstehen würde. Aber das Telefonnetz aus Kabeln, später ergänzt um Funkstrecken, wuchs rasant, wurde zur „größten Maschine der Welt“ und machte die Bell Company bzw. die aus ihr hervorgegangene American Telephone and Telegraph Company AT&T zu einem der größten Unternehmen weltweit.
Hatte die Telegrafie globale Punkt-zu-Punkt-Kommunikation mithilfe von Schriftzeichen eingeführt, ermöglichte die Telefonie die weltweite Kommunikation mündlicher Sprache in Echtzeit. (Bewegt-)Bilder folgten dann mit spätestens mit der Einführung des Fernsehens ab den 1930er-Jahren.
Mit Blick auf die Digitalisierung und auch die aktuellen Diskussionen über Künstliche Intelligenz ist vor allem der Aufbau einer weltweiten Infrastruktur mit gemeinsamen Kommunikationsprotokollen und -standards zentral. Ohne dies hätte das Internet bei weitem nicht so schnell etabliert werden und wachsen können. Deshalb haben wir mittlerweile eine technische Basis für das Sammeln und den Austausch von Daten in Echtzeit und in globalem Maßstab. Eine essenzielle Grundlage dafür, dass Large Language Models funktionieren können, weil sie – wie der Name andeutet – sehr große Datenmengen benötigen, möglichst in globalem Maßstab.
4.9 Computer – universell einsetzbare Medienmaschinen
Moderne Computer, wie sie seit den 1940er-Jahren im Einsatz sind, waren zunächst hauptsächlich reine Rechenmaschinen, dienten also der Erfassung und Bearbeitung von großen Datenmengen sowie für komplexe Berechnungen.
Da aber Texte bereits in Form von Buchstabenschriften mit beschränkten Zeichensätzen weitverbreitet waren, konnten sie leicht in das Binärsystem umgewandelt werden, mit dem Computer arbeiten (s. Abschn. 4.5). Die Umwandlung von Bildern und Audiosignalen kam erst später hinzu, aber so wurden die Grundlagen geschaffen, um auf einem Gerät die wesentlichen Kommunikationsformen zu erfassen und zu bearbeiten. Spätestens mit den Personal Computern seit den 1980er-Jahren waren diese Multimediatechniken auch interaktionsfähig und für Laienpublikum gut nutzbar – ein Booster für die gestalterische Kreativität vieler, aber zugleich auch Anlass für Debatten darüber, ob künstlerische Kreativität durch die massenhafte Nutzung von Computern eingeschränkt wird – eine Vorwegnahme aktueller Diskussionen über die Potentiale und Risiken durch KI für Kreativität und Kreativschaffende. Kreative in Schauspiel, Drehbuchproduktion oder auch Musik haben beispielsweise nicht ganz unrecht, wenn sie ein ähnliches Schicksal für ihre Berufsgruppen fürchten, wie es damals technische Zeichner, Drucker oder Grafiker traf.
Zum Kommunikationsmedium wurde der Computer erst ab 1990, als Tim Berners-Lee die Grundlagen für das World Wide Web gelegt und sie frei zur Verfügung gestellt hat. Denn damit waren Computer endgültig keine isolierten Standalone-Geräte mehr, sondern wurden vernetzt und Teil einer weltweiten Kommunikationsinfrastruktur. Ab den 1990er-Jahren änderte sich folgerichtig auch die öffentliche und wissenschaftliche Wahrnehmung vom Computer als Maschine oder System zum Computer als Medium (Bolz et al., 1994).
Menschen verfügen biologisch über die Möglichkeit, Audio, Bilder und als Sonderform von Bildern auch Schriftzeichen zu erschaffen, zu verarbeiten und zu verbreiten. Sie sind sozusagen multimediale Wesen. Da die Technik erst sehr langsam und dann immer schneller diese einzelnen medialen Formen effektiv zu unterstützen gelernt hat, brauchte es einige Jahrtausende und eine Art universelle Maschine wie den Computer, um mit technischer Multimedialität nachzuziehen.
Hierin kumulieren dann auch die jeweiligen Risiken der einzelnen Medientechniken und werden durch die Kombinationsmöglichkeit durchaus potenziert. Eine frühe und zugleich sehr bekannte KI-Anwendung war das Sprachprogramm ELIZA von Joseph Weizenbaum, das bereits den Eindruck rudimentärer Unterhaltungsfähigkeit erwecken konnte (Weizenbaum, 1966). So einfach diese Anwendung aus heutiger Sicht erscheinen mag, so deutlich zeigte sie bereits das grundsätzliche Potential, mit Künstlicher Intelligenz menschliche Sprachfähigkeiten zu imitieren und zu simulieren. Weizenbaum wandelte sich angesichts dessen vom frühen Entwickler zu einem der schärfsten Kritiker der Künstlichen Intelligenz (1977).
Auch über das Thema der Entscheidungsfindung durch Computer allein auf Datenbasis ohne Menschen wurde bereits in den 1980er-Jahren intensiv gestritten. In der Folge wurde häufig versucht, eine Balance zwischen Computer-Vorbereitung bzw. -Empfehlung und endgültiger Entscheidung zu finden. Durch moderne KI-Anwendungen steht diese Fragestellung erneut und verschärft auf der Tagesordnung.
4.10 Internet – globale Kommunikationsinfrastruktur
Zwar sind Computer vom Grundkonzept her als universelle Berechnungsmaschinen angelegt (Turing, 1936) und wurden Schritt für Schritt im Laufe einiger Jahrzehnte zum Umgang mit Audio, Bildern, Bewegtbildern und Texten befähigt. Damit waren insbesondere die Verarbeitung und Speicherung multimedialer Daten durch Computer als Multimediamaschine gegeben. Die Zeitschranke war damit geknackt. Aber für den Durchbruch als Kommunikationsmedium brauchte es noch die Überwindung der Raumschranke. Hierfür war die Vernetzung mehrerer Computer erforderlich – am besten vieler, möglichst weltweit. Das gelang im Kern durch den Anschluss an das Telefonnetz, eine bereits existierende weltweite Kommunikationsinfrastruktur. War das Telefonnetz noch auf die Übertragung von Audiosignalen konzentriert, so entstand durch die Kombination mit den Multimediamaschinen Computer eine globale Kommunikationsinfrastruktur, die potenziell alle Medienformen in Echtzeit übertragen kann und sogar interaktionsfähig ist.
Damit sind (nahezu) alle Zutaten beisammen, um erdumspannende Medienkommunikation auf Basis digitaler Technologien und Infrastruktur zu ermöglichen und zu realisieren. Ihre wesentlichen Merkmale:
-
Global: Bits kennen keine Grenzen.
-
Übertragung in Lichtgeschwindigkeit: Bits sind schneller als alles, was wir kennen.
-
Multimedial: Bits können Audio, Bild, Video, Text, sogar Games und Interaktion.
-
Massentauglich: Bits können je nach Anwendung fast jede Person erreichen.
-
Faktisch weitgehender Kontrollverlust sowohl der Kommunikatoren als auch der Rezipienten über die Inhalte: Bits sind grundsätzlich fast beliebig übertragbar, speicherbar und fälschbar.
-
Die Erfolge moderner Technologien und Anwendungen Künstlicher Intelligenz resultieren aus dieser Infrastruktur. Sie ist aller Wahrscheinlichkeit nach sogar bedeutsamer als einzelne KI-Techniken, seien sie auch noch so elaboriert, weil insbesondere „mächtige“ KI möglichst große Datenmengen in möglichst kurzer Zeit benötigt.
4.11 Social Media etc. – persönliche Daten und individualisierte interaktive Massenkommunikation global
Die großen Datenmengen werden mittlerweile insbesondere durch alle Arten von Social-Media-Anwendungen geliefert, überwiegend von den Rezipienten selbst preisgegeben. Ob Facebook, Instagram, TikTok oder Dating-Plattformen, bei allen geben wir als Nutzer Daten über unsere Person, Vorlieben, Werte, politischen Präferenzen etc. ein.
Hinzu kommen Daten aus Suchmaschinen und von den großen Online-Handelsunternehmen verschiedenster Branchen, wie Amazon, Alibaba, Booking, Otto etc., oder Medienbranchen, wie Musik, Games, Videoplattformen à la YouTube und so weiter und so fort. Hinzu kommen die Bewegungsdaten aus Navigationsanwendungen oder diejenigen aus Fitnesstrackern oder Health-Anwendungen.
4.12 Überblick
Bevor ich noch einmal auf die Besonderheiten von Künstlicher Intelligenz und die Herausforderungen in einer globalisierten Welt(un)ordnung eingehe, folgt hier noch eine tabellarische Übersicht über die bislang genannten Meilensteine der Medienentwicklung (Tab. 4.1) und die mit ihnen einhergehenden Risiken:12
Tab. 4.1
Meilensteine der Medienentwicklung
Technik(en) | Konzept(e) | Risiken | |
|---|---|---|---|
Höhlenmalerei (statische Bilder) | Bildproduktion | Verdopplung der Welt durch Bilder | Wirklichkeitsverlust, Verselbstständigung der Bilder |
Speicherung | Überwindung der Zeitschranke | Kontrollverlust | |
Imitation | Darstellung möglichst nah am Original | Fehler, Ungenauigkeiten | |
Abweichungen | Abweichungen | Manipulation, Fakes | |
Mustererkennung + Imagination | Falsches Sehen; finden, was Mensch sucht | ||
Bewegtbild | > als 16 Bilder/s | Sinnestäuschung | Manipulation, Fakes |
Alphabetschrift | Zeichensatz von 22 Buchstaben | Abstraktion vom Dargestellten, Beschriebenen | Wirklichkeitsverlust, Verselbständigung der Zeichen |
Mobile Schrift | Übertragung | Überwindung der Raumschranke | Kontrollverlust |
(Buch-)Druck | Druckmaschinen mit Lettern | Maschinelle Vervielfältigung | Schnelle, schwer kontrollierbare Vervielfältigung und Verbreitung von Schrift |
Telegrafie | Elektromechanik | Lichtgeschwindigkeit | Superschnelle Übertragung |
Codierung mit zwei Zeichen | Abstraktion von Schriftzeichen und Realität | Wirklichkeitsverlust, Manipulation, Fakes | |
Anfänge globaler Infrastruktur | Weltweites Kommunikationsnetz für Schrift | Kontrollverlust für nationale oder regionale Player | |
Telefonie | Weltweit größte (Kommunikations-)Maschine | Weltweites Kommunikationsnetz für Sprache | Kontrollverlust für nationale oder regionale Player, Kommunikation schneller als jede Regulierung |
Automatisierte, individuelle Verbindungen | Jeder kann mit jedem sprechen, anonymisierter Verbindungsaufbau | „Stille Post“, Gerüchte, Fakes, kaum Kontrolle darüber, wer am anderen Ende spricht | |
Computer (ohne Vernetzung) | Rechenmaschine auf Basis von 0 und 1, digital | Universelle Berechnungsmaschine (Turing), später „Multimedia-Maschine“ | Alles kann/soll berechnet werden, unkontrollierte Datensammlung, alle Medieninhalte können schnell produziert/kombiniert werden, Manipulation, Fakes etc. |
Internet | Kombination aus Computer und Übertragungsnetz | Weltweite Kommunikationsinfrastruktur für multimediale Inhalte | Alles wie oben, nur in Lichtgeschwindigkeit und globalem Maßstab |
Social Media u. a. | Multimediale Anwendungen zu Kommunikation, Handel, Selbstdarstellung, Bewertung etc. | Nutzung des Internets für persönliche Darstellung und sozialen Austausch | Unkontrollierte Daten massenhaft weltweit, Verlust der informationellen Selbstbestimmung, Manipulation, Fakes, Mobbing, Pornografie etc. |
All diese Konzepte und die verschiedenen Techniken zu ihrer Umsetzung entspringen menschlichen Bedürfnissen, insbesondere dem nach Kommunikation mit anderen (inklusive der Selbstdarstellung gegenüber anderen), aber auch dem Wunsch nach kommunikativer Überwindung von Zeit und Raum. Sie funktionieren nicht nur aufgrund ihrer technischen Brillanz, sondern auch weil sie auf die Sinne und menschliche Wahrnehmung zugeschnitten sind. Dabei nutzen sie gezielt und auf Basis von Messungen sogar die Grenzen der Wahrnehmungsfähigkeit, wie beim Film oder bei Audiotechniken à la MP3.
Essenziell für den Erfolg der Medien(techniken) über die Jahrhunderte hinweg bleibt, dass Menschen mithilfe von Mustererkennung und Imagination auch aus wenig viel machen bzw. aus abstrahierten Zeichen Kopfkino ableiten können.
Auch die Rolle der Neugier bzw. Lernfähigkeit von Menschen sollte nicht unterschätzt werden. Sie führt nicht nur dazu, immer neue Medientechniken zu entwickeln, sondern ist natürlich gleichzeitig eine der wichtigsten Triebfedern für unterschiedlichste Nutzungsideen und -formen von Medien. Unter anderem deshalb testen derzeit Millionen Menschen – und zwar beileibe nicht nur Technikexperten – aus, was mit den diversen KI-Anwendungen so alles geht.13
Viele Risiken der Mediennutzung, wie Kontrollverlust, „Verdopplung“ der Welt, Abstraktion vom Original, Entstehen von Abweichungen oder auch Anfälligkeit für Fehler und Manipulation, sind den Techniken von Beginn an inhärent – seit der Höhlenmalerei. Einige zentrale Medientechniken, wie Film und diverse Audiotechniken, funktionieren sogar nur auf Basis von Sinnestäuschungen.
Ebenfalls allen Medien inhärent, wenn sie neu aufkommen, sind Sondereffekte in den Einführungs- und Durchsetzungsphasen, insbesondere Folgende:
-
Einführungsakteure haben “Vorsprung durch Technik“, u. a. Macht, Geld und militärische Vorteile.
-
In der gesellschaftlichen Lernphase werden schwache Gruppen oft benachteiligt.
-
Manipulatoren und Verbrecher nutzen gezielt, dass die Anwender*innen noch nicht so geübt sind und die Anpassung von Gesetzen oder anderen gesellschaftlichen Gegenmaßnahmen Zeit und Ressourcen kostet.
Dagegen hilft nur,
-
möglichst schnell und genau das jeweils Neue an einer innovativen Medientechnologie zu analysieren, es zu verstehen und alle gesellschaftlichen Akteure daraufhin zu schulen und so individuelle und gesellschaftliche Medienkompetenz aufzubauen.
Wenig hilfreich sind dagegen:
-
Romantisierung früherer Medientechniken14
-
Wiederkäuen der Kritik alter Medientechniken ohne Konkretisierung und Anwendung auf das tatsächlich Neue einer neuen Technik
-
Verbieten einer neuen Technik, wenn es in Wirklichkeit um das Einhegen von Missbrauch durch Menschen oder Interessensgruppen ginge
-
Wegschauen oder verharmlosen15
So wie die Techniken aus menschlichen Bedürfnissen heraus entwickelt und von Menschen gemacht wurden, sind auch das Ausnutzen der Risiken und reale negative Auswirkungen von Mediennutzung auf individueller wie auf gesellschaftlicher Ebene von Menschen gemacht. Einige der bekanntesten sind:
-
Ausnutzen des Kontrollverlusts der Autoren über die Rezeption und fehlender Kontexte bei räumlich oder zeitlich distanzierter Rezeption
-
Ausnutzen des „Kopfkinos“ bei den Rezipienten, Lesern etc.
-
Ausnutzen von Manipulationsmöglichkeiten
-
Verbreiten von Lügen oder Gerüchten („Fakes“)
-
Gewalt: Darstellung und Ausübung, Mobbing
-
Pornografie
-
Überbordende Emotionalisierung
-
Eskapismus (Flucht in irreale Medienwelten)
-
Suchtförderung
-
Ausnutzen von Geschwindigkeitsvorteilen und Infrastrukturbesitz
-
Nutzung von Medien für Machterhalt, Machtmissbrauch oder auch Revolutionen
-
Nutzung von Medien für militärische Zwecke und als Kriegstechnologie
-
Bereicherung auf Kosten anderer
Im Umgang mit solchen Phänomenen gilt:
Nicht die Medien verursachen schlechte Menschen, sondern die menschlichen Bedürfnisse suchen sich die jeweils passenden Medien, die aktuell verfügbar sind. Dies gilt insbesondere auch für unsoziale oder kriminelle menschliche Bedürfnisse.16 Deshalb zählen zu den wichtigsten – und häufig erfolgreichsten – Strategien des Einhegens von Problemen durch neue Medientechnologien seit jeher
-
die Stärkung der Medienkompetenz möglichst vieler gesellschaftlicher Gruppen,
-
der kritische gesellschaftliche Diskurs über die Vor- und Nachteile jeweils neuer Medien,
-
die Anpassung von gesellschaftlichen Regeln oder Gesetzen.
4.13 Schlussfolgerungen
Bevor ich abschließend eine Einordnung aktueller KI-Entwicklungen und sich daraus ergebende Schlussfolgerungen versuche, ist noch eine kurze Analyse zum Stand der Digitalisierungsmedien, also insbesondere Internet, Social Media etc. erforderlich. Denn die aktuell so virulenten KI-Anwendungen und -Diskussionen stehen auf den Schultern dieser Riesen und wären ohne sie (fast) nichts.
Der inzwischen erreichte Stand der Digitalisierung und des Ausbaus der weltweiten Kommunikationsinfrastruktur bildet – noch ohne nennenswerten KI-Einsatz – eine Art Vollendung der Medienentwicklung durch folgende Merkmale:
-
Unbegrenzte Speicherung = maximale Ausnutzung der Überwindung der Zeitschranke
-
Lichtgeschwindigkeit = maximale Ausnutzung der durch Elektronik und Digitalisierung möglichen Übertragungsgeschwindigkeit für Medienkommunikation
-
Globalisierung = maximale Überwindung der Raumschranken auf dem Erdball
-
Unbegrenzte Vervielfältigung = digital erstellte Produkte oder Infos über sie sind zu sehr geringen Kosten beliebig oft kopierbar
-
Maximales Maß an Ähnlichkeit = das Maß an Ähnlichkeit einer Kopie oder eines Abbilds von was auch immer kann problemlos über die Grenzen der menschlichen Wahrnehmungsfähigkeit gehoben werden; Fakes sind faktisch kaum noch aufdeckbar.
Mehr geht kaum – in medientechnischer Hinsicht.17
Gleichzeitig sind bereits seit den Anfängen der Nutzung von Computern als universelle Medienmaschinen und des Internetaufbaus als internationale Kommunikationsinfrastruktur die Möglichkeiten gesellschaftlicher Reaktionen massiv in Rückstand geraten: Bits agieren in Echtzeit und global. Das ist Teil ihrer technischen DNA.
Gesellschaftliche Debatten und Gesetzgebungs- oder Regelungsverfahren brauchen dagegen Zeit und sind zumeist national. Das heißt im Resultat, es fehlen international anerkannte Regelungen für die Löschung oder Vervielfältigung von Daten sowie gegen den Missbrauch oder die Fälschung von Daten. Insbesondere fehlen etwa wirksame Kennzeichnungen von Autorenschaft und Authentizität, wie sie für Print-, Bild- oder Audioprodukte außerhalb der digitalen Welt bekannt sind. Und da Gesetze oder Regelungen immer nur so stark sind wie ihre Durchsetzung mithilfe von Überwachungs- und Verfolgungsbehörden, ist eine Art Interpol für Bits dringend erforderlich.
Denn Bits und Verbrechen kennen keine Grenzen, weder räumliche (z. B. Staatsgrenzen) noch inhaltliche. Permanente Grenzüberschreitungen sind ihr Geschäft – wenn auch aus unterschiedlichen Gründen. Und sie warten auch nicht, bis jemand ein neues Formular ge- oder erfunden hat.
Um einen Eindruck von der Größe der Herausforderungen im internationalen Maßstab zu geben, hier ein Beispiel aus einer anderen Menschheitsaufgabe: Spätestens seit dem ersten Bericht Grenzen des Wachstums des Club of Rome 1972 war bekannt, dass die Ressourcen für fossile Brennstoffe in absehbarer Zeit erschöpft sind und insgesamt Anstrengungen für eine bessere ökologische und wirtschaftliche Balance unternommen werden müssen. Bis zum Klimaabkommen von Paris dauerte es 43 Jahre. Und dieses ist das Verbindlichste und Beste, was bisher erreicht werden konnte. Aber die Umsetzung gelingt nur schleppend, und Lücken gibt es viele.
Vergleichbare Anstrengungen in internationalem Maßstab stehen an, um die Folgen der globalen Digitalisierung gesellschaftlich beherrschbar zu machen. Verstärkt wird die Herausforderung durch diverse global agierende Interessengruppen, insbesondere Mega-Unternehmen, Verteidigungsministerien und Geheimdienste, die eher ein Interesse an einem möglichst wenig regulierten Status quo haben und die daraus resultierenden Regelungslücken gerade auch für den Einsatz von Künstlicher Intelligenz nutzen.
Aber noch einmal konkret: Was ist eigentlich neu an den aktuellen KI-Technogien, und wie gehen wir mit ihnen um?
Wie schon eingangs beschrieben, sind es neuronale Netze nicht. Das Konzept dafür stammt aus den 1940er-Jahren; erfolgreiche Anwendungen haben die beiden Physik-Nobelpreisträger 2024, Hopfield und Hinton, in den 1980er-Jahren entwickelt. Dies gilt insgesamt für viele Gebiete des übergeordneten Bereichs des maschinellen Lernens, beispielsweise das Deep Learning, zu dem u. a. auch wieder Hinton bereits 2006 bahnbrechende Arbeiten veröffentlicht hat.
Neu ist ChatGPT, 2022 veröffentlicht. Grundlage hierfür und für andere Beispiele generativer KI ist im Kern die Technologie der Large Language Models. Diese wiederum sind nichts weiter als besonders große neuronale Netze.18
Warum können sie besonders groß sein? Weil inzwischen drei Faktoren zusammenkommen:
1.
Es gibt genügend große Datenmengen, die für das Trainieren der LLMs und der neuronalen Netze unerlässlich sind.
2.
Es gibt genügend starke Rechenzentren, um diese Datenmengen verarbeiten zu können.
3.
Es gibt genügend starke Player, z. B. IT- und Medienunternehmen oder staatliche Institutionen, die finanziell und technologisch in der Lage und Willens sind, 1. und 2. zum Tanzen zu bringen.
Was weniger neu ist: Die Anwendung dieser Technologien für die Darstellung, Simulation, Bearbeitung, Imitation und auch Fälschung von beliebigen Objekten, menschlichen Artefakten, Musik oder allgemein Audioprodukten, statischen oder Bewegtbildern, menschlichem Kommunikationsverhalten etc. – all dies begleitet die Menschheit in ihren verschiedenen Entwicklungsphasen, angefangen bei der Höhlenmalerei; allerdings niemals in dieser Menge, dieser Qualität, dieser Geschwindigkeit und im globalen Maßstab mit der Möglichkeit einer Verbreitung in Echtzeit.
Um nur ein Beispiel zu nennen: Deepfake-Videos greifen seit 2019 um sich, und fast immer handelt es sich um massive Verletzungen von Persönlichkeitsrechten, beispielsweise bei gefälschten Pornos (ZDF, 2024). Sie werden entweder unerlaubt veröffentlicht oder auch für Erpressungen genutzt. Einen zweiten großen Einsatzbereich, die gezielte Desinformation in Politik und Kriegskommunikation, hat Aldo Kleemann in einem SWP-Aktuell für die Stiftung Wissenschaft und Politik umrissen (Kleemann, A., 2023). Bestehende und durchaus anwendbare Gesetze in Deutschland werden selten für die erforderliche Strafverfolgung umgesetzt. Eine Gesetzesinitiative des deutschen Bundesrats hängt noch in den Beratungen.
Wenn wir lernen wollen, das zu beherrschen, benötigen wir eher weniger Wiederholungen von jahrhundertealten Medienkritiken; sie lenken nur ab. Stattdessen sollten wir von den Jahrhunderten der gelungenen gesellschaftlichen Eindämmungsmaßnahmen lernen. Und es gilt, die Akteure und Profiteure von Missbrauch zu fokussieren und schnellstmöglich weltweite Regelungen zu schaffen bzw. durchzusetzen.
Zentral ist natürlich die konkrete Umsetzung dieser Regelungen. Und dabei ist Geschwindigkeit gefordert!
Das Gesetz der Europäischen Union vom Sommer 2024 über die Regulierung von Künstlicher Intelligenz halte ich in dieser Hinsicht durchaus für bahnbrechend und beispielgebend (Europäisches Parlament, 2023a, b):
-
Es kam spät – aber früher als praktisch alle anderen.19
-
Es enthält Lücken und Kompromisse, die schmerzen – aber besser als gar keine Regeln.
-
Es neigt zu Bürokratismus und ist teilweise nicht praktikabel – aber das kann evaluiert und korrigiert werden.
Es wird wachsen müssen, um mit kommenden KI-Technologien Schritt zu halten – aber das ist ohnehin vorgesehen.
Trotz aller Schwächen ist dies ein Beispiel dafür, wie die in Jahrtausenden gesammelten Erfahrungen von menschlichen Gesellschaften für die Eindämmung von Problemen durch Medientechniken und ihre Nutzung oder ihren Missbrauch aktualisiert genutzt werden können. Besser als Panik oder Neuland-Schwafelei, wenn es zu spät ist.
4.14 Wie könnte es weitergehen?
Mit dem AI Act der EU, der inzwischen in den einzelnen EU-Mitgliedsstaaten in die Umsetzung geht, ist natürlich nur ein Anfang gemacht. Das haben die Macher des Regelwerks selbst wiederholt betont. Ob und in welcher Weise sich dieser Versuch einer innovationsoffenen Regulierung weiterentwickelt oder ob andere Staaten bzw. überstaatliche Institutionen folgen, ist angesichts der unübersichtlichen Konstellationen und sich abzeichnender Disruptionen in der internationalen Politik völlig offen.
Allerdings lassen sich auf Basis der hier angebotenen mediengeschichtlichen Analyse und Erfahrungen bei der Einführung neuer Medientechniken in den letzten Jahrhunderten einige der zentralen Fragen oder Konfliktlinien ableiten, die für die künftigen Diskussionen um die gesellschaftliche Beherrschbarkeit auch der Künstlichen Intelligenz prägend sein dürften. Einige Schlaglichter und persönliche Einschätzungen:
Welche Akteure werden die technische Entwicklung prägen?
1.
Derzeit sind es die großen, global agierenden Tech-Konzerne und Ministerien der großen hochtechnologiefähigen Staaten, wie USA, China, Russland, Israel und einige EU-Staaten. Nur sie verfügen derzeit über die technischen, finanziellen und personellen Ressourcen und den Zugang zu ausreichenden Datenmengen. Sie ringen mit- und gegeneinander um die Technologieführerschaft. Der Ausgang ist durchaus offen.
2.
Aktuell sind die Chancen für Newcomer, kleine Player oder gar für die Demokratisierung im Sinne von Kontrolle durch Individuen oder gesellschaftliche Gruppen außerhalb der o. g. Machtzentren eher gering. Allerdings tun sich erfahrungsgemäß im Laufe der Entwicklung Zeitfenster, Technologiesprünge oder Anwendungsmöglichkeiten auf, in denen – unter Umständen relativ plötzlich – vieles möglich wird. Die Schrift war jahrhundertelang ein Instrument der Herrschenden und großer religiöser Institutionen, bis Lesen und Schreiben ab dem 16. Jahrhundert zumindest in Europa demokratisiert und sogar Schulfach wurde. Bei Medientechniken, wie Radio und Film/Fernsehen, die ähnlich wie KI einen für ihre Zeit hohen Technologiestand und finanzielle Ressourcen erforderten, dauerte es mehrere Jahrzehnte, bis sie für „Not-Big-Player“ als Anbieter realisierbar wurden. Bei Film/Fernsehen waren Videokameras ein wichtiger Zwischenschritt, später das Internet und Smartphones; beim Radio hatten sogenannte Internet-Radios ab den 1990er-Jahren ihren Durchbruch. Wie lange es bei der KI oder verschiedenen Anwendungen dauern wird, ist schwer abschätzbar.
3.
Eng verbunden mit der Kontrolle über die Technik und ihre Entwicklung ist die Frage nach der Kontrolle über die Inhalte, bei der KI als datenbasierter Technologie auch über die Daten bzw. ihre Nutzung und Interpretation. Da allerdings mit dem Internet und sozialen Netzwerken eine globale Infrastruktur für die Distribution von Inhalten relativ frei verfügbar ist, könnten sich hier wesentlich schneller Chancen für „Not-Big-Player“ oder auch Demokratisierungsbewegungen ergeben.
4.
Die Frage nach der Kontrolle über Nutzerdaten ist derzeit weitgehend zugunsten der Big-Player entschieden: Staatliche Institutionen haben z. B. in den westlichen Industrienationen spätestens nach dem 11. September 2001 nahezu freie Hand bekommen; in Staaten wie China oder Russland ist das Thema aufgrund ihrer staatlichen Verfasstheit ohnehin entschieden. Digitale Tech-Konzerne in Größenordnungen wie Google, Amazon, Alibaba und die meisten Social-Media-Anbieter etc. haben ihre Geschäftsmodelle auf der Auswertung von Nutzerdaten aufgebaut. Weltweit sind Milliarden Nutzerdaten weitgehend außerhalb der Kontrolle der Nutzer. Eine Wiedererlangung der Kontrolle ist faktisch und praktisch unmöglich. In Deutschland hat zwar das Bundesverfassungsgericht das Recht auf informationelle Selbstbestimmung in Verfassungsrang gehoben und damit theoretisch einen der stärksten rechtlichen Hebel weltweit geschaffen, dessen Grundgedanke sogar Eingang in die Datenschutzgrundverordnung der EU gefunden hat. Die Umsetzung ist jedoch auf bürokratische Nebenschauplätze fixiert. Intelligente Lösungen, die sowohl die grundsätzliche Globalität von Bits als auch die realen Bedürfnisse von Nutzern und Unternehmen berücksichtigen, müssen erst noch auf den Weg gebracht werden.
5.
Das Fähigkeits- und Knowhow-Gap, das wir von allen Technikinnovationen kennen, greift selbstverständlich auch bei der Künstlichen Intelligenz und ihrer Beherrschung: Diejenigen, die an ihrer Entwicklung aktiv beteiligt sind, haben aus ihrer Rolle heraus immer einen Vorsprung und trachten üblicherweise danach, ihn auszunutzen – für ihre eigenen wirtschaftlichen und Machtinteressen. Dagegen helfen Verbote erfahrungsgemäß wenig, weil sie zumeist zu spät kommen, oft an zu wenig Fachkenntnissen kranken und nur allzu oft das Gegenteil bewirken.
Wirksam sind am ehesten breit angelegte Kampagnen für mehr Bildung und Alltags-Knowhow zu den neuen Techniken, also KI-Alphabetisierung für alle. Die Erhöhung der Medienkompetenz der Bevölkerung war in den letzten Jahrhunderten immer ein zentraler Schlüssel für die gesellschaftlich verträgliche Einbettung von neuen Medientechnologien.
6.
Schutz von Schwächeren und vor Diskriminierung: Gesellschaftlich schwächere Gruppen, Minderheiten und Benachteiligte zählen selten zu den Technologie-Innovatoren, sind aber zumeist als Betroffene die ersten, die durch die Nachteile neuer Techniken noch weiter zurückgeworfen werden. Dies geschieht oft selbst dann, wenn ihnen neue Techniken eigentlich helfen sollen; umso mehr, wenn die Techniken sie nicht im Blick haben oder auf ihre intensivere Ausbeutung zielen. KI bildet dabei keine Ausnahme. Es gibt zwei Alternativen der Gegensteuerung: Schwächung der mächtigen Akteure und Stärkung der Schwächeren. Der Versuch einer Einhegung der Mächtigeren bildet den Kern beispielsweise des AI Acts der EU. Allerdings ist KI ein globales Phänomen: Die o. g. staatlichen und privaten Tech-Giganten agieren alle jeweils international und sind geübt im Umgehen von nationalstaatlichen Regelungen, selbst denen eines so großen Staatenbundes wie der Europäischen Union. Überstaatliche Regelungen brauchen viel Zeit und erfordern Kompromisse. KI und Bits agieren in Lichtgeschwindigkeit und können eine weltweite Infrastruktur namens Internet nutzen; Technologieentwicklung auf ihrer Basis ist praktisch immer schneller als die Schaffung internationaler Regeln – geschweige denn ihre Durchsetzung im Alltag. Bei der Künstlichen Intelligenz kommt hinzu, dass viele der Algorithmen intransparent sind und schwer nachvollziehbar wirken. Da überdies beispielsweise Large Language Models häufig auf verfügbaren Massendaten aus der englischsprachigen Welt basieren, neigen sie gleichsam automatisch zu einer inhärenten Schlagseite zugunsten US-amerikanisch geprägter Weltsichten. Dem kann durch Verbreiterung der Datenbasis und Learning-Datapools oder durch Antidiskriminierungskomponenten in den Algorithmen gegengesteuert werden. Allerdings wird die letztgenannte Möglichkeit aktuell eher umgekehrt genutzt, um politische Manipulation durch Blasenbildung zu fördern. Daher sind Regelungen zur Eindämmung der Stärkeren zwar wichtig, aber schneller und erfolgversprechender ist mit hoher Sicherheit die Strategie des Stärkens der Schwächeren – also die schon angesprochene massive Erhöhung der KI- und Medienkompetenz, Transparenzvorgaben und vielleicht auf rechtlicher Ebene Schutz- und Klagemöglichkeiten analog zu denen im Klima- und Verbraucherschutz, wo etwa dem Verbraucherschutz und anderen Akteuren sogenannte Organklagen erlaubt wurden. All dies kann deutlich schneller beschlossen und umgesetzt werden als internationale Vereinbarungen, die dadurch natürlich nicht obsolet werden, sondern parallel verfolgt werden müssen.
7.
Rechts- und kontrollfreie Räume locken immer die organisierte Kriminalität: Akteure, die in der physikalischen Welt ihre Geschäfte durch Geldwäsche, Menschenhandel, Drogenhandel, Raub, Erpressung etc. betreiben, haben schon das Internet und die klassische Digitalisierung der letzten Jahrzehnte massiv als Umsatz-Booster genutzt. Sie sind geschützt durch die Anonymisierungsmöglichkeiten des Netzes, fehlende rechtliche Normen und erst recht deren mangelhafte Umsetzung. Künstliche Intelligenz bietet ein zusätzliches weites Anwendungsfeld für international agierende Verbrecherorganisationen. Im wahrsten Sinne des Wortes intelligentere Möglichkeiten zum Ausspähen von Opfern und Verfolgungsbehörden zählen dabei noch zu den einfacheren Anwendungen. Intelligente Wegeplanung für Drogen- und Menschhandel oder innovative Geldwäschemethoden sind wahrscheinlich ebenfalls längst in Vorbereitung oder im Einsatz. Zum Gegensteuern können überwiegend vorhandene nationale und internationale Gesetze genutzt werden; aber zentral ist die Befähigung der Verfolgungsbehörden.
8.
Die Arbeitsplatzdebatte: Wie alle datenbezogenen Technologien birgt auch KI erhebliche Rationalisierungseffekte und wird natürlich nicht nur die Veränderung von Arbeitsplätzen mit sich bringen, sondern auch viele Arbeitsplätze vernichten können, nicht nur in der Programmierung oder vielen Medienberufen. Gleichzeitig werden auch neue Arbeitsplätze entstehen. Die Aufgabe hier besteht nicht darin, diese Allgemeinplätze als Neuigkeiten zu verkaufen, sondern den Transformationsprozess nach Möglichkeit so zu gestalten, dass möglichst viele Menschen und insbesondere Arbeitende mitgenommen werden können. Zumindest in Deutschland sind alle arbeitsmarktpolitischen Instrumente und Jahrzehnte an Erfahrungen für sozialverträgliche Transformationsprozesse vorhanden. Sie müssen „nur“ eingesetzt werden.
9.
Die Zensurdebatte: Die Geschichte der Medien und ihrer Technologien ist eng verwoben mit dem Ringen um die Grenzen zwischen der Meinungsfreiheit und ihrem Gegenteil, der Zensur. Das oben bereits erwähnte Impressum ermöglicht nicht nur den Schutz von Autoren; es wurde insbesondere auch genutzt, um nach Einführung der Druckerpresse durch Gutenberg die massenhafte Verbreitung von unliebsamen Druckerzeugnissen einzudämmen: Wenn man weiß, wie Autor und Drucker heißen, kann man sie festnehmen, und wenn man weiß, wo die Druckerpresse steht, kann man sie beschlagnahmen. Seitdem herrscht ein immerwährender Kampf um die Kontrolle über medial geäußerte Meinungen und ihre Zensur. Artikel 5 des bundesdeutschen Grundgesetzes legt fest: „Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. […] Eine Zensur findet nicht statt.“ Häufig übersehen wird der zweite Absatz: „Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre.“ Mit beiden Absätzen zusammen wird ein Ermessensspielraum beschrieben: Grundsätzlich keine Zensur, aber Einschränkungen der Meinungsfreiheit sind möglich. Dies muss für jede Medientechnik und in jeder Generation immer wieder neu ausbalanciert werden.
10.
Das Internet und die Digitalisierung von Medieninhalten haben einen potenziell unendlichen Raum für die globale Verbreitung von Meinungen geschaffen. Eine Kontrolle im Sinne des zweiten Absatzes von Artikel 5 findet schon innerhalb des Geltungsbereichs des Grundgesetzes faktisch nicht statt, international schon gar nicht; die erforderliche Balance ist in weiter Ferne. Künstliche Intelligenz agiert in diesen „unendlichen Weiten“, ihre Treiber nutzen die Spielräume selbstverständlich aus.
11.
Zumindest für Deutschland und die EU sind die rechtlichen Rahmenbedingungen relativ klar. Aber ihre Durchsetzung benötigt dringend ausreichend ausgestattete Kontrollbehörden und Gerichte. Sonst bleibt nicht nur der Schutz der Jugend weiterhin auf der Strecke, sondern der aller Individuen. Umgekehrt kann KI eingesetzt werden, um die Balance zwischen Meinungsfreiheit und Zensur zu schützen.
Schon das Orakel von Delphi hat uns gelehrt, dass die Vorhersage der Zukunft so ihre Tücken hat. Daher sind diese Hinweise selbstverständlich weder vollständig noch etwas apodiktisch gemeint. Sie versuchen nur, auf Basis der mediengeschichtlichen Perspektive verschiedene Möglichkeitsräume aufzuzeigen, die für die künftige gesellschaftliche Einbettung und Beherrschung der Künstlichen Intelligenz relevant sein dürften. Entscheidend wird sein, was wir daraus machen und wie wir unsere Zukunft gestalten.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.