2. Künstliche Intelligenz im Fokus: Die wichtigsten Aussagen des Buches im Überblick und prägnant kommentiert
- Open Access
- 2026
- OriginalPaper
- Chapter
Activate our intelligent search to find suitable subject content or patents.
Select sections of text to find matching patents with Artificial Intelligence. powered by
Select sections of text to find additional relevant content using AI-assisted search. powered by (Link opens in a new window)
Zusammenfassung
Die rasante Expansion des Forschungsfeldes der Künstlichen Intelligenz (KI) zeigt sich deutlich im erheblichen Anstieg der Publikationen in den letzten zehn Jahren. Seit 2010 ist die Zahl der KI-bezogenen Veröffentlichungen exponentiell gewachsen, wobei der Anstieg ab 2015 besonders signifikant ist (Stanford AI Index, 2023). Wer jedoch versucht, einen umfassenden Überblick zu gewinnen, könnte sich von der Fülle des Angebots überfordert fühlen. Dieses kompakte und umfassende wissenschaftliche Fachbuch bietet deshalb einen hervorragenden Einstieg in ein breites, interdisziplinäres Verständnis der Materie.
Seit ihrer Gründung im Jahr 1959 beschäftigt sich die Vereinigung Deutscher Wissenschaftler e.V. (VDW) mit einer Vielzahl gesellschaftlich relevanter Themen, darunter die Förderung wissenschaftlicher Verantwortung, die interdisziplinäre Zusammenarbeit sowie die kritische Auseinandersetzung mit den gesellschaftlichen Auswirkungen von Wissenschaft und Technologie. Die Schwerpunkte liegen dabei auf Friedensforschung, Umweltschutz und Technikfolgenabschätzung. In den letzten Jahren haben die Themen Digitalisierung und Künstliche Intelligenz stark an Bedeutung gewonnen, da diese Entwicklungen weitreichende Auswirkungen auf die Gesellschaft haben. Ziel der VDW ist es, durch fundierte Analysen, Stellungnahmen und Veranstaltungen zu einer informierten politischen Entscheidungsfindung beizutragen, wobei besonderes Augenmerk auf eine transdisziplinäre und unabhängige Technikfolgenabschätzung gelegt wird. Bereits mit ihrem ersten Buch Wie wir leben wollen – Kompendium zu Technikfolgen von Digitalisierung, Vernetzung und Künstlicher Intelligenz hat die 2017 eingesetzte Studiengruppe Technikfolgenabschätzung der Digitalisierung der VDW unter Leitung von Frank Schmiedchen die Themen vernetzte Digitalisierung und KI grundlegend behandelt. Angesichts der wachsenden Relevanz dieser Themen ist nun dieses umfassendere Fachbuch erschienen, das mit Unterstützung der genua GmbH die fortschreitenden Entwicklungen und deren gesellschaftliche Auswirkungen tiefgreifend beleuchtet.
Advertisement
Das vorliegende wissenschaftliche Fachbuch Künstliche Intelligenz und Wir rückt den interdisziplinären Dialog zu den verschiedenen Aspekten der KI in den Mittelpunkt. Die fachliche Herkunft der Autoren ist ebenso vielfältig wie die behandelten Themen, die von technologischen Grundlagen bis hin zu gesellschaftlichen und ethischen Implikationen reichen. Das transdisziplinäre Buch richtet sich in erster Linie an Lehrende und Studierende aller Fachbereiche, die sich wissenschaftlich mit dem Thema auseinandersetzen wollen, aber auch an politische Entscheidungsträger, Wirtschaftsvertreter sowie Medienschaffende. Es bietet eine fundierte Orientierung in der komplexen Debatte um Künstliche Intelligenz, die sowohl akademische als auch gesellschaftliche Dimensionen umfasst.
Im Gegensatz zu stark verunsichernden journalistischen Beiträgen, die Künstliche Intelligenz entweder als überbewertet, bloßen Hype oder gar Illusion darstellen oder ihr im Gegenteil bereits ein Bewusstsein zuschreiben und ihre unvermeidliche Herrschaft prognostizieren, strukturiert dieses Werk den tatsächlichen Wissensstand klar und verständlich für die praktische Anwendung durch den Leser. Das Buch hat den Anspruch, künftige Entwicklungen nachvollziehbar zu beschreiben, also aktuelle Erkenntnisse so zu präsentieren, dass die bevorstehenden Veränderungen verständlich werden. Weder historischer Determinismus noch apokalyptische Prognosen können zu einer sachgerechten Darstellung beitragen, und obwohl erschwerend hinzukommt, dass in den vergangenen zwei Jahren eine Beschleunigung der Entwicklungen beobachtet wurde, findet sie in diesem Buch die notwendige Beachtung. Der Leser erhält, was er sucht: einen klaren Überblick über den aktuellen Sachstand.
Die fachliche Vielfalt der Autoren stellt für das Buch sowohl eine Herausforderung als auch eine wertvolle Bereicherung dar, die eine klare Struktur erforderlich macht. In sieben Teilen wird die Komplexität der Themenfelder abgebildet, wobei die Einteilung die technischen und wissenschaftlichen Grundlagen umfasst und Aspekte wie Technologie, gesellschaftliche Implikationen, Ökonomie, Ethik und Sicherheit näher beleuchtet. So widmet sich das Buch beispielsweise der Frage, wie eine weitere KI-Entwicklung im Verhältnis zur menschlichen Autonomie zu verstehen ist. Julian Nida-Rümelin (Kap. 14) argumentiert dabei aus einer humanistischen Perspektive, dass KI-Systeme niemals die menschliche Entscheidungsfähigkeit ersetzen dürfen, da sie das Selbstverständnis und die kognitive Autonomie des Menschen bedrohen. In ähnlicher Weise argumentiert Stefan Bauberger (Kap. 13), wenn er sagt, dass KI durchaus eine wertvolle Erweiterung des menschlichen Erkenntnispotenzials sein kann und darf, solange gewährleistet ist, dass sie immer nur Werkzeug und nie ein eigenständiger Akteur sein darf. Julian Nida-Rümelin und ebenso Carl Friedrich Gethmann (Kap. 15) betonen in diesem Sinne, dass die Automatisierung kritischer Entscheidungen zu einer Entmenschlichung führen kann, wenn der Mensch als letzter Entscheidungsträger entmachtet wird. Thomas Beschorner wählt ein sehr spezielles Feld, um das Verhältnis von Mensch und Maschine auszuloten, und beleuchtet die Implikationen einer emotionalen und sexuellen Beziehung zwischen beiden (Kap. 16).
Ein anderer Teil des Buches widmet sich ethischen und regulativen Fragen. Alexander Brink erklärt in Kap. 21 die unterschiedlichen Ebenen, in denen Staaten, Unternehmen und jeder Einzelne Schäden durch KI minimieren können. Darauf aufbauend setzt sich Frank Schmiedchen (Kap. 22) auf Grundlage der von seiner VDW-Studiengruppe 2018 veröffentlichten kritischen Auseinandersetzung mit den Asilomar-Prinzipien mit deren heutigem Wert auseinander, und Benjamin Ledwon (Kap. 23) stellt den EU AI Act als ersten wichtigen normativen Schritt vor, um ethische Standards und die Rechte der Bürger im digitalen Zeitalter zu schützen. Diese Position teilen auch Carmen Dencker und Kim Nguyen in ihrem Beitrag (Kap. 8).
Advertisement
Demgegenüber warnen Marcus Disselkamp und Frank Schmiedchen (Kap. 18) sowie Stefan Werner und Carsten Arzig (Kap. 3), dass eine übermäßige Regulierung das Innovationspotential Europas schwächen könnte, ohne langfristig wirklich die gewünschten Vorteile zu bringen. Sie fordern daher einen angemessenen und sachgerechten Umgang mit den auch von ihnen betonten regulatorischen Anforderungen, um eine flexible Anpassung an neue technische Entwicklungen zu ermöglichen. Bei allen Unterschieden in der Frage nach dem besten Weg eint die Autoren des Buches die klare Forderung nach einem wirksamen ethischen Rahmen für die Nutzung von KI, der Prinzipien wie Fairness, Transparenz und die Wahrung der Menschenwürde praktisch und unanfechtbar verteidigt. So betonen zahlreiche Kapitel, dass für die weitere KI-Entwicklung alle wesentlichen ethischen Grundsätze zwingend zugrunde gelegt werden müssen. Insbesondere Ute Schmid befasst sich im Kap. 10 mit der Frage, wie Künstliche Intelligenz vertrauenswürdig gestaltet werden kann, und betont, dass ihre Entwicklung untrennbar an grundlegende ethische Prinzipien gebunden sein muss.
Ein zentraler Teil des Buches widmet sich der sicherheits- und geopolitischen Dimension der KI. Frank Schmiedchen (Kap. 24), Heiko Borchert (Kap. 25) und Rainer Simon mit Thomas Purper (Kap. 26) legen eindrücklich dar, wie weit der Einsatz von KI zu militärischen Zwecken bereits gediehen oder angedacht ist. Karl Hans Bläsius warnt darauf aufbauend in Kap. 27 vor dem Einsatz von KI in militärischen Systemen und Überwachungsanwendungen, die das internationale Vertrauen untergraben und damit sowohl die globale Stabilität als auch Menschenrechte gefährden könnten. Er fordert deshalb strengere Abrüstungs- und Kontrollmechanismen, um diesen Risiken zu begegnen.
Gerade der Ethik- und Regulationsteil und der sicherheitspolitische Teil verdeutlichen den wesentlichen Grundkonsens aller Autoren: die Forderung nach menschlicher Kontrolle und Transparenz in KI-gestützten Entscheidungsprozessen. Alle betonen, dass es immer Menschen sein müssen, die die letzte Entscheidung treffen, um so die ethische Verantwortung und Autonomie des einzelnen Menschen als letztlichen Verantwortungsträgers zu bewahren.
2.1 Was das Aufkommen der großen Sprachmodelle verändert hat
Die Veröffentlichung großer Sprachmodelle wie ChatGPT Ende 2022 markierte einen Wendepunkt in der öffentlichen Wahrnehmung und Nutzung von KI. In den Jahren zuvor war KI vor allem ein Thema für Wissenschaft und Unternehmen gewesen. Mit ChatGPT wurde der direkte (phänomenologische) Zugang zu KI jedoch erstmals für die breite Öffentlichkeit möglich. Die großen Sprachmodelle, die durch maschinelles Lernen trainiert werden, basieren auf komplexen neuronalen Netzwerken und sind in der Lage, Anfragen in natürlicher Sprache zu beantworten, was den Zugang zu Informationen grundlegend veränderte. Carsten Arzig beschreibt in Kap. 6, wie Sprachmodelle wie GPT-4 durch Tokenisierung Texte in einzelne Einheiten zerlegen und diese in Zahlenwerte umwandeln, um sie maschinell zu verarbeiten. Hierbei entstehen Vektoren, die semantische Beziehungen zwischen Wörtern erfassen und durch Wahrscheinlichkeitsverteilungen die nächsten Schritte berechnen, um Antworten zu generieren. Diese Systeme ermöglichen automatisierte Übersetzungen, kreative Textgenerierung und Chatbot-Anwendungen, die bisher menschliche Expertise erforderten.
Wer damals die ersten Tests durchführte und sich begeistert zeigte, erkannte zugleich die Grenzen von ChatGPT. Man stellte Fehler fest und sprach von Halluzinationen. Gleichzeitig rückte in den Diskussionen ein weiteres Problem in den Fokus: das sogenannte Black-Box-Phänomen, das die fehlende Erklärbarkeit der Entscheidungsprozesse in Sprachmodellen und neuronalen Netzwerken beschreibt. Jeanette Lorenz (Kap. 12) erwähnt, dass die Funktionsweise dieser Systeme auf Millionen von Parametern basiert, deren Einfluss auf Entscheidungen nur schwer nachvollziehbar ist.
Diese Intransparenz ist besonders problematisch in sicherheitskritischen Bereichen, wie Medizin, autonomes Fahren und Strafverfolgung, da es bei Fehlentscheidungen nahezu unmöglich ist, die Ursache nachzuvollziehen und Verantwortung eindeutig zuzuordnen. Die mangelnde Transparenz führt zudem zu ethischen Bedenken: Julian Nida-Rümelin fordert, dass der Mensch im Zentrum der Entscheidungsprozesse bleibt, da neuronale Netzwerke keine einfache Rückverfolgbarkeit bieten. Ein weiterer Kritikpunkt betrifft die mögliche Diskriminierung durch algorithmische Verzerrungen. Die wissenschaftliche Gemeinschaft reagiert auf das Black-Box-Problem mit zunehmender Forschung zu erklärbarer KI. Carl Friedrich Gethmann hebt hervor, dass nachvollziehbare KI-Entscheidungen unverzichtbar sind, um das Vertrauen in die Technologie zu stärken. Verschiedene Ansätze, wie Visualisierungstechniken oder die Reduktion der Parameterzahl, sollen die internen Prozesse von neuronalen Netzwerken transparenter machen. Trotz dieser Bemühungen bleibt die Erklärbarkeit eine große methodische Herausforderung, die bisher nur teilweise gelöst werden konnte. Gleichzeitig betont Jeanette Lorenz die großen potenziellen Nutzungsmöglichkeiten neuronaler Netzwerke in der Materialwissenschaft, Quantenphysik und Medizin. Ihre Fähigkeit, komplexe Systeme zu simulieren, könnte dort neue Erkenntnisse ermöglichen, die mit traditionellen Methoden nicht erreichbar wären.
Bereits 2023 begann eine neue öffentliche Diskussion, die aus den USA nach Europa schwappte und sich der Frage widmete, ob eine KI so intelligent werden könne, dass sie den Menschen übertreffen würde und am Ende sogar in der Lage wäre, die Herrschaft zu übernehmen, wie es in zahlreichen Hollywoodfilmen postuliert wird. Man kann vorwegnehmen, dass ein Thermostat beispielsweise keine Gewissensprüfung benötigt, um eine Entscheidung zu treffen, und dass KI-Systeme autonom handelnde Entitäten sein können. Dennoch wird die Frage nach der Möglichkeit einer autonomen, bewussten KI von den Autoren als ungeklärt betrachtet. Die Forschung unterscheidet hier zwischen schwacher KI, die spezifische Aufgaben ohne echtes Verständnis löst, und starker KI, die theoretisch menschenähnliche kognitive Fähigkeiten erlangen könnte. Nida-Rümelin warnt vor einer animistischen starken KI, der Bewusstsein zugesprochen würde, und sieht darin eine philosophisch unvertretbare Annahme, da KI keine sozialen Interaktionen oder Erfahrungen hat und daher keine echten Intentionen entwickeln kann. Gethmann ergänzt, dass KI-Systeme keine Akteure im philosophischen Sinne sind, da ihnen die Fähigkeit zur intentionalen Handlung fehlt. Selbst fortgeschrittene KI-Systeme können nur Daten verarbeiten, aber nicht eigenständig Urteile fällen oder Verantwortung übernehmen. In der Forschung sieht Gethmann KI daher lediglich als Werkzeug zur Unterstützung, da die Fähigkeit zur Interpretation und Hypothesenbildung ausschließlich dem Menschen vorbehalten bleibt.
Die beschriebene Situation kann jedoch nicht statisch betrachtet werden, da wir täglich neue Fortschritte sehen, was viel mit den enormen Investitionen zu tun hat, die aktuell in KI-Technologien fließen. Unternehmensberatungen prognostizieren, dass die weltweiten Ausgaben für KI weiter stark ansteigen und sich auf mehrere hundert Milliarden US-$ belaufen könnten. Die hohen Investitionssummen lassen vermuten, dass die Entwicklung von KI in den kommenden Jahren noch stärker an Fahrt gewinnen wird. Bereits ein großer Teil der Unternehmen in den Industrieländern hat KI-Technologien implementiert, wobei der Fokus zunehmend auf generative KI-Modelle und Agentensysteme gelegt wird, die Umsatzpotentiale heben und neue Geschäftsmodelle schaffen sollen (Cheung et al., 2024). Die neu geschaffenen Modelle werden schneller handeln und schneller agieren. Ob Unternehmen mit ihrem Expansionsdrang wissenschaftlicher Ethik folgen werden, ist fraglich.
Es ist nicht die Aufgabe dieses Buches, dieser Frage nachzugehen. Dennoch wird es im Rahmen der Diskussionen um die Technikfolgenabschätzung in Deutschland zu einer abrupten Kehrtwende in der bisherigen Vernachlässigung des Themas kommen. Der Auslöser hierfür kommt aus den USA: Elon Musk (Tesla, SpaceX, X – ehemals Twitter, Neuralink) und Peter Thiel (Palantir) werden alles daransetzen, für die US-amerikanische Regierung den technologischen Vorsprung der USA auf dem Gebiet der KI-Entwicklung zu halten oder weiter auszubauen. Dies wird dadurch verstärkt, dass auch Jeff Bezos (Amazon) und Mark Zuckerberg (Meta) die US-Regierung unter Präsident Trump unterstützen. Wenn ein großer Teil der Tech-Elite der USA politisch in einem Lager sitzt, wird dies auch für die weitere KI-Entwicklung Konsequenzen haben. Dies wird sich nicht nur auf die bilateralen Beziehungen zwischen Deutschland und den Vereinigten Staaten auswirken, sondern auch weitreichend in alle gesellschaftlichen und Lebensbereiche der Bundesbürger hineinwirken.
2.2 Der Beginn einer neuen Ära
Die Zukunft der KI wird durch die Tech-Konzerne vorangetrieben, um damit ihre ökonomische Dominanz auszubauen. Die restlichen Branchen nehmen den Nutzen der Automatisierungsangebote und Produktivitätssteigerungen dankend an. Deswegen betonen Marcus Disselkamp und Frank Schmiedchen (Kap. 18), dass KI als Basisinnovation betrachtet werden muss, die in Kombination mit umfassenden digitalen Transformationsprozessen das Potential hat, traditionelle Geschäftsmodelle weitreichend und disruptiv zu verändern. Im Kontext der Wertschöpfungskette fungiert KI als Katalysator für Effizienzsteigerungen und Automatisierung. Unternehmen wie Siemens und Bosch haben durch die Digitalisierung von Produktions- und Lieferketten die Transparenz und Flexibilität entlang der gesamten Wertschöpfungskette erhöht. Die deutsche Initiative Manufacturing-X, Teil des Industrie-4.0-Konzepts, fördert den Aufbau vernetzter Datenräume, die Unternehmen die gemeinsame Nutzung von Produktions- und Lieferkettendaten ermöglichen. Diese Fortschritte in der Wertschöpfungskette schaffen die Grundlage für die zunehmende strategische Bedeutung von KI in der Unternehmensführung. Der Zugang zu umfangreichen Datenmengen für das Training von KI-Modellen spielt hierbei eine entscheidende Rolle, um fortlaufend Optimierungspotentiale zu identifizieren und die Wettbewerbsfähigkeit zu steigern. Betrachten wir die vernetzte Automatisierung, so geht es nicht mehr nur um manuelle Prozesse, sondern um die Entwicklung kognitiv gesteuerter, komplexer autonomer Systeme, die eigenständige Entscheidungen treffen können. KI-gestützte Automatisierung kann in der Produktion zu Kostensenkungen von bis zu 30 % führen. Doch auch im Finanzsektor wird KI eingesetzt, beispielsweise bei JPMorgan zur schnelleren Identifikation von Betrugsfällen oder zur Risikobewertung in komplexen Portfolios. Die Echtzeitanalyse großer Datenmengen ermöglicht es, Anomalien frühzeitig zu erkennen und effizient gegenzusteuern. Insgesamt verdeutlichen all diese Beispiele, dass KI als treibende Kraft hinter der Transformation von Unternehmensprozessen verstanden werden muss (Elingrud et al., 2023).
Insbesondere in den Führungsetagen der Unternehmen zeigt sich zunehmend die strategische Bedeutung von KI, die längst über die rein operative Optimierung hinausgeht. Studien wie die von Buxmann und Schmidt (2019) heben hervor, dass KI zur Entscheidungsfindung auf Top-Management-Ebene beiträgt. Unter dem Konzept der Decision Intelligence entwickelt sich die Business Intelligence durch den Einsatz von Analysemethoden wie Predictive und Prescriptive Analytics weiter, wobei Agile Analytics hinzukommt, um Unternehmen in die Lage zu versetzen, rasch auf Marktveränderungen zu reagieren. Eine erfolgreiche Implementierung von KI in der Unternehmensstrategie erfordert eine proaktive Einbindung des Top-Managements sowie eine durchdachte Datenstrategie, um die Technologie als integralen Bestandteil der Unternehmensführung zu verankern. Diese umfassende Integration zeigt sich insbesondere auch im Bereich der Forschung und Entwicklung. In den Naturwissenschaften und Ingenieurdisziplinen ermöglichen KI-Algorithmen die Analyse großer Datenmengen, die Entdeckung neuer wissenschaftlicher Muster sowie die Entwicklung innovativer Lösungen. Deep-Learning-Modelle, wie AlphaFold von DeepMind, haben die präzise Vorhersage von Proteinstrukturen revolutioniert und den wissenschaftlichen Fortschritt in der Molekularbiologie beschleunigt (Deepmind, 2020). Die Automobilindustrie setzt KI-basierte digitale Zwillinge ein, um die Entwicklung neuer Prototypen zu optimieren, was die Markteinführungszeit von Produkten deutlich verkürzt. Die gängigen Studien ermitteln, dass der Einsatz von KI in der F&E die Markteintrittszeit um bis zu 20 % reduzieren kann (Liu et al., 2024). Dieser Einfluss erstreckt sich zudem auf die Schaffung neuer disruptiver Innovationen, die erst durch KI möglich werden. Clayton M. Christensen (2016/1997) unterscheidet zwischen sustaining innovations, die bestehende Produkte verbessern, und disruptive innovations, die ganze Märkte verändern können. KI treibt diese Transformation, indem sie nicht nur bestehende Prozesse verbessert, sondern völlig neue Geschäftsmodelle ermöglicht. Plattformunternehmen wie Uber und Airbnb nutzen KI, um durch datengetriebene Algorithmen Angebot und Nachfrage effizient zu steuern und etablierte Marktstrukturen herauszufordern. Diese Entwicklungen unterstreichen auch die entscheidende Rolle, die KI in der Weiterentwicklung der Business Intelligence spielt. Diese datenbasierten Modelle führen zu einer Neugestaltung des Wettbewerbsumfelds und schaffen Raum für neue Marktteilnehmer. Im Bereich der Business Intelligence hat sich die Nutzung von KI in den letzten Jahren stark weiterentwickelt. Nenninger und Seidel (2021) zeigen auf, dass BI-Systeme durch die Integration von Techniken wie Natural Language Processing und Machine Learning nicht mehr nur retrospektiv Daten analysieren, sondern auch präzise Prognosen treffen und fundierte Handlungsempfehlungen abgeben können. Dies ermöglicht es Unternehmen wie Amazon, Kundenangebote in Echtzeit zu personalisieren und die Kundenbindung zu stärken. Die Weiterentwicklung hin zur Decision Intelligence verdeutlicht einen Paradigmenwechsel, der auf datenbasierte Entscheidungsfindung zur Verbesserung der Unternehmenssteuerung abzielt. Dieser Paradigmenwechsel wirkt sich auch auf das Kundenmanagement aus, wo KI immer mehr an Bedeutung gewinnt.
Die Branche, bei der der KI-Technologiesprung die größte Begeisterung auslöst, ist das Gesundheitswesen, einschließlich Medizintechnik, Pharmazie und Krankenhauswesen, da KI die medizinische Versorgung grundlegend verbessern kann. In Bereichen wie der bildgebenden Diagnostik, der Medikamentenforschung und der Verwaltung von Krankenhäusern spielt KI eine zunehmend bedeutende Rolle. Diese Entwicklungen eröffnen neue Möglichkeiten für effizientere, präzisere und personalisierte Behandlungen. Bildgebende Verfahren, wie Röntgen, MRT und CT, gehören zu den zentralen diagnostischen Werkzeugen in der modernen Medizin. KI hat sich in den letzten Jahren in diesen Bereichen als unverzichtbare Unterstützung etabliert. KI-Systeme können Bilder schneller und genauer als menschliche Radiologen analysieren und sind dabei in der Lage, subtile Muster und Anomalien zu erkennen, die für das menschliche Auge nicht sichtbar sind. Die Stärke der KI liegt dabei nicht nur in der Genauigkeit, sondern auch in der Geschwindigkeit der Analyse. Während ein Radiologe für die Auswertung vieler Bilder vielleicht mehrere Stunden benötigt, kann eine KI-basierte Software dieselbe Aufgabe in wenigen Minuten erledigen. Dies führt zu einer erheblichen Entlastung des medizinischen Personals und ermöglicht eine schnellere Diagnose, was besonders in zeitkritischen Situationen von entscheidender Bedeutung ist. Ein weiterer Vorteil der KI ist ihre Lernfähigkeit. KI-Systeme können kontinuierlich auf Grundlage neuer Daten verbessert werden. Sie lernen aus früheren Fehlern und passen ihre Algorithmen an, um zukünftige Diagnosen weiter zu optimieren.
Nicht nur die Diagnose profitiert von KI, auch die Verwaltung und Organisation von Krankenhäusern wird durch den Einsatz dieser Technologie revolutioniert. KI kann in zahlreichen Bereichen eingesetzt werden, um den Krankenhausbetrieb zu optimieren, die Arbeitsbelastung des Personals zu verringern und die Patientenversorgung zu verbessern. Ein zentraler Aspekt hierbei ist die automatisierte Verwaltung von Patientendaten. In modernen Krankenhäusern fallen täglich riesige Datenmengen an, die von administrativen Aufgaben bis hin zu medizinischen Aufzeichnungen reichen. Künstliche Intelligenz kann diese Daten analysieren und effizienter verwalten, wodurch der Verwaltungsaufwand erheblich reduziert wird. Darüber hinaus spielen KI-Systeme eine entscheidende Rolle bei der Optimierung von Arbeitsabläufen im Krankenhaus. Die Automatisierung von Routineaufgaben, wie der Planung von OPs oder der Verteilung von Betten, kann Ärzte und Pflegepersonal entlasten und mehr Zeit für die direkte Patientenversorgung schaffen.
Die Medikamentenforschung, um ein weiteres Beispiel aus dem weiten Feld der Medizin vorzustellen, ist traditionell ein zeitaufwendiger und kostspieliger Prozess. Von der Identifizierung eines potenziellen Wirkstoffs bis zur Marktreife eines Medikaments können Jahre vergehen. Hier kommt KI ins Spiel, die diese Prozesse erheblich beschleunigt. KI-basierte Systeme können riesige Datenmengen aus genomischen Datenbanken, klinischen Studien und wissenschaftlichen Publikationen analysieren und dabei Muster und Korrelationen identifizieren, die menschlichen Forschern möglicherweise entgehen. Ein prominentes Beispiel für den Einsatz von KI in der Medikamentenentwicklung ist die COVID-19-Pandemie. Während herkömmliche Medikamentenforschungsprozesse oft Jahre in Anspruch nehmen, konnten durch den Einsatz von KI und maschinellem Lernen in einem Bruchteil der Zeit potenzielle Behandlungsmöglichkeiten identifiziert werden. KI-gestützte Systeme analysierten Millionen von chemischen Verbindungen und simulierten deren Wechselwirkungen mit dem SARS-CoV-2-Virus. Auf diese Weise konnte eine vielversprechende Liste von Wirkstoffen in wenigen Monaten erstellt werden, was maßgeblich zur schnellen Entwicklung von Impfstoffen und Therapien beitrug. KI wird nicht nur zur Identifizierung von Wirkstoffen eingesetzt, sondern auch zur Optimierung von klinischen Studien. Durch die Analyse von Patientendaten können KI-Systeme dabei helfen, die Patienten zu identifizieren, die am wahrscheinlichsten auf ein bestimmtes Medikament ansprechen. Dies führt zu effizienteren Studien mit besseren Ergebnissen und kürzeren Entwicklungszeiten. Marcus Disselkamp und Frank Schmiedchen betonen in ihrem Beitrag, dass KI-basierte Technologien die Effizienz klinischer Studien um bis zu 30 % steigern können, indem sie präzisere Vorhersagen zu den Ergebnissen und potenziellen Nebenwirkungen machen.
Diese Entwicklung zeigt sich nicht nur in den F&E-Abteilungen der Unternehmen, sondern durchdringt zunehmend alle Bereiche der Wissenschaft. Ein begehrtes Merkmal von KI in der wissenschaftlichen Forschung ist ihre Fähigkeit, große Datenmengen effizient zu analysieren. Besonders in datenintensiven Disziplinen, wie Molekularbiologie, Astronomie und Klimaforschung, hat der Einsatz von KI bereits erhebliche Fortschritte ermöglicht. Die Geschwindigkeit und Präzision, mit der KI Muster in Daten erkennt, erlauben es Wissenschaftlern, Hypothesen schneller zu überprüfen und neue Erkenntnisse zu gewinnen. Dies ist insbesondere in der hochkomplexen Klimaforschung von entscheidender Bedeutung. Mithilfe von KI können Satellitendaten und historische Klimamodelle analysiert werden, um präzise Vorhersagen über zukünftige Klimaentwicklungen zu treffen. Solche Modelle sind unverzichtbar, um fundierte politische Entscheidungen zur Bekämpfung des Klimawandels zu treffen und die Auswirkungen von Treibhausgasen auf das globale Klima besser zu verstehen. Im Vergleich zu herkömmlichen Methoden ermöglicht KI die Verarbeitung größerer Datenmengen und die Erstellung detaillierterer Klimamodelle.
Neben der Datenanalyse findet KI auch zunehmend Anwendung in der Automatisierung von Forschungsprozessen. Ein bemerkenswertes Beispiel ist der Einsatz von KI-gesteuerten Robotern zur Automatisierung von Laborarbeiten. Diese Systeme können eigenständig Experimente durchführen, Daten sammeln und diese direkt analysieren. Dadurch wird der Forschungsprozess erheblich effizienter gestaltet, so dass Wissenschaftler ihre Ressourcen verstärkt auf die Interpretation der Ergebnisse und die Ableitung neuer Forschungsansätze konzentrieren können.
Die Simulation komplexer Prozesse, die in der Physik von zentraler Bedeutung sind und bei denen herkömmliche Computer schnell an ihre Grenzen stoßen, hat durch die Kombination von Quantencomputing und KI völlig neue Möglichkeiten eröffnet. Durch dieses Zusammenspiel lassen sich hochkomplexe physikalische Systeme, wie die Simulation von Molekülen oder Quantenprozessen, deutlich effizienter berechnen.
Jeanette Lorenz, Forscherin am Fraunhofer-Institut für Kognitive Systeme, zeigt in Kap. 12, dass die Kombination aus Quantencomputing und KI die Rechenleistung beispielsweise in der Physik und Chemie durch die Neuartigkeit der Berechnungen enorm steigern kann. Diese neuen Möglichkeiten sind besonders wichtig für die Materialwissenschaften und die chemische Forschung, in denen die Simulation von Molekülen und Reaktionen essenziell ist. Jeanette Lorenz bespricht in ihrem Beitrag sogenannte Quantenbits oder Qubits. Diese bilden das Grundelement eines Quantencomputers und besitzen im Gegensatz zu klassischen Bits die Fähigkeit, sich in Superpositionen zu befinden, also gleichzeitig zu bestimmten Anteilen die Zustände 0 und 1 einzunehmen. Diese Eigenschaft, kombiniert mit der quantenmechanischen Verschränkung, ermöglicht eine Parallelverarbeitung, die bei bestimmten Algorithmen eine erhebliche Effizienzsteigerung verspricht.
Jeanette Lorenz weist darauf hin, dass aktuelle Quantencomputer aufgrund der Fehleranfälligkeit der Qubits und der Schwierigkeit, diese bei sehr niedrigen Temperaturen zu stabilisieren, noch nicht in der Lage sind, komplexe Probleme zu lösen, die klassische Supercomputer nicht ebenfalls bewältigen könnten. Die Herausforderung liegt darin, Mechanismen zur Fehlerkorrektur zu entwickeln, die es ermöglichen, die Sensitivität der Qubits gegenüber Umwelteinflüssen zu reduzieren. Im Bereich der Quantencomputer werden verschiedene Ansätze verfolgt, die Qubits durch reale physikalische Effekte darzustellen. Die bekanntesten Methoden sind Atome nahe am absoluten Temperaturnullpunkt oder Ionen in sogenannten Ionenfallen. Es gibt aber auch noch andere Ansätze, etwa basierend auf Photonen oder sogenannten Nitrogen-Vacancy-Zentren. Jede Methode weist unterschiedliche Vor- und Nachteile hinsichtlich Stabilität und Skalierbarkeit auf.
Die Verknüpfung von Quantencomputing und Künstlicher Intelligenz eröffnet neue Möglichkeiten in der Datenverarbeitung und Mustererkennung. Künstliche Intelligenz, die auf klassischen Computern basiert, stößt bei der Lösung komplexer Optimierungsprobleme an ihre Grenzen. Quantencomputer könnten hier Abhilfe schaffen, indem sie bestimmte Rechenoperationen andersartig und damit im Einzelfall möglicherweise schneller durchführen. Jeanette Lorenz und andere Forscher untersuchen insbesondere die Anwendung von Quantencomputing für maschinelles Lernen, ein Teilgebiet der KI, das auf der automatisierten Erkennung und Verarbeitung von Mustern in großen Datenmengen basiert. Ein prominentes Beispiel ist der sogenannte Quantum Support Vector Machine Algorithmus. Dieser Algorithmus kann Klassifikationsaufgaben theoretisch mit weniger Training durchführen als seine herkömmlichen Pendants, was in der Praxis gerade dort interessant werden könnte, wo auch nur wenige Trainingsdaten existieren, etwa in bildgebenden Verfahren der Medizin.
Im Jahr 2020 präsentierte Google mit Sycamore einen Quantenprozessor, der in der Lage war, eine spezifische Berechnung, für die ein klassischer Supercomputer 10.000 Jahre benötigen würde, in 200 s durchzuführen. Dies markierte einen wichtigen Schritt in Richtung Quantenüberlegenheit, also den Punkt, an dem ein Quantencomputer eine Aufgabe schneller lösen kann als der leistungsfähigste klassische Computer. Jeanette Lorenz relativiert diesen Fortschritt jedoch, da die Berechnung keinen praktischen Nutzen hatte und nur als Machbarkeitsstudie galt. Sie betont, dass die praktische Anwendbarkeit von Quantencomputern in der KI erst erreicht wird, wenn stabilere Qubit-Architekturen und fehlerkorrigierende Quantencomputer entwickelt sind, die sich auch für realweltliche Probleme eignen.
Die theoretische Grundlage für die Anwendung von Quantencomputing in der Optimierung und zum Lösen komplexer kombinatorischer Probleme wurde bereits in den 1990er-Jahren durch den Quantenalgorithmus von Grover und den Shor-Algorithmus gelegt. Der Shor-Algorithmus beispielsweise ermöglicht es, große Zahlen effizient zu faktorisieren, was die Grundlage für viele moderne Verschlüsselungsverfahren bildet. In der Praxis könnte dies dazu führen, dass herkömmliche Sicherheitsmechanismen in der IT durch Quantencomputing gefährdet werden. Jeanette Lorenz weist darauf hin, dass diese theoretischen Fortschritte das Interesse an post-quantum kryptographischen Verfahren geweckt haben, die gegen Angriffe von Quantencomputern resistent sind. Diese Entwicklungen zeigen, dass Quantencomputing und KI nicht nur das Potential haben, bestehende Technologien zu verbessern, sondern auch neue Herausforderungen schaffen, die adressiert werden müssen.
Die Fortschritte im Bereich der Hardwareentwicklung für Quantencomputer sind entscheidend für das weitere Wachstum der Branche. Während IBM und Google auf supraleitende Qubits setzen, experimentiert das Unternehmen IonQ mit Ionenfallen, die in der Lage sind, Qubits bei Raumtemperatur zu betreiben. Diese Herangehensweise könnte langfristig dazu beitragen, die derzeitige Fehleranfälligkeit von Quantencomputern zu überwinden. Die Kombination von Quantencomputing und Künstlicher Intelligenz ist noch ein junges Forschungsfeld, das jedoch zunehmend durch internationale Kooperationen und Förderprogramme unterstützt wird.
2.3 Die Risiken wiegen schwer
Die diskutierten Risiken reichen von Machtmissbrauch, gesellschaftlichen Verwerfungen, grotesk hohem Energiebedarf und Massenarbeitslosigkeit über die galoppierende Aufrüstung mit autonomen Waffensystemen bis hin zum Ende der Menschheit. Auch wenn in naher Zukunft eher die positiven Aspekte dominieren werden, gilt es dennoch, die Folgenabschätzung scharf im Blick zu behalten. Die Beschleunigung wissenschaftlicher Fortschritte kann dazu führen, dass gesellschaftliche Anpassungen nicht rechtzeitig erfolgen können.
Beginnen wir mit dem steigenden Energiebedarf, mit dem sich Dieter Kranzlmüller und Andrew Grimshaw (Kap. 7) auseinandersetzen: Der Energieverbrauch von KI hat in den letzten Jahren rapide zugenommen und erfordert eine fundierte Analyse der zugrunde liegenden Infrastrukturen, technologischen Entwicklungen und ökologischen Auswirkungen. IT-Infrastrukturen, wie Rechenzentren als Rückgrat für KI-Berechnungen, verursachen einen signifikanten Anteil am globalen Stromverbrauch. Bereits 2020 belief sich der Energieverbrauch der Rechenzentren weltweit auf etwa 200 Terawattstunden (TWh), was ungefähr 1 % des globalen Strombedarfs entsprach. Prognosen deuten darauf hin, dass dieser Anteil bis 2030 auf bis zu 8 % ansteigen könnte, was ernsthafte Folgen für die Einhaltung globaler Klimaziele und die ökologische Nachhaltigkeit mit sich bringt. Kranzlmüller und Grimshaw betonen, dass die Ursache dieses Anstiegs in der zunehmenden Komplexität der KI-Modelle und dem Bedarf an Hochleistungsrechenzentren liegt, die enorme Rechenleistungen für die Verarbeitung und das Training solcher Modelle bereitstellen. Hyperscaler-Rechenzentren, wie sie von Technologiekonzernen wie Google, Amazon und Microsoft betrieben werden, sind darauf ausgelegt, massive Mengen an Daten zu verarbeiten und zu speichern, was jedoch immense Energiemengen voraussetzt. Energieeffizienzgewinne durch technologischen Fortschritt bei Prozessoren und Hardwarekomponenten kompensieren diesen Anstieg nur begrenzt (vgl. Jevons-Paradoxon). Trotz Fortschritten, wie etwa spezialisierter KI-Hardware, GPUs und TPUs, sowie energieeffizienterer Chips bleiben diese Effizienzsteigerungen in der Regel hinter der rasanten Erhöhung der Rechenanforderungen zurück. Kranzlmüller und Grimshaw heben hervor, dass selbst mit fortschrittlichen Hardwarelösungen der Energieverbrauch von KI-basierten Systemen in einer Größenordnung steigt, die die ökologische Nachhaltigkeit infrage stellt. Der Stromverbrauch für den Trainingslauf eines großen Modells, der sich über mehrere Wochen erstrecken kann, führt zu einem CO2-Ausstoß, der bei herkömmlichen Energieträgern einem Äquivalent von etwa 284 t entspricht. Diese Menge an Emissionen entspricht der Lebenszeitemission von etwa fünf Autos und ist eine deutliche Belastung für die Umwelt. Betrieb und Training solcher KI-Modelle können bei konservativen Schätzungen in einem einzigen Jahr Emissionen verursachen, die den CO2-Emissionen kleinerer Länder entsprechen.
Ein weiterer Aspekt, der die Nachhaltigkeitsproblematik verschärft, ist die geografische Verteilung der Rechenzentren. Viele Rechenzentren sind in Ländern wie den USA, China und Indien angesiedelt, die nach wie vor stark auf kohlenstoffintensive Energiequellen wie Kohle und Erdgas setzen. Dies führt zu einer zusätzlichen Erhöhung der CO2-Emissionen, die nicht durch den Einsatz erneuerbarer Energien ausgeglichen werden kann. Auch wenn der Übergang zu erneuerbaren Energien fortschreitet, bleibt die tatsächliche Implementierung in der Praxis weit zurück. Die Notwendigkeit eines kontinuierlichen und zuverlässigen Energieflusses für die Rechenzentren stellt erneuerbare Energien vor Herausforderungen, da Solar- und Windenergie nicht in einem gleichmäßigen und kontinuierlichen Maßstab verfügbar sind. Dies führt in vielen Fällen zu einer verstärkten Nutzung fossiler Brennstoffe, um die Energieversorgung sicherzustellen. Darüber hinaus verweisen Kranzlmüller und Grimshaw auf eine mögliche Renaissance der Kernenergie als alternative Energiequelle zur Reduzierung der Kohlenstoffemissionen von Rechenzentren, insbesondere in Regionen, in denen erneuerbare Energien keine stabile Versorgung gewährleisten können. Die Kernenergie böte hier zwar eine Möglichkeit, den hohen Energiebedarf konstant zu decken; mit ihr verbunden sind jedoch gravierende politische und gesellschaftliche Bedenken sowie die ungelöste Problematik der radioaktiven Abfallentsorgung (vgl. Endlagersuche in Deutschland).
Neben den direkten, aber externalisierten Umweltkosten birgt der hohe Energieverbrauch von KI-Systemen auch wirtschaftliche Herausforderungen. Der Betrieb großer Rechenzentren ist teuer und erfordert eine kontinuierliche Verbesserung der Energieeffizienz, um den steigenden Kosten entgegenzuwirken. Die Optimierung von Algorithmen wird als eine Möglichkeit betrachtet, die Effizienz zu verbessern. Kranzlmüller und Grimshaw betonen, dass Algorithmen, die mit geringeren Rechenkapazitäten eine vergleichbare Leistung erzielen, den Energieverbrauch merklich senken könnten. Dieses Potential bleibt jedoch begrenzt, da die Anforderungen an die Rechenleistung durch die exponentiell wachsenden Datenmengen, die in modernen KI-Modellen verarbeitet werden müssen, stetig steigen. Die Frage der Energiebilanz von KI wirft damit grundlegende ethische und wissenschaftliche Fragen auf. Die globale KI-Entwicklung verzeichnet einen exponentiellen Fortschritt, der die Möglichkeiten der Algorithmen und Anwendungen erheblich erweitert, jedoch auch Ressourcen in einem noch nie dagewesenen Umfang beansprucht. Die Balance zwischen technologischem Fortschritt und ökologischer Verantwortung erfordert eine weitsichtige Strategie, die sowohl die Begrenzung des Energieverbrauchs als auch die Reduktion der CO2-Emissionen berücksichtigt. In den USA wird aus diesem Grund der Ausbau der Kernenergie als ernstzunehmende Option angesehen, um den langfristig steigenden Energiebedarf von KI-Infrastrukturen zu decken. Da erneuerbare Energiequellen wie Solar- und Windkraft nur bedingt und wetterabhängig verfügbar sind, so argumentieren US-amerikanische KI-Forscher, könnte die Kernenergie eine zuverlässige Alternative darstellen, um die konstant hohen Energieanforderungen von Hyperscaler-Rechenzentren zu erfüllen. Die International Atomic Energy Agency (IAEA, 2021) geht davon aus, dass die Kernenergie bis 2050 ihren Anteil an der globalen Stromproduktion verdoppeln könnte, wobei einige Nationen den Ausbau aktiv fördern. Frankreich, das schon etwa 70 % seines Stroms aus Kernenergie bezieht, plant, seine Atomkraftkapazität zu erweitern, um den wachsenden Energiebedarf zu decken und gleichzeitig die nationalen Klimaziele zu unterstützen. Auch China verfolgt ehrgeizige Ausbauziele und will seine Kernkraftkapazität bis 2035 auf etwa 200 Gigawatt erhöhen, um die wachsende Nachfrage nach Strom für Industriezweige wie KI zu erfüllen. Die USA haben unterdessen Förderprogramme aufgelegt, um den Bau neuer Kernreaktoren der nächsten Generation zu unterstützen, darunter kleine modulare Reaktoren (Small Modular Reactors, SMR), die sich für dezentrale Anwendungen eignen. SMRs haben den Vorteil, dass sie sich schneller und kostengünstiger bauen lassen und eine niedrigere Investitionsschwelle aufweisen, was ihre Nutzung für KI-Infrastrukturen auch in abgelegenen Regionen attraktiv machen könnte. Eine weitere Entwicklung beobachtet man beim Reaktordesign von Flüssigsalz- und Brutreaktoren. Länder wie Russland und Indien haben signifikante Anstrengungen bei der Bruttechnologie entwickelt und arbeiten daran, kommerzielle Brutreaktoren zu entwickeln, die eine stabile Grundlastversorgung für stromintensive Industrien, aber auch für das maschinelle Lernen gewährleisten könnten.
Ein Hindernis für die breite Nutzung der Kernenergie zur Unterstützung von KI-Infrastrukturen bleiben jedoch die berechtigten Bedenken hinsichtlich der Sicherheit und der Entsorgung radioaktiver Abfälle sowie nie komplett auszuschließender Störfälle mit potenziell verheerenden Auswirkungen. Das Fukushima-Unglück im Jahr 2011 verstärkte in einigen Staaten die Skepsis gegenüber der Atomkraft und führte in letzter Konsequenz zum deutschen Atomausstieg bis 2024. Insgesamt sind die Herstellungskosten von Atomenergie inzwischen so hoch, dass privatwirtschaftliche Investitionen in solche Kraftwerke praktisch nur noch auf Basis staatlicher Garantien unternommen werden. Dennoch zeigt sich in vielen Ländern eine spürbare Verschiebung in der öffentlichen Wahrnehmung, insbesondere angesichts der Klimakrise und der dringenden Notwendigkeit, kohlenstofffreie Energiequellen zu etablieren. Studien belegen, dass die Kernkraft in puncto Lebenszyklus-Emissionen, also den gesamten CO2-Emissionen, die bei Bau, Betrieb und Rückbau entstehen, vergleichbar niedrigere Werte aufweist als fossile Brennstoffe.
2.4 Die nächste industrielle Revolution?
Unter den schwerwiegendsten gesellschaftlichen Implikationen sind die Einflüsse der Künstlichen Intelligenz auf den Arbeitsmarkt. Wer jetzt darauf verweist, dass jede neue Technologie bisher nur zu einem Strukturwandel geführt habe und nie zu Massenarbeitslosigkeit oder Arbeitsplatzentfremdung, sollte sich der Problematik in einigen Aspekten erst noch bewusst werden. Frank Schmiedchen analysiert in Kap. 17 die disruptive Kraft der KI auf die internationale Arbeitsteilung und betont, dass KI das Potential hat, viele traditionelle Arbeitsplätze zu ersetzen. Insbesondere die digitale Vernetzung und Automatisierung von Produktions- und Verwaltungsprozessen wird zu einem großflächigen Verlust von Arbeitsplätzen führen, da viele manuelle Tätigkeiten effizienter von Maschinen ausgeführt werden können. Laut einer Studie von McKinsey (Liu et al., 2024) könnten bis 2030 weltweit bis zu 400 Mio. Arbeitsplätze durch Automatisierung gefährdet sein. Der deutsche Arbeitsmarkt könnte besonders betroffen sein, da etwa 23 % der Tätigkeiten potenziell automatisierbar sind. Auf der anderen Seite schafft die Digitalisierung jedoch auch neue Arbeitsplätze, vor allem in hochqualifizierten Bereichen, wie der Entwicklung und Wartung von KI-Systemen, oder im Bereich der Cybersecurity.
Die Auswirkungen der Automatisierung auf den Arbeitsmarkt hängen stark von der Art der betroffenen Berufe ab. Niedrigqualifizierte Arbeitsplätze, die repetitive und manuelle Tätigkeiten umfassen, sind am stärksten gefährdet, während hochqualifizierte Berufe, die kreatives und strategisches Denken erfordern, voraussichtlich an Bedeutung gewinnen werden. Allerdings ist die Frage, ob die neuen Arbeitsplätze die Verluste ausgleichen können, noch offen. Viele der neuen Berufe erfordern spezielle Qualifikationen, die nur durch gezielte Bildung und Weiterbildung erreicht werden können.
Ein weiterer Aspekt, der im Zusammenhang mit der Automatisierung diskutiert wird, ist die Frage nach der Besteuerung von Maschinenarbeit. Der massive Einsatz von KI und Automatisierungstechnologien hat nicht nur Auswirkungen auf den Arbeitsmarkt, sondern auch auf die Steuereinnahmen der Staaten. Traditionell basiert das Steuersystem auf der Besteuerung von menschlicher Arbeit. Wenn jedoch immer mehr Tätigkeiten von Maschinen übernommen werden, könnten die Steuereinnahmen drastisch sinken. Bill Gates, der Gründer von Microsoft, schlug in einem Interview vor, dass Unternehmen, die Roboter einsetzen, anstelle der weggefallenen Lohnsteuern eine Robotersteuer zahlen sollten. Dies könnte dazu beitragen, die negativen Effekte des Arbeitsplatzabbaus abzumildern und den sozialen Zusammenhalt zu sichern. Die Idee einer Robotersteuer wird auch in Europa zunehmend diskutiert (Daheim, 2019).
Doch eine solche Besteuerung birgt ebenfalls Herausforderungen. Es stellt sich die Frage, wie man Maschinenarbeit effektiv messen und besteuern kann. Hinzu kommt, dass eine zu hohe Besteuerung von Automatisierungstechnologien die Innovationskraft der Wirtschaft hemmen könnte. Unternehmen könnten gezwungen sein, ihre Produktion ins Ausland zu verlagern, wo niedrigere Steuern und geringere Regulierungshürden gelten. Hier muss ein Gleichgewicht gefunden werden, das sowohl die Innovation fördert als auch die sozialen Folgen der Automatisierung abfedert.
Kim Nguyen, Mario Trapp, Carl Friedrich Gethmann, Julian Nida-Rümelin, Frank Schmiedchen, Ute Schmid und viele andere kritische Stimmen der Autoren dieses Buches betonen besonders deutlich, dass die Sicherheit von KI-Systemen immer auch gesellschaftlich verstanden werden muss. Sie argumentieren, dass KI-Anwendungen in hochsensiblen Bereichen, wie der biometrischen Überwachung, auch in offenen, demokratischen Gesellschaften erhebliche Risiken bergen, die durch eine klare und strenge Regulierung adressiert werden müssen, um das Entstehen von neuen Diktaturen zu verhindern, auch derer, die vordergründig mit progressiven Werten daherkommen.
Alexander Brink unterstreicht diese Bedenken, indem er darauf hinweist, dass KI-Systeme nur dann als ethisch vertretbar gelten, wenn strenge Verantwortlichkeitsstrukturen und Transparenzmechanismen vorhanden sind. Er betont, dass die Einführung von KI ohne klare Regelungen und ohne Berücksichtigung ethischer Normen das Vertrauen der Gesellschaft gefährden und die Akzeptanz der Technologie unterminieren könnte. Für Brink sind strenge Regulierungsmaßnahmen und eine anpassungsfähige Governance unerlässlich, um sicherzustellen, dass KI nicht nur technisch, sondern auch sozial verträglich ist.
Der Einsatz von KI in militärischen Kommandostrukturen stellt jedoch die mit Abstand größte Gefahr für die Menschheit dar, insbesondere dann, wenn dies auch das Atomwaffenarsenal oder Biowaffen beinhaltet. Wirklich autonome KI-Militärsysteme sind in der Lage, ohne menschliches Eingreifen strategische Analysen durchzuführen, auf dieser Grundlage Ziele zu identifizieren und diese dann auszuschalten, ohne dass der Mensch noch einwirken kann.
Eine Reihe von Ländern, allen voran die USA und VR China, investieren massiv in die Entwicklung dieser Technologien, um entweder ihre militärische Überlegenheit zu sichern oder die anderer Parteien zu konterkarieren. KI-Systeme, die schnellere und präzisere Entscheidungen treffen können als Menschen und unter extremen Bedingungen länger einsatzfähig bleiben, sind aber auch ohne Kommandokompetenzen hochgefährlich. Die Automatisierung der Kriegsführung birgt tödliche Risiken für die Menschheit als Ganzes. Fehlfunktionen, Missverständnisse oder fehlerhafte Algorithmen könnten zu unkontrollierten militärischen Eskalationen führen. Karl Hans Bläsius warnt vor der Gefahr, dass Konflikte durch autonome Systeme schneller außer Kontrolle geraten könnten, da menschliche Entscheider aufgrund der Geschwindigkeit von KI-gesteuerten Reaktionen oft nicht in der Lage sind, rechtzeitig einzugreifen. Dies könnte in extremen Fällen zu einer Situation führen, die der Kabarettist und Buchautor Marc-Uwe Kling im brillanten Roman QualityLand (2017) als „der Trigger, der den Trigger triggert, wodurch der Trigger den Trigger triggert“ beschreibt – ein Szenario, das im schlimmsten Fall einen nuklearen Konflikt auslösen könnte, der Millionen von Menschenleben fordern würde.
Ein weiteres großes Risiko stellt die zunehmende Nutzung von KI im Cyberraum dar. KI-basierte Cyberangriffe könnten in kürzester Zeit erhebliche Schäden verursachen. Die Interaktionen zwischen verschiedenen autonomen Systemen könnten dabei unvorhergesehene Kettenreaktionen auslösen. In einer immer stärker vernetzten Weltwirtschaft würde dies geopolitische Spannungen zusätzlich verschärfen. Die Verfügbarkeit und die einfache Verbreitung von Technologien, die für autonome Systeme genutzt werden, erschweren darüber hinaus die Rüstungskontrolle erheblich. Anders als bei herkömmlichen Waffen ist es bei softwarebasierten Waffensystemen nahezu unmöglich, ihre Verbreitung und Kapazität vollständig zu überwachen. Dies könnte zu einem neuen Wettrüsten führen, bei dem es schwierig wird, die tatsächlichen Fähigkeiten der Gegner einzuschätzen.
Auf geopolitischer Ebene stellt der Einsatz von KI in militärischen Systemen ein erhebliches Risiko dar. In einer angespannten globalen Sicherheitslage könnte das Wettrüsten um autonome Waffen zu einem gefährlichen Ungleichgewicht führen. Julian Nida-Rümelin warnt in diesem Zusammenhang vor einer Verlagerung der moralischen Verantwortung von Menschen auf Maschinen. Sobald autonome Systeme die Entscheidungsgewalt übernehmen, könnte die menschliche Kontrolle in kritischen Situationen ausgehebelt werden. Eine KI könnte eine Bedrohung anders interpretieren und aufgrund ihrer Programmierung Entscheidungen treffen, die zu einer Eskalation führen – möglicherweise noch bevor ein menschliches Eingreifen überhaupt möglich ist.
Ein besonders alarmierendes Szenario ist die Gefahr, dass autonome Waffensysteme einen nuklearen Konflikt auslösen könnten. Fehlinterpretationen durch Maschinen könnten in einer ohnehin angespannten geopolitischen Lage dazu führen, dass ein Angriff gestartet wird, der nicht mehr rückgängig zu machen ist. Bläsius warnt, dass solche Fehler oder Missverständnisse einen Atomkrieg aus Versehen auslösen könnten, da die Entscheidungsgeschwindigkeit von KI-Systemen eine menschliche Intervention unmöglich macht.
Die Automatisierung der Kriegsführung kann auch dazu führen, dass die Hemmschwelle für militärische Konflikte sinkt. Wenn Entscheidungen automatisiert getroffen werden, ohne menschliche Bedenken zu berücksichtigen, steigt die Wahrscheinlichkeit ungewollter militärischer Auseinandersetzungen. Dies erhöht das Risiko eines nuklearen Konflikts. In einem Klima des Misstrauens zwischen Großmächten, wie es derzeit besteht, könnte ein solches Wettrüsten unvorhersehbare Dynamiken entfalten, bei denen die menschliche Kontrolle zunehmend durch maschinelle Entscheidungsfindung ersetzt wird.
Um diesen Risiken entgegenzuwirken, sind internationale Regulierungen und Abrüstungsabkommen unerlässlich. Ob der politische Wille auf globaler Ebene ausreicht, um den Einsatz autonomer Waffensysteme unter Kontrolle zu stellen, bleibt jedoch abzuwarten. Frühere Abrüstungsverträge, wie der Open-Skies-Vertrag, könnten als Modell dienen, um das Vertrauen zwischen den Großmächten wiederherzustellen, doch diese wurden in den letzten Jahren von den USA und Russland aufgekündigt und hatten auch die Rolle Chinas nie berücksichtigt. Der Verlust wissenschaftlicher und diplomatischer Zusammenarbeit, wie derzeit zwischen den USA und ihren Verbündeten einerseits, und das neu entstehende Bündnis China-Russland-Iran andererseits erschweren jedoch die Entwicklung einer solchen Vertrauensbasis.
Die Möglichkeit, dass eine allgemeine Künstliche Intelligenz (AGI) oder gar eine Superintelligenz entstehen könnte, die eigenständig Entscheidungen trifft, stellt eine weitere Herausforderung dar. Mit dieser Problematik hat sich die VDW-Studiengruppe von Frank Schmiedchen bereits 2018 in ihrem Policy Paper zu den Asilomar-Prinzipien auseinandergesetzt (siehe hierzu auch Kap. 22). Dass solche Systeme hypothetisch existenzielle Gefahren für die Menschheit darstellen könnten, wird auch von vielen anderen führenden KI-Experten bestätigt. Autonome Waffen sind nicht nur auf staatlicher Ebene ein Risiko. Die massenhafte Verbreitung dieser Technologien könnte außerdem völlig unbekannten terroristischen Gruppen oder anderen nichtstaatlichen Akteuren neue Möglichkeiten eröffnen.
Zur Art und Weise eines Endes der Menschheit sind der Fantasie kaum Grenzen gesetzt – sei es durch den Einsatz von KI bei der Steuerung von Atomwaffen bis hin zur Abschaffung biologischer Lebewesen durch Maschinen. KI-Ideologen sehen daher die Notwendigkeit, den Menschen der KI ebenbürtig zu machen und sich ihre technischen Fähigkeiten als Cyborgs anzueignen. Die prohumanistisch-transhumanistische Bewegung geht davon aus, dass Menschen ihre körperlichen und geistigen Fähigkeiten durch technologische Eingriffe so erweitern können und müssen, um neue Dimensionen von Gesundheit und Intelligenz zu erreichen und der unabwendbaren ultimativen Bedrohung durch die KI-Singularität widerstehen zu können.
Dem gegenüber steht das Lager der Posthumanisten, die den Übergang von einer biologisch geprägten zu einer technologiegestützten Existenz der Menschheit anstreben. Sie argumentieren, dass die traditionelle Vorstellung von der Führungsrolle des Menschen auf der Erde zu zahlreichen historischen Herausforderungen wie Ausbeutung, Unterdrückung, Kriegen und anderen gesellschaftlichen Missständen geführt habe. Der Mensch sei daher in seiner bisherigen Form möglicherweise nicht geeignet, eine nachhaltige Zukunft zu gewährleisten. Anders bewerten dies Befürworter einer Renaissance der menschlichen Gestaltungskraft, die unter neuen, modernen Vorzeichen diskutiert wird. Diese Auseinandersetzung wurde von Frank Schmiedchen im Vorgängerbuch Wie wir leben wollen ausführlich beleuchtet.
Wie Gethmann erklärt, stellt die Intervention in die Natur, wie sie durch technologische Entwicklungen ermöglicht wird, eine grundlegende Transformation des Menschen dar. Diese Transformation wird nicht mehr als bloße Ergänzung menschlicher Fähigkeiten gesehen, sondern als eine potenziell vollständige Ablösung bestimmter menschlicher Funktionen durch Maschinen oder künstliche Systeme. Diese technologische Evolution zielt darauf ab, den Menschen von natürlichen Zwängen zu befreien und ihn in einer Weise zu optimieren, die über die aktuellen biologischen Beschränkungen hinausgeht.
Der zentrale Gedanke des Transhumanismus ist, dass menschliche Schwächen wie Krankheiten, Alter und Tod überwunden werden können. Technologische Fortschritte in der Biotechnologie, Gentechnik und Künstlichen Intelligenz gelten als Schlüssel, um diese Ziele zu erreichen. In diesem Sinne sieht der Transhumanismus das menschliche Gehirn nicht als etwas Unveränderliches, sondern als etwas, das durch Technologien wie Gehirn-Computer-Schnittstellen verbessert werden kann. Beschorner beschreibt diesen Prozess als eine Art „Dazwischen“, in dem Maschinen- und menschliche Fähigkeiten miteinander verschmelzen und neue Formen von Beziehungen und Identitäten entstehen.
Ein zentrales Thema, das sich im Transhumanismus immer wieder zeigt, ist die Frage der menschlichen Identität und der Rolle der Technologie. Der Übergang von natürlichen zu technikgestützten Fähigkeiten stellt die traditionelle Vorstellung vom Menschen infrage. Gethmann stellt klar, dass sich diese Veränderungen nicht nur auf die Fähigkeiten, sondern auch auf die moralischen und ethischen Grundlagen auswirken werden. Sobald Maschinen in der Lage sind, die kognitiven und physischen Fähigkeiten von Menschen zu übertreffen oder sogar zu ersetzen, entsteht eine neue Dimension ethischer Herausforderungen. Werden Menschen beispielsweise durch Technologien wie Künstliche Intelligenz oder genetische Eingriffe in eine überlegene Spezies transformiert, muss die Frage gestellt werden, welche Rechte, Pflichten und Verantwortungen diese neuen Wesen gegenüber ihren „natürlichen“ Vorfahren haben.
Die ethische Debatte dreht sich zudem um die Frage, ob es moralisch vertretbar ist, technologische Eingriffe in den menschlichen Körper und Geist vorzunehmen, um die Evolution künstlich zu beschleunigen. Nida-Rümelin argumentiert, dass eine solche Entwicklung den Menschen von seiner Verantwortung für das eigene Handeln entfremden könnte. Wenn Maschinen die Entscheidungen für uns treffen oder Menschen ihre Fähigkeiten durch Technologie künstlich erweitern, droht die Gefahr, dass die menschliche Autonomie und Selbstbestimmung untergraben werden. Das Konzept der „Lebensautorschaft“, das den Menschen als Autor seines eigenen Lebens begreift, steht in Konflikt mit der Vorstellung, dass Maschinen oder Technologien diese Rolle übernehmen könnten.
Stefan Bauberger und Frank Schmiedchen widmen sich im ersten Buch der VDW-Studiengruppe Digitalisierung (Wie wir leben wollen) diesem Thema auf einer tiefergehenden Ebene. Sie fragen, inwieweit die menschliche Existenz primär durch die Fähigkeit des Menschen zur Kognition definiert ist. Besonders das Beispiel von Menschen mit geistiger Behinderung bringt dies auf den Punkt. Schmiedchen und Bauberger insistieren, dass die Würde des einzelnen Menschen eben gerade nicht von seinen kognitiven Fähigkeiten abhängt, Descartes also insofern irrt. Vielmehr ist es seine reflektierte Unmittelbarkeit, die seine phänomenologische Erscheinung immer auf den zugrunde liegenden Impuls zurückwirft, also seine ureigene, unmittelbare Göttlichkeit enthüllt.
Insgesamt betrachten Trans- und Posthumanismus den Menschen als formungsbedürftig und technologisch verbesserungsnotwendig. Dabei geht es nicht nur um die physische Transformation, sondern auch um die Erweiterung des menschlichen Geistes und der Fähigkeiten durch Künstliche Intelligenz, Genmanipulation und Biotechnologie. Der posthumanistische Traum zielt menschenverachtend darauf ab, den Menschen zu einem postbiologischen Wesen zu transformieren, das frei von natürlichen Begrenzungen agieren kann. Jedoch bleiben dabei alle relevanten ethischen, philosophischen und praktischen Fragen offen.
2.5 Die ausweglose Schlussfolgerung
Die Büchse der Pandora wurde geöffnet – oder war sie vielleicht niemals wirklich verschlossen? Gemäß der bisherigen menschlichen Evolution sind wir nun dazu verdammt, mit der KI zurechtzukommen. Es ist sogar die Pflicht eines jeden, dies zu tun, um einem Missbrauch entgegenzuwirken – das ist die Botschaft dieses beeindruckenden wissenschaftlichen Fachbuchs. Jedem muss eindringlich klar werden, dass Ignoranz gegenüber dieser Technologie die persönliche Abhängigkeit in unerwünschtem Maße erhöhen wird. Gesellschaftliche Veränderungen und Verschiebungen hat es seit jeher gegeben, doch nun kommt eine durch KI verursachte Geschwindigkeit des Wandels hinzu, die eine Anpassung zumindest innerhalb demokratischer Regimes kaum noch möglich macht. Damit verbunden werden wir soziale Polarisierungen beobachten, die alle Bürger betreffen, ebenso wie makroökonomische Disruptionen und geopolitische Verschiebungen.
Wenn die Prognosen stimmen, auf die Disselkamp und Schmiedchen hinweisen (Kap. 18) und wonach 23 % der Tätigkeiten in Deutschland bis 2030 automatisierbar sein werden, dann darf diesen Menschen nicht nur die Arbeitslosigkeit als Zukunftsvision angeboten werden. Dies würde nicht nur den sozialen Frieden stören, sondern sogar zu gefährlichen Spannungen führen. Die Modelle für den gesellschaftlichen Umbau müssen schon jetzt geplant werden, und jeder Einzelne wird sich auf die neue Umwelt einstellen müssen. Statt Resignation aus dem Entfremdungspotential der Disruption entstehen zu lassen, sollte eine positive Vision der zukünftigen Arbeitswelt entwickelt werden. Jede und jeder Einzelne ist gefragt, sich aktiv mit der KI und deren Auswirkungen auf den Arbeitsmarkt auseinanderzusetzen. Es ist daher unerlässlich, sich sowohl persönlich als auch gesellschaftlich auf diese Veränderungen vorzubereiten und sich durch kontinuierliche Weiterbildung sowie die Anpassung an neue berufliche Anforderungen in einer dynamischen Arbeitswelt zu positionieren.
Die persönliche Anpassungsbereitschaft ist besonders wichtig, weil KI auch zunehmend in kritischen Bereichen wie Medizin, Justiz und Sicherheit zum Einsatz kommt. Eine transparente Überwachung und die Möglichkeit, KI-Entscheidungen zu hinterfragen, sind unabdingbar. Nur durch eine Neudefinition sozialer Standards sowie rechtlicher Rahmenbedingungen kann Vertrauen in KI-Systeme geschaffen werden. Eine starke Zivilgesellschaft spielt dabei eine wesentliche Rolle. KI darf nicht den Interessen einzelner Konzerne oder Nationen überlassen werden, sondern muss als gemeinschaftliches Gut gestaltet werden, von dem alle profitieren. Hierbei ist der EU AI Act erwähnenswert, den alle Autoren als Schritt in die richtige Richtung sehen. Dieser Gesetzesvorschlag setzt auf strenge Regularien für Hochrisiko-KI-Anwendungen und zielt darauf ab, vertrauenswürdige Standards in Europa durchzusetzen. Doch auch dies ist nur ein Anfang; ein kontinuierliches Engagement der Gesellschaft ist vonnöten, um sicherzustellen, dass KI-Anwendungen nicht durch wirtschaftliche Interessen manipuliert oder missbraucht werden.
All dies hat bereits begonnen, und das nächste Phänomen, das nicht lange auf sich warten lassen wird, ist eine Erschütterung der Preisstabilität in den kommenden Jahren. Der stark wachsende Energiehunger der Künstlichen Intelligenz ist eine Herausforderung, der wir uns nicht entziehen können, da alle Nationen in einem globalen Wettlauf um die stärkste KI stehen. Der rapide Anstieg des Energieverbrauchs durch KI-Anwendungen belastet die globale Energieinfrastruktur und bedroht auch die Erreichung der von uns gesetzten Klimaziele. Bereits heute verbrauchen Rechenzentren, die für das Training und den Betrieb komplexer KI-Modelle notwendig sind, erhebliche Mengen an Strom. Da die deutsche Industrie in besonderem Maße auf wettbewerbsfähige Energiepreise angewiesen ist, wird die Diskussion – wie ein Bumerang, der lange unterwegs war – mit voller Wucht auf die politische Tagesordnung zurückkehren. Deshalb lehrt uns dieses Buch, offen über alle wirksamen Optionen nachzudenken. Keiner der Autoren verkündet allerdings jauchzend: Atomkraft? Ja bitte!
Anhand des folgenden Beispiels können wir ebenso beobachten, wie wir von der Realität bereits überrollt werden: Autonome Waffensysteme werden bereits heute in aktuellen Konflikten eingesetzt und verändern die Kriegsführung nachhaltig. So hat Aserbaidschan seinen Krieg gegen Armenien vermutlich endgültig gewonnen. Auch in der Ukraine und im Gaza-Krieg wird auf KI-gesteuerte Systeme zur Überwachung und Analyse großer Datenmengen und bei Angriffen gesetzt, um potenzielle Bedrohungen in Echtzeit zu identifizieren. Und selbstverständlich rüsten auch China und die USA massiv ihre Streitkräfte mit autonomen Waffensystemen auf. Die Kriegsgefahr wird durch den Einsatz von KI verstärkt, da diese Technologien autonom und ohne menschliches Eingreifen handeln können. Im Cyberraum sind solche Systeme in der Lage, verheerende Angriffe auszuführen, die in kürzester Zeit erhebliche Schäden anrichten. Interaktionen zwischen verschiedenen autonomen Systemen können unvorhergesehene Kettenreaktionen auslösen und geopolitische Spannungen zusätzlich verschärfen. Da die Technologie für autonome Waffen relativ leicht zugänglich und weitverbreitet ist, wird die Rüstungskontrolle erheblich erschwert. Anders als bei herkömmlichen Waffen ist es nahezu unmöglich, die Verbreitung und Kapazitäten von softwarebasierten Waffensystemen zu überwachen. Dies führt zu einem neuen Wettrüsten, bei dem die tatsächlichen Fähigkeiten der Gegenseite oft schwer einzuschätzen sind, und birgt die Gefahr eines Wettrüstens ohne Ende. Die Automatisierung der Kriegsführung senkt außerdem die Hemmschwelle für militärische Auseinandersetzungen. Wenn die Entscheidungsfindung an Maschinen delegiert wird, steigt die Wahrscheinlichkeit von Konflikten, da menschliche Bedenken und Abwägungen ausgehebelt werden. In einem Klima des Misstrauens zwischen Großmächten könnte dieses Wettrüsten unvorhersehbare Dynamiken entfalten, bei denen die menschliche Kontrolle zunehmend durch maschinelle Entscheidungsprozesse ersetzt wird. Dies erhöht letztlich das Risiko eines thermonuklearen Konflikts. Das Fehlen von vertrauensbildenden Maßnahmen, die Kündigung von Rüstungskontrollabkommen und das Ende der Diplomatie stellen die gefährlichsten Risiken im Zusammenhang mit KI dar. Sie erfordern dringend eine umfassende Gegensteuerung.
Die Verschmelzung von Mensch und Maschine ist längst keine Science-Fiction mehr, sondern Realität. Der Transhumanismus verfolgt das Ziel, den Menschen durch technologische Eingriffe körperlich und geistig zu optimieren – bis hin zur Überwindung von Alter, Krankheit und Tod. Mithilfe von Biotechnologie, Gentechnik und Künstlicher Intelligenz könnten Fähigkeiten erzielt werden, die heute als unerreichbar gelten, wie gesteigerte Intelligenz, optimierte Gesundheit oder sogar eine Form von Unsterblichkeit. Technologische Fortschritte in Bereichen wie Gehirn-Computer-Schnittstellen und genetischer Modifikation machen das Konzept eines postbiologischen Menschen zunehmend realistisch. Während dieser Wandel eine Befreiung von natürlichen Beschränkungen verspricht, stellt er gleichzeitig die Identität und die moralischen Grundlagen des Menschseins infrage. Wenn Maschinen die kognitiven und physischen Fähigkeiten des Menschen übertreffen oder gar ersetzen, müssen wir uns fragen, ob diese neuen überlegenen Wesen noch die gleichen Rechte und Verantwortlichkeiten besitzen wie ihre biologischen Vorfahren. Solche Transformationen könnten die menschliche Autonomie gefährden, insbesondere wenn Maschinen oder Technologien wesentliche Entscheidungen übernehmen und den Menschen zunehmend seiner Selbstbestimmung berauben. Diese Fragen verlangen nach Antworten!
Wir wissen bereits viel, doch wie erwartet bringen neue Erkenntnisse auch neue, größere Fragen mit sich. Dieses Buch bereitet uns überraschend konkret und mit einem klaren Blick auf unsere Zukunft auf die bevorstehenden Fragen vor, denen wir uns nicht entziehen können – und an deren Beantwortung jeder von uns beteiligt sein muss. Die Zukunft darf nicht allein den freien Märkten, KI-Forschern und Nationalpolitikern überlassen werden. Jeder Einzelne trägt die Verantwortung, an der Gestaltung der KI-Zukunft mitzuwirken, damit diese beherrschbar bleibt.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.