14. Digitaler Humanismus oder das Paradoxon der KI-freundlichen Anti-KI-Position
- Open Access
- 2026
- OriginalPaper
- Chapter
Activate our intelligent search to find suitable subject content or patents.
Select sections of text to find matching patents with Artificial Intelligence. powered by
Select sections of text to find additional relevant content using AI-assisted search. powered by (Link opens in a new window)
Zusammenfassung
14.1 Was Humanismus ist
Um die Frage zu klären, was unter dem Begriff „Digitaler Humanismus“ zu verstehen ist, bedarf es zunächst einer Bestimmung dessen, was wir unter „Humanismus“ verstehen wollen. Humanistisches Denken und teilweise auch eine humanistische Praxis in Gesellschaft und Politik gibt es seit der Antike – nicht nur in Europa. Zu den europäischen Wurzeln humanistischen Denkens gehören Sokrates und das Philosophieren in seinem Geist. Die Sokratik geht davon aus, dass Menschen selbst denken können, und zwar unabhängig von Herkunft, Geschlecht und formaler Bildung. Die Sokratik beginnt mit dem Gespräch, in dem Sokrates fragt, was man zum Beispiel unter Tapferkeit verstehe (Laches-Dialog) oder unter Wissen (Theaitettos-Dialog). Die Gesprächspartner sind Menschen auf dem Marktplatz, nicht die Kollegen in der Akademie. Im Gespräch stellt sich dann heraus, dass so manche Meinungen widersprüchlich sind und gründliches Nachdenken erforderlich ist, um die Begriffe zu klären. Auf diesem Wege werden aus Vorurteilen (doxai) begründete Überzeugungen und im Idealfall objektives Wissen (episteme). Die Sokratik ist die humanistische Variante früher europäischer Aufklärung. Ihr Gegenspieler ist die Sophistik, für die es keine Wahrheit und kein Wissen gibt und Argumente und Theorien lediglich den Zweck haben, eigenen Interessen zu dienen. Eine radikale Aufklärung, die alles in Frage stellt, endet im Antihumanismus, in Naturalismus und Nihilismus.
Auch in anderen Kulturkreisen gibt es antike Formen humanistischen Denkens und humanistischer Praxis, in Ostasien in Gestalt des Konfuzianismus. Auch Konfuzius setzt auf das klärende Gespräch, auf die Fähigkeit zum eigenen Denken, aber im Gegensatz zu Sokrates fordert er Respekt vor Traditionen, den Erfahreneren, den Alten. Die Gegenströmung, der Legalismus, setzt auf Strafe und Belohnung und versteht Menschen als bloße Instrumente der Machtsicherung. Auch der Buddhismus als Gegenbewegung zu Kastensystem, Selbstkasteiung und strafendem Gott trägt deutlich humanistische Züge. Die Befriedung der Seele erfolgt nicht in Isolation, sondern in einer Haltung der Rücksichtnahme auf andere, und kann unabhängig von Herkunft und Kaste durch eigene Anstrengungen erreicht werden.
Advertisement
Das Gemeinsame allen humanistischen Denkens über unterschiedliche Kulturen und Zeiten hinweg ist das Vertrauen in die Vernunftfähigkeit der Menschen, die den Ausgang aus selbstverschuldeter Unmündigkeit (Immanuel Kant) weist. Damit Menschen imstande sind, sich ein eigenes Urteil zu bilden und ein Leben aus eigener Verantwortung heraus zu gestalten, müssen sie ihre kognitiven und ethischen Potentiale entfalten. Der Humanismus setzt auf Selbstentfaltung des Menschen als Individuum und der Menschheit als Kollektiv. Nirgends wird das so eindrücklich gepriesen wie in der programmatischen Schrift des Renaissance-Philosophen Pico della Mirandola „De dignite hominis“. Hier wird die Gottebenbildlichkeit der Menschen als Auftrag verstanden, mit Bildung, Kunst und Wissenschaft die Bedingungen für eine genuin menschliche (humane) Kultur und Lebensform zu schaffen. Der italienische Renaissance-Dichter Petrarca fügte die Aufforderung insbesondere an die Männer seiner damaligen Zeit hinzu, zu lesen und Gedichte zu schreiben, mitis et amabilis (sanft und umgänglich) zu werden.
Im 19. Jahrhundert geht ein neuer humanistischer Impuls zunächst von Preußen aus und verbreitet sich dann rasch über die deutschsprachigen Länder, über Mittel- und Südeuropa und später über die ganze Welt. Dieser setzt ganz auf Bildung in Schulen, Hochschulen und Lebenspraxis. Die Bildung der Persönlichkeit soll jedes einzelne menschliche Individuum in den Stand versetzen, das eigene Leben in respektvoller Interaktion mit anderen sinnvoll zu gestalten, in meiner Terminologie: Autorin oder Autor des eigenen Lebens zu werden. Diese Idee der Lebensautorschaft muss man philosophisch präzisieren. Ich habe mir über Jahrzehnte Mühe gegeben, dazu einige Bausteine zusammenzutragen.1 Eine wichtige Rolle spielt dabei die menschliche Fähigkeit, sich von Gründen affizieren zu lassen, sowohl im Urteil wie im Handeln, auch in den emotiven Einstellungen. Wir sind deliberierende Wesen; dies ist die spezifisch menschliche Fähigkeit, die uns von anderen Lebewesen unterscheidet, während wir Gefühle, wie Angst oder Freude, und Empfindungen, wie Lust oder Schmerz, mit vielen Spezies teilen.
14.2 Beziehung von Künstlicher Intelligenz zum Humanismus
Durch die digitale Transformation sind das humanistische Selbstbild des Menschen und die normativen Grundlagen von Demokratie und Recht doppelt herausgefordert. Zum einen, weil digitalen Entitäten (Computer, Softwaresysteme, KI-gesteuerte Roboter, Chatbots, generative Künstliche Intelligenz etc.) Akteurstatus zugeschrieben wird. In der Tat reden wir so, als würde ChatGPT, um ein Beispiel zu nennen, unsere Fragen verstehen, als handelte es sich um eine mit beachtlichem Weltwissen ausgestattete Instanz, die uns berät und unsere Fragen klärt, wohlwollend und kooperativ.2 Die Redeweise von Wissen, Absicht, Rat, gar Empathie (es gibt aktuell Forschungsprojekte, die darauf gerichtet sind, eine „empathische KI“ zu entwickeln) oder Kooperation etc. ist so lange harmlos, wie sie nur metaphorisch gemeint ist. Aber der Umschlag zu einer substanziellen Interpretation dieser Redeweise, also die Zuschreibung personaler Eigenschaften an digitale Entitäten, ist weitverbreitet, und die sorgfältige Trennung von Simulation und Realisierung, das Simulieren emotiver Einstellungen zum Beispiel und das Verfügen über Emotionen sind intellektuelle Leistungen, die Vielen, auch Hochgebildeten, schwerfallen. Die Kritik des Animismus, also der Beseelung des Unbeseelten, hier von digitalen Entitäten, ist ein Kernelement dessen, was ich unter digitalem Humanismus verstehe.3
Das zweite Kernelement ist gewissermaßen der Widerpart dazu, das heißt die menschliche Selbstbeschreibung als digitale Maschine. Wenn das menschliche Gehirn und die Dynamik mentaler Zustände und kognitiver Prozesse nichts anderes wären als ein Algorithmus, wie er der Computertechnik zugrunde liegt, dann müsste in der Tat unser humanistisches Selbstbild aufgegeben werden. Genuine Deliberation, die ergebnisoffen ist, würde es dann nicht geben, und die Selbstverantwortung für die eigene Praxis wäre obsolet, da Verantwortlichkeit ein gewisses Maß an Selbstbestimmung voraussetzt.4
Advertisement
Was hat nun Humanismus mit Künstlicher Intelligenz zu tun?
Der Begriff „Künstliche Intelligenz“ (KI) ist vielschichtig und wird mit unterschiedlichen Bedeutungen verwendet. Im weitesten und unproblematischsten Sinne bezeichnet KI alles von computergesteuerten Prozessen, der Berechnung von Funktionen, der Lösung von Differentialgleichungen, der logistischen Optimierung und der Robotersteuerung bis hin zu „selbstlernenden“ Systemen, Übersetzungssoftware usw. Die problematischste und radikalste Auffassung von KI besagt, dass es keinen kategorischen Unterschied zwischen computergesteuerten Prozessen und menschlichen Denkprozessen gibt. Diese Position wird oft als „starke KI“ bezeichnet. „Schwache KI“ ist dann lediglich die These, dass alle Denk- und Entscheidungsprozesse prinzipiell von Computern simuliert werden könnten. Mit anderen Worten: Der Unterschied zwischen starker und schwacher KI ist der Unterschied zwischen Identifikation und Simulation. Eine wichtige Unterscheidung bleibt dabei meist unberücksichtigt: Starke KI identifiziert menschliches Denken mit Computerprozessen in dem Sinne, dass es keinen kategorialen Unterschied zwischen ihnen gibt und somit mentale Eigenschaften, die uns von der menschlichen Lebensform her vertraut sind, wie Überzeugungen, Wünsche, Gefühle und Wahrnehmungen, nicht vorhanden sind. Das wissenschaftlich-technische Ziel dabei ist, die „Mentalese“, also die Sprache der mentalen Begriffe, mit denen mentale und psychische Zustände und Prozesse erfasst werden, entbehrlich zu machen. Patricia Churchland z. B. vertritt dieses radikal materialistische Programm seit vielen Jahrzehnten. Aus dieser Perspektive ist die starke KI ein Programm der Desillusionierung: Was uns als typisch menschliche Eigenschaft erscheint, ist nichts anderes als das, was auf einem Computer in Form von Computerprogrammen realisiert werden kann.
Mentale Eigenschaften lassen sich nicht durch Verhaltensmerkmale definieren. Das Modell der algorithmischen Maschine, des Mechanismus, ist sowohl als Paradigma für die physikalische Welt als auch als Paradigma für das menschliche Denken untauglich. In diesem Sinne ist der Mechanismus keine Form des Naturalismus oder höchstens eine sehr eigentümliche Form. Denn wenn man unter Naturalismus die These versteht, dass alle Tatsachen und Prozesse prinzipiell mit der Sprache der Wissenschaft beschreibbar und erklärbar sind, dann ist eine mechanistische Theorie des menschlichen Geistes nicht naturalistisch, denn weder die moderne noch die klassische Physik sind mechanistisch. Interessanterweise sind es vor allem Biologen und Neurowissenschaftler, die ein mechanistisches Wissenschaftsparadigma pflegen, weniger in ihrer konkreten wissenschaftlichen Praxis als in ihren gelegentlichen Ausflügen in die Wissenschaftstheorie und Philosophie.
Ein realistisches Konzept ist weitaus plausibler als ein behavioristisches Konzept in Bezug auf mentale Zustände. Schmerzen kennzeichnen eine bestimmte Art von Gefühlen, die unangenehm sind und die wir normalerweise zu vermeiden suchen. Beim Zahnarzt bemühen wir uns, jede Bewegung zu unterdrücken, um die Behandlung nicht zu stören, aber das bedeutet keineswegs, dass wir keine Schmerzen haben. Auch der imaginäre Super-Spartan, der selbst bei starken Schmerzen nicht zusammenzuckt, kann Schmerzen haben. Es ist einfach absurd, „Schmerzen haben“ mit bestimmten Verhaltensmustern gleichzusetzen.
14.3 Verhältnis von KI zu menschlichen Denk-, Wahrnehmungs- und Entscheidungsvorgängen
Das wohl fundamentalste Argument gegen die Identität von mentalen Zuständen/Eigenschaften und neurophysiologischen/digitalen Zuständen/Eigenschaften wird als „Qualia-Argument“ bezeichnet. Thomas Nagel argumentiert in seinem berühmten Aufsatz „What Is it Like to Be a Bat?“ (1974), dass es unmöglich ist zu wissen, wie es sich anfühlt, eine Fledermaus zu sein (was die Fledermaus fühlt), selbst wenn man ihr Gehirn bis ins kleinste Detail untersuchen würde. In dem Artikel heißt es, dass eine Fledermaus bestimmte qualitative, mentale Zustände hat, die wir allein aufgrund der Kenntnis der neurophysiologischen Zustände nicht verstehen können. Qualia beziehen sich auf solche Zustände, wie sich etwas anfühlt. Wie schmeckt Nektar für eine Biene? Ist es überhaupt möglich zu sagen, dass eine Biene irgendetwas schmeckt? Wenn mentale Zustände wirklich nichts anderes als neurophysiologische Zustände wären, müsste es uns prinzipiell möglich sein, mentale Prozesse und Zustände auf der Grundlage einer vollständigen Kenntnis der neurophysiologischen Zustände zu verstehen. Das Qualia-Argument spricht also gegen die Identität von neurophysiologischen und mentalen Zuständen (Ereignissen, Prozessen).
Der amerikanische Philosoph John Searle hat ein Gedankenexperiment entwickelt, das dieser Sichtweise entgegensteht. Searle bittet Sie, sich vorzustellen, Sie seien ein einsprachiger englischer Sprecher, der „in einem Raum eingeschlossen ist und dem man einen großen Stapel chinesischer Schriften“ sowie „einen zweiten Stapel chinesischer Schriften“ und „einen Satz von Regeln“ in englischer Sprache „für die Korrelation des zweiten Stapels mit dem ersten Stapel“ gibt. Die Regeln „korrelieren eine Reihe von formalen Symbolen mit einer anderen Reihe von formalen Symbolen“; „formal“ (oder „syntaktisch“) bedeutet, dass man „die Symbole ausschließlich anhand ihrer Form identifizieren kann.“ Ein dritter Stapel chinesischer Symbole und weitere Anweisungen in englischer Sprache ermöglichen es Ihnen, „Elemente dieses dritten Stapels mit Elementen der ersten beiden Stapel zu korrelieren“ und weisen Sie dadurch an, „bestimmte Arten von chinesischen Symbolen mit bestimmten Formen als Antwort zurückzugeben.“ Diejenigen, die Ihnen die Symbole geben, „nennen den ersten Stapel ‚ein Skript‘ [eine Datenstruktur mit Anwendungen zur Verarbeitung natürlicher Sprache]“, „sie nennen den zweiten Stapel ‚eine Geschichte‘“, und „sie nennen den dritten Stapel ‚Fragen‘“. Die Symbole, die Sie zurückgeben, „nennen sie ‚Antworten auf die Fragen‘“; „den Satz von Regeln in Englisch … nennen sie ‚das Programm‘“: Sie selbst wissen nichts davon. Dennoch werden Sie „so gut darin, die Anweisungen zu befolgen“, dass „aus der Sicht eines Außenstehenden“ Ihre Antworten „absolut nicht von denen eines Chinesen zu unterscheiden“ sind. Allein anhand Ihrer Antworten kann niemand feststellen, dass Sie „kein Wort Chinesisch sprechen“.
In diesem Gedankenexperiment stellt man sich eine Person vor, die in einem geschlossenen Raum sitzt und kein Chinesisch spricht, nicht einmal die Schriftzeichen kennt. Durch einen Schlitz in der Wand erhält diese Person nun Papierschnipsel mit Geschichten in chinesischer Sprache. Zusätzlich erhält sie Fragen zu den Geschichten, die ebenfalls auf Chinesisch geschrieben sind. Außerdem erhält die Person ein „Regelbuch“ in ihrer Muttersprache. Das Regelbuch ermöglicht es ihr, auf der Grundlage der Eingangssymbole, also der Geschichte und der Fragen, eine Antwort auf Chinesisch zu schreiben. Dabei folgt die Person ausschließlich der Anweisungen im Handbuch und versteht die Antworten nicht, die sie anschließend durch den Schlitz nach draußen schiebt.
Draußen vor dem Schlitz steht ein chinesischer Muttersprachler, der, nachdem er die Geschichte und die Fragen formuliert und die Antworten erhalten hat, zu dem Schluss kommt, dass sich jemand im Raum befinden muss, der ebenfalls Chinesisch spricht.
Das entscheidende Element, das hier fehlt, ist offensichtlich: Es ist das Verständnis der chinesischen Sprache. Auch wenn ein System – in diesem Fall das Chinesische Zimmer – funktional gleichwertig mit jemandem ist, der Chinesisch versteht, versteht das System selbst noch kein Chinesisch. Chinesisch zu verstehen und zu sprechen erfordert verschiedene Arten von Wissen. Eine Person, die Chinesisch spricht, verweist mit bestimmten Begriffen auf die entsprechenden Objekte. Mit bestimmten Äußerungen verfolgt sie bestimmte entsprechende Ziele. Auf der Grundlage des Gehörten (auf Chinesisch) bildet sie bestimmte Erwartungen etc. Das Chinesische Zimmer hat keine dieser Eigenschaften. Es hat keine Absichten, es hat keine Erwartungen, die beweisen, dass es Chinesisch spricht und versteht. Mit anderen Worten: Das Chinesische Zimmer simuliert ein Verständnis des Chinesischen, ohne selbst die chinesische Sprache zu beherrschen.
Jahre später hat Searle dieses Argument radikalisiert. In diesem zweiten Argument verbindet Searle den philosophischen Realismus, d. h. die These, dass es eine Welt gibt, die unabhängig davon existiert, ob sie beobachtet wird oder nicht, mit einer intentionalistischen Zeichentheorie. Zeichen haben nur für uns, die Zeichenbenutzer und Zeicheninterpreten, eine Bedeutung. Wir schreiben bestimmten Buchstaben oder Symbolen eine Bedeutung zu, indem wir kommunizieren, indem wir uns darauf einigen, dass diese Buchstaben oder Symbole für etwas stehen. Ohne diese Konventionen haben sie keine Bedeutung. In dieser Hinsicht ist es irreführend, sich den Computer als eine zeichenverarbeitende oder syntaktische Maschine vorzustellen, die bestimmten logischen oder grammatikalischen Regeln folgt. Der Computer besteht aus verschiedenen physikalisch beschreibbaren Elementen, von denen einige Elektrizität leiten und andere nicht, und die Rechenprozesse sind eine Abfolge von elektrodynamischen und elektrostatischen Zuständen. Diesen Zuständen werden dann Zeichen zugeschrieben, denen wir bestimmte Interpretationen und Regeln zuordnen. Die physikalischen Prozesse im Computer haben keine Syntax, sie „kennen“ keine logischen oder grammatikalischen Regeln, sie sind keine Zeichenketten. Insofern ist die syntaktische Interpretation beobachterabhängig. Wir als Computernutzer und Programmierer gestalten die elektrodynamischen Prozesse so, dass sie für uns einer Syntax entsprechen (syntaktische Strukturen einschließlich grammatischer und logischer Regeln).
Für einen Realisten ist die Welt nicht beobachterrelativ. Da syntaktische Strukturen beobachterabhängig sind, ist die Welt kein Computer. Dieses Argument ist radikal, einfach und zutreffend. Es stützt sich auf eine realistische Philosophie und eine mechanistische Interpretation von Computern. Es steht im Gegensatz zu der weitverbreiteten Vorstellung, dass Computer syntaktische Maschinen sind, die sowohl von Anhängern als auch von Gegnern der sogenannten „Künstlichen Intelligenz“ geteilt wird. Computer sind das, was sie materiell sind: Objekte, die mit den Methoden der Physik vollständig beschrieben und erklärt werden können. Syntax ist kein Teil der Physik; die Physik beschreibt keine Zeichen, keine grammatikalischen Regeln, keine logischen Schlussfolgerungen, keine Algorithmen. Der Computer simuliert Denkprozesse, ohne selbst zu denken.
14.4 Positionen zu verschiedenen Kategorien von KI
John Searle unterscheidet zwischen „starker KI“ und „schwacher KI“. Schwache KI behauptet, dass alle menschlichen Denkprozesse prinzipiell von softwaregestützten Systemen simuliert werden können. Searle hält dies für plausibel. Wir werden jedoch später sehen, dass dies nicht zutrifft, dass auch die schwache KI-These unhaltbar ist, dass die perfekte Simulation menschlicher Denkprozesse auf Computern aus logischen Gründen unmöglich ist. John Searle wollte mit seinem Gedankenexperiment Chinese Room lediglich zeigen, dass starke KI, also die Identifizierung von Verhaltensmustern mit mentalen Zuständen, scheitert.
-
Ich unterscheide vier Positionen:
(I) StarkeKI
Die These, dass es zwischen menschlichem Denken und Softwareverarbeitung bzw. Computerprozessen (Computing) keinen (kategorialen) Unterschied gibt. Die beiden Arten von Denkvorgängen folgen nicht nur denselben Regeln, sondern unterscheiden sich in keiner wesentlichen Hinsicht, so dass es nicht sinnvoll ist, für einen der beiden Typen von Denk- und Entscheidungsvorgängen das mentale Vokabular (die Rede von Überzeugungen, Wünschen, Wahrnehmungen und Gefühlen etc.) zu reservieren. Zwei Varianten von starker KI sollten dabei unterschieden werden.
(Ia) Materialistische starke KI
Es gibt keine genuinen mentalen Eigenschaften, sondern lediglich – in welcher Art auch immer – realisierte Softwareprozesse, sei es im menschlichen Gehirn oder im Computer. Das mentalistische Vokabular ist prinzipiell entbehrlich. Mentale Zustände sind allenfalls irreführende Präsentationen materieller Zustände.
(Ib) Animistische starke KI
Da wir menschlichen Wesen mentale Eigenschaften zuschreiben, da wir selbst als Menschen mentale Eigenschaften haben (denken, fühlen etc.), gibt es keinen Grund, einer entsprechend hoch entwickelten Software, die vergleichbare Verhaltensregularitäten aufweist, diese mentalen Zuschreibungen vorzuenthalten: Bestimmte Computer können nicht nur rechnen, sondern auch denken, wahrnehmen, fühlen und entscheiden.
(II) Schwache KI
Alle menschlichen Denk-, Wahrnehmungs- und Entscheidungsvorgänge können prinzipiell von geeigneten Softwaresystemen simuliert werden. Es gibt keine prinzipielle Grenze der Computerisierung (Digitalisierung) menschlichen Denkens, menschlichen Wahrnehmens, Entscheidens und Fühlens. Im Unterschied allerdings zur starken KI wird damit noch nicht bestritten, dass es kategoriale Unterschiede geben kann, also dass auch die perfekte Simulation von Denken, Wahrnehmen, Entscheiden und Fühlen damit vereinbar ist, dass Computer mangels mentaler Eigenschaften nicht tatsächlich denken, wahrnehmen, entscheiden und fühlen können. Schwache KI unterscheidet sich von starker KI hinsichtlich des Turing-Tests: Starke KI akzeptiert den Turing-Test, schwache KI nicht.
(III) Starke Anti-KI
Starke Anti-KI bestreitet nicht nur (I), sondern auch (II). Starke Anti-KI bestreitet nicht nur, dass es keinen kategorialen Unterschied zwischen maschinellem und menschlichem Denken, Wahrnehmen und Fühlen gibt, sondern dass es aus prinzipiellen Erwägungen unmöglich ist, menschliches Denken, Wahrnehmen, Entscheiden und Fühlen vollständig (digital) zu simulieren.
Während sowohl (II) als auch (III) das Qualia-Argument akzeptieren können, kann (III) zusätzlich das Argument der Nicht-Algorithmisierbarkeit menschlichen Denkens akzeptieren. (II) kann das nicht.
(IV) Schwache Anti-KI
Schwache Anti-KI bestreitet lediglich (I), also die Position der starken KI. Sie ist kompatibel mit (II) und (III), ohne (II) zu behaupten. Starke Anti-KI impliziert schwache Anti-KI, so wie starke KI schwache KI impliziert.5
Der digitale Humanismus6 wendet sich in erster Linie gegen (I), aber in zweiter Linie auch gegen (II). Insofern wird hier die Position (III), starke Anti-KI, eingenommen.
Zugleich aber ist es gerade diese Positionierung in der KI-Debatte, die besonders technikfreundlich ist, denn die Position der starken KI steht vor der unerfreulichen Alternative, entweder die Grund- und Menschenrechte willkürlich auf die menschliche Spezies zu beschränken und Künstliche Intelligenzen davon auszunehmen oder die ethischen Beschränkungen des Umgangs mit menschlichen Individuen kontinuierlich abzubauen, um in Analogie zum instrumentellen Einsatz von Künstlichen Intelligenzen auch den instrumentellen Einsatz von menschlichen Intelligenzen zu ermöglichen. Starke KI erlegt sich – ganz entgegen den Werthaltungen der meisten ihrer Protagonisten – selbst engste ethische Beschränkungen auf. In Analogie zum Projekt „Menschenrecht für die großen Menschenaffen“, das den Speziesismus überwinden wollte und menschlichen Tieren in dem Umfang Menschenrechte zugestehen wollte, in dem diese vergleichbare Eigenschaften haben, müssten Robotern und autonomen Softwaresystemen ebenfalls Menschenrechte zuerkannt werden, in dem Umfang, in dem diese mentale Zustände, Eigenschaften, Prozesse von Menschen auch im Sinne von (I) realisieren. So wie Menschen nicht versklavt werden dürfen, dürften dann auch hoch entwickelte Softwaresysteme nicht für ökonomische und technische Zwecke eingesetzt werden. Kurz: Starke KI führt über kurz oder lang zu einem Stopp des weiteren technologischen Fortschritts oder zu einem Niedergang der Menschenrechte.
Schwache KI (II) ist von dieser Problematik nicht betroffen, allerdings kämpft die schwache KI mit dem erkenntnistheoretischen Problem der Unterscheidbarkeit. Wie können die Unterschiede zwischen menschlicher und Künstlicher Intelligenz festgestellt werden, wenn alle menschlichen Fähigkeiten prinzipiell simulierbar sind? Während starke KI mit einem gravierenden ethischen Problem konfrontiert ist, ist schwache KI mit einem erkenntnistheoretischen Problem konfrontiert.
14.5 Digitaler Humanismus
Das vielleicht paradox anmutende Ergebnis lautet: Es ist die Position der starken Anti-KI, die dem technologischen Fortschritt am stärksten wohlgesonnen ist. Sie plädiert für eine ideologische Abrüstung, die umfassende Nutzung neuer digitaler Möglichkeiten für die Humanisierung der menschlichen Lebensbedingungen dieser und der zukünftigen Generation. Sie ist skeptisch gegenüber dem Programm der Angliederung des Menschen an Maschinen in beide Richtungen (von Mensch auf Maschine und von Maschine auf Mensch). Sie ist optimistisch im Hinblick auf die Ressourcen digitaler Technologien zur Verbesserung der menschlichen Lebensbedingungen. Sie ist davon überzeugt, dass die lebensweltliche Praxis des Gründegebens und Gründenehmens und der wechselseitigen Zuschreibung emotiver und epistemischer Zustände (Überzeugungen und Gefühle) irreduzibel ist. Diese machen die Lebensform aus, die wir teilen, und lassen sich weder an digitale Maschinen noch an naturwissenschaftliche Theorien abgeben. Würde man den digitalen Mechanismus als Weltanschauung ernst nehmen, bedeutete dies das Ende der menschlichen Lebensform als Ganzer. Wir sollten die neuen digitalen Technologien nutzen, das Leben reichhaltiger, effizienter und nachhaltiger zu machen, anstatt die menschliche Lebensform verarmen zu lassen.
Es gibt eine wunderbare Bemerkung von Karl Popper, der einmal sagte, dass sich die Wissenschaft in einem Prozess kühner Ideen und kritischer Untersuchungen weiterentwickelt. Wenn Wissenschaft nur aus ängstlichen Männern und Frauen bestünde, die nichts Neues ausprobieren wollen, dann wäre die Innovation tatsächlich in Gefahr. Die jüngsten digitalen Innovationen – über die wir heute hier sprechen – basieren alle auf Algorithmen. Es lässt sich jedoch zeigen, dass logische und mathematische Beweise zu einem großen Teil nicht auf Algorithmen beruhen können. Dafür gibt es einen konkreten und unzweifelhaften Beweis. Dieser Beweis wurde von dem Logiker und Mathematiker Kurt Gödel in den 1930er-Jahren für den sogenannten „Unvollständigkeitssatz“ entwickelt, den wohl wichtigsten Satz der formalen Logik und der Metamathematik. Dieser Satz zeigt, dass Erkenntnis und Intelligenz im Allgemeinen nicht adäquat in einem Maschinenparadigma erfasst werden können. Auch wenn dies von vielen Wissenschaftlern bis heute verdrängt wird, ist Gödels Theorem der Beweis, dass der menschliche Geist nicht wie ein Algorithmus funktioniert. Weder die Welt noch der Mensch funktionieren wie eine Maschine. Würden Menschen genauso deterministisch handeln wie Turing-Maschinen (jene nach dem Mathematiker Alan Turing, einem Computerpionier, benannten Maschinen, die auf dem Prinzip beruhen, dass jeder Zustand einen bestimmten Folgezustand bedingt), dann wäre Innovation selbst nicht denkbar. Wenn es prinzipiell möglich wäre, das vorherzusehen, was wir in der Zukunft tun und glauben, gäbe es keine echten Innovationen. Disruptive Innovationen in Wissen und Technologie setzen voraus, dass zukünftiges Wissen und Technologie nicht Teil des alten Wissens und der alten Technologie sind. Die Annahme eines allumfassenden Determinismus ist mit echter Innovation unvereinbar.
Eine Kritik der starken KI ist innovationsfreundlich. Aber sie ist auch technologiefreundlich, denn die Position einer starken KI führt zu der unangenehmen Konsequenz, entweder die Menschenrechte willkürlich auf den Menschen zu beschränken und – unzulässigerweise – die KI von den Menschenrechten auszuschließen oder ethische Beschränkungen im Umgang mit Menschen aufzuheben, um ethische Beschränkungen im Umgang mit der KI aufzuheben. Starke KI stellt eine große Belastung für die Innovation dar.
Ich möchte mit einem Plädoyer für den digitalen Humanismus schließen. Der digitale Humanismus ist technikfreundlich. Er befürwortet den Einsatz aller digitalen Technologien, um die Lebensbedingungen der Menschen zu verbessern und die ökologischen Systeme zu erhalten – auch aus Sorge um die vitalen Interessen künftiger Generationen. Gleichzeitig wendet er sich aber vehement gegen Tendenzen der Verantwortungsflucht und ist dagegen, die Verantwortung für die Zukunft an eine vermeintlich autarke Technikentwicklung zu delegieren. Er wendet sich gegen die Hoffnung, dass der digitale Fortschritt autark die Zukunft der Menschheit und dieses Planeten garantieren wird. Er positioniert sich gegen die Selbstentwertung menschlicher Entscheidungs- und Handlungskompetenz in Form starker KI, gegen die Subsumtion menschlichen Urteilens und Handelns unter das Paradigma einer Maschine, die aus gegebenem Input bestimmte Outputs generiert.
Die Utopie des digitalen Humanismus verlangt eine konsequente Abkehr vom Paradigma der Maschine. Weder die Natur als Ganzes noch der Mensch sollten als Maschine begriffen werden. Die Welt ist keine Uhr, und die Menschen sind keine Automaten. Maschinen können den Spielraum menschlicher Handlungs- und Gestaltungskraft erweitern, ja potenzieren. Sie können zum Guten und zum Schaden der Entwicklung der Menschheit eingesetzt werden, aber sie können die menschliche Verantwortung der einzelnen Akteure und die kulturelle und soziale Verantwortung der menschlichen Gesellschaften nicht ersetzen. Paradoxerweise wird die Verantwortung von Individuen und Gruppen durch Maschinentechnologie und digitale Technologien erweitert, nicht eingeschränkt und schon gar nicht marginalisiert. Die erweiterten Möglichkeiten der Interaktion, die sich durch digitale Technologien und die Entwicklung kommunikativer und interaktiver Netzwerke ergeben, stellen vielmehr neue Herausforderungen für das Ethos der Verantwortung dar, denen sich der rationale Mensch nicht entziehen kann, indem er die Verantwortung an autonome Systeme, seien es Roboter oder selbstlernende Software, delegiert.
Der digitale Humanismus bewahrt die menschlichen Bedingungen verantwortlicher Praxis. Er begeht keinen Kategorienfehler. Er schreibt geistige Eigenschaften nicht auf der Grundlage einer Simulation menschlichen Verhaltens zu. Vielmehr schärft er die Kriterien menschlicher Verantwortung angesichts der Verfügbarkeit digitaler Technologien, fordert eine Ausweitung der Verantwortungszuschreibung auf die durch digitale Technologien vermittelte Kommunikation und Interaktion und lässt nicht zu, dass sich die eigentlichen Akteure (und das sind wir Menschen) wegducken und die Verantwortung an eine vermeintliche Autonomie digitaler Maschinen abgeben.
Digitaler Humanismus zielt auf die Stärkung von Verantwortung, auf die Realisierung von Potentialen der Digitalisierung, die von unnötigem Wissen und Kalkulationen entlasten, um den Menschen die Möglichkeit zu geben, sich auf das Wesentliche zu konzentrieren – und das heißt, einen Beitrag zu einer humaneren und gerechteren Zukunft der Menschheit zu leisten.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.