Skip to main content

2023 | Buch

Künstliche Intelligenz und Hirnforschung

Neuronale Netze, Deep Learning und die Zukunft der Kognition

verfasst von: Patrick Krauss

Verlag: Springer Berlin Heidelberg

insite
SUCHEN

Über dieses Buch

Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?
Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten. Im Bereich der KI gab es in den letzten Jahren mehrere spektakuläre Durchbrüche, von alphaGo über DALL-E 2 bis ChatGPT, die so bis vor kurzem noch völlig undenkbar waren. Doch schon heute arbeiten Forscher an den Innovationen von morgen, wie hybrides maschinelles Lernen oder neuro-symbolische KI. Aber was verbirgt sich dahinter überhaupt?
Anhand aktueller Forschungsergebnisse und spannender Beispiele aus der Praxis bietet dieses Sachbuch einen verständlichen Einstieg in die Grundlagen und Herausforderungen dieser faszinierenden Disziplinen. Sie erfahren, was Neurowissenschaft und Psychologie über die Funktionsweise des Gehirns wissen und wie Künstliche Intelligenz arbeitet. Lernen Sie zudem, wie KI unser Verständnis des Gehirns revolutioniert hat und wie Erkenntnisse aus der Hirnforschung umgekehrt in der Informatik eingesetzt werden, um KI-Algorithmen weiterzuentwickeln. Entdecken Sie die faszinierende Welt dieser beiden Disziplinen. Erfahren Sie, warum Künstliche Intelligenz und Hirnforschung zwei Seiten einer Medaille sind und wie sie unsere Zukunft prägen werden.

Inhaltsverzeichnis

Frontmatter
Kapitel 1. Einführung
Zusammenfassung
In den letzten Jahren gab es mehrere spektakuläre Durchbrüche im Bereich der Künstlichen Intelligenz (KI) wie AlphaGo, DALL-E 2 und ChatGPT, die zuvor undenkbar waren. ChatGPT, ein von OpenAI entwickeltes Sprachmodell, ist der jüngste und beeindruckendste Durchbruch. Es ist in der Lage, auf menschlichem Niveau jede Art von Text zu erzeugen, Fragen zu beantworten, Interviews zu geben und Gespräche zu führen, und hat damit erstmals den Turing-Test bestanden, der seit Jahrzehnten als der ultimative Test in der KI-Forschung gilt. Dies stellt unser Verständnis grundlegender Konzepte wie Kognition, Intelligenz und Bewusstsein infrage und wird enorme und weitreichende Auswirkungen auf die Gesellschaft und unser Verständnis des menschlichen Gehirns haben. KI spielt eine immer wichtigere Rolle in den Neurowissenschaften. Umgekehrt verspricht die Übertragung von Konstruktions- und Verarbeitungsprinzipien aus der Biologie auf die Informatik neue Lösungen für aktuelle Herausforderungen. Beide Disziplinen werden in Zukunft wahrscheinlich noch stärker miteinander verschmelzen. Um etwas derart Komplexes wie das menschliche Gehirn zu verstehen, müssen verschiedene Bereiche zusammenarbeiten. Dies ist die Gründungsidee der Kognitionswissenschaften. Computermodelle des Geistes können uns helfen zu verstehen, wie das Gehirn Informationen verarbeitet, und zur Entwicklung intelligenterer Maschinen beitragen. Diese Gehirn-Computer-Analogie stützt sich auf zwei zentrale Annahmen. Gemäß dem Computationalismus sind Kognition und Informationsverarbeitung äquivalent. Der Funktionalismus besagt, dass die kognitiven Prozesse prinzipiell unabhängig von ihrer physikalischen Implementierung sind.
Patrick Krauss

Hirnforschung

Frontmatter
Kapitel 2. Das komplexeste System im Universum
Zusammenfassung
Das menschliche Gehirn besteht aus etwa 86 Mrd. Neuronen, die über Synapsen miteinander verbunden sind und ein neuronales Netzwerk bilden. Jedes Neuron empfängt Input von ca. 10.000 anderen Neuronen und gibt Output an ca. 10.000 andere Neuronen weiter. Die Anzahl der Verbindungen pro Neuron variiert dabei stark, was zu einer breiten Verteilung führt. Die Gesamtzahl der synaptischen Verbindungen wird auf etwa eine Billiarde geschätzt. Es ist nur etwa eine von 10 Mio. theoretisch möglichen Verbindungen tatsächlich realisiert. Die genaue Anzahl der möglichen Konnektome, die die Gesamtheit aller Verbindungen im Nervensystem eines Lebewesens darstellen, ist schwer zu berechnen. Nimmt man jedoch der Einfachheit halber an, dass jede Verbindung binär ist, so erhält man bereits die absurd hohe Zahl von (210)22. Es ist jedoch unwahrscheinlich, dass jede dieser Verbindungen zu einem leistungsfähigen und lebensfähigen Nervensystem führt. Unter der Annahme, dass jedes Neuron entweder aktiv oder inaktiv ist, gibt es rein kombinatorisch (210)11 verschiedene Aktivierungsmuster pro Millisekunde. Da angenommen wird, dass die erlebte Gegenwart etwa drei Sekunden beträgt, entspricht eine Folge von 3000 dieser Muster grob einem mentalen Zustand. Die Zahl der möglichen mentalen Zustände ist so groß, dass sie nicht in Worte gefasst, geschweige denn erfasst werden kann. Die Komplexität des menschlichen Gehirns ist somit unübertroffen.
Patrick Krauss
Kapitel 3. Bausteine des Nervensystems
Zusammenfassung
Neurone sind die grundlegenden Einheiten des Nervensystems, die aus einem Zellkörper, Dendriten und einem Axon bestehen. Dendriten sind antennenartige Strukturen auf der Oberfläche des Neurons, die Signale von anderen Neuronen empfangen, während Axone Signale an nachfolgende Neuronen weiterleiten. Der Verbindungspunkt zwischen zwei Neuronen wird als Synapse bezeichnet. Durch die Freisetzung von Neurotransmittern, die an Rezeptoren auf dem postsynaptischen Neuron binden, wird die Information an den Synapsen übertragen. Synapsen können die Aktivität des postsynaptischen Neurons entweder stimulieren oder hemmen.
Lernen ist gleichbedeutend mit erfahrungsabhängigen Veränderungen in der Verbindungsstruktur der neuronalen Netze im Gehirn, der sogenannten Neuroplastizität. Pruning, das Entfernen schwacher oder ungenutzter synaptischer Verbindungen zwischen Neuronen, ist ein wesentlicher Mechanismus für die Entwicklung und Verfeinerung neuronaler Schaltkreise im Gehirn. Synaptische Plastizität, d. h. die Verstärkung oder Schwächung synaptischer Verbindungen zwischen Neuronen, ist ein weiterer wichtiger Typus der Neuroplastizität, der verschiedene Mechanismen umfasst. Homöostatische Plastizität, einschließlich synaptischer Skalierung und intrinsischer Plastizität, trägt zur Aufrechterhaltung des Gleichgewichts im neuronalen Netzwerk bei. Diese Prozesse gewährleisten die Effizienz der Informationsverarbeitung im Gehirn. Die Gliazellen machen mehr als die Hälfte des Volumens des neuronalen Gewebes aus und spielen eine wichtige Rolle im zentralen und peripheren Nervensystem, indem sie die Neurone mit Myelin ummanteln, Nährstoffe und Sauerstoff bereitstellen, Krankheitserreger bekämpfen und abgestorbene Neurone beseitigen.
Patrick Krauss
Kapitel 4. Organisation des Nervensystems
Zusammenfassung
Das Nervensystem besteht aus verschiedenen Einheiten, darunter das zentrale Nervensystem (Gehirn, Hirnstamm und Rückenmark) und das periphere Nervensystem (autonomes und somatisches Nervensystem). Jedes anatomisch abgrenzbare Modul existiert doppelt, jeweils in der linken und rechten Körperhälfte. Das autonome Nervensystem steuert unwillkürliche Körperprozesse und besteht aus dem sympathischen und dem parasympathischen Nervensystem, während das somatische Nervensystem sensorische Informationen und motorische Befehle überträgt und verarbeitet. Das Rückenmark enthält Schaltkreise für Reflexe und komplexe Bewegungsabläufe. Der Thalamus fungiert als Relaisstation für sensorische Informationen und reguliert den Informationsfluss zur Großhirnrinde. Das Großhirn besteht aus zwei Hemisphären, die für unterschiedliche Funktionen wie Sprache und räumliches Denken zuständig sind und miteinander interagieren. Die Basalganglien sind für die motorische Kontrolle und das Lernen zuständig. Das Kleinhirn ist für die Koordination und Feinabstimmung von Bewegungen zuständig, während der Hippocampus für die Bildung neuer Gedächtnisinhalte und die räumliche Navigation wichtig ist.
Patrick Krauss
Kapitel 5. Organisation des Cortex
Zusammenfassung
Die Großhirnrinde, auch Isocortex oder Neocortex genannt, besteht aus zwei Hemisphären, jeweils unterteilt in fünf Lappen, die mit den Hauptfunktionssystemen korrelieren. Sie ist in sechs gleichmäßigen Schichten organisiert, die unterschiedliche Zelldichten und Neuronentypen enthalten. Brodmann entdeckte verschiedene Areale, die sich durch einzigartige Kombinationen von Zelltypen, -dichten und -schichten auszeichnen und mit funktionellen Unterschieden korrelieren. Der Cortex zeigt eine kartenartige Organisation, in der ähnliche Informationen an benachbarten Orten repräsentiert sind, und eine radiale Organisation in Mikro- und Makrokolumnen. Diese Kolumnen sind möglicherweise grundlegende Einheiten der Informationsverarbeitung und beteiligt an der Populationskodierung. Retinotopie, Tonotopie und Somatotopie sind Beispiele für die kartenartige Organisation des Cortex, die unterschiedliche Rezeptordichten und Sensitivitäten von Körperregionen widerspiegelt. Der kanonische Schaltkreis des Cortex beschreibt ein Informationsflussmuster, bei dem aufsteigende, absteigende und horizontale Verbindungen zwischen Cortexarealen unterschieden werden. Die Analyse dieser Verbindungen offenbart eine hierarchisch-parallele Organisation mit mehreren Arealen auf jeder Ebene und dem Hippocampus an der Spitze der sensorischen Areal-Hierarchie.
Patrick Krauss
Kapitel 6. Methoden der Hirnforschung
Zusammenfassung
Bildgebende Verfahren ermöglichen die Erstellung von Bildern des Gehirns und seiner Aktivität und spielen eine wichtige Rolle in der Hirnforschung. Die Computertomografie (CT) nutzt Röntgenstrahlen, um detailreiche Schnittbilder und 3D-rekonstruktionen des Gehirns zu erhalten, allerdings liefert sie keine Informationen über die funktionelle Aktivität des Gehirns. Die Positronenemissionstomografie (PET) nutzt einen Radiotracer (Kontrastmittel), um die Stoffwechselaktivität im Gehirn zu visualisieren und ein dreidimensionales Bild zu erzeugen. Die Magnetresonanztomografie (MRT) nutzt die Ausrichtung von Wasserstoffkernen entlang magnetischer Feldlinien, um detaillierte Bilder zu erzeugen, während die funktionelle Magnetresonanztomografie (fMRT) indirekt die Veränderungen der Sauerstoffsättigung des Blutes (BOLD) als Maß für die Durchblutungsveränderungen von aktiven Hirnarealen nutzt. Elektro- und Magnetoenzephalografie (EEG/MEG) sind nichtinvasive Methoden zur Messung der elektrischen bzw. magnetischen Aktivität des Gehirns und haben eine extrem hohe zeitliche, aber begrenzte räumliche Auflösung. Während EEG besser für oberflächliche Areale (Gyri) geeignet ist, kann MEG auch Aktivität in tieferen Regionen (Sulci und subcortical) noch gut erfassen. Die intrakranielle Elektroenzephalografie (iEEG) ist eine invasive Methode zur Messung der Gehirnaktivität, bei der Elektroden direkt am oder im Gehirn platziert werden, um eine hohe räumliche und zeitliche Auflösung zu ermöglichen, und wird häufig bei der Lokalisierung der Quelle epileptischer Aktivität verwendet.
Patrick Krauss
Kapitel 7. Gedächtnis
Zusammenfassung
Das Gedächtnis ist ein komplexer und wesentlicher Bestandteil der menschlichen Kognition. Es ermöglicht die Kodierung, Speicherung und den Abruf von Informationen im Laufe der Zeit. Ohne Gedächtnis könnten sich Sprache, soziale Beziehungen und persönliche Identität nicht entwickeln. Das Verständnis der Funktionsweise des Gedächtnisses als Informationsverarbeitungssystem ist entscheidend für das Verständnis der Rolle, die das Gedächtnis für unser Erleben und Verhalten spielt. Das sensorische Gedächtnis spielt eine wichtige Rolle für unsere Fähigkeit, Informationen aus der Umwelt wahrzunehmen und zu verarbeiten. Indem es Informationen von den Sinnesorganen für kurze Zeit speichert, liefert es die notwendige Grundlage für die weitere Verarbeitung und Speicherung im Kurz- und Langzeitgedächtnis. Das Kurzzeitgedächtnis ermöglicht es uns, viele alltägliche Aufgaben zu bewältigen. Obwohl seine Kapazität begrenzt ist, können wir Techniken wie das „Chunking“ anwenden, um unsere Fähigkeit zu verbessern, uns an wichtige Informationen zu erinnern. Das Arbeitsgedächtnis ist ein wichtiges kognitives System, das die Speicherung und Manipulation von Informationen im Gedächtnis ermöglicht und kognitive Funktionen höherer Ordnung wie Denken, Problemlösen, Entscheidungsfindung und Verhaltenssteuerung unterstützt. Es besteht aus mehreren Subkomponenten, darunter die zentrale Exekutive, die phonologische Schleife, der episodische Puffer und der visuell-räumliche Notizblock, von denen jede ihre eigene Funktion hat. Das Langzeitgedächtnis schließlich ist ein komplexes System, das es uns ermöglicht, Informationen über längere Zeiträume zu speichern und abzurufen, es wird in deklaratives und nichtdeklaratives bzw. prozedurales Gedächtnis unterteilt.
Patrick Krauss
Kapitel 8. Sprache
Zusammenfassung
Die Frage, ob Sprachfähigkeiten angeboren oder erlernt sind, ist umstritten. Die Theorie der Universalgrammatik besagt, dass jeder Mensch über angeborene sprachliche Fähigkeiten verfügt, die es ihm ermöglichen, sprechen zu lernen. Im Gegensatz dazu wird in gebrauchsbasierten Ansätzen der Kognitiven Linguistik eine enge Verbindung zwischen Sprachstruktur und Sprachgebrauch angenommen. Diese Theorien betonen die Bedeutung der kindlichen Erfahrung mit Sprache und lehnen die Idee eines angeborenen Sprachwissens ab. Ein wichtiges Konzept ist das Konstruktionslernen, bei dem sich Kinder so genannte Konstruktionen aneignen. Das sind Form-Bedeutungs-Paare, die sich aus verschiedenen sprachlichen Elementen von einfachen bis hin zu komplexen Strukturen wie Wörtern, Phrasen oder ganzen Sätzen zusammensetzen. Im Cortex findet Sprachverarbeitung hauptsächlich in Regionen des Frontal-, Temporal- und Parietallappens der linken Hemisphäre statt. Das Broca-Areal ist für die Sprachproduktion verantwortlich, das Wernicke-Areal für das Sprachverständnis. Der Spracherwerb hängt von verschiedenen kognitiven und neuronalen Mechanismen ab und ist an kritische Entwicklungsphasen gebunden. Das Poeppel-Modell schlägt vor, dass die frühen Stadien der Sprachverarbeitung in den auditorischen Arealen stattfinden. Ähnlich wie im visuellen System gibt es einen ventralen „Was“-Pfad und einen dorsalen „Wie“-Pfad in der Sprachverarbeitung. Der ventrale Pfad ist für die Zuordnung von Lauten zu Bedeutungen zuständig, während der dorsale Pfad Laute auf motorisch-artikulatorische Repräsentationen abbildet. Thalamus, Basalganglien und Kleinhirn spielen ebenfalls eine wichtige Rolle bei der Sprachwahrnehmung und -produktion, wobei der Thalamus den auditiven Input vorverarbeitet, die Basalganglien an der motorischen Planung und der Grammatikbildung beteiligt sind und das Kleinhirn für die Koordination und das Timing der Sprechbewegungen und das Erlernen neuer Sprachen verantwortlich ist.
Patrick Krauss
Kapitel 9. Bewusstsein
Zusammenfassung
Zur Lösung des Leib-Seele-Problems wurden eine Vielzahl von Konzepten entwickelt, die in die grundlegenden Ansichten des Monismus und Dualismus einteilbar sind. Thomas Nagel beschreibt das Problem der Subjektivität des Bewusstseins und argumentiert, dass es unmöglich ist, das subjektive Erleben einer anderen Spezies vollständig zu verstehen. Daniel Dennett beschreibt das Bewusstsein als eine nützliche Illusion, die sich aus der Funktionsweise des Gehirns ergibt. Ein Nachteil der Philosophie des Geistes ist, dass sie allein nicht in der Lage ist, die zugrunde liegenden physikalischen, biologischen oder informationstheoretischen Prozesse des Bewusstseins zu erforschen. Die Neurowissenschaft betrachtet das Bewusstsein als eine Art Benutzeroberfläche, die uns bei der Verarbeitung neuer Situationen hilft. Die neuronalen Korrelate des Bewusstseins sind spezifische Muster neuronaler Aktivität, die mit bewusster Erfahrung verbunden sind. Die Theorie des globalen neuronalen Arbeitsraums (GWT) geht davon aus, dass Bewusstsein durch die globale Übertragung und Verstärkung von Informationen durch miteinander verbundene Netzwerke im Cortex entsteht, während die Theorie der integrierten Information (IIT) vorschlägt, dass Bewusstsein auf der intrinsischen Fähigkeit eines neuronalen Netzwerks beruht, sich selbst zu beeinflussen, indem es maximal irreduzible integrierte Informationen erzeugt. Antonio Damasio hat auf Basis der weltweit größten Datenbank von Hirnläsionen eine eigene Theorie des Bewusstseins entwickelt. Für ihn entsteht Bewusstsein aus der Interaktion zwischen unserem biologischen Selbst und der Umwelt, eng verbunden mit Emotionen und Körperreaktionen. Das Konzept der „Körperschleife“ und die Bedeutung von Emotionen spielen dabei eine zentrale Rolle.
Patrick Krauss
Kapitel 10. Freier Wille
Zusammenfassung
Die Frage der Willensfreiheit ist eng mit der Diskussion über Determinismus und Zufall verbunden und ist in Philosophie und Wissenschaft nach wie vor umstritten und komplex. Die verschiedenen Denkschulen bieten unterschiedliche Perspektiven auf die Natur und Existenz des freien Willens. Der Laplace’sche Dämon, ein Gedankenexperiment zur Untersuchung des Determinismus, impliziert die Vorhersagbarkeit aller Ereignisse im Universum. Die Kompatibilisten halten Willensfreiheit und Determinismus dennoch für vereinbar. Sie argumentieren, dass Quantenmechanik und Chaostheorie der exakten Vorhersagbarkeit widersprechen und somit Willensfreiheit ermöglichen. Andere halten den Widerspruch zwischen Willensfreiheit und Determinismus für einen Kategorienfehler. Das Libet-Experiment untersuchte die Natur des freien Willens und stellte fest, dass unbewusste Prozesse im Gehirn willentliche Handlungen auslösen, bevor bewusste Entscheidungen getroffen werden. Dieses Ergebnis wurde kontrovers diskutiert und die Methodik des Experiments kritisiert. Trotz der Ungewissheit über die Existenz des freien Willens bleibt die Praxis der Bestrafung in der Gesellschaft relevant. Sie erfüllt verschiedene Zwecke wie Gerechtigkeit für die Opfer, Resozialisierung der Täter, Abschreckung potentieller Nachahmer und Schutz der Gesellschaft vor weiteren Straftaten.
Patrick Krauss

Künstliche Intelligenz

Frontmatter
Kapitel 11. Was ist Künstliche Intelligenz?
Zusammenfassung
Das Studium der mathematischen Logik bildete die konzeptionelle und theoretische Grundlage für die Entwicklung der Künstlichen Intelligenz (KI) und ebnete den Weg für die Entwicklung der modernen Computertechnik. Die Dartmouth-Konferenz war ein wichtiges Ereignis in der Geschichte der KI, da sie Forscher aus verschiedenen Disziplinen zusammenbrachte und den Grundstein für dieses neue Forschungsgebiet legte. Die Begriffe Künstliche Intelligenz, Maschinelles Lernen und Deep Learning werden heute oft als austauschbar angesehen und im öffentlichen Diskurs synonym verwendet, obwohl sie eigentlich in einem hierarchischen Verhältnis zueinander stehen. Künstliche Intelligenz bezieht sich auf Maschinen, die zu intelligentem Verhalten fähig und so programmiert sind, dass sie Aufgaben ausführen, die normalerweise menschliche Intelligenz erfordern, z. B. Mustererkennung, Lernen aus Erfahrung, Entscheidungsfindung und Problemlösung. Maschinelles Lernen ist ein Teilbereich der KI, der es Maschinen ermöglicht, selbstständig zu lernen und sich zu verbessern. Deep Learning wiederum ist ein Zweig des Maschinellen Lernens, der sich auf mehrschichtige neuronale Netze konzentriert und komplexe Muster in großen Datenmengen erkennen kann. Es hat zu bedeutenden Fortschritten in Anwendungsbereichen wie Bild- und Spracherkennung und autonomen Fahrzeugen geführt, aber es gibt immer noch Herausforderungen bei der Interpretation und Erklärung der Funktionsweise von Deep-Learning-Modellen.
Patrick Krauss
Kapitel 12. Wie lernt Künstliche Intelligenz?
Zusammenfassung
Künstliche Neurone sind mathematische Modelle biologischer Neurone, die über mehrere Eingangskanäle reelle Zahlen erhalten, die mit Gewichten multipliziert und durch eine Aktivierungsfunktion in einen Output umgewandelt werden, wobei das einfachste künstliche Neuron, das Perzeptron, eine binäre Klassifikation durch eine Schwellenfunktion vornimmt. Künstliche neuronale Netze bestehen aus miteinander verbundenen künstlichen Neuronen, die Input-Signale verarbeiten und Output-Signale weiterleiten, wobei die Neurone in Schichten angeordnet sein können. Die Gewichte der Verbindungen werden in Form einer Gewichtsmatrix zusammengefasst. Einfache Netze aus nur einer Eingabe- und einer Ausgabeschicht können nur lineare Klassifizierungen lernen und sind daher für komplexere Probleme wie das XOR-Problem ungeeignet, weshalb mehrschichtige neuronale Netze mit versteckten Schichten verwendet werden, um nichtlineare Transformationen der Eingabedaten zu erlernen und komplexere Beziehungen und Entscheidungsgrenzen zu erfassen. Im Deep Learning werden sehr tiefe Netze verwendet, also Netze mit vielen Zwischenschichten. Es lassen sich vier prinzipiell verschiedene Methoden des Lernens in künstlichen neuronalen Netzen unterscheiden: überwachtes, unüberwachtes und selbstüberwachtes Lernen sowie Verstärkungslernen.
Patrick Krauss
Kapitel 13. Spielende Künstliche Intelligenz
Zusammenfassung
Die Kombination von Verstärkungslernen und Faltungsnetzen zur Steuerung von Videospielen durch Deep-Learning-Techniken erzielte große Erfolge in Action-Spielen, die keine vorausschauende Strategie erfordern. In diesen Spielen erreichte das System menschliches Niveau oder darüber. Allerdings versagte das System bei vergleichsweise einfachen Strategiespielen, bei denen eine überschaubare Welt navigiert und bestimmte Aufgaben gelöst werden müssen.
Das asiatisches Brettspiel Go gilt als das komplexeste Strategiespiel überhaupt. Die enorme Anzahl möglicher Stellungen macht es für Go-Computer schwierig, menschliche Spieler zu besiegen. Dagegen haben Schachcomputer mit der Brute-Force-Methode, bei der für eine bestimmte Anzahl von Zügen alle möglichen Züge simuliert werden, beeindruckende Leistungen erzielt. Während Schachcomputer bereits in den 1990er-Jahren in der Lage waren, menschliche Schachspieler zu besiegen, galt das Spiel Go lange Zeit als unerreichbar für KI. 2016 gelang es dem System AlphaGo, den damals besten Go-Spieler der Welt zu besiegen. AlphaGo wurde auf Millionen historischer Partien trainiert. Ein Jahr später präsentierte DeepMind AlphaGo Zero, das durch Verstärkungslernen und das Spielen von Milliarden von Partien gegen sich selbst Strategien und Taktiken entwickelte, die bisher unbekannt waren. Das System erreichte eine Spielstärke, die seine Vorgängerversion AlphaGo in 100 Partien ebenso häufig besiegen konnte. Inzwischen existieren mit AlphaZero und AlphaStar weitere Verallgemeinerungen von AlphaGo Zero, die sich selbst jedes beliebige Strategiespiel beibringen können.
Patrick Krauss
Kapitel 14. Rekurrente neuronale Netze
Zusammenfassung
Rekurrente Verbindungen sind ein grundlegender Aspekt neuronaler Verarbeitung und Informationsintegration in biologischen neuronalen Netzwerken und ermöglichen eine effiziente und dynamische Informationsverarbeitung im Gehirn durch hierarchisch verschachtelte Rückkopplungsschleifen. Künstliche rekurrente neuronale Netze (RNN) bieten gegenüber reinen Feedforward-Architekturen mehrere Vorteile. Sie können zeitliche Abhängigkeiten und Sequenzen verarbeiten, was sie für Zeitreihendaten, Sprachverarbeitung und andere Aufgaben, bei denen die Reihenfolge wichtig ist, geeignet macht. RNNs können auch variable Eingabe- und Ausgabesequenzen verarbeiten, was sie flexibler als Feedforward-Netze macht. Die Rekurrenz kann unterschiedlich ausgeprägt sein, von einfachen Feedforward-Netzen mit zusätzlichen Selbstverbindungen bis hin zu vollständig rekurrenten neuronalen Netzen. LSTMs sind rekurrente neuronale Netze mit Speicherzellen und Schaltgattern, die speziell dazu entwickelt wurden, Informationen über lange Zeiträume zu speichern und zu vergessen, während Elman-Netze dreischichtige Netze mit Kontextschicht sind, die Input-Sequenzen verarbeiten und Output-Sequenzen erzeugen können, und Hopfield-Netze sind symmetrisch verbundene Neuronenschichten, die Muster als Attraktoren speichern und vervollständigen können. Das Training von rekurrenten neuronalen Netzen ist schwierig, da sie anfällig für das Problem der verschwindenden oder explodierenden Gradienten sind, was zu langsamem oder instabilem Lernen und Schwierigkeiten beim Erlernen von langreichweitigen Abhängigkeiten führt. Bei der Backpropagation Through Time wird das RNN durch den Trainingsprozess im Laufe der Zeit entfaltet und in ein tiefes Feedforward-Netz mit gemeinsamen Gewichten umgewandelt, um das Gradientenproblem zu lösen.
Patrick Krauss
Kapitel 15. Kreativität: Generative Künstliche Intelligenz
Zusammenfassung
Kreativität bedeutet, etwas zu erschaffen, was neu und nützlich ist. Bending, Blending und Breaking sind drei verschiedene Strategien, um Kreativität zu fördern. Diese Ansätze können bestehende Ideen hinterfragen, verändern und kombinieren, um neue Perspektiven und Innovationen zu schaffen. Deep Dreaming erzeugt Bilder, indem ein vortrainiertes neuronales Netz verwendet wird, um das Eingangsbild zu optimieren. Eine Zielfunktion wird definiert, um die erkannten Muster und Merkmale im Eingabebild zu verändern. Das resultierende Bild enthält verstärkte Muster und Merkmale, die ihm ein einzigartiges, traumähnliches Aussehen verleihen. Beim Style Transfer wird der künstlerische Stil eines Bildes mit dem Inhalt eines anderen Bildes kombiniert, um ein neues Bild zu erzeugen. Hierbei werden Inhalts- und Stilinformationen durch ein vortrainiertes neuronales Netz getrennt und neu kombiniert. Generative Adversarial Networks (GANs) bestehen aus einem Generator- und einem Diskriminator-Netz und werden zur Erzeugung von täuschend echten Bildern oder Videos, sogenannten Deep Fakes, eingesetzt. Der Generator erzeugt neue Kandidatenbilder oder -videos, während der Diskriminator versucht, reale von künstlich erzeugten zu unterscheiden. Im Verlauf des Trainings verbessern sich beide Netze iterativ in ihrer jeweiligen Aufgabe. Diffusionsmodelle können Bilder durch einen Prozess erzeugen, der als Denoising Score Matching bekannt ist. Indem sie lernen, einen simulierten Diffusionsprozess umzukehren, können sie aus Rauschen völlig neue Bilder erzeugen. Sie können auch mit Sprachmodellen kombiniert werden, um aus Textbeschreibungen Bilder zu erzeugen.
Patrick Krauss
Kapitel 16. Sprachbegabte KI: ChatGPT und Co.
Zusammenfassung
Die Geschichte der Verarbeitung natürlicher Sprache (natural language processing, NLP) begann in der Mitte des 20. Jahrhunderts mit frühen maschinellen Übersetzungsversuchen, durchlief Phasen regelbasierter und statistischer Methoden, machte mit Maschinellem Lernen und Wortrepräsentationstechniken erhebliche Fortschritte und wurde durch Deep-Learning-Techniken und fortschrittliche Architekturen revolutioniert, was zur Entwicklung Großer Sprachmodelle (large language models, LLM) wie BERT und GPT führte. Repräsentationstechniken wie Wortvektoren sind für die Verarbeitung natürlicher Sprache von entscheidender Bedeutung, da sie Textdaten in numerische Formate umwandeln. Word2Vec ist eine Technik zur Erzeugung von Worteinbettungen, die auf neuronalen Netzen basiert und unüberwacht aus großen Textkorpora lernt. Die Transformer-Architektur, die Grundlage aller modernen Großen Sprachmodelle wie DeepL und ChatGPT, hat die natürliche Sprachverarbeitung durch ihren innovativen Aufmerksamkeitsmechanismus revolutioniert, der parallele Verarbeitung und effektive Erkennung von langreichweitigen Abhängigkeiten ermöglicht und somit zu kürzeren Trainingszeiten führt. Die Geschichte der GPT-Reihe der Firma OpenAI reflektiert die rapiden Fortschritte in der Verarbeitung natürlicher Sprache. ChatGPT, ein fortschrittliches, auf GPT-3 basierendes Großes Sprachmodell, kann menschenähnliche Antworten in Dialogen erzeugen und beherrscht eine Vielzahl von Aufgaben wie Generieren von Text, Beantworten von Fragen, Zusammenfassen, Umformulieren oder Übersetzen von Texten in vielen Sprachen und wurde durch einen iterativen Prozess des überwachten Lernens und Verstärkungslernens, einschließlich menschlicher Feedback-Feinabstimmung und eines trainierten Belohnungsmodells, zu einem effizienten Konversations-KI-Tool verfeinert.
Patrick Krauss
Kapitel 17. Woran forschen KI-Entwickler heute?
Zusammenfassung
Das Maschinelle Lernen hat in den letzten Jahren große Fortschritte gemacht, und neue Entwicklungen haben das Potential, die Art und Weise, wie KI-Systeme lernen und sich anpassen, zu revolutionieren. Neue Ansätze sollen es ermöglichen, mit minimalen Datenmengen neue Aufgaben zu erlernen oder Objekte zu erkennen und so den Bedarf an großen Mengen von Trainingsdaten zu überwinden. Beim Few-Shot Learning werden Modelle wie z. B. das Prototypical Network trainiert, die sich mit einer geringen Menge an Trainingsdaten schnell an neue Aufgaben anpassen können. Beim One-Shot Learning lernt das Modell nur aus einem Beispiel pro Klasse. Das Memory Enhanced Neural Network verwendet dazu etwa eine externe Speichermatrix. One-Shot-Lernen hat sich besonders bei der Handschrifterkennung bewährt. Beim Zero-Shot Learning können Modelle Vorhersagen für völlig unbekannte Klassen ohne explizite Trainingsbeispiele treffen, indem Wissen aus verwandten oder ähnlichen Klassen, die während des Trainings gesehen wurden, übertragen wird. Dies wird durch die Verwendung semantischer Repräsentationen wie Wortvektoren erreicht. Transfer Learning nutzt das Wissen, das bei der Lösung eines Problems erworben wurde, um es auf ein anderes, verwandtes Problem zu übertragen. Beim Meta-Learning werden Modelle trainiert, um aus einer kleinen Menge von Daten zu lernen und mit wenig oder gar keinem zusätzlichen Training auf neue Aufgaben zu verallgemeinern. Beim hybriden Maschinenlernen werden verschiedene Ansätze kombiniert. Beim Known Operator Learning z. B. werden einzelne Schichten eines neuronalen Netzes durch bekannte Operatoren ersetzt.
Patrick Krauss

Herausforderungen

Frontmatter
Kapitel 18. Herausforderungen der KI
Zusammenfassung
Künstliche Intelligenz ist nur so gut wie die Daten, mit denen sie trainiert wird. Systematische Verzerrungen in den Daten, auch Bias genannt, können dramatische Folgen haben. Die US-Armee plante den Einsatz neuronaler Netze zur automatischen Erkennung getarnter Panzer, aber das Netz schnitt unter realen Bedingungen nicht besser ab als der Zufall. Aufgrund einer Datenverzerrung lernte das Netzwerk, zwischen sonnigen und bewölkten Tagen zu unterscheiden anstatt zwischen getarnten Panzern und Wäldern. KI-Systeme können gezielt manipuliert werden, z. B. durch Adversarial Examples oder Patches, die die Erkennungsleistung von Bildklassifikatoren beeinträchtigen und damit z. B. für autonome Fahrzeuge ein ernsthaftes Problem darstellen können. Reproduzierbarkeitskrise, Alchemie- und Black-Box-Problem können die Zuverlässigkeit und Vertrauenswürdigkeit von KI-Systemen negativ beeinflussen. Gary Marcus nennt zehn Schwächen des derzeitigen Deep Learning, darunter Probleme beim Transferlernen und der Datenineffizienz. Die Neurowissenschaften können helfen, diese Schwächen zu überwinden, indem sie Inspiration für neue Architekturen liefern und die Entwicklung verbesserter Lernmethoden unterstützen.
Patrick Krauss
Kapitel 19. Herausforderungen der Hirnforschung
Zusammenfassung
Es gab und gibt eine verbreitete Meinung in den Neurowissenschaften, dass durch das Generieren großer Datensätze und fortgeschrittene Algorithmen fundamentale Einsichten darüber gewonnen werden können, wie das Gehirn funktioniert. Jedoch wurde dies Ansicht in den letzten Jahren durch drei bahnbrechende Artikel erschüttert, welche die konzeptionellen Herausforderungen der Hirnforschung eindrucksvoll beschreiben. Yuri Lazebnik kritisiert den Mangel an formaler Sprache in den Biowissenschaften und die Unfähigkeit, komplexe biologische Prozesse in mathematische Modelle zu übersetzen. Joshua Brown betont die Notwendigkeit eines einheitlichen mechanistischen Rahmens für die Neurowissenschaften. Eric Jonas und Konrad Kording führten ein Experiment durch, in dem sie den Mikroprozessor MOS 6502 emulierten und neurowissenschaftliche Methoden anwendeten, um diesen zu analysieren. Trotz interessanter Ergebnisse konnten diese Methoden kein mechanistisches Verständnis der Funktionsweise des Mikroprozessors liefern. Ein System gilt als verstanden, wenn Hypothesen über seine Struktur und Funktion aufgestellt und getestet werden, wobei diese Hypothesen aus einer allgemeineren Theorie abgeleitet werden sollten. Laut David Marr sollte ein System auf drei Ebenen – Berechnungs-, Algorithmus- und Implementierungsebene – verstanden werden, um sein Verhalten vollständig zu erfassen. Um zu beweisen, dass das Gehirn verstanden wird, müsste ein künstliches System entwickelt werden, das dieselben Eingaben, Umwandlungen und Ausgaben von Informationen wie das biologische Vorbild leistet.
Patrick Krauss

Integration

Frontmatter
Kapitel 20. KI als Werkzeug in der Hirnforschung
Zusammenfassung
Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat bedeutende Auswirkungen auf die Hirnforschung. Sie ermöglicht es, große Mengen an Daten aus bildgebenden Verfahren wie fMRT und EEG effizient zu analysieren. Ein wichtiges Anwendungsfeld ist die automatische Klassifikation von Schlafstadien, die essentiell für das Verständnis von Lern- und Gedächtnisprozessen sind. KI kann auch in der Sprachverarbeitungsforschung genutzt werden, um komplexe narrative Stimuli zu analysieren. In Studien war es sogar möglich, aus neuronalen Aktivitäten sprachlichen Inhalt zu rekonstruieren, was für zukünftige Gehirn-Computer-Schnittstellen relevant ist. Darüber hinaus ermöglichen sogenannte Inception Loops die Suche nach sensorischen Reizen, die bestimmte Neuronen optimal aktivieren. Dieses Verständnis könnte grundlegend für die Erforschung der Informationsverarbeitung im Gehirn sein. Die vielfältigen Anwendungen von KI in der Hirnforschung könnten zu bedeutenden Fortschritten in unserem Verständnis des Gehirns und seiner Funktionen führen. Dies wiederum ermöglicht die Entwicklung fortschrittlicher Gehirn-Computer-Schnittstellen. Inception Loops könnten theoretisch eine ultimative virtuelle Realität ermöglichen, werfen jedoch wichtige ethische und philosophische Fragen aufgrund der damit verbundenen Risiken und Herausforderungen auf.
Patrick Krauss
Kapitel 21. KI als Modell für das Gehirn
Zusammenfassung
Cognitive Computational Neuroscience verbindet Künstliche Intelligenz, insbesondere Deep Learning, mit den Neuro- und Kognitionswissenschaften. Sie verwendet Computermodelle, um die Komplexität des Gehirns und seine Funktionsweise zu verstehen. Diese Modelle ermöglichen es, interne Parameter und Variablen präzise auszulesen und Manipulationen vorzunehmen, die am lebenden Gehirn aus technischen oder ethischen Gründen nicht möglich sind. Sie können auch dazu beitragen, neue Hypothesen über die Funktionsweise des Gehirns zu generieren. Künstliche neuronale Netze wurden beispielsweise erfolgreich zur Modellierung der visuellen Verarbeitung, der räumlichen Navigation und der Sprachverarbeitung eingesetzt. Dies hat u. a. zu der Erkenntnis geführt, dass Vorhersage ein wesentlicher Mechanismus der Wahrnehmung zu sein scheint. Obwohl sich diese Forschung noch in einem frühen Stadium befindet, ist das Potential für künftige Durchbrüche beim Verständnis der Funktionsweise des Gehirns groß.
Patrick Krauss
Kapitel 22. Mit Hirnforschung die KI besser verstehen
Zusammenfassung
Das Black-Box-Problem, das sich auf das unzureichende Verständnis und die schwierige Interpretation tiefer neuronaler Netze bezieht, ist nach wie vor eine große Herausforderung für die KI. EU und DARPA betonen die Notwendigkeit der Transparenz und Erklärbarkeit der KI. Neurowissenschaftliche Methoden könnten helfen, künstliche neuronale Netze besser zu verstehen und zu interpretieren. In der Hirnforschung bezeichnet eine Läsion eine Schädigung eines Teils des Nervensystems, die wertvolle Einblicke in die Funktionen verschiedener Gehirnregionen bietet. Ein ähnlicher Ansatz wird in der KI-Forschung verwendet, um die Rolle verschiedener Komponenten in künstlichen neuronalen Netzen zu verstehen. Dies wird erreicht, indem bestimmte Neuronen, Schichten oder Verbindungen entfernt oder verändert werden und die daraus resultierenden Veränderungen in der Ausgabe oder Leistung des Netzes beobachtet werden. Verschiedene Techniken zur Netzwerkvisualisierung ermöglichen ebenfalls Einblicke in die Funktionen von tiefen neuronalen Netzen. Neuronen können sich auf die Erkennung spezifischer Merkmale spezialisieren, während andere auf abstraktere Konzepte reagieren. Merkmalsvisualisierung ist eine weitere Methode, die auf neurowissenschaftlichen Konzepten basiert und einen Optimierungsprozess verwendet, um die Aktivierung eines bestimmten Neurons oder einer Schicht zu maximieren. Eine verwandte Methode, die Layer-wise Relevance Propagation, leitet die Ausgabe des Modells zurück zur Eingabeschicht und weist jedem Neuron und Merkmal des Inputs Relevanzbewertungen zu.
Patrick Krauss
Kapitel 23. Das Gehirn als Vorlage für KI
Zusammenfassung
Das menschliche Gehirn löst viele Aufgaben, die Künstliche Intelligenz (KI) anstrebt, und sein Design inspiriert daher viele Aspekte des Maschinellen Lernens, einschließlich künstlicher Neurone, Faltungsnetzwerke und anderer Netzwerkarchitekturen. Ein weiteres Beispiel für die Einflüsse der Neurobiologie auf die KI ist das schichtweise Training von tiefen Lernmodellen, das die progressive Reifung und das Lernen im menschlichen Gehirn widerspiegelt. Während bisher bereits viele Erkenntnisse aus der Erforschung des menschlichen Gehirns in die KI und das Maschinelle Lernen eingeflossen sind, gibt es noch unerforschte Bereiche wie die Rolle des Zufalls in neuronalen Netzen, die zukünftige KI-Entwicklungen beeinflussen könnten. Rauschen, ursprünglich als Störsignal angesehen, spielt eine Schlüsselrolle bei Resonanzphänomenen und kann nützlich für die neuronale Informationsverarbeitung sein, insbesondere durch das Phänomen der stochastischen Resonanz. Aktuelle Erkenntnisse deuten darauf hin, dass Künstliche Intelligenz (KI) und tiefe neuronale Netze durch Hinzufügung von Rauschen als zusätzlichem Input ihre Leistung verbessern können, insbesondere bei Aufgaben wie der Erkennung gesprochener Sprache. Zufällige, untrainierte Verbindungen in neuronalen Netzen, wie sie im Geruchssystem der Fruchtfliege entdeckt wurden, können überraschend effektiv zur Informationsverarbeitung beitragen. Künstliche neuronale Netze mit festen binären Zufallsverbindungen haben eine verbesserte Genauigkeit bei der Klassifizierung verrauschter Eingangsdaten gezeigt, und die Lotterielos-Hypothese legt nahe, dass effizientere Netze durch die Identifizierung und das Training günstig initialisierter Teilnetze erreicht werden können. Darüber hinaus bietet das Reservoir Computing, das auf zufällig generierten, hochrekurrenten neuronalen Netzen basiert, weitere Einblicke in die Nützlichkeit zufälliger Netzarchitekturen.
Patrick Krauss
Kapitel 24. Ausblick
Zusammenfassung
Die Diskussion über bewusste Maschinen ist ein komplexes und kontroverses Gebiet, das sowohl technische als auch philosophische Fragen aufwirft. Trotz der beeindruckenden Leistungen von KI-Systemen wie ChatGPT oder GPT-4 bleiben viele Experten skeptisch, ob diese Systeme ein Bewusstsein erlangen können. Die Behauptung des ehemaligen Google-Ingenieurs Blake Lemoine, dass einige dieser Systeme bereits bewusst sein könnten, wird von vielen Wissenschaftlern abgelehnt. Der Turing-Test, eine Methode zur Messung der Intelligenz einer Maschine, ist ebenfalls auf Kritik gestoßen. Es wird argumentiert, dass das Bestehen des Turing-Tests nicht unbedingt auf echte Intelligenz hinweist, sondern nur auf die Fähigkeit, menschliches Verhalten nachzuahmen. John Searles Gedankenexperiment "Das Chinesische Zimmer" stellt eine weitere Herausforderung für das Konzept der maschinellen Intelligenz dar. Searl argumentiert, dass ein Computer, selbst wenn er in der Lage ist, menschenähnliche Antworten zu geben, die Bedeutung hinter den Worten nicht wirklich versteht. Das Grounding Problem wirft die Frage auf, wie die Symbole und Konzepte, die von KI-Systemen verwendet werden, eine Bedeutung aus der realen Welt erhalten können. Eine mögliche Lösung könnte die verkörperte Kognition (embodied cognition) sein, bei der KI-Systeme durch Interaktion mit der realen Welt über Sensoren und Aktoren ein Verständnis für die Bedeutung der von ihnen verarbeiteten Symbole entwickeln könnten.
Patrick Krauss
Backmatter
Metadaten
Titel
Künstliche Intelligenz und Hirnforschung
verfasst von
Patrick Krauss
Copyright-Jahr
2023
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-67179-5
Print ISBN
978-3-662-67178-8
DOI
https://doi.org/10.1007/978-3-662-67179-5