Skip to main content

2019 | Buch

Künstliche Intelligenz – Wann übernehmen die Maschinen?

verfasst von: Prof. Dr. Klaus Mainzer

Verlag: Springer Berlin Heidelberg

Buchreihe : Technik im Fokus

insite
SUCHEN

Über dieses Buch

Jeder kennt sie. Smartphones, die mit uns sprechen, Armbanduhren, die unsere Gesundheitsdaten aufzeichnen, Arbeitsabläufe, die sich automatisch organisieren, Autos, Flugzeuge und Drohnen, die sich selber steuern, Verkehrs- und Energiesysteme mit autonomer Logistik oder Roboter, die ferne Planeten erkunden, sind technische Beispiele einer vernetzten Welt intelligenter Systeme. Machine Learning verändert unsere Zivilisation dramatisch. Wir verlassen uns immer mehr auf effiziente Algorithmen, weil die Komplexität unserer zivilisatorischen Infrastruktur sonst nicht zu bewältigen ist. Aber wie sicher sind KI-Algorithmen? Diese Herausforderung wird in der 2.Auflage aufgegriffen: Komplexe neuronale Netze werden mit riesigen Datenmengen (Big Data) gefüttert und trainiert. Die Anzahl der dazu notwenigen Parameter explodiert exponentiell. Niemand weiß genau, was sich in diesen „Black Boxes“ im Einzelnen abspielt. Im Machine Learning benötigen wir mehr Erklärung (explainability) und Zurechnung (accountability) von Ursachen und Wirkungen, um ethische und rechtliche Fragen der Verantwortung (z.B. beim autonomen Fahren oder in der Medizin) entscheiden zu können! Seit ihrer Entstehung ist die KI-Forschung mit großen Visionen über die Zukunft der Menschheit verbunden. Sie ist bereits eine Schlüsseltechnologie, die den globalen Wettstreit der Gesellschaftssysteme entscheiden wird. „Künstliche Intelligenz und Verantwortung“ ist eine weitere zentrale Ergänzung der 2. Auflage: Wie sollen wir unsere individuellen Freiheitsrechte in der KI-Welt sichern? Dieses Buch ist ein Plädoyer für Technikgestaltung: KI muss sich als Dienstleistung in der Gesellschaft bewähren.

Inhaltsverzeichnis

Frontmatter
1. Einführung: Was ist KI?
Zusammenfassung
Das war kein Science Fiction Scenario. Das waren KI‐Technologien, die technisch heute realisierbar sind und als Teilgebiet der Informatik und Ingenieurwissenschaften entwickelt werden. Traditionell wurde KI (Künstliche Intelligenz) als Simulation intelligenten menschlichen Denkens und Handelns aufgefasst. Diese Definition krankt daran, dass „intelligentes menschliches Denken“ und „Handeln“ nicht definiert sind. Ferner wird der Mensch zum Maßstab von Intelligenz gemacht, obwohl die Evolution viele Organismen mit unterschiedlichen Graden von „Intelligenz“ hervorgebracht hat. Zudem sind wir längst in der Technik von „intelligenten“ Systemen umgeben, die zwar selbstständig und effizient, aber häufig anders als Menschen unsere Zivilisation steuern.
Klaus Mainzer
2. Eine kurze Geschichte der KI
Zusammenfassung
Ein Automat ist im antiken Sprachgebrauch ein Apparat, der selbstständig (autonom) agieren kann. Selbsttätigkeit charakterisiert nach antiker Auffassung lebende Organismen. Berichte über hydraulische und mechanische Automaten werden bereits in der antiken Literatur vor dem Hintergrund der damaligen Technik erwähnt. In der jüdischen Tradition wird Ende des Mittelalters der Golem als menschenähnliche Maschine beschrieben. Mit Buchstabenkombinationen des „Buchs der Schöpfung“ (hebr.: Sefer Jezira) kann der Golem programmiert werden – zum Schutz des jüdischen Volkes in Verfolgungszeiten.
Mit Beginn der Neuzeit wird Automation technisch‐naturwissenschaftlich angegangen. Aus der Renaissance sind Leonardo da Vincis Konstruktionspläne für Automaten bekannt. Im Zeitalter des Barocks werden Spielautomaten auf der Grundlage der Uhrmachertechnik gebaut. P. Jaquet‐Droz entwirft ein kompliziertes Uhrwerk, das in eine menschliche Puppe eingebaut war. Seine „Androiden“ spielen Klavier, zeichnen Bilder und schreiben Sätze. Der französische Arzt und Philosoph J. O. de Lamettrie bringt die Auffassung von Leben und Automaten im Zeitalter der Mechanik auf den Punkt: „Der menschliche Körper ist eine Maschine, die ihre (Antriebs‑)Feder selbst spannt“ [1].
Klaus Mainzer
3. Logisches Denken wird automatisch
Zusammenfassung
In der ersten Phase der KI‐Forschung war die Suche nach allgemeinen Problemlösungsverfahren wenigstens in der formalen Logik erfolgreich. Dort wurde ein mechanisches Verfahren angegeben, um die logische Allgemeingültigkeit von Formeln zu beweisen. Das Verfahren konnte auch von einem Computerprogramm ausgeführt werden und leitete in der Informatik das automatische Beweisen ein.
Der Grundgedanke ist einfach zu verstehen. In der Algebra werden Buchstaben x, y, z, … durch Rechenoperationen wie z. B. Addieren (+) oder Subtrahieren (−) verbunden. Die Buchstaben dienen als Leerstellen (Variablen), um Zahlen einzusetzen. In der formalen Logik werden Aussagen durch Variablen A, B, C, … bezeichnet, die durch logische Junktoren wie z. B. „und“ (\( \wedge \)), „oder“ (\( \vee \))‚ „wenn‐dann“ (\( \rightarrow \)), „nicht“ (\( \lnot \)) verbunden werden. Die Aussagenvariablen dienen als Leerstellen, um Aussagen einzusetzen, die entweder wahr oder falsch sind. So ist z. B. \( \wedge \) B eine logische Formel, die durch Einsetzung der wahren Aussagen 1 + 3 = 4 für A und 4 = 2 + 2 für B in die wahre Aussage 1 + 3 = 4 \( \wedge \) 4 = 2 + 2 übergeht. In der Arithmetik ergibt sich daraus der wahre Schluss 1 + 3 = 4 \( \wedge \) 4 = 2 + 2 \( \rightarrow \) 1 + 3 = 2 + 2. Allgemein ist aber der Schluss A \( \wedge \) B \( \rightarrow \) C nicht wahr. Demgegenüber ist der Schluss A \( \wedge \) B \( \rightarrow \) A logisch allgemeingültig, da für die Einsetzung von beliebigen wahren oder falschen Aussagen für A und B sich immer eine wahre Gesamtaussage ergibt.
Klaus Mainzer
4. Systeme werden zu Experten
Zusammenfassung
Wissensbasierte Expertensysteme sind Computerprogramme, die Wissen über ein spezielles Gebiet speichern und ansammeln, aus dem Wissen automatisch Schlussfolgerungen ziehen, um zu konkreten Problemen des Gebietes Lösungen anzubieten. Im Unterschied zum menschlichen Experten ist das Wissen eines Expertensystems aber auf eine spezialisierte Informationsbasis beschränkt ohne allgemeines und strukturelles Wissen über die Welt [1–3].
Um ein Expertensystem zu bauen, muss das Wissen des Experten in Regeln gefasst werden, in eine Programmsprache übersetzt und mit einer Problemlösungsstrategie bearbeitet werden. Die Architektur eines Expertensystems besteht daher aus den folgenden Komponenten: Wissensbasis, Problemlösungskomponente (Ableitungssystem), Erklärungskomponente, Wissenserwerb, Dialogkomponente. Die Koordination dieser Komponenten wird in Abb. 4.1 gezeigt.
Wissen ist der Schlüsselfaktor in der Darstellung eines Expertensystems. Man unterscheidet dabei zwei Arten von Wissen. Die eine Art des Wissens betrifft die Fakten des Anwendungsbereichs, die in Lehrbüchern und Zeitschriften festgehalten werden. Ebenso wichtig ist die Praxis im jeweiligen Anwendungsbereich als Wissen der zweiten Art. Es handelt sich um heuristisches Wissen, auf dem Urteilsvermögen und jede erfolgreiche Problemlösungspraxis im Anwendungsbereich beruhen. Es ist Erfahrungswissen, die Kunst erfolgreichen Vermutens, das ein menschlicher Experte nur in vielen Jahren Berufsarbeit erwirbt.
Klaus Mainzer
5. Computer lernen sprechen
Zusammenfassung
Auf dem Hintergrund wissensbasierter Systeme kann Turings berühmte Frage erneut aufgegriffen werden, die frühe KI‐Forscher bewegt hat: Können diese Systeme „denken“? Sind sie „intelligent“? Die Analyse zeigt, dass wissensbasierte Expertensysteme ebenso wie konventionelle Computerprogramme auf Algorithmen beruhen. Auch die Trennung von Wissensbasis und Problemlösungsstrategie ändert daran nichts, denn beide Komponenten eines Expertensystems müssen in algorithmischen Datenstrukturen repräsentiert werden, um schließlich auf einem Computer programmierbar zu werden.
Das gilt auch für die Realisierung von natürlicher Sprache durch Computer. Als Beispiel sei an J. Weizenbaums Sprachprogramm ELIZA erinnert [1]. ELIZA soll als menschlichen Experten eine Psychiaterin simulieren, die sich mit einem Patienten unterhält. Es handelt sich um Regeln, wie bei bestimmten Satzmustern des Patienten mit bestimmten Satzmustern der „Psychiaterin“ zu reagieren ist. Allgemein geht es um die Erkennung bzw. Klassifizierung von Regeln in Bezug auf ihre Anwendbarkeit in Situationen. Im einfachsten Fall ist die Gleichheit zweier Symbolstrukturen zu bestimmen, wie sie in der Programmiersprache LISP für Symbollisten durch die Funktion EQUAL bestimmt wird (vgl. Abschn. 3.3). Eine Erweiterung liegt dann vor, wenn in den symbolischen Ausdrücken Terme und Variable aufgenommen werden, z. B.
$$ \begin{aligned} &\text{(x B C)}\\ &\text{(A B y)} \end{aligned} $$
Klaus Mainzer
6. Algorithmen simulieren die Evolution
Zusammenfassung
Informationsverarbeitung mit Computern und Menschen wird mit künstlichen oder natürlichen Sprachen wiedergegeben. Sie sind nur Spezialfälle von symbolischen Repräsentationssystemen, die sich ebenso für genetische Informationssysteme angeben lassen. Genetische Sprachen repräsentieren mit ihren grammatikalischen Regeln molekulare Verfahren, um molekulare Sequenzen mit genetischen Bedeutungen zu erzeugen. Entscheidend für das Verständnis dieser molekularen Sprachen sind wiederum nicht wir Menschen, sondern die molekularen Systeme, die sich ihrer bedienen. Wir Menschen mit unserer Art der Informationsverarbeitung sind erst am Anfang, diese Sprachen mit ihren Regeln zu entziffern und zu verstehen. Die formalen Sprach‑ und Grammatiktheorien liefern dazu zusammen mit der algorithmischen Komplexitätstheorie erste Ansätze.
Für genetische Informationen werden die Nukleinsäure‐Sprache mit dem Alphabet der vier Nukleotide und die Aminosäure‐Sprache mit dem Alphabet der zwanzig Aminosäuren verwendet. Bei der Nukleinsäure‐Sprache lässt sich eine Hierarchie verschiedener Sprachschichten unterscheiden, die von der untersten Ebene der Nukleotide mit den Grundsymbolen A, C, G, T bzw. U bis zur höchsten Ebene der Gene reicht, in denen die vollständige Erbinformation einer Zelle festgehalten ist. Jede zwischengeschaltete Sprachebene setzt sich aus Einheiten der vorherigen Sprachebene zusammen und gibt Anweisungen für verschiedene Funktionen wie z. B. Transkription oder Replikation von Sequenzen.
Klaus Mainzer
7. Neuronale Netze simulieren Gehirne
Zusammenfassung
Gehirne sind Beispiele für komplexe Informationssysteme auf der Grundlage neuronaler Informationsverarbeitung [1]. Was sie gegenüber anderen Informationssystemen auszeichnet ist die Fähigkeit zu Kognition, Emotion und Bewusstsein. Unter dem Begriff der Kognition (lat. cognoscere für „erkennen“, „wahrnehmen“, „wissen“) werden Fähigkeiten wie z. B. Wahrnehmung, Lernen, Denken, Gedächtnis und Sprache zusammengefasst. Welche synaptischen Signalverarbeitungen liegen diesen Prozessen zugrunde? Welche neuronalen Teilsysteme sind beteiligt?
Klaus Mainzer
8. Roboter werden sozial
Zusammenfassung
Mit zunehmender Komplexität und Automatisierung der Technik werden Roboter zu Dienstleistern der Industriegesellschaft. Die Evolution lebender Organismen inspiriert heute die Konstruktion von Robotiksystemen für unterschiedliche Zwecke [1]. Mit wachsenden Komplexitäts‑ und Schwierigkeitsgraden der Dienstleistungsaufgabe wird die Anwendung von KI‐Technik unvermeidlich. Dabei müssen Roboter nicht wie Menschen aussehen. Genauso wie Flugzeuge nicht wie Vögel aussehen, gibt es je nach Funktion auch andere angepasste Formen. Es stellt sich also die Frage, zu welchem Zweck humanoide Roboter welche Eigenschaften und Fähigkeiten besitzen sollten.
Humanoide Roboter sollten direkt in der menschlichen Umgebung wirken können. In der menschlichen Umwelt ist die Umgebung auf menschliche Proportionen abgestimmt. Die Gestaltung reicht von der Breite der Gänge über die Höhe einer Treppenstufe bis zu Positionen von Türklinken. Für nicht menschenähnliche Roboter (z. B. auf Rädern und mit anderen Greifern statt Händen) müssten also große Investitionen für Veränderungen der Umwelt ausgeführt werden. Zudem sind alle Werkzeuge, die Mensch und Roboter gemeinsam benutzen sollten, auf menschliche Bedürfnisse abgestimmt. Nicht zu unterschätzen ist die Erfahrung, dass humanoide Formen den emotionalen Umgang mit Robotern psychologisch erleichtern.
Klaus Mainzer
9. Infrastrukturen werden intelligent
Zusammenfassung
Das Nervensystem der menschlichen Zivilisation ist mittlerweile das Internet. Das Internet war bisher nur eine („dumme“) Datenbank mit Zeichen und Bildern, deren Bedeutung im Kopf des Nutzers entsteht. Um die Komplexität der Daten zu bewältigen, muss das Netz lernen, selbstständig Bedeutungen zu erkennen und zu verstehen. Das leisten bereits semantische Netze, die mit erweiterbaren Hintergrundinformationen (Ontologien, Begriffe, Relation, Fakten) und logischen Schlussregeln ausgestattet sind, um selbstständig unvollständiges Wissen zu ergänzen und Schlüsse zu ziehen. So lassen sich z. B. Personen identifizieren, obwohl die direkt eingegebenen Daten die Person nur teilweise beschreiben. Hier zeigt sich wieder, dass Semantik und Verstehen von Bedeutungen nicht vom menschlichen Bewusstsein abhängt.
Klaus Mainzer
10. Von der natürlichen über die künstliche zur Superintelligenz?
Zusammenfassung
Die klassische KI‐Forschung orientiert sich an den Leistungsmöglichkeiten eines programmgesteuerten Computers, der nach der Churchschen These im Prinzip mit einer Turingmaschine äquivalent ist. Nach dem Mooreschen Gesetz wurden damit bis heute gigantische Rechen‐ und Speicherkapazitäten erreicht, die erst die KI‐Leistungen z. B. des Supercomputers WATSON ermöglichten (vgl. Abschn. 5.2). Aber die Leistungen von Supercomputern haben einen Preis, dem die Energie einer Kleinstadt entsprechen kann. Umso beeindruckender sind menschliche Gehirne, die Leistungen von WATSON (z. B. eine natürliche Sprache sprechen und verstehen) mit dem Energieverbrauch einer Glühlampe realisieren. Spätestens dann ist man von der Effizienz neuromorpher Systeme beeindruckt, die in der Evolution entstanden sind. Gibt es ein gemeinsames Prinzip, das diesen evolutionären Systemen zugrunde liegt und das wir uns in der KI zu nutzen machen können?
Biomoleküle, Zellen, Organe, Organismen und Populationen sind hochkomplexe dynamische Systeme, in denen viele Elemente wechselwirken. Komplexitätsforschung beschäftigt sich fachübergreifend in Physik, Chemie, Biologie und Ökologie mit der Frage, wie durch die Wechselwirkungen vieler Elemente eines komplexen dynamischen Systems (z. B. Atome in Materialien, Biomoleküle in Zellen, Zellen in Organismen, Organismen in Populationen) Ordnungen und Strukturen entstehen können, aber auch Chaos und Zerfall.
Klaus Mainzer
11. Wie sicher ist Künstliche Intelligenz?
Zusammenfassung
Machine Learning verändert unsere Zivilisation dramatisch. Wir verlassen uns immer mehr auf effiziente Algorithmen, weil die Komplexität unserer zivilisatorischen Infrastruktur sonst nicht zu bewältigen wäre: Unsere Gehirne sind zu langsam und bei den anstehenden Datenmengen hoffnungslos überfordert. Aber wie sicher sind KI‐Algorithmen? Bei der praktischen Anwendung beziehen sich Lernalgorithmen auf Modelle neuronaler Netze, die selber äußerst komplex sind. Sie werden mit riesigen Datenmengen gefüttert und trainiert. Die Anzahl der dazu notwendigen Parameter explodiert exponentiell. Niemand weiß genau, was sich in diesen „Black Boxes“ im Einzelnen abspielt. Es bleibt häufig ein statistisches Trial‐and‐Error Verfahren. Wie sollen aber Verantwortungsfragen z. B. beim autonomen Fahren oder in der Medizin entschieden werden, wenn die methodischen Grundlagen dunkel bleiben?
Im Machine Learning mit neuronalen Netzen benötigen wir mehr Erklärung (explainability) und Zurechnung (accountability) von Ursachen und Wirkungen, um ethische und rechtliche Fragen der Verantwortung entscheiden zu können!
Klaus Mainzer
12. Künstliche Intelligenz und Verantwortung
Zusammenfassung
Künstliche Intelligenz (KI) ist ein internationales Zukunftsthema in Forschung und Technik, Wirtschaft und Gesellschaft. Aber Forschung und technische Innovation der KI reichen nicht aus. KI‐Technologie wird unsere Lebens‑ und Arbeitswelt dramatisch verändern. Der globale Wettstreit der Gesellschaftssysteme (z. B. Chinesischer Staatsmonopolismus, US‐amerikanische IT‐Giganten, europäische Marktwirtschaft mit individuellen Freiheitsrechten) wird entscheidend davon abhängen, wie wir unser europäisches Wertesystem in der KI‐Welt positionieren.
Klaus Mainzer
Backmatter
Metadaten
Titel
Künstliche Intelligenz – Wann übernehmen die Maschinen?
verfasst von
Prof. Dr. Klaus Mainzer
Copyright-Jahr
2019
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-58046-2
Print ISBN
978-3-662-58045-5
DOI
https://doi.org/10.1007/978-3-662-58046-2

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen.