Skip to main content
main-content

Über dieses Buch

Jeder kennt sie. Smartphones, die mit uns sprechen, Armbanduhren, die unsere Gesundheitsdaten aufzeichnen, Arbeitsabläufe, die sich automatisch organisieren, Autos, Flugzeuge und Drohnen, die sich selber steuern, Verkehrs- und Energiesysteme mit autonomer Logistik oder Roboter, die ferne Planeten erkunden, sind technische Beispiele einer vernetzten Welt intelligenter Systeme. Machine Learning verändert unsere Zivilisation dramatisch. Wir verlassen uns immer mehr auf effiziente Algorithmen, weil die Komplexität unserer zivilisatorischen Infrastruktur sonst nicht zu bewältigen ist. Aber wie sicher sind KI-Algorithmen? Diese Herausforderung wird in der 2.Auflage aufgegriffen: Komplexe neuronale Netze werden mit riesigen Datenmengen (Big Data) gefüttert und trainiert. Die Anzahl der dazu notwenigen Parameter explodiert exponentiell. Niemand weiß genau, was sich in diesen „Black Boxes“ im Einzelnen abspielt. Im Machine Learning benötigen wir mehr Erklärung (explainability) und Zurechnung (accountability) von Ursachen und Wirkungen, um ethische und rechtliche Fragen der Verantwortung (z.B. beim autonomen Fahren oder in der Medizin) entscheiden zu können! Seit ihrer Entstehung ist die KI-Forschung mit großen Visionen über die Zukunft der Menschheit verbunden. Sie ist bereits eine Schlüsseltechnologie, die den globalen Wettstreit der Gesellschaftssysteme entscheiden wird. „Künstliche Intelligenz und Verantwortung“ ist eine weitere zentrale Ergänzung der 2. Auflage: Wie sollen wir unsere individuellen Freiheitsrechte in der KI-Welt sichern? Dieses Buch ist ein Plädoyer für Technikgestaltung: KI muss sich als Dienstleistung in der Gesellschaft bewähren.

Inhaltsverzeichnis

Frontmatter

1. Einführung: Was ist KI?

Das war kein Science Fiction Scenario. Das waren KI‐Technologien, die technisch heute realisierbar sind und als Teilgebiet der Informatik und Ingenieurwissenschaften entwickelt werden. Traditionell wurde KI (Künstliche Intelligenz) als Simulation intelligenten menschlichen Denkens und Handelns aufgefasst. Diese Definition krankt daran, dass „intelligentes menschliches Denken“ und „Handeln“ nicht definiert sind. Ferner wird der Mensch zum Maßstab von Intelligenz gemacht, obwohl die Evolution viele Organismen mit unterschiedlichen Graden von „Intelligenz“ hervorgebracht hat. Zudem sind wir längst in der Technik von „intelligenten“ Systemen umgeben, die zwar selbstständig und effizient, aber häufig anders als Menschen unsere Zivilisation steuern.
Klaus Mainzer

2. Eine kurze Geschichte der KI

Ein Automat ist im antiken Sprachgebrauch ein Apparat, der selbstständig (autonom) agieren kann. Selbsttätigkeit charakterisiert nach antiker Auffassung lebende Organismen. Berichte über hydraulische und mechanische Automaten werden bereits in der antiken Literatur vor dem Hintergrund der damaligen Technik erwähnt. In der jüdischen Tradition wird Ende des Mittelalters der Golem als menschenähnliche Maschine beschrieben. Mit Buchstabenkombinationen des „Buchs der Schöpfung“ (hebr.: Sefer Jezira) kann der Golem programmiert werden – zum Schutz des jüdischen Volkes in Verfolgungszeiten.
Mit Beginn der Neuzeit wird Automation technisch‐naturwissenschaftlich angegangen. Aus der Renaissance sind Leonardo da Vincis Konstruktionspläne für Automaten bekannt. Im Zeitalter des Barocks werden Spielautomaten auf der Grundlage der Uhrmachertechnik gebaut. P. Jaquet‐Droz entwirft ein kompliziertes Uhrwerk, das in eine menschliche Puppe eingebaut war. Seine „Androiden“ spielen Klavier, zeichnen Bilder und schreiben Sätze. Der französische Arzt und Philosoph J. O. de Lamettrie bringt die Auffassung von Leben und Automaten im Zeitalter der Mechanik auf den Punkt: „Der menschliche Körper ist eine Maschine, die ihre (Antriebs‑)Feder selbst spannt“ [1].
Klaus Mainzer

3. Logisches Denken wird automatisch

In der ersten Phase der KI‐Forschung war die Suche nach allgemeinen Problemlösungsverfahren wenigstens in der formalen Logik erfolgreich. Dort wurde ein mechanisches Verfahren angegeben, um die logische Allgemeingültigkeit von Formeln zu beweisen. Das Verfahren konnte auch von einem Computerprogramm ausgeführt werden und leitete in der Informatik das automatische Beweisen ein.
Der Grundgedanke ist einfach zu verstehen. In der Algebra werden Buchstaben x, y, z, … durch Rechenoperationen wie z. B. Addieren (+) oder Subtrahieren (−) verbunden. Die Buchstaben dienen als Leerstellen (Variablen), um Zahlen einzusetzen. In der formalen Logik werden Aussagen durch Variablen A, B, C, … bezeichnet, die durch logische Junktoren wie z. B. „und“ (\( \wedge \)), „oder“ (\( \vee \))‚ „wenn‐dann“ (\( \rightarrow \)), „nicht“ (\( \lnot \)) verbunden werden. Die Aussagenvariablen dienen als Leerstellen, um Aussagen einzusetzen, die entweder wahr oder falsch sind. So ist z. B. \( \wedge \) B eine logische Formel, die durch Einsetzung der wahren Aussagen 1 + 3 = 4 für A und 4 = 2 + 2 für B in die wahre Aussage 1 + 3 = 4 \( \wedge \) 4 = 2 + 2 übergeht. In der Arithmetik ergibt sich daraus der wahre Schluss 1 + 3 = 4 \( \wedge \) 4 = 2 + 2 \( \rightarrow \) 1 + 3 = 2 + 2. Allgemein ist aber der Schluss A \( \wedge \) B \( \rightarrow \) C nicht wahr. Demgegenüber ist der Schluss A \( \wedge \) B \( \rightarrow \) A logisch allgemeingültig, da für die Einsetzung von beliebigen wahren oder falschen Aussagen für A und B sich immer eine wahre Gesamtaussage ergibt.
Klaus Mainzer

4. Systeme werden zu Experten

Wissensbasierte Expertensysteme sind Computerprogramme, die Wissen über ein spezielles Gebiet speichern und ansammeln, aus dem Wissen automatisch Schlussfolgerungen ziehen, um zu konkreten Problemen des Gebietes Lösungen anzubieten. Im Unterschied zum menschlichen Experten ist das Wissen eines Expertensystems aber auf eine spezialisierte Informationsbasis beschränkt ohne allgemeines und strukturelles Wissen über die Welt [1–3].
Um ein Expertensystem zu bauen, muss das Wissen des Experten in Regeln gefasst werden, in eine Programmsprache übersetzt und mit einer Problemlösungsstrategie bearbeitet werden. Die Architektur eines Expertensystems besteht daher aus den folgenden Komponenten: Wissensbasis, Problemlösungskomponente (Ableitungssystem), Erklärungskomponente, Wissenserwerb, Dialogkomponente. Die Koordination dieser Komponenten wird in Abb. 4.1 gezeigt.
Wissen ist der Schlüsselfaktor in der Darstellung eines Expertensystems. Man unterscheidet dabei zwei Arten von Wissen. Die eine Art des Wissens betrifft die Fakten des Anwendungsbereichs, die in Lehrbüchern und Zeitschriften festgehalten werden. Ebenso wichtig ist die Praxis im jeweiligen Anwendungsbereich als Wissen der zweiten Art. Es handelt sich um heuristisches Wissen, auf dem Urteilsvermögen und jede erfolgreiche Problemlösungspraxis im Anwendungsbereich beruhen. Es ist Erfahrungswissen, die Kunst erfolgreichen Vermutens, das ein menschlicher Experte nur in vielen Jahren Berufsarbeit erwirbt.
Klaus Mainzer

5. Computer lernen sprechen

Auf dem Hintergrund wissensbasierter Systeme kann Turings berühmte Frage erneut aufgegriffen werden, die frühe KI‐Forscher bewegt hat: Können diese Systeme „denken“? Sind sie „intelligent“? Die Analyse zeigt, dass wissensbasierte Expertensysteme ebenso wie konventionelle Computerprogramme auf Algorithmen beruhen. Auch die Trennung von Wissensbasis und Problemlösungsstrategie ändert daran nichts, denn beide Komponenten eines Expertensystems müssen in algorithmischen Datenstrukturen repräsentiert werden, um schließlich auf einem Computer programmierbar zu werden.
Das gilt auch für die Realisierung von natürlicher Sprache durch Computer. Als Beispiel sei an J. Weizenbaums Sprachprogramm ELIZA erinnert [1]. ELIZA soll als menschlichen Experten eine Psychiaterin simulieren, die sich mit einem Patienten unterhält. Es handelt sich um Regeln, wie bei bestimmten Satzmustern des Patienten mit bestimmten Satzmustern der „Psychiaterin“ zu reagieren ist. Allgemein geht es um die Erkennung bzw. Klassifizierung von Regeln in Bezug auf ihre Anwendbarkeit in Situationen. Im einfachsten Fall ist die Gleichheit zweier Symbolstrukturen zu bestimmen, wie sie in der Programmiersprache LISP für Symbollisten durch die Funktion EQUAL bestimmt wird (vgl. Abschn. 3.3). Eine Erweiterung liegt dann vor, wenn in den symbolischen Ausdrücken Terme und Variable aufgenommen werden, z. B.
$$ \begin{aligned} &\text{(x B C)}\\ &\text{(A B y)} \end{aligned} $$
Klaus Mainzer

6. Algorithmen simulieren die Evolution

Informationsverarbeitung mit Computern und Menschen wird mit künstlichen oder natürlichen Sprachen wiedergegeben. Sie sind nur Spezialfälle von symbolischen Repräsentationssystemen, die sich ebenso für genetische Informationssysteme angeben lassen. Genetische Sprachen repräsentieren mit ihren grammatikalischen Regeln molekulare Verfahren, um molekulare Sequenzen mit genetischen Bedeutungen zu erzeugen. Entscheidend für das Verständnis dieser molekularen Sprachen sind wiederum nicht wir Menschen, sondern die molekularen Systeme, die sich ihrer bedienen. Wir Menschen mit unserer Art der Informationsverarbeitung sind erst am Anfang, diese Sprachen mit ihren Regeln zu entziffern und zu verstehen. Die formalen Sprach‑ und Grammatiktheorien liefern dazu zusammen mit der algorithmischen Komplexitätstheorie erste Ansätze.
Für genetische Informationen werden die Nukleinsäure‐Sprache mit dem Alphabet der vier Nukleotide und die Aminosäure‐Sprache mit dem Alphabet der zwanzig Aminosäuren verwendet. Bei der Nukleinsäure‐Sprache lässt sich eine Hierarchie verschiedener Sprachschichten unterscheiden, die von der untersten Ebene der Nukleotide mit den Grundsymbolen A, C, G, T bzw. U bis zur höchsten Ebene der Gene reicht, in denen die vollständige Erbinformation einer Zelle festgehalten ist. Jede zwischengeschaltete Sprachebene setzt sich aus Einheiten der vorherigen Sprachebene zusammen und gibt Anweisungen für verschiedene Funktionen wie z. B. Transkription oder Replikation von Sequenzen.
Klaus Mainzer

7. Neuronale Netze simulieren Gehirne

Gehirne sind Beispiele für komplexe Informationssysteme auf der Grundlage neuronaler Informationsverarbeitung [1]. Was sie gegenüber anderen Informationssystemen auszeichnet ist die Fähigkeit zu Kognition, Emotion und Bewusstsein. Unter dem Begriff der Kognition (lat. cognoscere für „erkennen“, „wahrnehmen“, „wissen“) werden Fähigkeiten wie z. B. Wahrnehmung, Lernen, Denken, Gedächtnis und Sprache zusammengefasst. Welche synaptischen Signalverarbeitungen liegen diesen Prozessen zugrunde? Welche neuronalen Teilsysteme sind beteiligt?
Klaus Mainzer

8. Roboter werden sozial

Mit zunehmender Komplexität und Automatisierung der Technik werden Roboter zu Dienstleistern der Industriegesellschaft. Die Evolution lebender Organismen inspiriert heute die Konstruktion von Robotiksystemen für unterschiedliche Zwecke [1]. Mit wachsenden Komplexitäts‑ und Schwierigkeitsgraden der Dienstleistungsaufgabe wird die Anwendung von KI‐Technik unvermeidlich. Dabei müssen Roboter nicht wie Menschen aussehen. Genauso wie Flugzeuge nicht wie Vögel aussehen, gibt es je nach Funktion auch andere angepasste Formen. Es stellt sich also die Frage, zu welchem Zweck humanoide Roboter welche Eigenschaften und Fähigkeiten besitzen sollten.
Humanoide Roboter sollten direkt in der menschlichen Umgebung wirken können. In der menschlichen Umwelt ist die Umgebung auf menschliche Proportionen abgestimmt. Die Gestaltung reicht von der Breite der Gänge über die Höhe einer Treppenstufe bis zu Positionen von Türklinken. Für nicht menschenähnliche Roboter (z. B. auf Rädern und mit anderen Greifern statt Händen) müssten also große Investitionen für Veränderungen der Umwelt ausgeführt werden. Zudem sind alle Werkzeuge, die Mensch und Roboter gemeinsam benutzen sollten, auf menschliche Bedürfnisse abgestimmt. Nicht zu unterschätzen ist die Erfahrung, dass humanoide Formen den emotionalen Umgang mit Robotern psychologisch erleichtern.
Klaus Mainzer

9. Infrastrukturen werden intelligent

Das Nervensystem der menschlichen Zivilisation ist mittlerweile das Internet. Das Internet war bisher nur eine („dumme“) Datenbank mit Zeichen und Bildern, deren Bedeutung im Kopf des Nutzers entsteht. Um die Komplexität der Daten zu bewältigen, muss das Netz lernen, selbstständig Bedeutungen zu erkennen und zu verstehen. Das leisten bereits semantische Netze, die mit erweiterbaren Hintergrundinformationen (Ontologien, Begriffe, Relation, Fakten) und logischen Schlussregeln ausgestattet sind, um selbstständig unvollständiges Wissen zu ergänzen und Schlüsse zu ziehen. So lassen sich z. B. Personen identifizieren, obwohl die direkt eingegebenen Daten die Person nur teilweise beschreiben. Hier zeigt sich wieder, dass Semantik und Verstehen von Bedeutungen nicht vom menschlichen Bewusstsein abhängt.
Klaus Mainzer

10. Von der natürlichen über die künstliche zur Superintelligenz?

Die klassische KI‐Forschung orientiert sich an den Leistungsmöglichkeiten eines programmgesteuerten Computers, der nach der Churchschen These im Prinzip mit einer Turingmaschine äquivalent ist. Nach dem Mooreschen Gesetz wurden damit bis heute gigantische Rechen‐ und Speicherkapazitäten erreicht, die erst die KI‐Leistungen z. B. des Supercomputers WATSON ermöglichten (vgl. Abschn. 5.2). Aber die Leistungen von Supercomputern haben einen Preis, dem die Energie einer Kleinstadt entsprechen kann. Umso beeindruckender sind menschliche Gehirne, die Leistungen von WATSON (z. B. eine natürliche Sprache sprechen und verstehen) mit dem Energieverbrauch einer Glühlampe realisieren. Spätestens dann ist man von der Effizienz neuromorpher Systeme beeindruckt, die in der Evolution entstanden sind. Gibt es ein gemeinsames Prinzip, das diesen evolutionären Systemen zugrunde liegt und das wir uns in der KI zu nutzen machen können?
Biomoleküle, Zellen, Organe, Organismen und Populationen sind hochkomplexe dynamische Systeme, in denen viele Elemente wechselwirken. Komplexitätsforschung beschäftigt sich fachübergreifend in Physik, Chemie, Biologie und Ökologie mit der Frage, wie durch die Wechselwirkungen vieler Elemente eines komplexen dynamischen Systems (z. B. Atome in Materialien, Biomoleküle in Zellen, Zellen in Organismen, Organismen in Populationen) Ordnungen und Strukturen entstehen können, aber auch Chaos und Zerfall.
Klaus Mainzer

11. Wie sicher ist Künstliche Intelligenz?

Machine Learning verändert unsere Zivilisation dramatisch. Wir verlassen uns immer mehr auf effiziente Algorithmen, weil die Komplexität unserer zivilisatorischen Infrastruktur sonst nicht zu bewältigen wäre: Unsere Gehirne sind zu langsam und bei den anstehenden Datenmengen hoffnungslos überfordert. Aber wie sicher sind KI‐Algorithmen? Bei der praktischen Anwendung beziehen sich Lernalgorithmen auf Modelle neuronaler Netze, die selber äußerst komplex sind. Sie werden mit riesigen Datenmengen gefüttert und trainiert. Die Anzahl der dazu notwendigen Parameter explodiert exponentiell. Niemand weiß genau, was sich in diesen „Black Boxes“ im Einzelnen abspielt. Es bleibt häufig ein statistisches Trial‐and‐Error Verfahren. Wie sollen aber Verantwortungsfragen z. B. beim autonomen Fahren oder in der Medizin entschieden werden, wenn die methodischen Grundlagen dunkel bleiben?
Im Machine Learning mit neuronalen Netzen benötigen wir mehr Erklärung (explainability) und Zurechnung (accountability) von Ursachen und Wirkungen, um ethische und rechtliche Fragen der Verantwortung entscheiden zu können!
Klaus Mainzer

12. Künstliche Intelligenz und Verantwortung

Künstliche Intelligenz (KI) ist ein internationales Zukunftsthema in Forschung und Technik, Wirtschaft und Gesellschaft. Aber Forschung und technische Innovation der KI reichen nicht aus. KI‐Technologie wird unsere Lebens‑ und Arbeitswelt dramatisch verändern. Der globale Wettstreit der Gesellschaftssysteme (z. B. Chinesischer Staatsmonopolismus, US‐amerikanische IT‐Giganten, europäische Marktwirtschaft mit individuellen Freiheitsrechten) wird entscheidend davon abhängen, wie wir unser europäisches Wertesystem in der KI‐Welt positionieren.
Klaus Mainzer

Backmatter

Weitere Informationen

Premium Partner

BranchenIndex Online

Die B2B-Firmensuche für Industrie und Wirtschaft: Kostenfrei in Firmenprofilen nach Lieferanten, Herstellern, Dienstleistern und Händlern recherchieren.

Whitepaper

- ANZEIGE -

Grundlagen zu 3D-Druck, Produktionssystemen und Lean Production

Lesen Sie in diesem ausgewählten Buchkapitel alles über den 3D-Druck im Hinblick auf Begriffe, Funktionsweise, Anwendungsbereiche sowie Nutzen und Grenzen additiver Fertigungsverfahren. Eigenschaften eines schlanken Produktionssystems sowie der Aspekt der „Schlankheit“ werden ebenso beleuchtet wie die Prinzipien und Methoden der Lean Production.
Jetzt gratis downloaden!

Marktübersichten

Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen. 

Bildnachweise