Skip to main content

21.03.2016 | Cebit | Im Fokus | Online-Artikel

Wenn Künstliche Intelligenz zur Gefahr wird

verfasst von: Andreas Burkert

2 Min. Lesedauer
share
TEILEN
print
DRUCKEN
insite
SUCHEN

Künstliche Intelligenz darf sich nicht der Kontrolle durch den Menschen entziehen dürfen. Die Folgen wären fatal. Wissenschaftler fordern deshalb Verhaltensweisen im Umgang mit Künstlicher Intelligenz. Aus gutem Grund.

Über diesen Sieg beim Spiel Go haben sich nicht alle gefreut. Vor allem zwei Experten von selbstlernenden Maschinen der University of  Sydney zeigten sich besorgt, als der Supercomputer AlphaGo den Weltmeister Lee Sedol im Spiel Go haushoch besiegte. Sie warnen nun, beim Umgang mit Künstlicher Intelligenz zu unbedarft vorzugehen. Und sie appellieren, dass Künstliche Intelligenz unter allen Umständen unter menschlicher Kontrolle gehalten werden muss, da die Menschheit sonst in Zukunft machtlos den Fähigkeiten Künstlicher Intelligenz gegenüberstehen könnte und Terminatoren aus Science Fiction Filmen nicht mehr nur Fiktion bleiben.

Empfehlung der Redaktion

2016 | OriginalPaper | Buchkapitel

Wissen, Verstehen und Intelligenz mit Software

Wissen ist für Philosophie wie für Informationstechnologie ein zentrales Thema (das Internet ist z. B. Wissen in verknüpften Dokumenten und Medien, Software ist Wissen über Prozesse). In unserer Epoche werden Wissens- und Intelligenzsysteme nich

Professor Dong Xu, Vorsitzender der Abteilung Computer Engineering an der University of Sydney, betont, dass die Niederlage des Weltmeisters neue Bedenken bezüglich der Zukunft von Maschinen mit Künstlicher Intelligenz hervorgebracht haben. Zuvor galt das Spiel Go als zu komplex für Computer, doch der Sieg zeigt, dass Supercomputer mittlerweile in der Lage sind, sich stetig weiterzuentwickeln und sich durch detailreiche Analysen eigenständig optimieren können. Deshalb beschäftigt sich der Wissenschaftler mit der Frage, in wie weit die Fähigkeit des Selbstlernens von Künstlicher Intelligenz kontrolliert werden muss.

Computer mit Emotionen können gefährlich werden

Zur Zeit sind Maschinen mit Künstlicher Intelligenz besonders in der Industrie gefragt, denn sie können als menschliche Stellvertreter der Öffentlichkeit nützlich sein. Sie können putzen, auf dem Feld arbeiten, oder Forschungen tief unter der Erde durchführen. Gefährlich wird es jedoch, wenn ein Supercomputer auch Fähigkeiten, wie Emotionen, dazulernt und damit unberechenbar wird. Professor Xu rät deshalb, dass Unternehmen wie Google und Facebook „moralische und ethische Kommittees“ einrichten, um sicherzustellen, dass die Forschung nicht in eine falsche Richtung führt und Maschinen erschafft, die sich bösartig verhalten.

Michael Harre, der jahrelang die Künstliche Intelligenz AlphaGos studiert hat, betont ebenfalls, dass sich die Technologie so weit entwickelt hat, dass sie nun das menschliche Gehirn sowohl in einfachen, als auch komplexen Aufgaben überlisten kann. Dies sei ein Grund zur Sorge, denn die Gefahr besteht, dass sich der Einsatz von Künstlicher  Intelligenz zukünftig in den Verteidigungs- und Sicherungssektor verschieben könnte und der Mensch in der Kontrollschleife keine Rolle mehr spielt.

share
TEILEN
print
DRUCKEN

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

2006 | OriginalPaper | Buchkapitel

Künstliche Intelligenz zwischen Schach und Fußball

Quelle:
Informatik

2014 | OriginalPaper | Buchkapitel

Maschinelles Lernen

Quelle:
Methoden wissensbasierter Systeme

Das könnte Sie auch interessieren

Premium Partner