Skip to main content
Top

21-03-2016 | Cebit | Schwerpunkt | Article

Wenn Künstliche Intelligenz zur Gefahr wird

Author: Andreas Burkert

2 min reading time

Activate our intelligent search to find suitable subject content or patents.

search-config
print
PRINT
insite
SEARCH
loading …

Künstliche Intelligenz darf sich nicht der Kontrolle durch den Menschen entziehen dürfen. Die Folgen wären fatal. Wissenschaftler fordern deshalb Verhaltensweisen im Umgang mit Künstlicher Intelligenz. Aus gutem Grund.

Über diesen Sieg beim Spiel Go haben sich nicht alle gefreut. Vor allem zwei Experten von selbstlernenden Maschinen der University of  Sydney zeigten sich besorgt, als der Supercomputer AlphaGo den Weltmeister Lee Sedol im Spiel Go haushoch besiegte. Sie warnen nun, beim Umgang mit Künstlicher Intelligenz zu unbedarft vorzugehen. Und sie appellieren, dass Künstliche Intelligenz unter allen Umständen unter menschlicher Kontrolle gehalten werden muss, da die Menschheit sonst in Zukunft machtlos den Fähigkeiten Künstlicher Intelligenz gegenüberstehen könnte und Terminatoren aus Science Fiction Filmen nicht mehr nur Fiktion bleiben.

Editor's recommendation

2016 | OriginalPaper | Chapter

Wissen, Verstehen und Intelligenz mit Software

Wissen ist für Philosophie wie für Informationstechnologie ein zentrales Thema (das Internet ist z. B. Wissen in verknüpften Dokumenten und Medien, Software ist Wissen über Prozesse). In unserer Epoche werden Wissens- und Intelligenzsysteme nich

Professor Dong Xu, Vorsitzender der Abteilung Computer Engineering an der University of Sydney, betont, dass die Niederlage des Weltmeisters neue Bedenken bezüglich der Zukunft von Maschinen mit Künstlicher Intelligenz hervorgebracht haben. Zuvor galt das Spiel Go als zu komplex für Computer, doch der Sieg zeigt, dass Supercomputer mittlerweile in der Lage sind, sich stetig weiterzuentwickeln und sich durch detailreiche Analysen eigenständig optimieren können. Deshalb beschäftigt sich der Wissenschaftler mit der Frage, in wie weit die Fähigkeit des Selbstlernens von Künstlicher Intelligenz kontrolliert werden muss.

Computer mit Emotionen können gefährlich werden

Zur Zeit sind Maschinen mit Künstlicher Intelligenz besonders in der Industrie gefragt, denn sie können als menschliche Stellvertreter der Öffentlichkeit nützlich sein. Sie können putzen, auf dem Feld arbeiten, oder Forschungen tief unter der Erde durchführen. Gefährlich wird es jedoch, wenn ein Supercomputer auch Fähigkeiten, wie Emotionen, dazulernt und damit unberechenbar wird. Professor Xu rät deshalb, dass Unternehmen wie Google und Facebook „moralische und ethische Kommittees“ einrichten, um sicherzustellen, dass die Forschung nicht in eine falsche Richtung führt und Maschinen erschafft, die sich bösartig verhalten.

Michael Harre, der jahrelang die Künstliche Intelligenz AlphaGos studiert hat, betont ebenfalls, dass sich die Technologie so weit entwickelt hat, dass sie nun das menschliche Gehirn sowohl in einfachen, als auch komplexen Aufgaben überlisten kann. Dies sei ein Grund zur Sorge, denn die Gefahr besteht, dass sich der Einsatz von Künstlicher  Intelligenz zukünftig in den Verteidigungs- und Sicherungssektor verschieben könnte und der Mensch in der Kontrollschleife keine Rolle mehr spielt.

print
PRINT

Related topics

Background information for this content

2014 | OriginalPaper | Chapter

Maschinelles Lernen

Source:
Methoden wissensbasierter Systeme

Related content

Premium Partner