Andreas Burkert
Über diesen Sieg beim Spiel Go haben sich nicht alle gefreut. Vor allem zwei Experten von selbstlernenden Maschinen der University of Sydney zeigten sich besorgt, als der Supercomputer AlphaGo den Weltmeister Lee Sedol im Spiel Go haushoch besiegte. Sie warnen nun, beim Umgang mit Künstlicher Intelligenz zu unbedarft vorzugehen. Und sie appellieren, dass Künstliche Intelligenz unter allen Umständen unter menschlicher Kontrolle gehalten werden muss, da die Menschheit sonst in Zukunft machtlos den Fähigkeiten Künstlicher Intelligenz gegenüberstehen könnte und Terminatoren aus Science Fiction Filmen nicht mehr nur Fiktion bleiben.
Professor Dong Xu, Vorsitzender der Abteilung Computer Engineering an der University of Sydney, betont, dass die Niederlage des Weltmeisters neue Bedenken bezüglich der Zukunft von Maschinen mit Künstlicher Intelligenz hervorgebracht haben. Zuvor galt das Spiel Go als zu komplex für Computer, doch der Sieg zeigt, dass Supercomputer mittlerweile in der Lage sind, sich stetig weiterzuentwickeln und sich durch detailreiche Analysen eigenständig optimieren können. Deshalb beschäftigt sich der Wissenschaftler mit der Frage, in wie weit die Fähigkeit des Selbstlernens von Künstlicher Intelligenz kontrolliert werden muss.
Computer mit Emotionen können gefährlich werden
Zur Zeit sind Maschinen mit Künstlicher Intelligenz besonders in der Industrie gefragt, denn sie können als menschliche Stellvertreter der Öffentlichkeit nützlich sein. Sie können putzen, auf dem Feld arbeiten, oder Forschungen tief unter der Erde durchführen. Gefährlich wird es jedoch, wenn ein Supercomputer auch Fähigkeiten, wie Emotionen, dazulernt und damit unberechenbar wird. Professor Xu rät deshalb, dass Unternehmen wie Google und Facebook „moralische und ethische Kommittees“ einrichten, um sicherzustellen, dass die Forschung nicht in eine falsche Richtung führt und Maschinen erschafft, die sich bösartig verhalten.
Michael Harre, der jahrelang die Künstliche Intelligenz AlphaGos studiert hat, betont ebenfalls, dass sich die Technologie so weit entwickelt hat, dass sie nun das menschliche Gehirn sowohl in einfachen, als auch komplexen Aufgaben überlisten kann. Dies sei ein Grund zur Sorge, denn die Gefahr besteht, dass sich der Einsatz von Künstlicher Intelligenz zukünftig in den Verteidigungs- und Sicherungssektor verschieben könnte und der Mensch in der Kontrollschleife keine Rolle mehr spielt.