Zusammenfassung
Die klassische KI‐Forschung orientiert sich an den Leistungsmöglichkeiten eines programmgesteuerten Computers, der nach der Churchschen These im Prinzip mit einer Turingmaschine äquivalent ist. Nach dem Mooreschen Gesetz wurden damit bis heute gigantische Rechen‐ und Speicherkapazitäten erreicht, die erst die KI‐Leistungen z. B. des Supercomputers WATSON ermöglichten (vgl. Abschn. 5.2). Aber die Leistungen von Supercomputern haben einen Preis, dem die Energie einer Kleinstadt entsprechen kann. Umso beeindruckender sind menschliche Gehirne, die Leistungen von WATSON (z. B. eine natürliche Sprache sprechen und verstehen) mit dem Energieverbrauch einer Glühlampe realisieren. Spätestens dann ist man von der Effizienz neuromorpher Systeme beeindruckt, die in der Evolution entstanden sind. Gibt es ein gemeinsames Prinzip, das diesen evolutionären Systemen zugrunde liegt und das wir uns in der KI zu nutzen machen können?
Biomoleküle, Zellen, Organe, Organismen und Populationen sind hochkomplexe dynamische Systeme, in denen viele Elemente wechselwirken. Komplexitätsforschung beschäftigt sich fachübergreifend in Physik, Chemie, Biologie und Ökologie mit der Frage, wie durch die Wechselwirkungen vieler Elemente eines komplexen dynamischen Systems (z. B. Atome in Materialien, Biomoleküle in Zellen, Zellen in Organismen, Organismen in Populationen) Ordnungen und Strukturen entstehen können, aber auch Chaos und Zerfall.