4.1 Einleitung
Diagnosen und Beschreibungen von Veränderungsprozessen sind zentral für deren Gestaltung. Im Folgenden soll erörtert werden, ob und in welcher Hinsicht sich das Wissenschaftsverständnis
1 durch KI- und Machine Learning-Verfahren verändert: Steht eine methodologische Revolution vor der Tür oder findet sich eine Kontinuität, freilich mit modifizierten Mitteln und Instrumenten?
Wenn man fragt, ob sich empirische Wissenschaft durch aktuelle Entwicklungen der Informatik und Mathematik wandelt, setzt man voraus, dass Verfahren, Mittel und Instrumente, d. h. dass Technik(en) und technikbasierte Methoden der Wissenschaft nicht nur äußerlich sind, sondern deren innere Konstitution betreffen und im Kern relevant sind. Die Anerkennung dieser Eingangsprämisse
2 legt überhaupt erst einen Untersuchungsbedarf nahe. Schaut man dann detaillierter hin, ist für die Frage nach einem Wandel das Verständnis von Wissenschaft ausschlaggebend. Veränderungsthesen sind abhängig von Referenzsystemen, bezüglich derer eine Veränderung untersucht wird. Allerdings ist das Referenzsystem, also das, was als Wissenschaft angesehen wird, seit jeher umstritten: Der Begriff „Wissenschaft“ hat keine einheitliche Bedeutung und ist Gegenstand vielfältiger Kontroversen.
Um nicht von vorneherein zentrale Aspekte eines wissenschaftlichen Wandels auszuschließen, entwirft dieses Kapitel ein plurales Verständnis von Wissenschaft.
3 Ein solch plurales Referenzsystem, das sich pragmatisch auf Ziele und mit diesen zusammenhängenden Erfolgs- und Leistungsmerkmalen bezieht, wird durch Äußerungen von Wissenschaftlern und von Wissenschaftsphilosophen gestützt. Peter Janich (
1997, S. 62) spricht von einem „eindrucksvollen technischen, prognostischen und Erklärungs-Erfolg“ der Wissenschaft. Janichs Dreier-Typologie lässt sich in
einem Punkt weiter entwickeln, nämlich um den
Prüf- und Testerfolg von Aussagen, Theorien oder Modellen an empirischen Daten oder Experimenten. Die anderen drei Erfolgskriterien können im Folgenden übernommen werden: Janichs
Erklärungserfolg nimmt deduktiv-gesetzeshafte und mechanistische Erklärungen in den Blick, d. h. die Zurückführung von neuen Phänomenen auf allgemeine Theorien oder die Angabe Phänomen-erzeugender Ursachen. Ferner umfasst der
technische Erfolg von Wissenschaft menschliche Interventionen in Gegebenes und die handelnde Herstellung reproduzierbarer Ereignisse. Hier geht es um die Handlungsseite von Wissenschaft. Prototyp ist das Experiment, doch dieses Erfolgskriterium zeigt sich allgemeiner in technischen Systemen, Produkten und Prozessen. Der
prognostische Erfolg weist wiederum auf die mathematische Möglichkeit der Vorwegnahme von Zukunft hin; ihm ist eine Zeitstruktur eingraviert.
Im Rahmen der vier Erfolgs- und Leistungsmerkmale, in denen sich verschiedene Ziele von Wissenschaft widerspiegeln, können vier (nicht disjunkte) Wissenschaftsverständnisse identifiziert werden (Abschn.
4.2). Die zu entfaltende These ist, dass sich einige Aspekte dieser vier Wissenschaftsverständnisse durch KI- und Machine Learning-Verfahren wandeln, andere nicht. Für die Beantwortung der Frage eines Wandels ist also das jeweils investierte Wissenschaftsverständnis von zentraler Bedeutung (Abschn.
4.3). Um weitergehend den Erfolg der neuen informatischen Verfahren einschätzen zu können, sind ferner jene Objektsysteme in den Blick zu nehmen, an denen diese ihre Leistungsfähigkeit zeigen: komplexe, nichtlineare, mitunter instabile und oftmals selbstorganistionsfähige Objektsysteme in Natur, Technik, Wirtschaft und Gesellschaft, zu denen herkömmliche Wissenschaft aus prinzipiellen Gründen kaum einen methodischen Zugang fand. Die Pointe der KI- und Machine-Learning-Verfahren ist, wie gezeigt wird, dass sie die für diese Objektsysteme charakteristische (verborgene) schwache Kausalität oder Regelhaftigkeit für praktische Zwecke nutzbar machen können, ohne diese erkennen (und in Gesetzesform offenlegen) zu müssen. So wird deutlich: Nicht Korrelation, sondern schwache Kausalität ist der eigentliche Angriffspunkt der KI- und Machine-Learning-Verfahren (Abschn.
4.4).
Allerdings hat die erfolgreiche methodische und objektseitige Erweiterung der Wissenschaft ihren Preis. Nicht nur die neu bzw. vertieft zugänglichen Objektsysteme sind komplex und nichtlinear, sondern auch die neuen informatischen Verfahren sind es. Sie sind, wie dargelegt wird, in ihrer Struktur und Dynamik eine Black Box – weithin eigendynamisch, unübersichtlich, intransparent, opak, schwer interpretierbar. Damit sind epistemische Risiken der Qualitätssicherung und des intersubjektiven Geltungsausweises der Resultate verbunden (Abschn.
4.5). Wenn KI- und Machine-Learning-Verfahren nun weithin opak bleiben und wenn sie selbst eine so große Komplexität, Nichtlinearität, Instabilität und Selbstorganisationsfähigkeit aufweisen, dann ist zu fragen, ob das eigentlich noch die Art von Technik (und von technischen Instrumenten, Werkzeugen, Verfahren und Mittel) ist, die wir lebensweltlich kennen und die wir bisher eingesetzt haben. Es wird gezeigt, dass ein qualitativ anderer Techniktyp, eine
nachmoderne Technik, im Entstehen ist. Dieser kann (i. w. S.) Autonomie und Entscheidungsfähigkeit, Produktivität und Adaptivität zugeschrieben werden. Dabei sind im Kern der nachmodernen Technik KI- und Machine-Learning-Verfahren am Werke (Abschn.
4.6). Schließlich wird eine Einordnung der informatischen Verfahren in allgemeine Technologietrends vorgenommen, wobei diese Verfahren in unterschiedlicher Hinsicht als paradigmatisch angesehen werden können (Abschn.
4.7). Das soll anhand von drei prominenten Sondierungsbegriffen dargelegt werden, nämlich: Ermöglichungstechnologie, Konvergenztechnologie sowie Technowissenschaft.
Zusammengenommen wird dafür argumentiert, dass sich das Regime der modernen Wissenschaft, in dem alle vier Wissenschaftsverständnisse balanciert koexistieren, durch ein nachmodernes Regime erweitert und ergänzt wird. Im nachmodernen Regime treten die vier Wissenschaftsverständnisse in eine veränderte, nicht-balancierte Relation. Es werden andere Ziele verfolgt: Statt der (zumindest partiellen) Erkenntnis-, Theorie- und Erklärungsorientierung tritt eine (starke und explizite) Orientierung auf (technischen und gesellschaftlichen) Nutzen und Anwendbarkeit. In welchem Verhältnis zukünftig diese beiden komplementären epistemischen Regime stehen werden, ist bis dato nicht entschieden. Zu vermuten ist, dass eine weitere Verschiebung in Richtung des nachmodernen Regimes vonstattengeht. Die damit verbundene mögliche Verdrängung des modernen Regimes gilt es, kritisch in den Blick zu nehmen.
4.3 KI und Machine Learning als Katalysator eines Wandels der vier Wissenschaftsverständnisse?
4.3.1 Prognostizieren ohne Wissen: KI stärkt das prognoseorientierte Wissenschaftsverständnis – ohne Gegenstandswissen
Im Folgenden soll das erste (oben in Abschn.
4.2 genannte) Wissenschaftsverständnis in den Blick genommen werden, nämlich dasjenige, das das Leistungsmerkmal der Prognose in den Mittelpunkt stellt. Dies passt vortrefflich zu KI- und Machine Learning-Verfahren, insofern der Rekurs auf die Prognoseleistung eine typische Kennzeichnung der neuen informatischen Verfahren darstellt.
16
Die Prognoseorientierung ist terminologisch insbesondere in
Predictive Analytics und der Entwicklung von algorithmischen (statistischen) Prognosemodellen verankert. Predictive Analytics verwendet Machine Learning-Verfahren, zumeist die des überwachten, teilweise auch des unüberwachten oder des Reinforcement-Lernens, zur Erstellung von algorithmischen Prognosemodellen. Informatischer Kern dieser Verfahren bilden, je nach Aufgabenstellung: Künstliche Neuronale Netze, Genetische Algorithmen, Support Vector Machines, Random Forest, Regressions-, Nächste-Nachbarn-, Gradienten- und Clusteranalyse-Verfahren, allgemein auch Verfahren des Data Mining und der nichtlinearen Zeitreihenanalyse. Eingangsdaten sind die Ereignisse der Vergangenheit sowie jeweils spezifische Rand- und Anfangsbedingungen.
17 Hieraus werden Muster, d. h. Regelmäßigkeiten, extrahiert und durch Kenngrößen beschrieben, welche sich auf interessierende Eigenschaften und Ordnungsstrukturen des Objektsystems beziehen.
So werden Wahrscheinlichkeiten des Eintretens eines bestimmten Ereignisses oder eines Ensembles von Ereignissen prognostiziert, d. h. ein Muster, eine Struktur bzw. Signatur. Musterprognosen sind nicht auf bildlich-grafische Prognosen beschränkt, sondern sie sind umfassender: Muster von Daten- oder Zeitreihen, also Ordnungsstrukturen, wobei diese Prognosen auf Mustererkennung und auf Klassifikationen von Regelmäßigkeiten aufbauen, die entweder vorgeben oder während des Lernverfahrens selbst gebildet werden. Dabei handelt es sich um statistische bzw. probabilistische Prognosen, die auf Basis einer Datenanalyse vorgenommen werden, die sich Korrelation zunutze machen. Es sind also keine deterministischen oder modellbasiert-stochastischen Prognosen, die theoretischer Fundamente und Kenntnisse über zugrundliegende Gesetze bedürften.
In der öffentlichen sowie der sozialwissenschaftlichen Diskussion wird zumeist allein auf Korrelationen geschaut. Das ist zwar nicht falsch, aber einseitig. Es wird übersehen, dass um valide Aussagen über Zukünftiges treffen zu können, Korrelationen nicht hinreichend sind. Zufällige Korrelationen, wie etwa die Korrelation der Storchenpopulation und der Geburtenrate von Kindern in den 50er-Jahren in Deutschland, helfen zu prognostischen Zwecken nicht. Vielmehr müssen im Hinter- und Untergrund deterministische oder zumindest probabilistische Kausalgesetze vorliegen; es muss eine gewisse Kausalität gegeben sein. Die Pointe der KI- und Machine-Learning-basierten Prognoseverfahren ist, dass sie wetten, dass Kausalität – wenn auch in einem schwachen Sinne – vorliegt und dass man diese kausalen Regelmäßigkeiten nutzen kann, ohne sie explizit kennen zu müssen.
18
Derartige datengetriebenen theoriefreien Prognosen
19 stehen im Fokus des programmatischen Zugangs des Informatikers Leo Breiman, der eine Differenzierung von zwei Zugängen in Informatik und Statistik vorgeschlagen hat, die er als „two cultures in the use of statistical modeling to reach conclusions from data“ bezeichnet (Breiman
2001, S. 199). Der traditionellen „
data modeling culture“ stehe die „
algorithmic modeling culture“ gegenüber, wie sie für Machine Learning-Verfahren charakteristisch ist. Mit der traditionellen Wissenschaftskultur der „Datenmodellierung“ ist bei Breiman gemeint, dass Statistiker üblicherweise voraussetzen, dass der Typ von Daten, den sie vorfinden, von einer Art „deterministic or stochastic data model“ sei. Damit unterstellen sie, dass die Daten durch Prozesse erzeugt wurden, die im Prinzip aus linearen oder logistischen Funktionen aufgebaut sind, wenn auch aus infiniten. Sie schlussfolgern, dass die Daten durch
ein entsprechendes, klug gewähltes mathematisches Modell nachgebildet werden können. Dieses gefittete Modell verwenden sie für Anwendungszwecke – doch dessen prognostische Leistungsfähigkeit ist vielfach gering, auch wenn das Modell Kriterien wie die der Repräsentation, d. h. der Nachbildung der Daten der Vergangenheit exzellent erfülle.
20
Breiman argumentiert für einen anderen Weg. Denn nicht Repräsentation, sondern Prognostizierbarkeit stellt für ihn das zentrale Leistungsmerkmal von Wissenschaft dar: Es gelte, „Daten zu nutzen, um zu prognostizieren“ (Breiman
2001, S. 214). Doch die traditionelle Wissenschaftskultur der repräsentierenden „Datenmodellierung“ habe dieses Ziel nicht hinreichend im Blick. Ein zu dieser Kultur komplementärer Zugang ist die „algorithmische Modellierungskultur“, die Breiman favorisiert. Sie basiert auf „Machine Learning“, so sagt Breiman (
2001, S. 200) explizit.
21 Sie mache keine einschränkende Voraussetzung und behandele den Prozess der Datenerzeugung als unbekannt oder als Black Box. Sie ziele nicht auf repräsentierende Nachbildung der Daten im Modell oder in einer Theorie, sondern auf Prognosen, wofür ein Algorithmus trainiert wird. Anders als das Daten-Modell, was gefittet wird, stellt ein Algorithmus einen rückgekoppelt-iterativen Prozess dar, um gegebene Daten iterativ darzustellen und diesen für Prognosen zu trainieren. Dieser Zugang ist, was die Repräsentation des Gegenstandsfelds oder, allgemeiner, der Objektseite angeht, als theoriefrei zu bezeichnen – und damit voraussetzungsarm. Vor dem Hintergrund von Breimans Gegenüberstellung identifiziert Wolfgang Pietsch (
2013) einen „Paradigmenwechsel in der Statistik“ (vgl. Pietsch
2021). Ähnliches hat Thomas Lengauer (
2019) herausgestellt, wobei er sich spezieller auf das Machine Learning-Verfahren der Support-Vector-Machine bezieht. Mit Breiman, Pietsch und Lengauer kann man sagen, dass sich nicht nur die Rechner-, Sensor-, Speicher- und Netztechnologie in den letzten Dekaden verbessert hat, sondern es finden sich Veränderungen im mathematischen Kern der (theoretischen) Informatik und der verwendeten Statistik – sowie der damit verbundenen Wissenschaftskultur.
So ermöglichen KI- und Machine Learning-Verfahren probabilistische Prognosen, ohne dass Theorien vorliegen und Modelle gefittet werden, die das Objektsystem repräsentierend beschreiben. Wenn Auguste Comte im 19. Jahrhundert forderte: Wissen, um vorauszusehen, so kann man heute sagen, es scheint gar nicht mehr notwendig zu sein, Wissen zu erwerben. Prognosen sind auch ohne Gegenstandswissen (theoriefrei) möglich, Daten sind hinreichend. Natürlich sind dafür andere Wissenstypen entscheidend, nämlich mathematisch-statistisches Wissen, Wissen über Datenanalyse, Algorithmen und Numerik sowie über rechnertechnische Implementierungen. Traditionell hatte Wissenschaft ihre prognostische Kraft aus geprüftem und bewährtem (theoriebasiertem) Gegenstandswissen gewonnen, wie vorne beschrieben. Wenn sich das Gegenstandswissen gar in deterministischen Gesetzen als Kern von kausalen Theorien ausdrücken ließ, dann konnten deterministische Prognosen vorgenommen werden. Diese galten, und gelten bis heute, als besonders präzise. Ein Höhepunkt dieser Sichtweise war der bereits erwähnte Laplace’sche Dämon: Wenn wir die Gesetze sowie die Anfangs- und Randbedingungen über ein uns interessierendes Gegenstandsfeld kennen würden, dann könnten wir die Zukunft dieses Gegenstandsfelds eineindeutig vorausberechnen; in abgeschwächter Form kann dies auch für probabilistische Prognosen gesagt werden.
22
Trotzdem ist zu vermuten, dass auch zukünftig Theorien und mathematische Gesetzmäßigkeiten der „Goldstandard“ für die gute Prognoseleistung von Wissenschaft bleiben werden. Allerdings finden sich angesichts von Machine Learning-Verfahren Möglichkeiten, einen „Silberstandard“ weitreichend zu entwickeln und zu nutzen, um auch jenseits von Theorien und der Kenntnis von Gesetzen prognostische Kraft entfalten zu können, etwa wenn es um komplexe Objektsysteme geht.
23 Ob dieser neue Silberstandard bisherige Wissenschaft ergänzt oder, weitergehend, ersetzt, ist noch nicht entschieden. Zusammengenommen kann man sagen, dass ein Wissenschaftsverständnis, das das Leistungsmerkmal der Prognostizierbarkeit in den Mittelpunkt stellt, durch die aktuelle informatische Entwicklung eine Stärkung erfährt. Geht man weitergehend davon aus, dass Handlungen und Planungen auf Prognoseoptionen zur Antizipation von Zukunft basieren, dann werden gleichzeitig die Handlungsmöglichkeiten vergrößert.
24
4.3.2 Handlungsermöglichung ohne Experiment: KI folgt keinem experimentbasiertem Wissenschaftsverständnis – verstärkt dennoch Handlungsoptionen
Seit Beginn der modernen Wissenschaft und Francis Bacons Programmatik steht das systematisch durchgeführte Experiment im Zentrum wissenschaftlicher Wissensproduktion. Es dient der Erzeugung von neuen, mitunter unerwarteten Phänomenen sowie der kritisch-deduktiven Überprüfung von Aussagen oder Theorien. Kurzum, Erkenntnishandeln ohne Experimentierhandeln ist nicht möglich. Diese These über den engen Zusammenhang von Erkenntnisgewinn und Experimentieren bleibt auch angesichts der Verbreitung von KI- und Machine Learning-Verfahren prinzipiell bestehen.
Doch was ist, so mag man fragen, wenn Erkenntnisgewinn gar nicht mehr primäre Rahmenorientierung oder vorrangiges Ziel eines Forschungsfeldes oder einer Wissenschaftsdisziplin ist? – Dann, so kann gesagt werden, entfällt im Prinzip die Notwendigkeit des Experimentierens. Für Teile der aktuellen und zukünftigen Wissenschaften, gerade für anwendungsorientierte Disziplinen wie Technik- und Ingenieurwissenschaften oder einige Lebenswissenschaften und die Medizin, reduziert sich durch KI- und Machine-Learning-Verfahren der Bedarf, Experimente durchzuführen. Diese Wissenschaftsdisziplinen zielen in erster Linie darauf ab, Klassifikationen vorzunehmen und Prognosekraft zur Verfügung zu stellen, um durch Diagnose von Gegenwärtigem und durch Antizipation von Zukünftigem bessere Planungen, Entscheidungen und Handlungen zu ermöglichen. Beobachten – und die auf Beobachtung basierende Messung – ist oftmals hinreichend; hier setzen KI- und Machine Learning-Verfahren an.
Experimente gelten demgegenüber als aufwendig, als ressourcen-, zeit- und kostenintensiv – oder, je nach Forschungskontext, als schwer realisierbar oder als unmöglich. Unmöglich sind Experimente gelegentlich in der Humanmedizin, etwa aus ethischen Gründen. Schwer realisierbar sind sie bei bestimmten Objektsystemen, insofern eine Kontrolle von Anfangs- und Randbedingungen, insbesondere eine Isolierung des Experimentalsystems von der Umwelt nicht möglich ist. Das kann an der schieren Größe liegen, wie in der Astrophysik oder der Kosmologie, man denke an den Kosmos. Aber es kann auch von den spezifischen Eigenschaften des Objektsystems herrühren, die mit der Schnittstellen-Problematik in Verbindung stehen: Bei dieser weiß man nicht, was zum System und was zu seiner Umwelt gehört. Damit ist unklar, was Störungen einerseits und was Systemdynamiken andererseits sind.
25 Zu diesen Objektsystemen gehören Klima- und Wettersysteme,
26 aber auch Ökosysteme sowie biologische und medizinische Systeme. Dazu gesellen sich komplexe technische Systeme, von komplexen Produktionsprozessen über Kraftwerke bis hin zu konkreten Bauteilen (wie z. B. Flugzeugflügel). Berücksichtigt man zudem gesellschaftliche und ökonomische Verwendungskontexte, wird ein systematisches Experimentieren weiter erschwert. Alle soeben genannten Systeme sind gekennzeichnet durch Komplexität, Nichtlinearität und mitunter Instabilität/Sensitivität.
27 Mit ihnen ist ein Experimentierhandeln erschwert und eine Reproduktion der Ereignisse ist oft unmöglich. Ann diesen Systemen wird aufgrund dieser multiplen Problematik primär gemessen und beobachtet.
Damit ist nicht das Ende des Experiments in den Wissenschaften gemeint. Denn überall dort, wo Experimente möglich und hilfreich sind, werden weiter welche durchgeführt. Hilfreich ist eine auf Experimenten basierende systematische Datenerzeugung etwa auch dort, wo diese als Rohdaten Eingang finden in KI- und Machine Learning-Verfahren, beispielweise für Trainings im Rahmen des überwachten Lernens oder in Simulationen. Daten, die aus einem Experiment stammen, sind gut kontrollierbar, ihre Qualität ist zumeist besser einschätzbar und sie eignen sich als Input für diese Verfahren besser als nicht-experimentelle, d. h. reine Beobachtungs-Datenreihen. – Neben diesem Experimentieren zur Datengenerierung gibt es eine zweite, komplementäre Verbindungsrichtung zwischen Experimenten und den neuen informatischen Verfahren: Letztere dienen oftmals ihrerseits als Grundlage für neue Experimente. Teilchenphysiker trennen durch Machine Learning-Verfahren Signal- und Rauschanteil in Datenreihen und erhalten Hinweise auf besondere Ereignisse („bursts“). Diese Hinweise können zu Hypothesen verdichtet werden, was eine Grundlage für neue Experimente auf der Suche nach einer Physik jenseits des Standardmodells darstellt.
28 Gleiches gilt für KI-basierte Analysen von Gensequenzen, die dann Detailuntersuchungen und molekularbiologische Experimente nahe legen können, etwa im Rahmen von CRISPR/Cas-Methoden. Somit wird die Interventionsleistung durch datengetriebene Verfahren erhöht, ein Ziel, das auch Bacon verfolgte.
So kann man sagen: Bezügliches des Bacon’schen Programms findet sich angesichts aktueller KI- und Machine Learning-Verfahren sowohl ein Wandel als auch eine Kontinuität: Einerseits ein Wandel, insofern das Experiment in datengetriebener Forschung nicht mehr als zentrales Mittel der Forschung gilt; andererseits eine Kontinuität, ja vielleicht Verstärkung, insofern durch KI- und Machine Learning-Verfahren Wissenschaft die Interventionskräfte, Experimentieroptionen und Handlungsmöglichkeiten des Forschers vergrößern, und Wissenschaft verstärkt einer Nutzens- und Verwertungsorientierung folgen kann. Damit wird das Bacon’sche Programm sowohl beendet – hinsichtlich des Experimentfokus als das methodische Zentrum – als auch bestärkt – bezüglich der Handlungsermöglichung und der Nutzenorientierung.
Neben die Beendigung und die Bestärkung des Bacon’schen Programms findet sich ein dritter Aspekt, die Ersetzung. Man kann fragen, was an die Stelle des Experimentierhandelns tritt. In gewissem Rahmen sind dies Computerexperimente. Doch man kann noch einen anderen Aspekt hervorheben. Was bei Bacon kaum eine Rolle spielte und auch in aktuellen wissenschaftsphilosophischen Zugängen zu Wissenschaft eher randständig ist, wird von KI- und Machine-Learning-Verfahren hervorgehoben: Wahrnehmungs- und Beobachtungsprozesse. Konstitutiv für Wissenschaft allgemein ist nicht allein das Experimentieren, sondern auch Wahrnehmen und Beobachten, d. h. nicht allein Intervention, sondern auch Kontemplation. Dabei meint Wahrnehmen stets ein unterscheiden: Etwas wird als etwas Spezifisches wahrgenommen, ansonsten bliebe es eine amorphe Masse oder eine beliebige („verrauschte“) Datenreihe. Mit anderen Worten: Muster, Ordnungsstrukturen und Regelmäßigkeiten werden identifiziert und klassifiziert, um ein Phänomen als solches wahrzunehmen. In einem Pixelbild wird ein Muster identifiziert, welches die Struktur einer Katze oder eines Karzinoms hat.
So liegt in datengetriebenen Verfahren eine gewisse phänomenologische Grundorientierung vor, was bemerkenswert ist. Denn die meisten Verständnisweisen von moderner Wissenschaft reflektieren Wahrnehmen und Beobachten nicht eigens: Moderne Erkenntnistheorien umfassen nur äußerst selten Wahrnehmungstheorien.
29 Dabei hatte Kant Wahrnehmungsprozesse im Blick, als er den Begriff der „Einbildungskraft“ entwickelte, nämlich jene „blinde, obgleich unentbehrliche Funktion der Seele“, die konstitutiv ist für Erkenntnis (Kant
1989 A 78/B 103). Zwar sind KI- und Machine-Learning-Verfahren nicht als eine „Funktion der Seele“ anzusehen; doch mit ihrer „Pattern Recognition“ knüpfen sie an jene erkenntnistheoretischen Traditionen an, die heutzutage randständig geworden sind. Sie erweitern das Wissenschaftsverständnis, indem sie Muster-Wahrnehmungen in den methodischen Mittelpunkt stellen.
4.3.3 Prüfen auf komplementären Wegen: KI relativiert das Ideal des testbasierten Wissenschaftsverständnisses – ermöglicht aber neue phänomenologische Prüfformen
Wissenschaft stellt intersubjektive Nachvollziehbarkeit ihrer Aussagen her durch personen-, zeit- und ortsinvariantes Prüfen von Theorien, Modellen oder Gesetzen an empirischen Daten. Unabhängig davon, ob man annimmt, dass diese Prüfung falsifizierend/verwerfend oder verifizierend/bewährend zu verstehen ist, entscheidend ist, dass theoriebezogene Modelle und empirische Daten zusammengeführt werden, um kriteriengeleitet zu begründeten und nachvollziehbaren Urteilen über Annahme oder Verwerfen von Aussagen zu gelangen.
Nun liegt, wie ausgeführt, das Ziel datengetriebener Forschung nicht in Entwicklung und Prüfung von Theorien oder Modellen. Diese können zwar Mittel zum Ziel von Prognosen als Grundlage von Handlungen, mithin von Interventionen, sein. Aber wenn dieses Ziel auch aufwands-, zeit- und ressourcenarm, d. h. theoriefrei möglich ist, wird man in den angewandten Wissenschaften und in der nutzenbezogenen Anwendungspraxis darauf verzichten. Angesichts der Entwicklungen von KI und Machine Learning hat Chris Anderson (
2008) vor über 10 Jahren ein „Ende der Theorie“ diagnostiziert und gegenüber der bisherigen Wissenschaft behauptet: „There is now a better way. […] We can stop looking for models [, theories, interpretable laws or hypothesis]. We can analyze the data without hypotheses about what it might show. We can […] let statistical algorithms find patterns where science cannot.“ Nach Anderson sind Hypothesen und, weitgehend, Theorien und Modelle in zukünftiger Wissenschaft schlicht überflüssig. Damit ist ein Prüfen derselben nicht mehr möglich – denn man hat nichts, was überprüft werden könnte. Insofern sich Wissenschaft in ihrem Selbstverständnis stets als Theorie-prüfend verstand und sich hieran sowohl falsifikationistische wie auch verifikationistische Wissenschaftskonzepte angeschlossen haben, muss man sagen, dass in datengetriebener Forschung auch Falsifikationismus und Verifikationismus verschwinden.
Allerdings gilt diese Diagnose nur hinsichtlich stark anwendungsorientierter Wissenschaftsdisziplinen. In anderen Wissenschaftsdisziplinen bleibt das Prüfen, basierend auf einer Theorie- und Erkenntnisorientierung, bestehen – auch wenn diese Disziplinen mitunter die neuen informatischen Verfahren als Mittel, Methoden und Instrumente verwenden: KI- und Machine Learning-Verfahren spielen in der Genese von Erkenntnis eine unterstützende, funktionale Rolle, etwa wenn man es mit komplexen Objektsystemen zu tun hat; sie ersetzen allerdings Theorien und theoriebezogene Rechtfertigung und Geltungsausweis wissenschaftlicher Aussagen nicht.
30 Das gilt etwa für prominente Forschungsfelder wie die Hochenergie- und Teilchenphysik und die Kosmologie sowie die Klimaforschung. KI- und Machine Learning-Verfahren tragen dazu bei, (1) Regelmäßigkeiten, d. h. Muster, Strukturen und Objekte aus gemessenen oder Simulations-basierten Datenreihen zu identifizieren und zu (re-)konstruieren sowie, hierauf aufbauend, (2) Modelle, Aussagen, Hypothesen zu entwickeln und auch numerische Simulationen durch Aufbereitung von Daten zu ermöglichen.
So hat die Verwendung von KI- und Machine-Learning-Verfahren in der Astrophysik dazu geführt, Existenz sowie Eigenschaften von 50 neuen Exoplaneten durch Analyse von älteren Datenreihen festzustellen. In diesen Daten wurden Regelmäßigkeiten gefunden, nachdem durch KI-Verfahren eine Signal-Rauschen-Diskriminierung vorgenommen wurde, also gehaltvolle Informationen einerseits und Hintergrundrauschen andererseits getrennt werden konnten. Ein solcher Existenzhinweis von bisher nicht wahrgenommenen Objekten wird in der Astrophysik und Kosmologie als „Validierung“ bezeichnet (ad 1). In der Klimaforschung tragen KI- und Machine-Learning-Verfahren dazu bei, die Anzahl der Zustandsgrößen, d. h. der Zustandsraumdimensionen aus Zeitreihen zu bestimmen, um auf dieser Basis Zustandsraummodelle zu entwickeln, die lokale, raumzeitliche Simulation von Klima- oder Wettermodellen ermöglichen (ad 2).
31
Ferner findet sich auf Basis von KI- und Machine-Learning-Verfahren (3) gar eine ergänzende, alternative Form des Prüfens, die in der modernen Wissenschaft eher randständig war. Es handelt sich um eine Prüfform von Modellen oder Theorien durch phänomenologischen Mustervergleich, d. h. durch Kenngrößenvergleich mit empirischen Messdaten. Eine solche Prüfform wird bei komplexen, nichtlinearen, mitunter instabilen Objektsystemen notwendig. Denn traditionelle Prüfformen, welche auf klassischer Fehlerabschätzung und ihrer mathematisch-statistischen Konvergenztheoreme aufbauen, greifen nicht. Einerseits muss das zu prüfende Modell überhaupt erst durch numerische Verfahren, etwa durch Simulationen, zugänglich gemacht werden, um seine raumzeitlichen Phänomene zu zeigen; denn die mathematischen Gesetzmäßigkeiten des Modells sagen als solche noch gar nichts. Die durch Simulation offengelegten raumzeitlichen Phänomene bilden dann die Grundlage, um Klassifikationen vorzunehmen und Muster zu identifizieren, genauer gesagt: um Kenngrößen zu bilden.
Andererseits werden analog auf Seiten des Objektsystems Messdaten herangezogen und auf dieser Basis ebenfalls Muster identifiziert und Kenngrößen entwickelt.
32 Mit anderen Worten: Durch KI- und Machine Learning-Verfahren können sowohl aus dem modellbasierten Simulationssystem wie aus dem realen Objektsystem Muster und Ordnungsstrukturen extrahiert werden, die durch Kenngrößen darstellbar werden. Diese Kenngrößen dienen der Vergleichsoption von Modell- und Objekt-Verhalten – und damit der Prüfung. Man spricht hier von einer phänomenologischen Muster- oder Kenngrößen-Prüfung.
33
Zusammengenommen fällt die Einschätzung hinsichtlich der Veränderung des prüfbasierten Wissenschaftsverständnisses zweigeteilt aus. Einerseits ist das zentrale Ziel datengetriebener Forschung gerade nicht die Entwicklung und anschließende Prüfung von Theorien, Modellen oder Gesetzen – die Notwendigkeit des Prüfens entfällt. Andererseits spielen KI- und Machine Learning-Verfahren als neue Instrumente und erweiterte Mittel zur Prüfung eine zunehmend bedeutendere Rolle im Feld komplexer, dynamischer, nichtlinearer Objektsysteme – von der Physik und Klimawissenschaft über die Lebenswissenschaften, Biologie und Medizin bis hin zu den Technik- und Ingenieurwissenschaften. Diese neueren Prüfinstrumente stellen Muster, Ordnungsstrukturen und spezifische (Komplexitäts-)Kenngrößen in den Mittelpunkt: Sie sind damit i. w. S. phänomenologisch ausgerichtet.
4.3.4 Kausalität ohne Theorie: KI folgt keinem erklärungsbezogenem Wissenschaftsverständnis – verbleibt dennoch im Horizont von Kausalität
Traditionell zielt Wissenschaft darauf ab, Phänomene durch Angabe von fundamentalen Theorien, Modellen oder Gesetzen zu erklären. Damit weist Wissenschaft, was Erklärungen angeht, eine deduktive Ableitungsstruktur auf. Gesetze werden als deterministische oder probabilistische (Kausal-)Gesetze verstanden.
Nun ist es nicht vorrangiges Ziel angewandter Forschung, etwa der Technikwissenschaften oder der Medizin, Erklärungen zu liefern, sondern Handlungen zu ermöglichen, wobei Erklärungen ein Mittel hierfür sein können. KI- und Machine Learning-Verfahren weisen damit eine zu den Zielen angewandter Wissenschaften strukturelle Verwandtschaft auf, wie ausgeführt. Vordergründig scheinen hierfür Korrelationen hinreichend zu sein, während Kausalität nicht als notwendig erachtet wird, wie Chris Anderson (
2008) unter dem Titel „The End of Theory: The Data Deluge Makes the Scientific Method Obsolete“ behauptet: „Correlation is enough. […] Correlation supersedes causation, and science can advance even without coherent models, unified theories, or really any mechanistic explanation at all.“ Einige gehen weiter, wie David Chandler (
2015, S. 837 f.), und sehen in kritischer Absicht eine „Welt ohne Kausalität“ heraufziehen, d. h. eine Wissenschaft und Gesellschaft, in der aufgrund des allgemeinen Datenfokus’ („Datafication“) niemand Interesse an der Entdeckung kausaler Zusammenhänge und der Entwicklung kausaler Erklärungen hat: „The promise is that, with high levels of data generation and developments in computational analysis, the world (coded through datafication) can begin to speak for itself without its (more than) fallible human interpreter.“
Doch mit dieser pointierten Zuspitzung von Chandler, Andersen und anderen ist Vorsicht geboten.
34 Zwar bleibt richtig, dass Erklärungen nicht im Zentrum stehen. Allerdings kann damit nicht gemeint sein, dass Kausalität keine Rolle mehr spielt, im Gegenteil. Man kann sogar sagen, dass KI- und Machine Learning-Verfahren darauf abzielen, deterministische oder probabilistische Kausalgesetze nutzbar zu machen, allerdings ohne diese offenlegen und mathematisch beschreiben zu müssen oder zu können. Die Wissenschaftsphilosophin Nancy Cartwright (
1983, S. 22) stellt (in anderem Zusammenhang) heraus: „[C]ausal laws cannot be done away with, for they are needed to ground the distinction between effective strategies and ineffective ones.“ Diese Position entspricht einem handlungstheoretischen oder interventionalistischen Kausalitätskonzept. Demnach können wir uns der Kausalität „genauso sicher sein wie unseren Fähigkeiten, etwas zu tun.“ Mit anderen Worten: „p ist eine Ursache von q bedeutet, dass ich q herbeiführen könnte, wenn ich p tun könnte.“ (Wright
1991, S. 76/75) Für das Herbeiführen oder Erzeugen eines Phänomens sind Korrelationen allein nicht genug; sie sind zu schwach, um Handlungen zu ermöglichen und Interventionen erfolgreich durchführen zu können. Denn Korrelationen können zufällig sein, wie die Storchenpopulation und die Geburtenrate von Kindern in einigen Regionen in den 1950er-Jahren zeigt oder wie der Konsum von Schokolade und die Anzahl der Nobelpreisträger in einem Land. Vergrößert oder verringert man die Population der Störche, hat dies keine Wirkung auf die Geburtenrate von Kindern; gleiches hinsichtlich des Schokoladenkonsums und den Nobelpreisträgern.
35
Machine Learning-Verfahren zielen demgegenüber – insofern sie auf effektive Handlungsstrategien aus sind – darauf ab, jene Korrelationen zu erfassen, die nicht zufällig sind, sondern wo zumindest eine schwache Form der Gesetzmäßigkeit, also der Kausalität, zugrunde liegt. Auch wenn es im strengen Sinne für Kausalitätsdiagnosen keine logisch zwingenden Argumente geben kann,
36 tragen KI- und Machine Learning-Verfahren dazu bei, Wahrscheinlichkeitsaussagen auf dem Kontinuum zwischen reinem Zufall einerseits und Kausalgesetz andererseits zu ermöglichen. Damit kann man sagen, Korrelation ist der umfassendere, Kausalität der speziellere Begriff: Aus Kausalität folgt Korrelation, die Umkehrung gilt nicht.
Insofern KI und Machine Learning, neben anderem, als Verfahren zur Erkennung von Regelmäßigkeiten, d. h. zur Muster-, Signatur- oder Ordnungserkennung in Daten und damit zur Identifikation schwach-kausaler Abhängigkeiten gelten können, können sie auch als Mittel angesehen werden, um Mechanismen zu erkennen und mechanistische Erklärungen vorzubereiten.
37 Dieser Erklärungstyp kennzeichnet ein Phänomen als erklärt, wenn man die erzeugenden Ursachen angeben kann, die das Phänomen hervorbringen (siehe Abschn.
4.2).
38 Natürlich ist eine kontroverse Detaildiskussion über notwendige und hinreichende Bedingungen, über Tun- oder Unterlassenshandlungen sowie über den Stellenwert von fundamentalen oder phänomenologischen Gesetzen als Bestandteil dieses Erklärungstyps innerhalb der Wissenschaftsphilosophie entfacht, was hier nicht weiter zu interessieren braucht. Ein Phänomen, etwa der trockene Husten oder das Fieber eines Menschen gilt in der Humanmedizin genau dann als erklärt, wenn man eine erzeugende (oder unterlassende) Ursache dafür angeben kann und dies über große Fallzahlen reproduzierbar ist, beispielsweise das Vorliegen des Virustyps SARS-CoV-2, welches durch einen positiven PCR-Test nachgewiesen wird. Gleiches gilt hinsichtlich der Nachweisproblematik der Wirkung eines potenziellen Impfstoffs. Auch wenn man die Details des komplexen kausalen Ursache-Wirkungs-Mechanismus (noch) nicht verstanden hat, so dass keine fundamentaleren, theoriefundierten Erklärungen möglich sind, geht die Medizin davon aus, dass (probabilistische oder deterministische) Kausal-Gesetze im Hintergrund wirken, auch wenn man derzeit weithin nur Korrelationen und Sukzessionen zwischen den beiden Ereignissen – Virustyps SARS-CoV-2 und trockener Husten – empirisch unter Verwendung von Machine-Learning-Verfahren findet. Trotz der kontroversen Diskussion, wie schwach oder stark diese mechanistischen Erklärungen sind, ist die Praxisrelevanz derartiger Mechanismen in den Technikwissenschaften sowie in der Medizin unbestritten.
Zusammengenommen gilt, weder die Identifikation von Regelmäßigkeiten, also die Musteridentifikation und -Klassifikationen noch die sich diese zunutze machenden Prognosen können als hinreichend für jene in den Wissenschaften wohletablierten, theoriebezogenen, starken Erklärungstypen angesehen werden. Sollten zukünftig KI- und Machine Learning-Verfahren erkenntnisorientierte Wissenschaften unterstützen und ergänzen, dann werden weiterhin starke Erklärungen geliefert werden, die das Weltverständnis vertiefen. Sollten sich allerdings die datengetriebenen Verfahren in den Vordergrund schieben, ist damit gleichermaßen das Interesse an starken Erklärungen reduziert.
4.4 Von den Verfahren und Methoden zu den Objekten: Schwache Regelhaftigkeit nutzen – komplexe Objektsysteme werden zugänglich
Um den weitreichenden Erfolg von KI- und Machine-Learning-Verfahren einordnen zu können, sollte man über obige vier methodologische Aspekte hinausgehen – und die Analyse vertiefen. Dazu sind jene Objektsysteme und Gegenstandsfelder in den Blick zu nehmen, an denen die neuen datengetriebenen Verfahren ihre Leistungsfähigkeit zeigen.
39 Zu fragen ist, ob diese Objektsysteme auf einer grundlegenden Ebene Gemeinsamkeiten aufweisen.
Ausgangspunkt ist die Beobachtung, dass durch KI- und Machine-Learning-Verfahren Wissenschaft einen verbesserten und vertieften Zugang zu jenen Objektsystemen in Natur, Technik, Wirtschaft und Gesellschaft erlangt, die bislang wissenschaftlich schwer zugänglich waren. Damit rücken auch solche Objektsysteme in den Fokus von Wissenschaft, an denen bislang eine Forschung nicht als vielversprechend angesehen wurde.
40
Ein beispielhaftes Objektsystem, um den Erfolg der neuen informatischen Verfahren zu beleuchten, ist das Klimasystem (Storch
2019; Karpatne et al.
2019). Zwar sind Atmosphärenphysik, Meteorologie, Geophysik und Physikalische Chemie der Atmosphäre wohletablierte Teildisziplinen der exakten Naturwissenschaften und damit grundlegend für die aktuelle Klimaforschung. Doch ohne neuere Entwicklungen in Informatik und Mathematik sowie in der informatischen Technik (Rechner-, Sensor-, Speicherungs- und Netztechnologie) hat die Klimaforschung nur einen beschränkten Zugang zum Klimasystem, auch wenn sie im Prinzip alle zugrunde liegenden Phänomene und allgemeinen Gesetzmäßigkeiten kennt.
41 Das Klimasystem ist aufgrund der hohen Komplexität, d. h.
-
der vielen Zustandsgrößen und der Hochdimensionalität des Zustandsraumes,
-
der Nichtlinearität, Instabilität und Sensitivität der grundlegenden Prozesse und der weitreichenden raumzeitlichen Kopplungen teils ausgedehnter Systemelemente (schwache Kausalität) (Lorenz
1963),
-
der hohen Dynamik und starken Selbstorganisations- (und Emergenz-)Fähigkeit,
-
der umfassenden raumzeitlichen Abhängigkeit der Phänomene und jeweiligen Skalierung(seigenschaft)en,
-
der reduzierten Isolierbarkeit des Systems von der Umwelt (Separabilitätsproblematik), verbunden mit der Nichtdefinierbarkeit der Systemgrenzen (Schnittstellenproblematik) und der somit im Detail epistemisch schwer beschreibbaren Offenheit des Systems (Energie, Stoff und/oder Information) von seinen Umwelten,
-
und folglich einer weitgehenden Nichtkontrollierbarkeit der Rand- (und Anfangs-)Bedingungen (Kontrollproblematik),
schwer zugänglich für moderne Naturwissenschaft. Dazu kommt, dass man mit dem Klimasystem nicht, wie in traditionellen Laborwissenschaften, experimentieren kann. Zusammengenommen limitieren Komplexität, Nichtlinearität und Sensitivität/Instabilität den üblichen methodologischen Zugriff, insbesondere hinsichtlich der Merkmale wie theoriebasierter Berechenbarkeit, experimenteller Reproduzierbarkeit, empirischer Testbarkeit und deduktiver Erklärbarkeit (Schmidt
2008). Spezieller finden sich auch Begrenzungen bezüglich Modellierung und Simulation sowie der Szenario- und Prognose-Entwicklung. Diese Erkenntnisse haben in den letzten Jahrzehnten dazu geführt, den systemischen Charakter des Klimasystems stärker zu berücksichtigen, so dass die aktuelle Klimaforschung eingebunden ist in die so genannte „Earth Systems Science“.
Mit diesen Charakteristika steht das Klimasystem nicht allein da, im Gegenteil. Dass große Klassen von Objektsystemen in Natur, Technik, Wirtschaft und Gesellschaft in ihrem Kern diese Charakteristik aufweisen, legen seit einige Dekaden Komplexitäts- und Selbstorganisationstheorien, im Verbund mit der Theorie nichtlinearer dynamischer Systeme, Synergetik, Theorien dissipativer Strukturbildung und des Hyperzyklus, Chaos-, Katastrophen- und Autopoiesis-Theorien, u. a. nahe (Jackson
1989; Haken
1980; Prigogine
1992; Mainzer
1996; Schmidt
2015). Diese Objektsysteme sind komplex und nichtlinear, oftmals sind sie zudem dynamisch und strukturell instabil bzw. sensitiv, wodurch auf unterschiedlichen Skalenebenen raumzeitlich verteilte Selbstorganisations- und dynamische Stabilisierungsprozesse ermöglicht werden. An instabilen Punkten oder Grenzflächen, den so genannten Tipping Points, können sich Systemdynamiken strukturell verändern. So kann der für den Wärmetransport wichtige Golfstrom abreißen, es können Brücken brechen und einstürzen, Staus vermeintlich aus dem Nichts entstehen, der Tod metabolischer Systeme eintreten, die Börse kollabieren, öffentliche Meinungen kippen, Bürgerprotestbewegungen entstehen, Produkte von Konsumenten plötzlich gemieden werden, etc. Domino-, Schneeball-, Schwarm- und Schmetterlingseffekte treten auf: Ein Flügelschlag eines Schmetterlings in Südamerika kann einen Tornado in Nordamerika erzeugen – ein Phänomen, das als sensitive Abhängigkeit bezeichnet wird: Kleine Ursache, große Wirkung, wobei ähnliche Ursachen ganz unterschiedliche Wirkungen nach sich ziehen können (Lorenz
1989). Diese Systeme sind durch eine schwache Form der Gesetzmäßigkeit oder Regelhaftigkeit bestimmt, die man treffend als
schwache Kausalität bezeichnet.
42
Derartige Charakteristika sind auch für metabolische Systeme der Lebenswissenschaften, der Biologie, Ökologie und Medizin generisch (Mainzer
1996,
2014). Diese Systeme sind komplex, dynamisch, nichtlinear, sie sind im Detail oftmals instabil und im Allgemeinen dadurch besonders dynamisch-adaptiv stabil, sie sind offen und selbstorganisationsfähig, ihnen kann „Autonomie“ zugeschrieben werden. Ihre Systemdynamiken werden von (probabilistischen oder deterministischen) schwachen Kausalgesetzen bestimmt – allerdings hat auch die beste Wissenschaft mit diesem Typ von Gesetzen prinzipielle Probleme, diese aufzufinden und zu rekonstruieren.
43 In vielen, vielfach auch anwendungsrelevanten Fällen weiß man wenig über Ursache-Wirkungs-Zusammenhänge, man hat es mit einer Black Box zu tun. Für die Medizin liegt hier eine Herausforderung, denn für Diagnose und Therapie vieler Krankheiten ist nichts so zentral wie ein kausales Wissen über Ursache-Wirkungs-Zusammenhänge. Die in der hohen Komplexität wurzelnde Herausforderung wird gerade in der aktuellen Covid-Pandemie deutlich – von der Analyse von Infektionsformen und Übertragungswegen, über die Einschätzung adäquater Schutzmaßnahmen und entsprechender Medikamente, bis hin zur Suche sowie zur Validierung und Zulassung von Impfstoffen. Und auch in den Technikwissenschaften gelten komplexe technische Anlagen, Produktionsanlagen und Produktionsprozesse (z. B. Automobilproduktion) als komplexe Systeme, in denen vielfach auch schwache Kausalität vorherrscht (Moon
1998). Gleiches findet sich in den Human-, Sozial- und Wirtschaftswissenschaften. Die Psychotherapieforschung, die von Wissenschaftsdisziplinen wie Psychologie und medizinischer Psychiatrie betrieben wird, kennt diese Systemcharakteristika; sie verwendet Charakteristika der Theorien nichtlinearer dynamischer Theorien, um den Therapieerfolg zu monitoren und therapeutische Interventionen zu verbessern (Haken und Schiepek
2006). In den Finanzwissenschaften gibt es neuere Zugänge zu fluktuierenden Finanzdaten, etwa zu Kursen von Aktien, Wertpapieren, Derivaten, Hedgefonds, um unter Verwendung von KI- und Machine-Learning-Verfahren den Prognosehorizont zu erweitern. Unter dem Sammelbegriff der „Econophysics“ hat sich in diesem Feld seit über 20 Jahren eine interdisziplinäre Forschungsrichtung von Mathematikern, Informatikern, Physikern, Wirtschafts- und Finanzwissenschaftlern etabliert, um diese komplexem Objektsysteme, die Instabilität/Sensitivität und damit schwache Kausalität aufweisen, zu prognostizieren und, wo möglich, verstehen zu können (McCauley
2004; Mantegna und Stanley (
2000).
44
Vor diesem Hintergrund können KI- und Machine Learning-Verfahren als Ansätze angesehen werden, methodologisch mit der Komplexitätsproblematik umzugehen und einen Zugang zu komplexen Objektsystemen zu erlangen (Pathak et al.
2018a,
b; Dubois et al.
2020; Fan et al.
2020). Wesentliches Ziel ist, Formen der Regelhaftigkeit, d. h. verborgene Muster oder Abhängigkeiten in diesen Objektsystemen zu finden, also schwache Kausalität zu diagnostizieren, um dies prognostisch nutzen zu können – auch wenn man die (deterministischen oder probabilistischen) Gesetze prinzipiell nicht explizit kennen kann. Und selbst wenn man die Gesetze kennen würde, könnte man aufgrund der Nichtlinearitäten und Instabilitäten keine weitereichenden (theorie- und gesetzesbasierte) Prognosen vornehmen. Das mag zunächst paradox erscheinen, doch ist es eine Einsicht der Theorien nichtlinearer dynamischer Systeme.
Ein solcher Zugang zu komplexen Objektsystemen, der heute durch KI- und Machine Learning-Verfahren beschritten wird, hat eine eigene Historie, die sich im Umfeld von Komplexitäts- und Selbstorganisationstheorien, d. h. der Theorien nichtlinearer dynamischer Systeme entwickelte hat. In den 1960er- und 1970er-Jahren versuchten Mathematiker und Physiker, versteckte Regelhaftigkeiten in mechanischen Glückspielen, wie Roulette, aus akustisch Sensordaten zu identifizieren und prognostisch zu nutzen (Crutchfield
1994). Um dies zu ermöglichen, wurden eigens neue Verfahren entwickelt, um die versteckte, schwache Kausalität offenzulegen (Takens
1985; Sauer et al.
1991; Theiler et al.
1992; Abarbanel
1996).
45 Mit anderen Worten: Einige Verfahren, die heute im Machine Learning etabliert sind, wie Falsche Nächste Nachbarn, Surrogate Datenanalyse inklusive Surrogate Gradient Learning und Gradientenverfahren, oder allgemein Bootstrapping oder Data Mining finden sich schon hier. Gleiches gilt für Modellierungs-, Analyse- und Trainungsverfahren im Umfeld Zellulärer Automaten mit entsprechender Rekursivität (Pathak et al.
2018b).
Zusammenfassend kann man sagen: Während herkömmliche (moderne) Wissenschaften bei komplexen, nichtlinearen, selbstorganistionsfähigen Objektsystemen epistemische Limitierungen aufweisen – nämlich: Grenzen der mathematischen Prognostizierbarkeit, der experimentellen (Re-)Produzierbarkeit, der empirischen Prüfbarkeit sowie der Erklärbarkeit (Mainzer
1996; Schmidt
2015) –, so ermöglichen KI- und Machine-Learning-Verfahren einen verbesserten und erweiterten Zugang zu diesen Systemen. Im Zentrum dieses Zugangs liegt ein neuer und kluger Umgang mit der für diese Systeme charakteristischen schwachen Regelhaftigkeit („schwache Kausalität“) und den instabil-sensitiven Systemdynamiken. Machine-Learning-Verfahren beruhen auf der Wette, dass man in den entsprechenden Daten solche Regelhaftigkeiten, Muster und Strukturen findet, welche eine zugrunde liegende verborgene Ordnung dieser Daten beschreibt und diese für praktische Ziele sodann nutzbar gemacht werden kann. Dieser Zugang zur schwachen Kausalität und ihrer Nutzung zu klassifikatorisch-diagnostischen und prognostischen Zwecken war schon kennzeichnend für die seit den 1970er-Jahren entwickelten Komplexitäts- und Selbstorganisationstheorien. Im Rahmen dieser Konzepte wurde Verfahren, die heute im Umfeld von KI und Machine Learning etabliert sind, entwickelt und getestet. Allerdings war die Rechnerleistung damals noch nicht hinreichend und es lagen nicht so viele hoch aggregierte Daten vor. Seither konnten die Daten-Verarbeitungsprozesse, -speicherungskapazitäten und -verfügbarkeiten gesteigert werden. Was damals auf den Weg gebracht wurde, zeigt sich erst in der letzten Dekade, nämlich als Erfolg der KI- und Machine-Learning-Verfahren in ihrem Zugriff auf komplexe Objektsysteme.
46
Die neuen datengetriebenen Verfahren können als Katalysatoren einer weiteren Verwissenschaftlichung gesehen werden – auch wenn sich verändert, was Wissenschaft ist. Der wissenschaftliche Zugriff weitet sich aus und bezieht sich auf immer komplexere Objektsysteme, die sich bisher der wohletablierten (modernen) Wissenschaft aufgrund spezifischer Objekteigenschaften entzogen haben.
4.5 Die Black Box und ihre Intransparenz
Bisher wurde dargelegt, dass KI- und Machine-Learning-Verfahren als methodische Ansätze zu verstehen sind, um einen Umgang mit komplexen (nichtlinearen, selbstorganisationsfähigen, teilweise instabilen) Objektsystemen zu ermöglichen. Vor diesem Hintergrund kann man weitergehen und eine Vertiefung der Analyse dieser Verfahren versuchen. Es stellt sich die Frage, wie transparent – d. h. wie interpretier-/erklärbar, wie vorausberechenbar, wie reproduzierbar und damit wie kontrollierbar – Struktur und Verhalten der KI- und Machine Learning-Verfahren selbst ist. Zur Beantwortung dieser Frage werden nun die Verfahren selbst als (nicht-materielle) Objektsysteme betrachtet, die hinsichtlich von Transparenz zu untersuchen sind: Für die folgenden Ausführungen wird also ein Perspektivenwechsel notwendig, nämlich die Verfahren, Instrumente und Mittel als Objektsysteme anzusehen.
47
Genau genommen weiß man schon einiges über diese Objektsysteme. Denn ein nahe verwandtes Gegenstandsfeld, nämlich das der Computersimulationen, ist hinsichtlich der Frage nach Transparenz gut untersucht.
48 Computersimulationen gelten – neben Empirie (Beobachtung, Experiment) und Theorie (Modell, Gesetz) – mittlerweile als dritte Säule wissenschaftlicher Wissensproduktion (Humphreys
1991; Küppers und Lenard
2005; Winsberg
2010; Gramelsberger
2010). Unter dem Stichwort „Opazität“ wird diskutiert, ob sich eine Intransparenz des Geneseprozesses wie des Geltungsausweises von Wissen, erzeugt durch die reduzierte analytische Nachvollziehbarkeit von Computersimulationsläufen und deren Resultate, in die Wissenschaft einschleichen. Eng verbunden sind Probleme der Reproduzierbarkeit der Resultate und des intersubjektiven Geltungsausweises von Aussagen (Kaminski et al.
2018).
Bezogen auf Computersimulationen meint der Wissenschaftsphilosoph Paul Humphreys (
2004), dass der Forscher vom Zentrum des Forschungsprozesses sukzessive an den Rand gedrängt werde – allerdings ohne, dass dieser vollständig ersetzt werden könnte. Die Verdrängung gehe einher mit einer zunehmenden epistemischen Opazität, so Humphreys, also einer durch die erfolgreiche und breite Verwendung computernumerischer Verfahren und algorithmischer Instrumente erzeugte Intransparenz: Der Forscher sei kognitiv nicht mehr in der Lage zu überschauen, was in Simulationen geschehe und wie die Ergebnisse produziert werden. Zwar könne er die jeweiligen algorithmischen Einzelschritte nachverfolgen. Doch bliebe ihm verborgen, wie und warum bei einem konkreten Simulationslauf eines komplexen Modells aus einem bestimmten Inputwert ein bestimmter Output folgt. Unerwartetes und Überraschungen können auftreten, d. h. in gewisser Hinsicht kann Neues entstehen. Zudem sei oftmals die Reproduktion der Output-Ereignisse eingeschränkt, da die Rechenprozesse nichtlinear sind und sensitiv reagieren. Eine Beschreibung, Interpretation oder Erklärung dessen, was in der „Black Box“ der computernumerischen Simulation vor sich gehe, sei kaum möglich, womit Probleme der Validierung verbunden seien. Der Forscher habe kein Kriterium zur Hand, um zwischen richtigem und falschem Resultat zu unterscheiden oder gar Zweifel an einem Resultat adäquat begründen zu können. Was dann noch als intersubjektiver Geltungsausweis anzusehen sei, sei offen.
Humphreys Analyse kann man verallgemeinern und vertiefen: Als Quelle epistemischer Opazität sind nicht nur Computersimulationen anzusehen, sondern allgemein algorithmisch-informatische Systeme ab einem bestimmte Komplexitätsgrad. Schließlich bezieht sich Humphreys’ Begründung für Opazität auf hohe Rechengeschwindigkeit und große Komplexität
49 von Simulationen.
50 Beides gilt auch für KI- und Machine Learning-Verfahren. Genetische Algorithmen und Support Vector Machines sowie (versteckte) Markov Ketten/Modelle und insbesondere Künstliche Neuronale Netze, welche aufgrund ihrer Struktur grundlegend für KI- und Machine Learning-Verfahren sind, sind komplexe, nichtlineare, selbstorganisationsfähige und mitunter instabile Systeme.
Bei Künstlichen Neuronalen Netzen liegt eine wesentliche Quelle der Nichtlinearität
51 in der so genannten
Spike-Struktur, die durch das Verhalten der Einzelkomponenten oder der Neurone generiert wird (Mainzer
1996).
52 Neurone feuern ab einer bestimmten Inputgröße bzw. einem bestimmten Erregungsniveau. Wird die Inputgröße nicht erreicht, ist das entsprechende Neuron nicht aktiv und leitet kein Signal weiter. Dieses Verhalten des Neurons entspricht in mathematischer Hinsicht einer starken Form der Nichtlinearität. Darüber hinaus sind in Künstlichen Neuronalen Netze Feedback-Schleifen eingebaut, so genannte Back-Propagationen, ohne die KI-, Machine- und insbesondere Deep-Learning-Verfahren nicht möglich wären. Mit Back-Propagationen werden Parameter, wie beispielsweise die Anzahl der Neuronenebenen, ihre Gewichte und Wechselwirkungen, jeweils iterativ (in großer Geschwindigkeit entsprechend der jeweiligen Prozessorleistung des Computersystems) justiert, ohne dass der Forscher Hand anlegen muss oder etwas davon mitbekommt. Zudem gibt es in vielen Typen Künstlicher Neuronaler Netze versteckte Neuronenschichten („hidden layers“), welche auf- und abgebaut werden. Sie sind typischerweise aus nichtlinearen Funktionsklassen aufgebaut. In vielen Anwendungsfällen ist die zeitliche Iterationslänge, d. h. die Anzahl der Parameter- und Systemgrößen-Updates nicht festgelegt. Aufgrund all dieser Nichtlinearitäten ist es bei Neuronalen Netzen nicht möglich, Standardverfahren der Fehlerfortpflanzung und der Fehlerberechnung zu implementieren.
53
Was für Neuronale Netze hier beispielhaft für eine Vielzahl informatischer Verfahren dargelegt wurde, kennzeichnet – grundlegender als eine alleinige Reflexion von Anwendungsfeldern – den mathematisch-informatischen Kern von (nicht-symbolischer) KI und Machine-Learning. Dieser Kern kann charakterisiert werden durch Stichworte wie Komplexität, Nichtlinearität, Selbstorganisationfähigkeit und Sensitivität/Instabilität. Insofern KI- und Machine-Learning-Verfahren als (iterative) nichtlineare dynamische Systeme mit diesen Charakteristika anzusehen sind, die zudem kontinuierlich Updates von einer sich verändernden Systemumwelt (z. B. via Sensoren) als Inputgrößen erhalten, gelten für sie (als Objektsysteme) – analog zu dem, was in den vorangegangenen Kapiteln gezeigt wurde – Limitierungen. Sie sind begrenzt (1) prognostizierbar, (2) reproduzierbar, (3) prüf-/testbar und (4) interpretier-/erklärbar (vgl. allgemein: Mainzer
1996; Schmidt
2008).
54 Diese vier Limitierungen können als vier (nicht-disjunkte) Dimensionen epistemischer Opazität von KI- und Machine-Learning-Verfahren verstanden werden. Sie sind nicht eliminierbar – auch wenn Wege eines reflektierten Umgangs möglich sind. So sind bei einem konkreten KI- oder Machine-Learning Verfahren und seinem konkreten Anwendungsfeld jeweils einzeln zu untersuchen, wie stark diese Limitierungen ausgeprägt sind. Grundsätzlich ist jedoch mit diesen Limitierungen zu rechnen.
Eine Konsequenz aus den o. g. Charakteristika ist die in einigen Anwendungsfeldern auftretende mangelnde Robustheit, die mit Begrenzungen der Reproduzierbarkeit oder Replikabilität (ad 2) in Verbindung steht. So zeigt sich, dass schon der Zusatz von wenig Rauschen bei wesentlichen Klassen von Machine Learning-Verfahren, die auf Neuronalen Netzen aufgebaut sind, zu einer strukturellen Instabilität oder Nicht-Robustheit führen kann (Szegedy et al.
2014; Goodfellow et al.
2015): Kleinste Störungen oder geringfügige Variationen der Inputgrößen, d. h. der Anfangs- und Randbedingungen,
55 wie sie in realen Daten aufgrund von Messfehlern, Messrauschen oder sonstigen Artefakten stets auftreten, induzieren deutliche Effekte bei den Resultaten und den daraus gewonnenen Aussagen. Bei der Mustererkennung wird ein Straßenhindernis (nur) als Gullydeckel klassifiziert, ein Tumor als Talgeinschluss oder ein Tiger als Katze. Die Problematik potenziert sich bei schneller Echtzeitanalyse mit kontinuierlich neuen Sensor-Inputdaten nochmals, wie sie im autonomen Fahren auftritt.
56
Die Fehler der Mustererkennung, die in Anwendungsfeldern als konkrete Risiken zu Tage treten, sind aufgrund der o. g. Opazität (
ex ante) schwer zu antizipieren, aber auch sodann (
ex post) schwer in den Griff zu kriegen. Umso relevanter ist es, grundlegender anzusetzen: Denn zunächst und allgemein stellen die vier Dimensionen der Opazität ein epistemisches Risiko
57 hinsichtlich der Qualitätssicherung des wissenschaftlichen Wissens (z. B. der o. g. Mustererkennung) dar. Wenn aufgrund der Opazität nicht mehr nachvollziehbar ist, wie ein Resultat zustande kommt, und Resultate aufgrund der Nicht-Robustheit oftmals nicht reproduzierbar sind, sind traditionelle Kriterien der Qualitätssicherung außer Kraft gesetzt.
58 Weitere prinzipielle epistemische Risiken, die vielfach aus grundsätzlichen Limitationen nicht eliminiert werden können, betreffen die Verzerrungen („Bias“-Typen), wie sie in Kap.
2 diskutiert wurden.
59 Auch diese tragen zur Opazität bei.
Die Problematik der Opazität und der epistemischen Risiken ist der Informatik und den die informatischen Verfahren verwendenden Disziplinen, wie die (Teilchen-)Physik, seit langem bekannt. KI- und Machine-Learning-Verfahren werden in kritisch-konstruktiver Absicht als „Black Box“ bezeichnet. Von „Interpretationsproblemen“ ist die Rede, weshalb sich seit gut 20 Jahren Ansätze zu einer „erklärenden KI“ („explainable AI“) entwickelt haben (Murdoch et al.
2019; Chakraborty et al.
2017).
60 Denn, „[u]nderstanding the behaviour of artificial intelligence systems is essential to our ability to control their actions reap their benefits and minimize their harms.“ (Rhawan et al.
2019, S. 477) So entwickelt sich derzeit eine „Verhaltensforschung für KI-Systeme“: „Erklärende KI“ tritt an, die „Black Box“ (zumindest teilweise) zu öffnen („White-Boxing“). Damit soll sichergestellt werden, dass die jeweiligen informatischen Verfahren interpretierbar, d. h. transparent und nachvollziehbar sind. Nur so sei eine „algorithmic accountability“ möglich – was ethische und juristische Relevanz besitzt. Dabei setzt die „erklärende KI“ wiederum auf informatische Lösungen, die bis in die algorithmische Struktur der Programmcodes reinreichen. Allgemein weist der Zugang der „erklärenden KI“ eine Verwandtschaft zu den in den Technik- und Ingenieurwissenschaften üblichen Verfahren des „reverse engineering“ auf, welche (fertige) technische Produkte und Prozesse (
ex post) untersucht und deren Verhalten zu beschreiben und zu erklären versucht (vgl. Rhawan et al.
2019, S. 480/484). Kontrovers ist, ob und wie vielversprechend die Ansätze der „erklärenden KI“ sind. Doch jenseits etwaiger Einschätzungen zukünftiger Erfolgsaussichten ist bemerkenswert, dass es diese Diskussion überhaupt gibt. Aus dieser ist auch ein Bedarf ableitbar, nämlich über
Ex-post-Ansätze hinauszugehen und wissenschaftliche Anstrengungen in Richtung einer prospektiven, d. h.
Ex-ante-Qualitätssicherung der jeweils in konkreten Kontexten verwendeten Algorithmen bzw. KI- und Machine Learning-Verfahren zu verstärken.
So gilt zusammenfassend, nicht nur die Objektsysteme, die durch die neuen informatischen Verfahren verbessert und vertieft zugänglich werden, sind komplex. Vielmehr sind auch die Verfahren selbst komplex. KI- und Machine-Learning-Verfahren sind in ihrer mathematisch-informatischen Struktur – in Aufbau und Verhalten – ebenfalls komplexe, nichtlineare, selbstorganisationsfähige (nicht-materielle) Objektsysteme. Mit anderen Worten: um mit (äußerer) Komplexität, also mit komplexen Gegenständen der Wissenschaft umgehen zu können, benötigt es auf Seiten der Verfahren, Instrumente und Mittel ebenfalls eine hinreichende (innere) Komplexität. Vermeintlich paradox formuliert: KI- und Machine-Learning-Verfahren zielen darauf ab, Komplexität durch Komplexität beherrschbar zu machen;
61 sie treiben die Berechenbarkeit der Welt der Objektsysteme voran, ohne selbst berechenbar zu sein.
62 Dabei bleiben nicht nur die Objektsysteme, auf die sie sich beziehen, sondern auch die Verfahren selbst in spezifischer Hinsicht opak, also eine „Black Box“. Ob mit etwaiger Opazität nicht voraufklärerische oder gar magische Elemente in die Wissenschaft einziehen, gegen die Wissenschaft einst eingetreten war und die als überwunden galten, etwa Praktiken im Umfeld des Orakels von Delphi, wie Kritiker befürchten, ist ein offener, in kritisch-gestalterischer bzw. regulatorischer Absicht durchaus diskutierbarer Punkt.
All das schmälert nicht den Erfolg von KI- und Machine-Learning-Verfahren, einen Zugang zu komplexen Objektsystemen zu gewinnen und deren Verhalten zu klassifizieren und zu prognostizieren. Was jedoch von Wissenschaftlerinnen und Wissenschaftlern aller Disziplinen aufgrund ihres Anspruchs auf Qualitätssicherung zuvorderst zu leisten ist, ist die Wahrnehmung der informatisch induzierten Opazität. Dass sich ein opakes Instrument zu etablieren beginnt, ist allein nicht das Problem, sondern dass die damit verbundene Ambivalenz kaum hinreichend gesehen wird und die Herausforderung zum Umgang mit dem neuen Instrument noch nicht umfassend anerkannt wird. Die Opazität sollte beleuchtet und die durch diese erzeugten epistemischen Risiken sollten (wo immer möglich) minimiert werden – ansonsten werden sie zu Anwendungs-Risiken und eine hinreichende Qualitätssicherung ist für die technische Praxis nicht gewährleistet (Rhawan et al.
2019, S. 483).
63
4.6 Auf dem Wege zu einer nachmodernen Technik – verwendet auch in der Wissenschaft
KI- und Machine-Learning-Verfahren werden nicht selten als neue Instrumente bezeichnet. Wer die Instrumentenmetapher verwendet, sieht oftmals informatische (wie auch mathematische) Verfahren als neutrale Mittel und wertfreie Methoden an, welche die etablierte technische Toolbox der experimentellen Forschung (ein wenig) ergänzen und erweitern. Derartige technische Instrumente, so legt die Instrumentenmetapher nahe, mögen äußerst nützlich sein, doch bleiben sie Wissenschaft und Forschung äußerlich.
Dass diese Sichtweise zu kurz greift und zu einer Relativierung aktueller Entwicklungen führt, haben wir in den letzten Unterkapiteln dargelegt. Mit der hier vorgetragenen Skepsis gegenüber einer unterkomplexen Instrumentenmetapher wird aber nicht bestritten, dass die informatischen Verfahren nicht auch Instrumente sind: KI- und Machine-Learning-Verfahren sind auch – ähnlich wie traditionelle Apparate und Verfahren (z. B. Fernrohr oder Mikroskop) und wie herkömmliche Mess-, Experimentier- und Analysesysteme, die in der Forschung als Mittel Verwendung (z. B. Amperemeter, Teilchendetektor, Method-of-Least-Squares oder Maximum-Likelihood-Method) finden – als Instrumente und somit als technische (in diesem Fall: nicht-materielle) Objektsysteme anzusehen. Nimmt man eine solche begriffliche Zuweisung vor, dann ist aber zu fragen, um welchen Typ des Instruments oder, allgemeiner, um welche der Art von Technik es sich handelt. Damit verbunden ist die Frage, ob sich Technik in ihrem systemischen Kern verändert.
Um diese Fragen anzugehen, ist es notwendig, technische Systeme detaillierter zu betrachten. Technik transformiert, so kann man mit dem Kybernetiker Heinz von Foerster (
1995) sagen, Input- in Output-Größen. Für klassische wie für moderne Technik ist eine hinreichend stabile, stark-kausale Input-Output-Transformationsregel konstitutiv, die auf einer definier- und erkennbaren Schnittstelle zwischen dem technischen System einerseits und seiner Umwelt andererseits basiert. Über diese Schnittstelle sind die Material-, Informations- und Energieflüsse geregelt und regelbar, die die Transformation kennzeichnen. Konstitutiv ist die Stabilität bzw. Robustheit der Transformationsregel, um die gewünschte Funktionalität zu gewährleisten. Stabilität meint, kleinste Störungen oder geringfügige Veränderungen der Randbedingungen oder der Inputgrößen sollen die Funktionalität nicht beeinträchtigen. Stabilität – und damit die jeweilige Funktionalität – wird durch die technische Konstruktion eingestellt, d. h. Reproduzierbarkeit wird sichergestellt: Der Nutzer kann das technische System aufgrund der Erwartbarkeit des Outputs oder Effekts verwenden, er kann mit diesem System als Mittel intentional handeln. Die Technikwissenschaften liefern über das technische System und deren Funktionalität ein grundlegendes Wissen, das auf modell- und gesetzesbezogenen Erklärungen basiert und eine hinreichende intersubjektive Nachvollziehbarkeit der internen Transformationsregeln ermöglicht.
Derartige klassisch-moderne Technik mit einer stabilen und statischen Transformationsregel wird von Heinz von Foerster unter dem Begriff der „trivialen Maschine“ näher ausgeleuchtet (Foerster
1995; vgl. auch Kaminski
2014). Klassisch-moderne Technik lässt sich mit von Foerster als „Trivialisierung einer komplexen Umwelt“ zur Regulation von Material-, Informations- und Energieflüssen verstehen. Von „funktionierender Simplifikation“ spricht Niklas Luhmann (
2003) analog. Für von Foerster ist Technik im Sinne trivialer Maschine durch die statisch-stabile Input-Output-Transformationsregel bestimmt. Wesentliche Eigenschaften dieses Maschinen- bzw. Techniktyps sind nach von Foerster:
64 (1)
Synthetische Determiniertheit: Input- und Output-Größen sind eindeutig festgelegt und starr bzw. strikt gekoppelt. Die dazu notwendige Transformationsregel ist statisch, d. h. unveränderlich. Sie hängt nicht vom weiteren Vergangenheitsgrößen ab. (2)
Analytische Determiniertheit: Die Transformationsregel ist rekonstruierbar, insbesondere ist sie transparent, d. h. sie ist wahrnehmbar, interpretier- und erklärbar. (3)
Prognostizierbarkeit: Die Output-Größen können aus den Inputgrößen prognostiziert werden; Effekte sind erwartbar.
65 – Die trivialen Maschinen, wie sie von Foerster im Blick hat, sind solche, die wir mit klassischer und moderner Technik in Verbindung bringen: Locher, Schere, Herd, Hausbeleuchtung, Taschenrechner, Fahrrad, Fön, Wecker, Ölheizung, bis hin zum traditionellen PKW, zu Werkzeugmaschine, Produktionsanlage und -prozessen. Nun müsste man, was hier nur angedeutet werden soll, in obiger Liste zumindest (4) eine weitere Eigenschaft ergänzen, nämlich dass bei trivialen Maschinen die Transformationsregel stabil, d. h. hinreichend robust ist und kleinere Störungen irrelevant sind. Das steckt indirekt in der analytischen Determiniertheit (ad 2) sowie der Prognostizierbarkeit (ad 3) drin,
66 sollte aber nochmals vor dem Hintergrund der Frage nach einer möglichen aktuellen Veränderung des Technik- und Instrumententyps hervorgehoben werden.
Unabhängig davon, ob und in welcher Hinsicht weitere Eigenschaften herkömmlicher, klassisch-moderner Technik zu ergänzen sind, wie von Kaminski (
2014) gefordert, und ob nicht sowieso schon einige technische Systeme um uns herum nicht mehr der trivialen Technik entsprechen,
67 muss man sagen, dass KI- und Machine-Learning-Verfahren gewiss nicht von diesem klassisch-modernen Typ sind:
68 sie zielen nicht darauf ab, statische, stabile und nachvollzierbare Transformationsregeln her- und sicherzustellen. Die vier oben genannten Eigenschaften gelten nicht. Vielmehr bilden die neuen informatischen Verfahren einen neuen, anders gearteten Techniktyp, den man als „nachmodern“ bezeichnen kann (Schmidt
2015; Schmidt
2016).
69 Das hat nichts mit postmodernen Modetrends zu tun, sondern soll andeuten, dass ein neuer Techniktyp, der technikhistorisch
nach der modernen Technik entsteht und letztere heutzutage ergänzt,
nicht aber ersetzt. Bei nachmoderner Technik ist die Input-Output-Transformationsregel nicht unveränderlich und nicht fest implementiert, sondern sie ist flexibel und dynamisch: sie wird in der zeitlichen Systementwicklung (selbstorganisierend) hervorgebracht. Sie ist nichtlinear (Rückkopplung) und sensitiv hinsichtlich kleiner Veränderungen (Instabilität). Für KI- und Machine-Learning-Verfahren ist dies eingängig: Im Lernvorgang wird die Transformationsregel über Trainingsdaten adaptiert bzw. erst gebildet. Maschinelles Lernen kann als Transformation der Transformationsregel angesehen werden. Dies gilt unabhängig davon, welche Lernstrategien verwendet werden, ob über neuronale Netze, evolutionäre/genetische Algorithmen oder Support Vector-Verfahren.
Mit den informatischen Lernprozessen, also mit der Transformation der Transformationsregel ist, wie ausgeführt, eine interne (Selbst-)Organisationsfähigkeit verbunden. Von evolutionären Prozessen ist die Rede, Rekurs genommen wird auf biozentrierte Begriffsfamilien
70 und Konzepte der Selbstorganisation.
71 Diese für ein aktuelles Technikverständnis weitreichende Konzepte haben ihre eigene Geschichte. Wegbereiter für Selbstorganisationskonzepte sind die interdisziplinären System- und Strukturwissenschaften, die Strukturen und Dynamiken von Objekten unabhängig von ihren jeweiligen materiellen Manifestationen untersuchen. System- und Strukturwissenschaften wurden in den 1940er-Jahren im Rahmen der Kybernetik und Informationstheorie erstmals programmatisch entworfen (erste Phase: Bertalanffy, Wiener, Shannon, von Neumann) und ab den 1960er-Jahren in den mathematischen geprägten Naturwissenschaften (zweite Phase: Prigogine, Haken, Maturana/Varela, von Foerster) detaillierter ausformuliert und ausgeweitet. Prominent sind die bereits genannten und diskutierten Theorien nichtlinearer dynamische Systeme, dissipative Strukturbildung, Synergetik, Autopoiesistheorie sowie Chaos- und Komplexitätstheorien. Während die
erste Phase eng verbunden ist mit der Herausbildung der Informatik als eigene Wissenschaftsdisziplin und mit der theoretischen Informatik, ist die
zweite Phase stark durch die konkrete Computerentwicklung geprägt. Und heute kann man von einer
dritten Phase sprechen, die durch aktuelle KI- und Machine Learning-Verfahren hervorgerufen ist. Sie ist ermöglicht worden durch die allumfassende Digitalisierung: Rechner-, Sensor-, Speicher- und Netztechnologie, was eine Verarbeitung großer und heterogener Datenmengen möglich macht.
72
Nun muss man sagen, was sich im informatischen Feld der KI- und Machine Learning-Verfahren zeigt, scheint indes nur die Speerspitze eines allgemeinen Trends unterschiedlicher neuerer („emergenter“) Technologiebereiche zu sein: Selbstorganisationsprozesse spielen eine Rolle (a) in Synthetischer und System-Biotechnologie, (b) in den Nano- und Mikrosystemtechnologien sowie (c) in den Kognitions-, Neuro- und Pharmakotechnologien. Die jeweiligen technischen Systeme erscheinen fast selbst als handelnd, d. h. ein Handlungsstatus wird dieser Technik anthropomorphisierend zugeschrieben: Nachmoderne Technik erscheint demnach phänomenal als „autonom“; sie scheint schöpferisch tätig zu sein, Mittel zweckrational auszuwählen und Entscheidungsfähigkeit zu besitzen.
73
Dass indes grundlegende Probleme mit einem komplexen, nachmodernen Techniktyp verbunden sind, hat der Systemtheoretiker und Soziologe Niklas Luhmann gesehen. Traditionelle Technik ist für Luhmann, ähnlich wie für von Foerster, als „funktionierende Simplifikation“ und „simplifizierende Isolation“ eines Systems von seiner Umwelt zu verstehen. Bei herkömmlicher Technik könne die Isolation konstruktiv hergestellt werden, eine Schnittstelle könne definiert und ausgewiesen werden. Bei komplexer Hochtechnologie – Luhmann konnte zu seiner Zeit noch nicht ahnen, welche Entwicklung die informatischen Verfahren nehmen sollten – hingegen komme es zum „Anwachsen kausaler Komplexität“ (Luhmann
2003, S. 101). Diese basiert konstruktiv auf einer „immensen Komplexität von gleichzeitig […] ablaufenden Kausalvorgängen“ (ebd.), wie es gerade auch für KI- und Machine-Learning-Systeme charakteristisch ist.
Aus dem Misslingen der Kausalisolation und dem damit einhergehenden Verlust der Schnittstellen zwischen System und Umwelt ergeben sich Herausforderungen. Nach Luhmann hat man es „mit Chaosproblemen, mit Interferenzproblemen und mit jenen praktisch einmaligen Zufällen“ zu tun (ebd., 100). Die drei Problemtypen wurzeln für Luhmann in dem, was als Komplexität, Nichtlinearität und Sensitivität/Instabilität bezeichnet werden kann – und was (gleichzeitig) Quelle und Grundlage von Lern-, Adaptions- und Selbstorganisationsprozessen, d. h. für die Produktivität, darstellt. Ist das überhaupt noch Technik, die traditionell reproduzierbare und erwartbare Effekte her- und sicherstellt, fragt Luhmann, und er hat Zweifel. Liegen die Probleme im Kern dieser Systeme selbst, dann wird „die ‚Form‘ der Technik zum Problem. Sie markiert die Grenze zwischen eingeschlossenen und ausgeschlossenen (aber gleichwohl realen) Kausalitäten. Offenbar kommt es bei [nachmodernen] Technologien [wie bei KI- und Machine-Learning-Verfahren] aber laufend zu Überschreitungen dieser formbestimmenden Grenze, zur Einschließung des Ausgeschlossenen, zu unvorhergesehenen Querverbindungen. […] Das führt zu der paradoxen Frage, ob Technik, auch wenn sie kausal funktioniert, technisch überhaupt möglich ist“ und noch (im traditionellen Sinne) Technik ist (ebd., 100). Damit scheinen sich, so Luhmann, „die Grenzen der technischen Regulation von Technik zu sprengen […]: Die Probleme der Technik zeigen sich an den Versuchen, die Probleme der Technik mit technischen Mitteln zu lösen.“ (ebd., 99 f.) – Diese rekursive Beziehung wurde auch im letzten Unterkapitel offengelegt und als informatisch generiertes Komplexitätsdilemma bezeichnet: KI- und Machine-Learning-Verfahren sind als Ansatz zu verstehen, (äußere, d. h. objektseitige) Komplexität durch (innere, d. h. verfahrensseitige) Komplexität beherrschbar zu machen. Diese rekursive Beziehung ist höherstufig infinit fortsetzbar.
Eine solche Technik, das kann man mit Luhmann andeuten, scheint (wenn überhaupt) ein anderer Typ von Technik zu sein. Dieser Typ unterscheidet sich nicht nur graduell, sondern grundsätzlich von herkömmlichen technischen Instrumenten und Systemen, auch von jenen, die in Wissenschaft und Forschung eine Rolle spielen. Ob Fernrohr und Mikroskop, ob Amperemeter oder Thermometer, ob Zeitmesser oder Lichtschranke – diese Instrumente sind gekennzeichnet durch ein stabiles Input-Output-Schema. Berechenbarkeit, Reproduzierbarkeit, Prüfbarkeit und Erklärbarkeit war, weitgehend, durch die implementierte Transformationsregel (
ex ante) festgelegt; Erwartbarkeit war sichergestellt. Das gilt für neuere Instrumente hingegen, die auf KI- und Machine-Learning-Verfahren aufbauen, nicht mehr. Hier wird die Transformationsregel selbst dynamisch transformiert und über Selbstorganisationsprozesse kontinuierlich adaptiert; Luhmann sieht selbstorganisierend-autopoetische Prozesse am Werke. Nachmoderne Technik hat einen Eigensinn, hält Überraschungen parat und ist schwer kontrollierbar, was
die andere Seite ihrer enormen Leistungsfähigkeit darstellt: Ihr wird Autonomie, Produktivität und Adaptivität zugeschrieben, d. h. Eigenschaften, die auf hoher Sensitivität/Instabilität, auf großer Selbstorganisationsfähigkeit und auf einer weitreichenden Input-Offenheit gegenüber der Umwelt basieren.
74
Mit einer solchen qualitativen Veränderung des technischen Kerns wissenschaftlicher Instrumente verändert sich die Zusammenarbeit des Forschers mit seinen Experimental- und Analysesystemen und mithin der wissenschaftliche Erkenntnisprozess. So wird in Gesellschaft und Wissenschaft wohl nicht zu Unrecht bei diesem neuen Techniktyp ein Quasi-Akteursstatus erkannt, auch wenn das aus philosophischer Perspektive einen Kategorienfehler darstellen mag. Obwohl derzeit nichts dafür spricht, dass KI- und Machine-Learning-Systeme alleine den Nobel-Preis gewinnen könnten und der Forscher ersetzt werden könnte, wie Hiroaki Kitano (
2016) nahelegt, so wird dennoch deutlich: die Verschiebung dieser Zuschreibungspraxis verweist auf grundlegende Verschiebungen in den Forschungspraktiken, d. h. auf neue und weitreichende Interaktionsformen zwischen menschlichem und technischem/nicht-menschlichem Akteur der wissenschaftlichen Wissensproduktion.
4.7 Techniktrends: Ermöglichungstechnologie, Konvergenztechnologie, Technoscience
Während in den letzten Unterkapiteln der zweischneidige informatisch-systemische Kern von KI- und Machine-Learning-Verfahren untersucht wurde, soll im Folgenden eine Einordnung in allgemeine Techniktrends vorgenommen werden. Drei Sondierungsbegriffe, die die aktuelle Technikphilosophie bereitstellt und die in den bisherigen Ausführungen (schon implizit) eine Rolle gespielt haben, sollen in Anschlag gebracht werden: Ermöglichungstechnologie, Konvergenztechnologie sowie Technowissenschaft („Technoscience“).
KI- und Machine Learning-Verfahren können,
erstens, als eine im Hinter- und Untergrund wirkende
Ermöglichungstechnologie („enabling technology“; Schmidt
2004; Nordmann
2008) angesehen werden. Die neuen informatischen Verfahren sind in erster Linie keine Objekt- oder gegenstandbezogene Technologie, wie etwa die Atom- oder Biotechnologie, auch wenn letztere durchaus neue technische Objektsysteme, hier Atomkraftwerke, dort Biosubstanzen, konstruktiv ermöglichen. Beispiele traditioneller Objekttechnologien sind auch Fertigungs-, Werkzeuganlagen- und Produktionstechnologien. Ermöglichungstechnologien wirken demgegenüber allgemeiner, grundlegender und hintergründiger. Sie stellen die Bedingung der Möglichkeit von anderen Technologien dar und sind i. w. S. als generische Infrastruktur- oder Systemtechnologien anzusehen. Das Internet ist eine der neueren Ermöglichungstechnologien; ältere Beispiele sind Verkehrsinfrastruktur- oder (Telefon-/Funk-/Morse-)Kommunikationstechnologien. Über den Status von Ermöglichungstechnologien wurde intensiv im Umfeld der Nanoforschung gesprochen, neuerdings auch bei Informations- und Kommunikationstechnologien. Noch ist der Sondierungsbegriff der Ermöglichungstechnologie semantisch nicht vollständig geklärt. Aber schon jetzt werden einige Charakteristika deutlich. Ermöglichungstechnologien sind stark wissenschaftsbasiert und vielfach verbunden mit formalen, mathematischen, theoretischen Entwicklungen. Sie bilden den wissenschaftlichen Hintergrund sowie die technische Grundlage für viele andere Technikentwicklungen, was über das von Innovationstheoretikern verwendete Begriffskonzeption der Basistechnologien hinausgeht.
KI- und Machine Learning-Verfahren fallen wie kaum ein anderer Techniktyp in die Kennzeichnungen einer Ermöglichungstechnologie. Zukünftig wird es kaum noch Objekt- oder gegenstandbezogene Technologien mehr geben, in welchen diese informatischen Verfahren keine Rolle spielen. Wesentlich für Ermöglichungstechnologie ist, dass diese nicht eigenständig in Erscheinung treten, sondern in anwendungsbezogene technische Systeme integriert sind und für diese als konstitutiv anzusehen sind: Internetsuchmaschinen; Spracherkennung; Autocomplete-Funktionen; journalistische Texterstellung von Wetter- und Sportinformationen; Bots in sozialen Netzwerken; Recommender Systeme und Vorschläge bei internetbasierten Bestellungen; Online-Versicherungen; Spamfiltern; Schach- und Backgammon-Programmen; Fahrassistenzsystemen; Motor- und Airbag-Steuerung; Wegeoptimierung in der Logistik; Parkplatzsuchsysteme in Städten; Umweltdatenüberwachung, inklusive Kenngrößenentwicklung; Serverfarmsteuerungen, usw.
75
Dem Endbenutzer ist zumeist nicht klar und transparent, dass KI- und Machine Learning-Verfahren zum Einsatz kommen. Die informatischen Ermöglichungstechnologien bleiben im Hinter- und Untergrund verborgen, ihre Spuren sind nicht sichtbar (Hubig
2006). Sie bilden damit das untergründige „Gestell“ für moderne oder spätmoderne Wissensgesellschaften, wie man mit Martin Heidegger sagen kann. Analog sieht der Soziologe Armin Nassehi (
2019, S. 244), in Rekurs auf Niklas Luhmann, eine weithin „unsichtbare Technik“ heraufziehen, was zu einer veränderten Technikerfahrung führe und lebensweltliche Konsequenzen der Mensch-Technik-Beziehung nach sich ziehe. Das gesellschaftliche „Unbehagen“ hängt, so Nassehi, mit der Unsichtbarkeit und entsprechenden Un(an)greifbarkeit der hintergründig wirkenden KI- und Maschine-Learning-Verfahren als verborgene Ermöglichungstechnologien zusammen; das Unbehagen wird befördert durch den intransparenten Black-Box-Charakter dieser Verfahren. Die Black-Box sei es allerdings auch – das ist die andere (ebenfalls ambivalente) Seite der „unsichtbaren Technik“ –, dass dieser (ob gerechtfertigt oder nicht) Autonomie, Intelligenz und sogar Bewusstsein zugeschrieben werden könne. Nach Nassehi „ähnelt“ phänomenal dieser neue (nachmoderne) Techniktyp darin „eher dem menschlichen, für Alter Ego intransparenten Bewusstsein als einem sichtbaren Getriebe mit Zahnrädern, die ineinandergreifen und keine Variationsmöglichkeiten haben, außer dass sie funktionieren oder defekt sind.“ (Nassehi
2019, S. 244)
Ein verwandter Sondierungsbegriff,
zweitens, ist der der technologischen Konvergenz oder, kurz, der
Konvergenztechnologie. Dieser wurde in der Debatte über neuere Technikentwicklungen, die ihren Ausgang von einem Workshop der National Science Foundation der USA nahm (Roco und Bainbridge
2002), eingeführt. Programmatisch wird die Frage aufgeworfen, ob es nicht an der Zeit sei, die diversen und sich heterogen präsentierenden Technik- und Ingenieurwissenschaften – und ihre (bereichspezifischen) Techniktypen – zusammenzuführen und zu vereinheitlichen: Denn Konvergenz erzeuge Synergie und fördere Innovation. Für das Konvergenzprogramm steht die konvergente Entwicklung der Physik der letzten 200 Jahre paradigmatisch Pate:
76 Das Ideal der Vereinheitlichung hat sich als Treiber wissenschaftlicher Innovation erwiesen. So wird gefragt, ob sich dieses produktive Ideal nicht auf die Technikwissenschaften, unter Einschluss der Informatik, der Lebenswissenschaften und der Medizin, übertragen lässt.
Die National Science Foundation der USA zielt demensprechend auf „Convergent Technologies“ oder „NBIC-Convergence“ (Roco und Bainbridge
2002). Gemeint ist eine Zusammenführung von entstehenden („emergenten“) Zukunftstechnologien: Nano-, Bio-, Informations- und Kognitionstechnologien (NBIC-Konvergenz). Für eine Konvergenz wird zwar objektseitig der Nanolevel als zentral angesehen. Entscheidender ist aber, dass das methodische Instrumentarium der Konvergenz bei der Informatik sowie bei den Informationstechnologien liegt. Die Informatik gilt in dem Konvergenzprogramm als eine neue Leit- und Fundamentalwissenschaft, die die Nano-, Bio- und Kognitionstechnologien und deren forschungsbasierte Technikentwicklung methodisch fundiert und diese zusammenführt. Damit verdrängt die Informatik in der wissenschaftlichen wie gesellschaftlichen Wertschätzung die exakten Naturwissenschaften, primär die Physik, sowie, in zweiter Linie, auch die Lebenswissenschaften. Eine neue Hierarchie der wissenschaftlichen Disziplinen scheint sich herauszubilden, wobei sich die Anwendungsorientierung von Forschung (im Dienste der Technikentwicklung) in den Vordergrund schiebt und die Grundlagenforschung eine reduzierte Anerkennung erfährt.
Vor dem Hintergrund der Doppeldiagnose von Ermöglichungs- und Konvergenztechnologie kann man,
drittens, einen Schritt weitergehen. In den letzten 30 Jahren hat die Wissenschaftsphilosophie, im Verbund mit der sozialwissenschaftlichen Wissenschaftsforschung, Veränderungen im Gefüge der Wissenschaften diagnostiziert. Ein zentraler Begriff, mit dem dieser Wandel beschrieben wird, ist der der „Technowissenschaft“ (engl. „Technoscience“) (Latour
1987; Haraway
1995; Nordmann
2008; Nordmann et al.
2011). Technowissenschaft meint nicht einfach Technik- und Ingenieurwissenschaft, sondern beschreibt einen Wandel in der Forschungskultur aller Disziplinen in Richtung einer Orientierung am Nutzungs-, Verwertungs- und Anwendungskontext: Von Wissenschaft zur Technowissenschaft. Zwar gab es diese (Bacon’sche) Orientierung schon immer, entscheidend ist jedoch die Verschiebung der Schwerpunktsetzung des gesamten Wissenschaftssystems in diese Richtung. Neben traditionelle epistemische Werte, wie Erklärungsleistung, Reproduzierbarkeit, Prognosekraft, Testbarkeit, Theoriekonsistenz und -kohärenz, treten nicht-epistemische Werte, die gesellschaftlichen oder unternehmerischen Nutzen betreffen (Carrier
2011).
77 Der Philosoph Alfred Nordmann (2005, S. 215 f.) identifiziert einige „Symptome für einen Kulturwandel von der Wissenschaft hin zur TechnoWissenschaft“: „1. Statt darstellender Hypothesen über die Natur: eingreifende Gestaltung einer hybriden KulturNatur. 2. Statt quantitativer Voraussagen und hochgradiger Falsifizierbarkeit: Suche nach Strukturähnlichkeiten und qualitative Bestätigung. 3. Statt Artikulation von naturgesetzlichen Kausalbeziehungen oder Mechanismen: Erkundung interessanter, bzw. nützlicher Eigenschaften. 4. Statt Orientierung auf die Lösung theoretischer Probleme: Eroberung eines neuen Terrains für technisches Handeln. 5. Statt hierarchische Organisation von Natur und Wissenschaft: Orientierung auf transdisziplinäre Objekte und Modelle.“
78 Nordmann adressiert den Wandel der Wissenschaftskultur unter Rekurs auf leitenden Werte und die von den Forschenden verfolgten Ziele in ihren jeweils konkreten Forschungsprojekten: Ihr Forschungshandeln orientiert sich verstärkt an Verwertungskontexten und weniger am aufklärerischen Ideal grundlegender Erkenntnis für das Weltverständnis. Entsprechende Verschiebungen zeigen sich auch in der Selbstbeschreibung des Forschungshandelns durch die Forschenden selbst.
79
KI- und Machine Learning-Verfahren kennzeichnen wie kaum ein anderes Feld das Regime der Technowissenschaft. Allerdings wäre es wohl treffender (anstatt von
Verfahren) von KI- und Machine-Learning-
Technowissenschaft zu sprechen. In einer solchen diagnostischen Zuspitzung fallen traditionelle Dichotomien, wie die von Grundlagenforschung vs. Anwendung weg. KI- und Machine-Learning-Technowissenschaft ist vor diesem Hintergrund als grundlagenbasierte Anwendungsforschung zu spezifizieren. Diese technowissenschaftliche Forschung
über, an und
für KI- und Machine Learning-Verfahren findet sich nicht nur im Rahmen der disziplinären Informatik, sondern gerade im Horizont all jener Disziplinen und Interdisziplinen, die mit vielen und heterogenen Datenreihen umgehen.
80
4.8 Fazit
Ein Regime nachmoderner Wissenschaft ist im Entstehen; KI- und Machine-Learning-Verfahren beginnen Wissenschaft in ihrem epistemischen Kern zu verändern. Derzeit ist damit eine Erweiterung und Ergänzung, keine Ersetzung des Regimes der herkömmlichen, modernen Wissenschaft impliziert.
Die Erweiterung bezieht sich auf zweierlei: Zunächst kann von einer
methodischen Erweiterung gesprochen werden (Abschn.
4.2 und
4.3): KI- und Machine-Learning-Verfahren erweitern das Methoden- und Instrumentenspektrum der Wissenschaften grundlegend. Damit verbunden ist eine
Erweiterung der Klasse der Objektsysteme, die sich bislang den Wissenschaften weithin entzogen haben, weil sie komplex, nichtlinear, selbstorganisationsfähig, vielfach instabil/sensitiv, raumzeitlich verteilt und interaktiv sind (Abschn.
4.4). Aufgrund dieser Eigenschaften ist ihr Verhalten schwer berechenbar, kaum reproduzierbar, Aussagen sind schwer prüfbar und ihre Phänomene sind vielfach nicht deduktiv-nomologisch oder mechanistisch erklärbar.
Die methodische und objektseitige Erweiterung von Wissenschaft durch KI- und Machine Learning-Verfahren induziert einen Wandel. Dieser konnte offengelegt werden, indem vier Leistungsmerkmale von Wissenschaft – und damit verbundene (nicht-disjunkte) Wissenschaftsverständnisse – untersucht wurden (Abschn.
4.2 und
4.3): Prognostizierbarkeit, Reproduzierbarkeit, Testbarkeit und Erklärbarkeit. KI- und Machine Learning-Verfahren führen zu einer verstärkten Prognoseorientierung (ohne grundlegende Theorie- und Wissensbasis), zu einer reduzierten Notwendigkeit des reproduzierenden Experimentierhandelns (bei gleichzeitiger Nutzen- und Interventionsorientierung), zur Ersetzung traditioneller Testverfahren (bei gleichzeitigen neuen und erweiterten Prüfoptionen) sowie zu einem verringerten Interesse an Theorien und Erklärungen (bei gleichzeitig starkem Rekurs auf eine schwach-kausale Struktur der Wirklichkeit).
KI- und Machine Learning-Verfahren zielen darauf ab, so wurde gezeigt, versteckte Regelhaftigkeiten, Muster oder Strukturen, also schwache Kausalität, zu diagnostizieren und diese zu prognostischen Zwecken nutzbar zu machen, kurzum: es geht nicht (nur) um Korrelationen, sondern um Kausalität (Abschn.
4.4 sowie Teile von
4.3.1 und
4.3.4). Korrelationen sind zu schwach, um Prognosen vorzunehmen und Handlungen zu ermöglichen. Nur mit Kausalität sind effektive Handlungsstrategien möglich. Mit diesem Zugang schließen die neuen informatischen Verfahren an weitreichende Erkenntnisse der so genannten Struktur- und Systemwissenschaften an, die mit der Kybernetik und Informationstheorie zusammenhängen und zu den theoretischen Grundlagen der Etablierung der Informatik als wissenschaftliche Disziplin gehören. Die Struktur- und Systemwissenschaften haben sich seither weiterentwickelt und sind heutzutage reichhaltiger. Sie umfassen die Theorien nichtlinearer dynamischer Systeme mit Komplexitäts- und Selbstorganisationstheorien, d. h. Synergetik, Theorien dissipativer Strukturbildung und des Hyperzyklus, Chaos-, Katastrophen- und Autopoiesis-Theorien. Diese haben ab den 1970er- bis 1990er-Jahren mathematisch fundierte Verfahren entworfen und angewendet, mit deren Hilfe versteckte Regelhaftigkeit oder schwache Kausalität diagnostiziert und genutzt werden kann.
KI- und Machine-Learning-Verfahren nehmen komplexe, nichtlineare, selbstorganisationsfähige, partiell instabile Objektsysteme in den Blick und erweitern damit die wissenschaftlich zugänglichen Gegenstandsfelder (Abschn.
4.4). Allerdings hat diese Erweiterungen ihren Preis (Abschn.
4.5). Denn die Verfahren, mit denen der Zugang ermöglicht wird, nämlich KI- und Machine-Learning-Verfahren, weisen selbst diese Komplexität auf. Sie sind in ihrer mathematisch-informatischen Struktur ebenfalls komplexe, nichtlineare, selbstorganisationsfähige nicht-materielle Objektsysteme: (äußere) Komplexität wird nur durch (innere) Komplexität zugänglich und beherrschbar. Gleichzeitig zeigen sich Grenzen des Wissens. Werden diese Verfahren, Instrumente und Methoden in den Wissenschaften eingesetzt, entsteht eine neue nicht-eliminierbare Opazität bzw. prinzipielle Intransparenz, verbunden mit epistemischen Risiken von Fehlschlüssen und -Diagnosen, die man bei herkömmlichen Verfahren, Instrumenten und Apparate so nicht kannte.
Der Wandel von Wissenschaft basiert also auf einem Wandel (der Entwicklung und dem Einsatz) der in der Wissenschaft verwendeten informatischen Technik(en) (Abschn.
4.6). Wenn die Anzeichen nicht trügen, beginnt sich – ergänzend zur bisherigen, d. h. zur
modernen Technik – ein neuer Typ von Technik zu etablieren, welcher einen anderen (informatischen) Kern in sich trägt. Diese
nachmoderne Technik weist eine Selbstorganisationsfähigkeit auf, sie erscheint als autonom, als selbst handelnd und als entscheidungsfähig. Sie ist komplex und dynamisch, basiert auf nichtlinearen und vielfach auch sensitiven/instabilen Prozessen, die ihr eine hohe Flexibilität und Adaptivität ermöglichen. Nachmoderne Technik ist nicht durch ein Input-Output-Schema mit einer analytisch rekonstruierbaren stabilen Transformationsregel zu beschreibbar.
Im Rahmen der Reflexion allgemeiner Technologietrends sind KI- und Machine-Learning-Verfahren charakterisierbar als Ermöglichungstechnologie, Konvergenztechnologie sowie Technowissenschaft (Abschn.
4.7). Die Informatik avanciert offenbar – in aller Ambivalenz – zu einer neuen Leit-, Fundamental- und Basiswissenschaft.
Dass KI- und Machine-Learning-Verfahren wissenschaftlich äußerst erfolgreich sind und gesellschaftliche und ökonomische Innovationen fördern, ist unstrittig. Allerdings bedarf es – um die Chancen dieses Zugangs zu komplexen, dynamischen, nichtlinearen, sich selbst organisierenden Objektsystemen in Natur, Technik, Wirtschaft und Gesellschaft nutzen und produktiv weiterentwickeln zu können – einer weitergehenden Reflexion, einem Monitoring und einer Minimierungsstrategie epistemischer Risiken der Opazität, die entstehen, wenn sich das von den neuen informatischen Verfahren getriebene Regime nachmoderner Wissenschaften ausweitet.
Gegen eine Erweiterung und Ergänzung des Regimes moderner Wissenschaft spricht nichts – im Gegenteil. Eine moderate Erweiterung und umsichtiger Ergänzung – institutionell und förderpolitisch abgesichert, begleitet von transparenten und diskursiv zugänglichen Prozeduren der Qualitätssicherung – kann zu neuen wissenschaftlichen Erkenntnissen sowie zu reichhaltigen gesellschaftlichen Gestaltungsoptionen, etwa in Richtung Nachhaltigkeit, führen. Allerdings ist einer möglichen Schwerpunktverlagerung in Richtung nachmoderner Wissenschaft, verbunden mit der sukzessiven Ersetzung und Eliminierung der modernen Wissenschaft vorzubeugen. Schließlich ist der Erfolg der bisherigen Wissenschafts- und Technikentwicklung eng verbunden mit der aufklärerischen und kritischen Tradition des Regimes der modernen Wissenschaft, die sich in der balancierten Koexistenz der vier (o. g.) Wissenschaftsverständnisse zeigt. Nicht nur ist eine Erkenntnis- und Theorieorientierung für moderne Wissenschaft – neben anderem – kennzeichnend; vielmehr ist sie grundlegend für mittel- und langfristige Anwendungs- und Verwertungserfolge. Nachmoderne Wissenschaft mag zwar vordergründig nützlich erscheinen und einem utilitären Zeitgeist entsprechen, doch sie allein greift zu kurz und ist nicht hinreichend grundlegend und hintergründig, auch für zukünftige Innovationen: Schließlich gehören Weltverständnis und Weltgestaltung zusammen – wenn man das so traditionell formulieren mag. Moderne Wissenschaft ist als Orientierungsrahmen, Referenzsystem und Innovationsproduzent erhaltenswert.