Skip to main content
Top

15. Lösen digitale Agenten die menschlichen Forscher künftig ab?

  • Open Access
  • 2026
  • OriginalPaper
  • Chapter
Published in:

Activate our intelligent search to find suitable subject content or patents.

search-config
loading …

Zusammenfassung

Als Subjekt und in intersubjektiven Zusammenhängen agierend ist der Mensch unverzichtbare Voraussetzung für wissenschaftliche Erkenntnis. Die Behauptung, dass KI als digitaler Agent eigenständig erkenntnisfähig ist, wird in diesem Kapitel logisch widerlegt. Hierzu werden zunächst Aussagen des Funktionalismus in Bezug auf das Denken und die Intelligenz dargestellt und kritisch hinterfragt. KI kann nicht in Begründungsdiskursen autonom agieren, weil ihnen die pragmatischen Merkmale der Handlungsurheberschaft und Zurechenbarkeit nicht zukommen. Zusätzlich wird am Verhältnis von Korrelationsanalysen zu Kausalerklärungen erläutert, warum der Probabilismus nur unzureichend der Wahrheitsfindung und -prüfung dient. Damit aber kann KI grundsätzlich keine gesellschaftlich zustimmungsfähige Wissenschaft erzeugen.
Der Beitrag ist im Rahmen einer trans-disziplinären Arbeitsgruppe entstanden, deren Ergebnisse veröffentlicht sind in: Gethmann et al., Künstlichliche Intelligenz in der Forschung. Der vorliegende Beitrag stützt sich vor allem auf Kap. 3 (43–78).
Spricht man KI als Instrument wissenschaftlicher Arbeit an, unterstellt man, dass ein menschlicher Akteur dieses Instrument (vermeintlich) zweckgerichtet einsetzt. Mit welchem Erfolg und unter welchen Erfolgskriterien der instrumentelle Einsatz auch immer erfolgt, grundsätzlich ist der menschliche Akteur im epistemischen Prozess als solcher nicht grundsätzlich gefährdet, wenn sich seine Rolle auch ändern kann. Die Metapher von digitalen Agenten verlegt dagegen die Akteursrolle in das Instrument selbst, das begrifflich genau genommen in diesem Moment aufhört, eines zu sein. Aus diesem Grunde ist auch der Begriff der „Autonomie“ in Bezug auf technische Artefakte allenfalls metaphorisch zu verwenden. Nur ein Akteur kann genau genommen sich selbst die Regeln des Handelns auferlegen. Ein technisches Gerät dagegen, dem die Regeln seiner Operationen vom Konstrukteur, Softwareentwickler u. a. vorgegeben werden, ist grundsätzlich „heteronom“ bestimmt, auch wenn es im Rahmen der vorgegebenen Regeln weiter „lernt“, seinen zweckgerichteten Einsatz zu optimieren.
Ein digitaler Agent wäre demgegenüber der Souverän, der dank seiner Künstlichen Intelligenz die Mittel zum Zweck bestimmt. Dieses Bild nimmt die Vorstellung in Anspruch, dass der Prozess des Generierens von Wissen prinzipiell ein regelbestimmtes Verfahren ist, also einer Methodologie folgt, so dass ein solches Verfahren somit auch von einem technischen Artefakt übernommen und ohne die menschlichen Schwächen (Müdigkeit, Lustlosigkeit, Ehrgeiz, Geldgier u. a.) sogar mit größerer Perfektion ausgeführt werden kann. Sollte dieses Bild von einem regelgeleiteten Verfahren wissenschaftlicher Erkenntnisproduktion jedoch unzutreffend sein, wäre auch der Gedanke der Übernahme eines solchen Verfahrens durch einen „Erkenntnisroboter“ irreführend.
Von „Künstlicher“ Intelligenz wird gesprochen, wenn Computeranwendungen in technischen Artefakten (Geräten, devices) Merkmale menschlicher Intelligenz aufweisen. In diesem Zusammenhang wird seit den siebziger Jahren des 20. Jahrhunderts kontrovers über die Frage diskutiert – in Anlehnung an einen bekannten Buchtitel von H. L. Dreyfus (1979, 1992) – was Computer können und nicht können bzw. demnächst können und nicht können werden. Um diese Frage zu beantworten, muss zunächst geklärt werden, von welchen impliziten Annahmen hinsichtlich der menschlichen Intelligenz dabei Gebrauch gemacht wird.

15.1 Der Turing-Test und seine anthropologischen Präsuppositionen

Auch ohne eine genauere Klärung des Begriffs der Intelligenz ist offenkundig, dass er das Verhältnis zwischen menschlichen und maschinellen Leistungsmerkmalen vor allem bezüglich kognitiver Fähigkeiten hervorhebt. Entsprechend war in der ersten Phase der Diskussion um KI ab den siebziger Jahren des 20. Jahrhunderts die Frage leitend, „ob Computer denken können“. Für die Fragerichtung ist die kontroverse Diskussion um die Interpretation des von A.M. Turing 1950 vorgeschlagenen Turing-Tests paradigmatisch.1 Nach Turing kann die Frage, ob technische Artefakte „denken“ können, dadurch entschieden werden, dass ein Fragesteller (für ihn verdeckten) Menschen und Geräten beliebige Fragen stellt. Wenn in einer größeren Zahl von Durchgängen mit wechselnden Fragestellern und wechselnden Menschen bzw. Geräten die Antworten zu einem hinreichend großen Anteil (z. B. 50 %) nicht eindeutig Mensch bzw. Gerät zugeordnet werden können, gibt es nach Turing keinen Grund, technischen Artefakten weniger Denkvermögen zuzuschreiben als Menschen. Für die Beurteilung der Angemessenheit dieses Tests hängt offenkundig alles davon ab, nach welchen Kriterien in überprüfbarer Weise einer Entität das Vermögen „Denken“ zugeschrieben wird. Computerwissenschaftler unterstellen dabei im Anschluss an Turing ein Verständnis von „menschlicher“ Intelligenz, relativ zu dem sie die Leistungsfähigkeit von „künstlichen“ Computern interpretieren. Beispielsweise wird das menschliche Gedächtnis nach dem Operationsraum von technischen Speichern „modelliert“. Für dieses von den Naturwissenschaften vom Menschen transferierte Verständnis von menschlicher Intelligenz sind drei anthropologisch folgenreiche Annahmen kennzeichnend:
1.
Messbarkeit: Unter Intelligenz wird eine Eigenschaft verstanden, die vielen Sorten von Entitäten graduell zugeschrieben wird. Menschen wie technische Artefakte können somit mehr oder weniger intelligent sein, je nach ihrer messbaren Leistung. Qualitative Gewichtungen lassen sich auf quantitative zurückführen, oder aber sie sind bedeutungslos.
 
2.
Leiblosigkeit: Die Eigenschaft der Intelligenz ist nicht an eine leibliche bzw. organische Realisierung gebunden. Die physische (organische oder anorganische) Beschaffenheit intelligenter Entitäten ist irrelevant für die Frage, ob sie denken können. Damit wird das Zusprechen von Intelligenz von der physischen Realisierung unabhängig gemacht.
 
3.
Nicht-Individualität: Zustände, auf die mentale Termini referieren, sind durch äußere Reize und die Reaktionen auf sie zu erklären. Gleiche mentale Zustände müssen durch gleiche Ursachen festgelegt sein. Wenn Kognitionen intelligenter Entitäten affektive und emotive Varianz bei gleichen Reiz-Reaktions-Bedingungen aufweisen, sind diese als zu behebende technische Störungen einzuordnen.
 
Diese Unterstellungen stammen aus identitätstheoretischen und funktionalistischen Konzeptionen der Philosophie des Geistes, nach der jede menschliche kognitive Leistung im Prinzip funktional äquivalent durch ein technisches Artefakt darzustellen und nachzustellen ist. Viele KI-Forscher übernehmen somit von den Naturwissenschaften vom Menschen ein funktionalistisches Verständnis menschlicher Fähigkeiten, für die (ohne weitere Rechtfertigung) das „Denken“ für symptomatisch gehalten wird (vgl. die kritische Untersuchung bei Carrier & Mittelstraß, 1989). Die Interpretation und Identifikation der Leistung des „Denkens“ übernehmen viele Neurowissenschaftler von Beschreibungen der „künstlich“ hergestellten Funktionsweisen eines Computers, anscheinend ohne dass ihnen der damit verbundene Explikationszirkel Probleme bereitet.
Die philosophische Kritik an der Vorstellung des „denkenden“ Computers setzt an den Präsuppositionen des Funktionalismus an. Sie bezieht sich dabei auf eine lange Geschichte eines oft mehr oder weniger explizit vertretenen anthropologischen Naturalismus. Der Ausdruck „Naturalismus“ kennzeichnet nicht die kognitiven Bemühungen von Naturwissenschaftlern als solche, sondern aus den Naturwissenschaften vom Menschen abgeleitete, aber über sie hinausgehende Deutungsansprüche hinsichtlich des Selbstverständnisses des Menschen und seiner gesellschaftlichen Selbstorganisation (exemplarisch: im Zusammenhang mit dem Strafrecht und bezüglich Erziehungsmaßnahmen). Dabei geht es in einer auffälligen Unschärfe der Begriffe um die „natürliche“ Erklärung mal kognitiver, mal operativer Fähigkeiten des Menschen. In allen Fällen hatte der Naturalismus eine „wissenschaftliche“ Weltanschauung vom Menschen zum Ziel, die eine weitgehende Transformation philosophischer Fragestellungen in solche der Wissenschaften ermöglichen soll (vgl. ausführlicher Gethmann, 2016).
Die Kritik am anthropologischen Funktionalismus, die besonders prominent von H. L. Dreyfus (1979) und J. Searle (1984) entwickelt wurde, versucht zu zeigen, dass die anthropologischen Präsuppositionen des Funktionalismus grundsätzlich unangemessen sind, um als hinreichende Beschreibungsinstrumente für das Handeln menschlicher Akteure eingesetzt werden zu können.
  • Messbarkeit: Im Unterschied zu technischen Artefakten bestimmen menschliche Akteure ihre Lebensumstände in einem mehr oder weniger großen Umfang „selbst“, und zwar nach Maßgabe subjektiver qualitativer Kriterien. Diese lassen sich nicht (restlos) adäquat quantitativ darstellen. Die Wichtigkeit einer Freundschaft, die Verzweiflung über eine Erkrankung oder die Freude an einer Mahlzeit lassen sich in der mentalen Binnensphäre nicht quantitativ messen. Emotionen können zwar andere „anstecken“, aber nicht ohne weiteres mit Anspruch auf Geltung verbindlich gemacht werden.2
  • Leiblosigkeit: Die Eigenschaft der Intelligenz menschlicher Akteure ist immer an eine leibliche Realisierung gebunden. Einer der Hauptmängel des Funktionalismus ist die mangelnde Unterscheidung von Leib und Körper. Der Mensch hat nicht einen Leib, sondern er ist Leib. Deswegen sind beispielsweise Angriffe gegen seinen Leib (etwa durch Folter) nicht Angriffe gegen Gegenstände seines Eigentums, sondern Angriffe auf ihn selbst. Wesentliches Merkmal der Leiblichkeit ist die organische Struktur: Leib ist Leben, und Leben lässt sich nicht (vollständig) mit physikalischen Beschreibungsinstrumenten erfassen.3
  • Nicht-Individualität: Wenn ein technisches Artefakt auf eine Ursache reagiert, ist zu erwarten, dass jedes baugleiche ungestörte technische Artefakt in gleicher Weise reagiert. Baugleichheit ist in Bezug auf lebende Organismen jedoch eine nicht einschlägige Kategorie. Selbst genetische Zwillinge sind nicht in dem Sinne gleich, dass sie auf gleiche Stimuli auf gleiche Weise reagieren. Erst recht determiniert die genetische Gleichheit nicht die die Urheberschaft gleicher Handlungen. Das menschliche Individuum reagiert nicht einfach auf Symbole, sondern verwendet und kontrolliert sie. Verhält sich ein Individuum relativ stabil gegenüber seiner Umwelt, entwickelt es auf diese Weise seine Identität. Identität als eine Handlung prägende Bedingung ist somit etwas völlig anderes als eine die Handlung konditionierende Baugleichheit.4
Die Vorstellung der vollständigen Substituierbarkeit menschlicher kognitiver Leistungen macht von anthropologischen Präsuppositionen Gebrauch, die einer kritischen Betrachtung nicht standhalten. Dabei ist nicht ausgeschlossen, dass kognitive Teilfunktionen, wie beispielsweise Gedächtnisleistungen, von technischen Artefakten nicht nur ersetzt, sondern sogar hinsichtlich geringerer Störanfälligkeit, höherer Leistungsfähigkeit, tieferer Vernetzung u. a. übertroffen werden können. Der technische Erfolg, der zweifellos besteht, erzeugt dabei die problematische Suggestion, dass die anthropomorphe Interpretation der technischen Artefakte unproblematisch ist.

15.2 Künstliche Agenten und menschliche Handlungsurheberschaft

Die Diskussion um die KI hat sich etwa seit der Jahrtausendwende unmerklich von der Konzentration auf die möglicherweise kognitiven Fähigkeiten abgewandt und zunehmend auf die operativen Fähigkeiten konzentriert. Nicht die Frage, in welcher Weise – wenn überhaupt – Computer „denken“ können, sondern in welchem Sinne Computer (z. B. als humanoide Roboter) „handeln“ können, steht inzwischen im Vordergrund. Diese Verschiebung der Aufmerksamkeit geht Hand in Hand mit der technischen Entwicklung, die unter intelligenten Systemen nicht nur solche mit hoher Informationsverarbeitungskapazität versteht, sondern Quasi-Akteure, die menschliches Handeln nicht nur nachahmen und übertreffen, sondern zunehmend „autonom“ ersetzen. Damit stellt sich die Frage, in welchem Sinne solche „Agenten“ überhaupt handeln und in welchem Umfang und in welcher Weise solche „autonomen“ Systeme in der Folge für ihr Handeln verantwortlich gemacht werden können. Entsprechend fordert diese Frage nicht nur – wie früher – die Epistemologie, sondern auch die Ethik heraus. Im Rahmen der Jurisprudenz hat sich eine breite Debatte um die Zuordnung der Handlungsurheberschaft zu „autonomen“ Systemen als E-Personen (e-persons) und beispielsweise Fragen der Haftung ergeben (z. B. Hilgendorf, 2015). Allerdings wäre die Diskussionslage zu einfach beschrieben, wenn man sie als Übergang vom Denken (Wissen) zum Handeln beschriebe. Kognitive und operative Fähigkeiten und Leistungen lassen sich technisch nicht trennen, so dass die Frage, ob Computer denken können, mit der Frage, ob Computer handeln können, in aufzuklärender Weise zusammenhängt. Dieser enge Zusammenhang wird sprachlich schon dadurch suggeriert, dass die Ausdrücke, mit denen kognitive Prozesse beschrieben werden, wie beispielsweise „denken“, grammatisch „Tuwörter“ sind. Die pragmatische Wende in der Diskussion muss also so rekonstruiert werden, dass die epistemischen Kategorien in sie eingebettet werden können.
Diese Rekonstruktionen lassen sich zu der Definition zusammenfassen, dass eine Intelligenzleistung genau dann als menschliche anzusprechen ist, wenn die Zuordnung zu einem Wesen mit Handlungsurheberschaft pragmatisch angemessen ist (Gethmann, 2023, S. 151–165). KI-Leistungen können unter Gesichtspunkten angemessener Beschreibung menschlichen Intelligenzleistungen ähnlich sein; die technischen Artefakte, von denen KI-Leistungen ausgehen, können jedoch nicht in angemessener Weise als Handlungsurheber angesprochen werden. Der von John. R. Searle (1984, bes. Kap. 2) am Beispiel des Chinesischen Zimmers (siehe auch Kap. 14) illustrierte Unterschied zwischen einer syntaktischen Prozedur und dem Beherrschen einer Sprache folgt aus dem Kriterium der Handlungsurheberschaft: Nur ein Wesen, das (Rede-)Handlungen hervorbringt, kann diesen eine Bedeutung verleihen bzw. eine Bedeutung verstehen (Mainzer, 1995, S. 653 ff.).

15.3 Merkmale wissenschaftlicher Intelligenz

Die Frage nach den Folgen der Einführung Künstlicher Intelligenz für Wissenschaftler-Arbeitsplätze spezialisiert die Frage nach dem Unterschied zwischen Künstlicher und menschlicher Intelligenz auf die Subspezies (menschlicher) Wissenschaftler. Prima facie dürfte unbestritten sein, dass sich die Tätigkeit von Wissenschaftlern von anderen Tätigkeiten unterscheidet, nämlich dadurch, dass Wissenschaftler als spontane Handlungsurheber von Wissen verstanden werden. Ein Gerät der Künstlichen Intelligenz kann aber a priori kein Handlungsurheber sein, sondern immer nur ein „Anwender“ von etwas, das durch menschliche Intelligenz vorgegeben wurde. Die Explikation des Begriffes der Künstlichen Intelligenz muss sich somit auf ein nicht-naturalistisches (finalistisches, intentionalistisches) Verständnis kognitiver Handlungen stützen.
Für die Beurteilung von Systemen Künstlicher Intelligenz in der Forschung bedeutet das näherhin, eine nicht-naturalistische Rekonstruktion der Tätigkeit des Wissenschaftlers zu entwickeln. Als Definitionsskizze für die Explikation des Wissensbegriffs wird hier ein begründungstheoretischer Ansatz gewählt:
$$ \mathrm{X}\kern0.24em \mathrm{wei}\beta, \kern0.36em \mathrm{dass}\kern0.24em \mathrm{p}:= F\ddot{u}r\kern0.24em \mathrm{alle}\kern0.24em \mathrm{Y},\kern0.36em \mathrm{es}\kern0.24em \mathrm{gibt}\kern0.24em \mathrm{ein}\kern0.24em \mathrm{p}:\mathrm{X}\kern0.24em \mathrm{kann}\kern0.24em \mathrm{p}\kern0.24em \mathrm{gegen}\ddot{u}\mathrm{ber}\kern0.24em \mathrm{Y}\kern0.24em \mathrm{begr}\ddot{u}\mathrm{nden} $$
Die gemeinsprachliche Verwendung des Ausdrucks „Wissen“ erweckt in Verbindung mit einem weitverbreiteten Vulgär-Cartesianismus den Eindruck, als sei Wissen ein privater innerer Vorgang, der gelegentlich von seinem „Besitzer“ „aus-gedrückt“ wird.5 Demgegenüber verwendet die obige Definitionsskizze den Ausdruck resultativ, d. h. als ein Ergebnis eines sozialen Prozesses, nämlich des Begründens. Begründen ist eine regelgeleitete Sequenz von Redehandlungen, die mit einem konstativen performativen Modus beginnt, für den das „Behaupten“ hier exemplarisch eingesetzt wird. Eine regelgeleitete Sequenz von Redehandlungen heißt „Diskurs“. Diskurse lassen sich wie alle sprachlichen Phänomene empirisch beschreiben und erklären und fallen somit in den Gegenstandsbereich der empirischen Sprachwissenschaften. Um interlingual die Regeln korrekter diskursiver Verfahren zu rekonstruieren (Logik, Topik), muss man demgegenüber auf die Instrumente einer formalen Pragmatik von Redehandlung und Redehandlungssequenzen zurückgreifen (Gethmann, 1979).
Technische Artefakte, die mit sog. Künstlicher „Intelligenz“ ausgestattet sind, können grundsätzlich nicht als Akteure in Begründungsdiskursen auftreten, weil ihnen die pragmatischen Merkmale der Handlungsurheberschaft und Zurechenbarkeit nicht zukommen. Wie immer in unterschiedlichen kognitiven Kontexten Handlungen in Begründungsdiskursen, wie Behaupten, Bezweifeln, Zustimmen u. a., propositional bestimmt sind, können technische Artefakte diese Handlungen zwar unterstützen, aber nicht selbst ausführen.

15.4 Die Zweckorientierung der Wissenschaft

Der schärfste Epochenbruch, den die Wissenschaftshistoriographie beschreibt, ist der Übergang von der antik-mittelalterlichen Auffassung der Wissenschaft zur frühneuzeitlichen. Dieser Übergang ist mit besonderer Prägnanz in der programmatischen Schrift Novum Organon des Francis Bacon beschrieben worden, die diese Transformation zu methodologischen Forderungen zusammenfasst; deshalb spricht man auch vom Bacon-Projekt (Schäfer, 1993; Gethmann, 2003). Als markante Schwellenphänomene beschreibt Bacon eine zweifache Transformation der neuen Wissenschaft gegenüber der alten. Es geht einmal (a) um eine Transformation der Erkenntnisstile, die man mit der Wendung „Kontemplation versus Intervention“ zusammenfassen kann: Die Kontemplation der Natur wird abgelöst durch die Intervention in die Natur. Es geht zum anderen (b) um eine Transformation der Wissensformen des poietischen und praktischen Wissens, die zueinander in Beziehung gesetzt werden. Beide Unterscheidungen sind im Übrigen nicht neu; neu ist aber das Verhältnis zwischen ihnen, wie Bacon es bestimmt. Von besonderer Bedeutung ist, dass Bacon die wissenschaftliche Wissensbildung an einen praktischen Zweck bindet. Etwas verallgemeinert: Wissenschaft dient der Befreiung des Menschen von natürlichen und sozialen Zwängen. Eine solche Welt – befreit von natürlichen und sozialen Zwängen – hat Bacon in seinem utopischen Reiseroman „Atlantis“, einer der frühneuzeitlichen Utopien, vorgestellt. Neuzeitliche Wissenschaft ist nach Bacon gerade nicht zweckfrei, sondern an einen allgemeinen humanen Zweck gebunden. Sie ermöglicht im gelingenden und günstigen Falle, das Verfügungswissen zu erlangen, das gebraucht wird, um die Befreiung von natürlichen und sozialen Zwängen zu bewirken.
Die Rede von der Zweckorientierung der Wissenschaft muss allerdings gegen Missverständnisse gesichert werden, da damit nicht selten Vorstellungen von einer Indienstnahme der Wissenschaft für partikuläre ökonomische Interessen (wessen auch immer) verbunden werden. Vor allem diese Partikularisierung des Zweckbegriffs und die damit verbundene Partikularisierung des Interessenbegriffs sind maßgeblich dafür, dass viele Wissenschaftler für die Beschreibung ihres Selbstverständnisses auf der „Zweckfreiheit“ bestehen. Zwar ist die Debatte über eine Gesellschaftstheorie und Geschichtsmetaphysik hinweggegangen, die die Wissenschaften für partikuläre Zwecke (durch Einnahme des sog. Klassenstandpunkts) instrumentalisieren. An die Stelle dieses Theoriesyndroms ist jedoch eine verbreitete Ökonomisierung der Wissenschaft im Rahmen der Arena des Marktes getreten. Demgegenüber ist daran festzuhalten, dass Wissenschaft zwar nicht utilitären und partikulären Nutzenerwägungen unterworfen ist, gleichwohl aber einem transutilitären Zweck dient. „Zweck“ – im Sinne einer universellen und humanen Zwecksetzung – ist von (ökonomischem) „Nutzen“ zu unterscheiden (Gethmann, 2023, S. 137 f.).

15.5 Kausalität und Korrelation

„Big Data“ und ihre Verarbeitung durch KI versetzen nach Meinung einiger Wissenschaftsphilosophen die Wissenschaften in die Lage, auf das schwierige Geschäft der Kausalerklärung zu verzichten und sie durch Korrelationsanalysen zu ersetzen. In diesem Sinne wird von einem „Ende der Theorie“ (Anderson, 2008) gesprochen; nicht in dem Sinne, dass man mit dem Untergang der Theorie etwas Wertvolles verlöre, sondern in dem Sinne, dass eine lästige, eigentlich undurchführbare Aufgabenstellung, nämlich die Explikation eines adäquaten Kausalitätsverständnisses, endlich aufgegeben werden kann. Kausale Hypothesen werden unter den Rahmenbedingungen des Bacon-Projekts durch Experimente, d. h. durch Intervention in die Natur, gefunden. Somit bedeutet das Ende der Theorie auch das Ende der Notwendigkeit des Experiments. An die Stelle des Experiments sollen durch Algorithmen gesteuerte Simulationen und Modellkonstruktionen treten. Damit würde die neuzeitliche Vorstellung von Wissenschaft durch KI abgelöst und somit ein neuer Epochenbruch herbeigeführt.
Mit der Losung vom „Ende der Theorie“ wird also in erster Linie auf die Ablösung der regulativen Idee der deterministischen Kausalerklärung durch Korrelationsanalysen in Form von Mustererkennung in großen Datenmengen abgehoben. Der interventionistische Erkenntnisstil zielt dagegen auf die Beherrschung der Natur durch die Aufdeckung von Ursache-Wirkungs-Verhältnissen ab, deren Erkenntnis die notwendige Bedingung dafür ist, dass man durch Handlungen planvoll in sie eingreifen kann. Somit hängt der Erfolg dieses Wissenschaftsparadigmas von der korrekten Explikation von Ursache-Wirkungs-Verhältnissen ab. Ausgangspunkt der wissenschaftsphilosophischen Bemühungen um die begriffliche Rekonstruktion von Ursache-Wirkungs-Verhältnissen ist die bahnbrechende und folgenreiche Feststellung Humes, dass man zwar die scheinende Sonne und den etwas später erwärmten Stein optisch und haptisch wahrnehmen kann, nicht aber deren zeitliche Abfolge und schon gar nicht die Ursache-Wirkungs-Beziehung zwischen den Ereignissen. Behauptungen über zeitliche Sukzessivität und Kausalität zwischen zwei oder mehreren Ereignissen haben keine Referenzbeziehung zu wahrnehmbaren Gegenständen bzw. Ereignissen, sondern verbinden diese vielmehr durch bereits investierte Kategorien der zeitlichen Abfolge bzw. der Verursachung. Zeitliche Abfolge und Ursache-Wirkungs-Verhältnisse gehören damit neben anderen Kategorien zu den semantischen Netzwerken, über die das erkennende Subjekt bereits verfügen muss, wenn es Ereignisse zueinander in Beziehung setzt.
Hinsichtlich des Verhältnisses von Korrelationsanalyse und Kausalerklärung interagieren die begriffliche Organisation und Interpretation interventionistischer („experimenteller“) Forschung mit der grundsätzlichen Interpretation des Wahrscheinlichkeitsbegriffs. Wer der Überzeugung ist, dass die Welt „an sich“ deterministisch organisiert ist und Wahrscheinlichkeitsaussagen sich daher lediglich (vorläufigen) Erkenntnisdefiziten verdanken („Gott würfelt nicht“), wird die Relationen zwischen unterschiedlichen Ereignissen vollständig und disjunkt in kausale und korrelative einteilen. Es handelt sich dabei um eine kontradiktorische Unterscheidung. Wer demgegenüber unterstellt, dass Relationen zwischen Ereignissen grundsätzlich probabilistisch organisiert sind, wird diese Relationen auf einem Kontinuum (zum Beispiel zwischen 0 und 1) anordnen, dessen Endpunkte sich polar-konträr gegenüberstehen. Die damit angedeutete Kontroverse ist eine innerhalb des interventionistischen Paradigmas.
Sowohl Deterministen wie Probabilisten unterstellen ein Verständnis von Kausalität, das ihre Feststellung bezüglich des Zusammenhangs (Korrelation) bestimmter Ereignisse begründet. Der Determinist will kausale Zusammenhänge von bloß zufälligen, der Probabilist starke (signifikante) von schwachen (kontingenten) Korrelationen unterscheiden. Das Kausalitätsprinzip spielt somit eine bezüglich der hier betrachteten Positionen invariante kriteriale Rolle, die grundsätzlich unvermeidbar ist. Für das wissenschaftliche Geschäft wäre daher ein klares Verständnis von Kausalität unverzichtbar. Bedauerlicherweise ist die Rekonstruktion dieses Verständnisses jedoch eine der wissenschaftstheoretischen Baustellen, deren prekärer Zustand sogar zu tiefer Skepsis gegenüber dem interventionistischen Erkenntnisstil führen könnte.

15.6 Die Bedeutung von Big Data für die Wissenschaft

Am Anfang des Prozesses der Genese von Informationen stehen elektrotechnisch durch Folgen von 0 und 1 hergestellte Signale, die zu Symbolen codiert werden. Diese werden durch syntaktische Regeln zu Daten zusammengeführt. Solche Daten werden in einen Kontext gesetzt und bekommen dadurch Bedeutung. Erst durch diese Bedeutung erhält man eine Information. So bedeutet das Datum 39,8 mit der Maßeinheit Celsius im Kontext der Medizin Fieber. Informationen werden dann mit anderen Informationen zu Wissen verbunden, beispielsweise die Diagnose einer Krankheit, um auf dieser Grundlage Probleme zu lösen, wie zum Beispiel eine Therapie einzuleiten. Durch die moderne Entwicklung u. a. im Bereich der Speichertechnik geht es heute allerdings nicht mehr nur um strukturierte Daten, sondern vor allem um unstrukturierte Daten. Dadurch entsteht eine gewaltige amorphe Datenmasse, die durch die herkömmlichen Datenbanktechnologien und Algorithmen nicht bewältigt werden kann. Neuartige Suchalgorithmen, die diese Datenmassen nach Datenkorrelationen und Datenmustern durchsuchen, führen schließlich die Ergebnisse zusammen, um daraus beispielsweise Trends oder Profile von Produkten und Personen abzuleiten. Zu den herkömmlichen Datenkorrelationen und daraus entwickelten Hypothesen kommen Machine-Learning-Algorithmen. Durch das damit mögliche In-silico-Experiment mit Computersimulation und der Verbindung mit dem herkömmlichen In-vitro-Experiment gibt es die Möglichkeit, zu neuem Wissen zu kommen. Beispielsweise lassen sich anhand der Genomsequenz eines patientenspezifischen HIV-Erregers die Resistenzwahrscheinlichkeit für bestimmte Wirkstoffe und daraus das spezifische Profil eines Patienten berechnen. Zusammen mit dem „Internet der Dinge“ können so in Großzentren der Medizin Daten der Patienten und der Ärzte mit der technischen Infrastruktur zusammenwachsen.
Algorithmen sind auf dem Hintergrund von Theorien und Gesetzen zu interpretieren und auch kritisch zu beurteilen. Korrelationen und Datenmuster ersetzen keine Erklärungen und Begründungen von Ursachen. Das heißt, diese Daten müssen nicht nur qualitativ evaluiert, sondern auch normativ beurteilt werden. Die Algorithmen müssen auf ihre Zwecke und Ziele hin überprüft werden. Diese Überprüfung kann nur von einem Wesen vorgenommen werden, das in der Lage ist, Handlungen als Zweckrealisierungsversuche auszuführen, zu verstehen und zu überprüfen. In diesem Sinne bleibt auch durch die KI-induzierten Innovationen das Bacon-Projekt in seinen Grundstrukturen erhalten.

15.7 Deterministische und probabilistische Voraussagen

Kausalerklärungen haben den großen pragmatischen Vorteil, dass sie sichere Voraussagen (Prognosen) ermöglichen. Viele Wissenschaftsphilosophen sehen in der Prognosefähigkeit – und nicht in einer repräsentativen Abbildung der „realen“ Wirklichkeit – sogar die zentrale operative Bedeutung von interventionistischen „Theorien“ (van Fraassen, 1980). Korrelationsanalysen auf der Basis großer Datenmengen gelangen demgegenüber grundsätzlich nicht zu derartigen deterministischen Prognosen. Ihre Zukunftsantizipationen, die unter dem Begriff der predictive analytics entwickelt werden, hängen von probabilistischen Präsuppositionen ab.
Deterministische Voraussagen in der Physik unterstellen ein deterministisch organisiertes Referenzobjekt, wie es beispielsweise für das Planetensystem angenommen wird. Das Referenzobjekt von Big Data ist jedoch grundsätzlich probabilistisch organisiert. Der Ersetzung von Kausalerklärungen durch Korrelationsanalysen entspricht – aufgrund der Struktur-Isomorphie von Erklärungen und Voraussagen – die Ersetzung von unkonditionierten Voraussagen durch konditionierte Voraussagen, wie sie bei Wettervorhersagen verwendet werden. Die Voraussage der nächsten Sonnenfinsternis ist danach strukturell etwas völlig anderes als die Voraussage des nächsten Regenschauers. Wettervorhersagen beruhen nicht auf Kausalerklärungen, sondern auf mehr oder weniger großen, in der Vergangenheit gewonnenen Datenmengen, die ein zukünftiges Ereignis mehr oder weniger nahelegen. Durch Mustererkennung bezogen auf Big Data und neue Techniken der Datenanalyse wächst die Sicherheit der Vorhersage und nähert sich in günstigen Fällen der Sicherheit der deterministischen Voraussage an, fällt aber grundsätzlich nicht mit ihr zusammen. Wenn es um lapidare pragmatische Probleme geht, im Beispiel die Frage, ob man den Regenschirm mitnimmt, mag es dann zwischen diesen Fällen keinen pragmatischen Unterschied geben. In anderen pragmatischen Kontexten kommt es aber gerade darauf an, ob man von einer Restunsicherheit ausgehen muss oder nicht. Ob man unnötigerweise einen Regenschirm mitgenommen hat, mag in den meisten Fällen belanglos sein. In medizinischen Kontexten, in denen es nicht selten um Leben und Tod geht, versucht man daher, Restunsicherheiten falsch-positiver oder falsch-negativer Voraussagen möglichst einzugrenzen.
Bis in das 20. Jahrhundert folgte die methodologische Grundvorstellung des Bacon-Projekts dem Verifikationismus, d. h. dem Versuch, wissenschaftliche Hypothesen durch Verfahren des „Wahrmachens“ auszuweisen. Allerdings war spätestens seit Hume („Humesches Problem“) geläufig, dass endlich viele Bestätigungsinstanzen, beispielsweise Experimente, aus logischen Gründen nicht einen generalisierenden Satz vom Typ „Alles Kupfer leitet Elektrizität“ wahr machen können. Aus dieser methodologischen Verlegenheit hat Karl Raimund Popper (1934) durch den Vorschlag geführt, den Verifikationismus durch den Falsifikationismus zu ersetzen. Danach soll man nicht versuchen, Hypothesen durch Erfahrung zu beweisen, sondern sie versuchsweise durch Erfahrung zu widerlegen. Wenn eine Hypothese dem Widerlegungsversuch widersteht, dann hat sie sich vorläufig bewährt. Aufgrund der Anzahl der (unabhängigen) Widerlegungsversuche lässt sich der Grad der Bewährung einer Hypothese angeben.
Der Falsifikationismus bietet eine Antwortstrategie für zwei unterschiedliche wissenschaftsphilosophische Probleme an. Einmal geht es um die Abgrenzung von wissenschaftlich sinnvollen gegenüber wissenschaftlich sinnlosen Aussagen. Zu den sinnlosen Aussagen gehören nicht die Aussagen, die aufgrund einfacher syntaktischer („Aua!“) oder semantischer („Alle Bulgaren sind Primzahlen“) Defizite nicht falsifizierbar sind, sondern vor allem solche, die wegen grundsätzlich empirisch nicht überprüfbarer Unterstellungen der Falsifikation entzogen sind. Dies gilt insbesondere für in Anspruch genommene wissenschaftliche „Theorien“, die inhaltliche Falsifikationsverfahren durch eine Immunisierungsstrategie verbieten.6 Falsifizierbarkeit ist also zum einen ein Abgrenzungskriterium. Darüber hinaus bildet das Verfahren der Falsifikation ein Wahrheitskriterium im Sinne eines Bewährungskriteriums. Um eine Theorie gleich welcher epistemischen Herkunft (von der bloßen Phantasie bis zu Annahmen, die sich aus anderen Theorien nahelegen) zu überprüfen, muss folgende Schrittfolge vollzogen werden:
(i)
Aus Theorie-Kandidaten werden mithilfe der Logik Hypothesen deduziert.
 
(ii)
Aus diesen Hypothesen werden Prognosen deduziert; diese Prognosen können empirisch (durch Experiment, …) widerlegt werden. Gelingt diese Widerlegung nicht, gilt die Theorie in Abhängigkeit von Häufigkeit und Härte des Testverfahrens als mehr oder weniger gut bestätigt. Dabei wird die Reproduzierbarkeit unterstellt, denn ein empirischer Test, der nur ein einziges Mal durchgeführt werden kann, ist kein Verfahren. Falsifizierbarkeit setzt Reproduzierbarkeit voraus.
 
Bei der Falsifikation geht es nicht um eine generelle Erkenntnissicherung (wie dies im Rahmen des Fallibilismus unterstellt wird). Primäre Erfahrungen, wie sie Menschen durch ihre fünf Sinne im Alltag „widerfahren“ (nicht: „machen“), sind ausdrücklich nicht angesprochen. Vielmehr geht es um sekundäre Erfahrungen, die wesentlich auf Verallgemeinerung im Sinne von Hypothesen, Modellen oder Theorien beruhen. Bereits der Einsatz von Messgeräten im Rahmen von Experimenten, die der Widerlegung von Prognosen dienen sollen, beruht auf Verallgemeinerungen und führt immer zu sekundärer Erfahrung. Vom einfachen Thermometer bis zum komplexen Geigerzähler sind empirische Testverfahren von vornherein theorieimprägnierte Modelle. Aus ihnen lassen sich mathematisch formulierte Szenarien bilden, die viele Einzelbeobachtungen aus ganz unterschiedlichen Erkenntnisquellen zusammenfassen, um zu Verallgemeinerungen zu kommen. Das Verfahren der Falsifikation muss daher bei einer sehr schnell erreichten Stufe von Komplexität in zunehmendem Maße Vereinfachungen und Idealisierungen im Rahmen von Modellierungen vornehmen. Quantität und Qualität von Modellierungen werden nicht durch das Referenzobjekt der Theorien festgelegt, sondern hängen wesentlich von dem Zweck ab, der mit dem Geltungsanspruch der Theorie verbunden ist.

15.8 Methode und heuristische Urteilskraft

Ein großes Feld der wissenschaftsphilosophischen Diskussion des 20. Jahrhunderts besteht in der Auseinandersetzung mit Grenzen und Schwierigkeiten des Verfahrens der Falsifikation sowie Versuchen ihrer Überwindung. Eine bedeutende Grenze liegt darin, dass es sich ausschließlich auf empirisches Wissen bezieht, wie es beispielsweise durch Experimente bestätigt wird. Die für diese Form von Wissen konstitutiven Formalwissenschaften (vor allem Logik und Mathematik) fallen dabei völlig heraus. Aber auch im Raum des empirischen Wissens gibt es erhebliche Stolpersteine. In den Naturwissenschaften gibt es keineswegs nur generelle Aussagen vom Typ der Gesetzesaussagen. Es gibt durchaus singuläre Phänomene und entsprechende Existenzbehauptungen (vom Typ „Es gibt einen 80. Mond des Jupiter“ oder „Dies ist das Schlüsselbein des Australopithecus“), die nicht nach dem Standardverfahren der Falsifikation auf ihre Bewährtheit hin überprüft werden können. Auch einmalige Großphänomene („Das Universum nach dem Urknall“, „Das Weltklima“) haben die ontologische Eigenheit, dass es gewissermaßen keinen Außenraum gibt, von dem aus falsifizierende Phänomene vorgebracht werden können. Erhebliche methodologische Komplikationen werfen Hypothesen über ferne Zeiten und Räume auf. Da die einfache Falsifikation durch Abwarten („Das Klima im Jahr 3000 …“) oder durch Fernreisen („Der Exoplanet in 1000 Lichtjahren Entfernung …“) als Teststrategie entfällt, müssen indirekte Ersatzstrategien herangezogen werden, bei denen Hypothesen eingesetzt werden müssen, die ihrerseits einem Falsifikationsverfahren zu unterwerfen wären. In anderer Weise sind komplizierte indirekte Testverfahren einzusetzen, wenn es sich um Wahrscheinlichkeitsaussagen handelt, die sich auf ein empirisches Referenzobjekt beziehen. Wahrscheinlichkeitsaussagen enthalten gewissermaßen die Falsifikationsinstanzen schon in sich. Während der Satz „Alle Schwäne sind weiß“ leicht zu falsifizieren wäre, wirft der Satz „Wahrscheinlich sind alle Schwäne weiß“ erhebliche Probleme auf.
Sowohl verifikationistische als auch falsifikationistische Methodologien unterstellen zunächst, dass zwischen Instanzen der Bestätigung und der mehr oder weniger bestätigten Theorie eine Relation derart besteht, dass die Theorie umso mehr bestätigt ist, je mehr Instanzen für sie bzw. je weniger Instanzen gegen sie sprechen. Diese einfache Bestätigungsrelation ist schon dadurch in Frage gestellt, dass die Qualifizierung der Bestätigung einer Theorie auch von der absoluten Zahl der Verifikations- bzw. Falsifikationsverfahren abhängt, mehr aber noch von der Nicht-Trivialität der Bestätigungsinstanzen, beispielsweise der Experimente. Die Uneindeutigkeit wird noch einmal durch die zuerst von C. G. Hempel (1946) formulierte Paradoxie der Bestätigung (Rabenparadoxie) verschärft.
Eine Folgerung aus der Hempelschen Paradoxie ist das Unbestimmtstheorem (Duhem-Quine-These). Danach kann eine Theorie durch sehr verschiedene (sogar widersprüchliche oder disparate) Mengen von Evidenzen bestätigt werden. Vice versa gilt, dass eine konsistente Menge von Evidenzen viele Theorien bestätigen kann. Man erhält damit ein Nachfolgeproblem des Humeschen Induktionsproblems, das man als Problem des semantischen Überschusses einer Theorie bezeichnen kann: Endlich viele Evidenzen reichen nicht aus, um einen generellen Satz (z. B. ein Naturgesetz) zu bestätigen. Anders formuliert: Eine Theorie weist immer einen (nicht bestätigten) Überschuss über das empirische Wissen aus. Aus beiden Problemen folgt zusammenfassend das Mehrdeutigkeitsproblem: Das Verhältnis der Mengen primärer Erfahrung zu wissenschaftlichen Theorien ist mehr-mehrdeutig. Primäre Erfahrung (z. B. durch ein Experiment erzeugt) bestätigt viele Theorien; eine Theorie wird durch verschiedene (sogar widersprüchliche) Erfahrungen bestätigt. Es bedarf also materieller Kriterien, die beispielsweise – mit Blick auf die Rabenparadoxie – Schwäne grundsätzlich nicht als Bestätigungsinstanzen zulassen. Damit entsteht jedoch das gegenläufige Problem, dass man jede Theorie durch die Auswahl von Bestätigungsinstanzen verifizieren bzw. falsifizieren kann, indem man die falsifizierenden Instanzen als inhaltlich nicht einschlägig ausschließt oder als einschlägig einschließt. Die Unterbestimmtheit lässt sich auch schon am einfachen Verfahrensschema der Falsifikation erkennen: Auch wenn die Auswahl der möglicherweise falsifizierenden Instanzen aus den Hypothesen logisch deduziert wird, wird dadurch keine inhaltliche Auswahl dieser Instanzen vorgegeben. Erst recht besteht keine eindeutige logische Beziehung zwischen der angeblich falsifizierenden Instanz und der Hypothese, die falsifiziert wird. In dieser Richtung handelt es sich um ein Schlussverfahren vom Typ der „Abduktion“. Der Wissenschaftler, der für die zur Debatte stehende Hypothese das Verfahren der Falsifikation durchlaufen will, muss also im Vorhinein unter Inkaufnahme möglicher Zirkel im Interesse der epistemischen Kontrolle pragmatische Kriterien heranziehen. Zu diesen gehören die wechselseitige Kohärenz mit anderen Theorien, Analogien zu anderen Wissensbereichen, der Blick auf andere Meinungen der Wissenschaftlergemeinschaft und andere Verfahren kluger Abwägung.

15.9 Theoriendynamik und die epistemische Funktion von Wissenschaftlergemeinschaften

Die dargestellten Probleme, das Verfahren der Falsifikation eindeutig zu rekonstruieren, haben seit Mitte des 20. Jahrhunderts zu erheblichen Zweifeln an der Vorstellung geführt, der faktische Forschungsprozess entwickle sich entlang der Befolgung eines normativen Sets von methodischen Regeln. Stattdessen wurde der Blick auf historisch-kontingente Prozesse der Wissensbildung in den Wissenschaften gelenkt, insbesondere auf die sozialen Interaktions- und Kommunikationsverfahren innerhalb der Wissenschaftlergemeinschaften in Wechselwirkung mit wissenschaftsexternen Einflussfaktoren. Besonders einflussreich war dabei zunächst die Konzeption der diachronen Wissenschaftsphilosophie, die der amerikanische Wissenschaftshistoriker und -philosoph T. S. Kuhn in mehreren Anläufen entwickelt hat (1970, 2000). In Auseinandersetzung mit der Vorstellung, dass die Wissenschaftsentwicklung kumulativ-kontinuierlich nach wissenschaftsinternen (methodologischen) Rationalitätskriterien verlaufe, beschreibt Kuhn einen diskontinuierlichen, auch von wissenschaftsexternen (sozialen) Faktoren bestimmten Wandel in der Wissenschaftsgeschichte. Der zentrale Begriff für die Erklärung des Phänomens des diskontinuierlichen Wandels ist der des Paradigmas, womit der Sachverhalt bezeichnet werden soll, dass einige anerkannte Vorbilder konkreter wissenschaftlicher Praxis die Muster liefern, gemäß denen die Wissenschaftlergemeinschaften ihre methodischen und sozialen Entscheidungen fällen. Was in einer Disziplin ‚rational‘ heißt, hängt danach jeweils von einem solchen Paradigma ab.
Im Anschluss an Kuhns Kritik an Popper hat es in der Wissenschaftsphilosophie des 20. Jahrhunderts eine breite Diskussion über das Verhältnis methodologischer Regeln zu kontingenten sozialen Einflüssen mit zahlreichen Lösungsversuchen gegeben (Radnitzky & Anderson, 1980). Vor allem Imre Lakatos hat einen einflussreichen Vermittlungsversuch zwischen Popper und Kuhn entwickelt (Lakatos, 1970). Im Gegensatz zu Kuhns Diskontinuitätsthese ist der Prozess der Wissenschaftsentwicklung nach Lakatos durch eine Kontinuität sich ablösender Theorien gekennzeichnet. Das Kontinuum entwickelt sich aus einer Menge methodologischer Regeln (‚Forschungsprogramm‘), die teilweise Verbote (‚negative Heuristik‘), teilweise Gebote (‚positive Heuristik‘) sind. Forschungsprogramme sind durch einen methodologischen ‚harten Kern‘ zu charakterisieren, der durch Hilfshypothesen gegen Überprüfung geschützt werden muss.
Die Diskussion über die Rolle einer wissenschaftlichen Methodologie und die Regeln interner Wissenschaftskommunikation in Wechselwirkung mit externen Einflussfaktoren, wie sie durch gesellschaftliche Erwartungen gebildet werden, die sich wiederum zu Instrumenten der Forschungsförderung verdichten können, spielt offenkundig eine epistemische und nicht nur eine pragmatische Rolle bei der Rekonstruktion wissenschaftlicher Geltungsansprüche und ihrer Einlösung. Die schematischen Deutungen der Wissenschaftsentwicklung, wonach diese entweder durch die Geltung ahistorischer Standards nur als intern induzierter Prozess oder als ein Reflex nur externer sozialer Faktoren verstanden wird, müssen nach P. Weingart (1972) durch eine „intervenierende Variable“ des organisatorischen Aufbaus der Wissenschaft, ihrer Strukturen, Regeln und prozessualen Mechanismen miteinander verknüpft werden. Durch diese findet einerseits eine Vermittlung von sozialen Bedingungen und Einflüssen in wissenschaftliche, d. h. kognitive Prozesse statt, andererseits werden ihre Resultate über die spezifische Organisation der Wissenschaft in die Gesellschaft vermittelt und wirken auf diese. Der Bezug der sozialen und kognitiven Strukturen aufeinander im Rahmen einer einheitlichen Konzeption ergibt sich nur, wenn die Institution der Wissenschaft (als intervenierende Variable) auf ihre normativen Grundlagen hin untersucht und mit den normativen Ansprüchen, die Wissenschaftler kognitiv als Gründe erfahren, verglichen wird (Gethmann, 1981).

15.10 Die Unverzichtbarkeit menschlicher Erkenntnissubjekte

Der Falsifikationismus ist eine interne methodologische Wende innerhalb des Bacon-Projekts. Schon Popper hatte zunächst versucht, das Falsifikationsverfahren durch eine kanonische Prozedur anzugeben, die es sogar erlauben sollte, ein numerisches Maß für den Grad der Bestätigung einer Hypothese zu ermitteln. Ein solches Verfahren ließe sich grundsätzlich durch einen Bestätigungsalgorithmus auf der Basis von Big Data verfeinern. Die weitere wissenschaftsphilosophische Debatte über den Begriff der Bestätigung, insbesondere das Problem der Unbestimmtheit, hat jedoch gezeigt, dass Bestätigungsversuche von materiellen Hintergrundannahmen, Risikoabwägungen und heuristischen Fähigkeiten abhängen, die sich nicht in ein kanonisches Verfahren überführen lassen, sondern von faktisch-kontingenten sozialen Faktoren abhängen. Die Vorstellung, die Wahrheitsprüfung von wissenschaftlichen Hypothesen letztlich Computern zu übertragen, ist daher unhaltbar.
Die Vorstellung der vollständigen Substituierbarkeit menschlicher kognitiver Leistungen macht von anthropologischen Präsuppositionen Gebrauch, die einer kritischen Betrachtung nicht standhalten. Dabei ist nicht ausgeschlossen, dass kognitive Teilfunktionen, wie beispielsweise Gedächtnisleistungen, von technischen Artefakten nicht nur ersetzt, sondern sogar hinsichtlich geringerer Störanfälligkeit, höherer Leistungsfähigkeit, tieferer Vernetzung u. a. übertroffen werden können. Technische Artefakte, die mit sog. Künstlicher „Intelligenz“ ausgestattet sind, können jedoch grundsätzlich nicht als Akteure in wissenschaftlichen Begründungsdiskursen auftreten, weil ihnen die pragmatischen Merkmale der Handlungsurheberschaft und Zurechenbarkeit nicht zukommen. Hinsichtlich praktischer Aufgabenstellungen ist KI unter günstigen Bedingungen ein Hilfsmittel, aber kein geeignetes Instrument der definitiven epistemischen Leistungsbeurteilung und Entscheidung. Pragmatische und heuristische Faktoren wie Prüfung der Kohärenz mit anderen Evidenzquellen, Erfolgseinschätzungen u. a. spielen eine nicht zu vernachlässigende Rolle. Erfahrung, Einfallsreichtum, Fingerspitzengefühl, Übersicht und kommunikative Kompetenz sind konstitutive Fähigkeiten, die Falsifikationsverfahren anleiten müssen, aber nicht durch sie ersetzt werden können.
Aus dieser Feststellung ergeben sich unter Heranziehung naheliegender Prämissen einige Forderungen7 für den Umgang mit KI im Bereich der Forschung. Die Bedingungen für den Umgang mit KI müssen so gestaltet sein, dass Forscher sich auch im Zeitalter von KI weiterhin als Urheber des Forschungshandelns begreifen können. Sie bleiben so trotz sog. „autonomer“ informationstechnischer Teilprozesse Urheber bei der Erzeugung der Forschungsergebnisse und garantieren nicht zuletzt wegen der besonderen Reflexionserfordernisse zuweilen intransparenter KI-basierter Verfahren den Rahmen für eine gesellschaftlich zustimmungsfähige Wissenschaft.
Um dies zu gewährleisten, müssen Forschern schon in der fachlichen Sozialisation verpflichtende Aus- und Weiterbildungsmodule mit KI-Bezug angeboten werden. Diese Angebote sollen ihnen die notwendigen theoretischen und praktischen Grundkompetenzen KI-basierter Forschung inklusive entsprechender Erfahrungen und Fertigkeiten vermitteln. Diese Bildungsmaßnahmen sollen nicht nur das technische und das praktische Verständnis über KI-Systeme in der Forschung stärken, sondern auch dazu beitragen, ein gewissen „KI-Hype“ auf die Sachebene hin zu entmystifizieren. Ziel dieser Maßnahmen ist dabei, die Urteilsfähigkeit von Forschern in neuartigen „kollaborativen“ KI-Umgebungen zu ermöglichen bzw. zu erhalten. Dabei sind neue wissenschaftliche Risiken, aber auch neue erkenntnisbildenden Chancen durch KI-basierte Forschung zu vermitteln und mit den herkömmliche Methoden z. B. der Statistik und Wahrscheinlichkeitstheorie zusammenzuführen. Dies beinhaltet, die Forscher weiterhin auf die bewährten wissenschaftskonstituierenden Normen hin, wie die Sicherung der Falsifizierbarkeit und Reproduzierbarkeit ihrer Forschungsresultate, zu sensibilisieren.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Download
Title
Lösen digitale Agenten die menschlichen Forscher künftig ab?
Author
Carl Friedrich Gethmann
Copyright Year
2026
Publisher
Springer Berlin Heidelberg
DOI
https://doi.org/10.1007/978-3-662-71567-3_15
1
Vgl. die kritische Darstellung bei K. Mainzer (1995, S. 113 f. und passim).
 
2
Dazu ist die in der Tradition der philosophischen Anthropologie entwickelte Konzeption von Emotionen und Affekten heranzuziehen, vgl. Scheler (1923).
 
3
Auf den begrifflichen Unterschied von „Leib“ und „Körper“ hat wohl zuerst Scheler (1916, S. 397–402) hingewiesen. Vgl. ferner Plessner (1928, S. 367); Plessner (1941, S. 238 u. ö.); Hengstenberg (1957, S. 88–101); Scherer (1976, S. 157–173). Zur Bedeutung der Leiblichkeit im Zusammenhang mit der Debatte um das Gehirn vgl. auch Fuchs (2013, bes. S. 33–40 und S. 95–110). An die Philosophische Anthropologie schließt sich Dreyfus an (1979, S. 235–255).
 
4
Der Unterschied zwischen physischer Baugleichheit und sozialer Identität wurde vor allem im symbolischen Interaktionismus herausgearbeitet (Mead, 1934).
 
5
Zur generellen Kritik am nach-cartesischen Mentalismus s. Gethmann und Sander (2002).
 
6
Popper nennt insbesondere die Marxistische Gesellschaftstheorie (Wer diese in Frage stellt, gilt als Klassenfeind), die Freudsche Psychoanalyse (Wer diese in Frage stellt, gilt als besonders schwer erkrankt) und die Christliche Metaphysik (Wer diese in Frage stellt, gilt als Ungläubiger) (1962). Zu Immunisierungsstrategien vgl. Albert (1968).
 
7
Thematisch umfassendere Empfehlungen sind formuliert in Gethmann et al., Künstliche Intelligenz in der Forschung (S. IX–XII und S. 176–179).
 
go back to reference Albert, H. (1968). Traktat über kritische Vernunft (1. Aufl.). J.C.B. Mohr.
go back to reference Anderson, C. (2008). The end of theory: The data deluge makes the scientific method obsolete. WIRED. http://archive.wired.com/science/discoveries/magazine/16-07/pb_theory. Zugegriffen am 11.12.2020.
go back to reference Carrier, M., & Mittelstraß, J. (1989). Geist – Gehirn – Verhalten. De Gruyter.CrossRef
go back to reference Dreyfus, H. L. (1979). What computers can’t do. A critique of artificial reason. Cambridge University Press.
go back to reference Dreyfus, H. L. (1992). What computers still can’t do: A critique of artificial reason. New Edition. MIT Press.
go back to reference Fuchs, T. (2013). Das Gehirn – ein Beziehungsorgan (4. Aufl.). Kohlhammer.
go back to reference Gethmann, C. F. (1979). Protologik. Untersuchungen zur formalen Pragmatik von Begründungsdiskursen. Suhrkamp.
go back to reference Gethmann, C. F. (1981). Wissenschaftsforschung? Zur philosophischen Kritik der nachkuhnschen Reflexionswissenschaften. In P. Janich (Hrsg.), Wissenschaftstheorie und Wissenschaftsforschung (S. 9–38). Beck.
go back to reference Gethmann, C. F. (2003). Wissen als Macht. Wissenschaftsphilosophische Überlegungen. In R. Emmermann et al. (Hrsg.), An den Fronten der Forschung: Kosmos – Erde – Leben (S. 238–245). Hirzel.
go back to reference Gethmann, C. F. (2016). What remains of the fundamentum inconcussum in light of the modern sciences of humans? Journal for General Philosophy of Science, 47, 1–20.CrossRef
go back to reference Gethmann, C. F. (2023). Konstruktive Ethik. Springer Nature.
go back to reference Gethmann, C. F., & Sander, T. (2002). Anti-Mentalismus. In M. Gutmann et al. (Hrsg.), Kultur – Handlung – Wissenschaft (S. 91–108). Velbrück.
go back to reference Hempel, C. G. (1946). A note on paradoxes of confirmation. Mind, 55, 79–82.MathSciNetCrossRef
go back to reference Hengstenberg, H. E. (1957). Philosophische Anthropologie. Kohlhammer.
go back to reference Hilgendorf, E. (2015). Recht und autonome Maschinen – ein Problemaufriss. In E. Hilgendorf & S. Hötitzsch (Hrsg.), Das Recht vor den Herausforderungen der modernen Technik (Bd. 4, S. 11–40). Nomos.
go back to reference Kuhn, T. S. (1970). The structure of scientifc revolutions (2. Aufl.). University of Chicago Press.
go back to reference Kuhn, T. S. (2000). The road since „Structure“. In J. Conant & J. Haugeland (Hrsg.), Philsophical essays. University of Chicago Press.
go back to reference Lakatos, I. (1970). Falsification and the methodology of scientific research programs. In I. Lakatos & A. Musgrave (Hrsg.), Criticism and the growth of knowledge (S. 91–196). Cambridge University Press.CrossRef
go back to reference Mainzer, K. (1995). Computer – Neue Flügel des Geistes? De Gruyter.
go back to reference Mead, G. H. (1934). Mind, Self and Society from the Standpoint of a Social Behaviorist. In C. W. Morris (Hrsg.). Chicago University Press.
go back to reference Plessner, H. (1928). Die Stufen des Organischen und der Mensch. DeGruyter. Wiederabdr. Gesammelte Schriften IV (2003). Suhrkamp: Frankfurt am Main.CrossRef
go back to reference Plessner, H. (1941). Lachen und Weinen. Eine Untersuchung nach den Grenzen menschlichen Verhaltens. Arnheim: Van Loghum Slaterus. Wiederabdr. Gesammelte Schriften VII (2003). Suhrkamp.
go back to reference Popper, K. R. (1934). Logik der Forschung. Julius Springer.
go back to reference Popper, K. R. (1962). The open society and its enemies. Routledge.
go back to reference Radnitzky, G., & Andersson, G. (Hrsg.). (1980). Fortschritt und Rationalität der Wissenschaft. J.C.B. Mohr (Paul Siebeck).
go back to reference Schäfer, L. (1993). Das Bacon-Projekt. Von der Erkenntnis, Nutzung und Schonung der Natur. Suhrkamp.
go back to reference Scheler, M. (1916). Der Formalismus in der Ethik und die materiale Wertethik. Niemeyer.
go back to reference Scheler, M. (1923). Wesen und Formen der Sympathie (2. Aufl.). F. Cohen.
go back to reference Scherer, G. (1976). Strukturen des Menschen. Ludgerus.
go back to reference Searle, J. (1984). Minds, brains and science. Cambridge University Press.
go back to reference Turing, A. M. (1950). Computing machinery and intelligence. Mind NS, 59, 433–460.MathSciNetCrossRef
go back to reference Van Fraassen, B. C. (1980). The scientific image. Clarendon.CrossRef
go back to reference Weingart, P. (1972). Einführung. Wissenschaftsforschung und wissenschaftssoziologische Analyse. In P. Weingart (Hrsg.), Wissenschaftssoziologie (Bd. 1, S. 11–42). Fischer Athenäum.

Premium Partner

    Image Credits
    Neuer Inhalt/© ITandMEDIA, Nagarro GmbH/© Nagarro GmbH, AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, USU GmbH/© USU GmbH, Ferrari electronic AG/© Ferrari electronic AG