Skip to main content

2020 | Buch

Datafizierung und Big Data

Ethische, anthropologische und wissenschaftstheoretische Perspektiven

herausgegeben von: Prof. Dr. Klaus Wiegerling, Dr. Michael Nerurkar, Christian Wadephul

Verlag: Springer Fachmedien Wiesbaden

Buchreihe : Anthropologie – Technikphilosophie – Gesellschaft

insite
SUCHEN

Über dieses Buch

Der Band versammelt Beiträge, die sich mit ethischen, anthropologischen und wissenschaftstheoretischen Aspekten informationstechnologischer Anwendungen, insbesondere Big Data, befassen. In unterschiedlichen disziplinären Perspektiven werden die Auswirkungen dieser Technologien auf Individuum, Gesellschaft und Wissenschaft in den Blick genommen.

Inhaltsverzeichnis

Frontmatter

Transformation der Wissenschaft

Frontmatter
Daten – Interessen – Ontologien – oder wie Geschäftsmodelle die Wissenschaft verbiegen
Zusammenfassung
Die neuen technischen Möglichkeiten der Big-Data-Methodik erlauben es, unerwartete Strukturen und Beziehungen in Datensätzen zu finden, die aus unterschiedlichsten Zusammenhängen und Bereichen stammen können. Dies wird nicht nur aus forschungstaktischen Gründen getan, sondern um gegebenenfalls monetarisierbare Zusammenhänge zu finden, um neue Geschäftsmodelle finden zu können. Das Ergebnis einer Daten-Analyse durch die Methoden der Big-Data-Technologien kann nicht angemessen interpretiert werden, wenn die Forschungsfrage, d. h. die Frage, wonach man eigentlich sucht, nicht vorher gestellt worden ist. Deshalb braucht man ein Modell, das den untersuchten Prozess oder Gegenstandsbereich vorläufig hypothetisch erklärt, d. h. eine Kausal-Vermutung. Ein Modell, das kausale Erklärungen erlaubt, ist allemal besser als ein Modell, das nur Extrapolationen liefert. Es besteht die Tendenz, die wissenschaftliche Methodik durch bloße numerische Prozeduren zu ersetzen. Treiber dieser Entwicklung sind Geschäftsmodelle, die darauf abzielen, eine multifunktionale Verwendung von einmal erhobenen Daten in unterschiedlichsten Kontexten, sprich Ontologien, vermarkten zu können.
Klaus Kornwachs
A New Kind of Science: Big Data und Algorithmen verändern die Wissenschaft
Zusammenfassung
Wir leben in einem datengetriebenen (data-driven) Zeitalter, dessen Entwicklung durch exponentielle Wachstumsgesetze von Datenmengen, Rechner- und Speicherkapazitäten beschleunigt wird. Manchen Autoren halten theoretische Fundierungen bereits für überflüssig, da in der Wirtschaft immer effizientere Algorithmen immer schneller immer bessere Kunden- und Produktprofile voraussagen. In der Wissenschaft prophezeien Autoren wie S. Wolfram eine neue Form der Forschung („A New Kind of Science“), die ebenfalls nur noch auf effiziente Algorithmen und Computerexperimente setzen, die angeblich „traditionelle“ mathematische Theorien überflüssig machen. Diese Parolen sind brandgefährlich, haben aber einen richtigen Kern. Gefährlich sind diese Positionen deshalb, da Theorien ohne Daten zwar leer sind, aber Daten und Algorithmen ohne Theorie blind sind und unserer Kontrolle entgleiten. Richtig ist, dass sich der traditionelle Theoriebegriff in vielfacher Weise verändert, sowohl beim Entdecken und Finden von Hypothesen durch Machine Learning also bei theoretischen Erklärungen durch Computerexperimente und der Voraussage durch Predictive Analytics. Entscheidend ist aber vor allem die Prüfung und Kontrolle von Algorithmen, die durch neuartige Theorien möglich werden. Im letzten Abschnitt werden dazu aktuelle Beispiele untersucht. Nur so können wir sicher sein, dass uns am Ende Big Data mit seinen Algorithmen nicht aus dem Ruder läuft.
Klaus Mainzer
Sind Heuristiken die besseren Algorithmen? Ein Antwortversuch am Beispiel des Traveling Salesman Problem (TSP)
Zusammenfassung
Algorithmen sind so vielfältig wie die Anwendungen, die sie ermöglichen: Vom autonom fahrenden Auto, über Sprachverarbeitung und Textgenerierung bis hin zu DNA-Entschlüsselungen sowie Analysen von Aktienmärkten finden sich tausende von Algorithmen, die digitale Prozesse (Programme) steuern. Wann immer Software auf eine Eingabe (Input) reagiert, ist die Reaktion (Output) durch Algorithmen berechnet worden. ‚Algos‘, wie sie in Fachkreisen fast liebevoll genannt werden, bringen als digital-formalisierbare Handlungsanweisungen Computer zum Laufen. Das methodische Repertoire der Informatik ist in den letzten Jahren erheblich an Umfang und Komplexität gewachsen. Zu den elementaren und exakten algorithmischen Methoden sind heuristische Strategien hinzugekommen, die zwar nicht immer optimale, aber dafür effizientere und bei komplexen Problemen oft erstmalig überhaupt Lösungen liefern. Der Beitrag möchte – v. a. mit Bezug auf das Traveling Salesman Problem (TSP) – zeigen, inwieweit Heuristiken sogar als bessere Algorithmen betrachtet werden müssen.
Christian Wadephul

Systemvertrauen und Anerkennung

Frontmatter
Big Data und die Frage nach der Anerkennung
Zusammenfassung
Der Beitrag beschäftigt sich mit der Frage nach der Rolle des ethischen Grundbegriffs der Anerkennung für die Nutzung von Technologien im Allgemeinen und Big Data analysierenden und verarbeitenden Informationstechnologien im Besonderen. Zunächst werden die Begriffe Vertrauen und Anerkennung sowie deren Verhältnis untersucht, ehe das Systemvertrauen erörtert wird. Dabei wird auch auf die Vorgeschichte des Datenvertrauens als Vertrauen in die Unbestechlichkeit und magische Kraft der Zahl eingegangen. Es wird erörtert, inwiefern Vertrauen in letztere rechtfertigbar und welche Anerkennungsverhältnisse bei deren Nutzung besonders problematisch sind. Als besonders problematisch erweisen sich Anerkennungsverhältnisse, die in einer neopositivistischen Metaphysik gründen, die die Bedingungen ihres Zustandekommens ausklammern. Vertrauen in spezifische Big-Data-Technologien wie das maschinelle Lernen ist in wissenschaftlichen Kontexten nicht rechtfertigbar, weil die Rekonstruierbarkeit bzw. methodische Nachvollziehbarkeit letztlich nicht gewährleistet werden kann.
Klaus Wiegerling
Datenschatten und die Gravitation fast richtiger Vorhersagen
Zusammenfassung
Das Verhältnis von Freiheit, persönlicher Entfaltung einerseits und datengestützten Vorhersagetechniken, Personalisierung und Komfort andererseits muss angesichts von Big Data neu betrachtet werden. In diesem Beitrag wird eine Problemstelle in diesem Rahmen anhand der Metapher des ‚Datenschattens‘ thematisiert und auf ihre Konsequenzen für den Fall von Big-Data-gestützten Vorhersagen (predictive analytics) hinterfragt. Vorhersagen, die auf Big Data basieren, ignorieren die Differenz zwischen dem Individuum und seinem jeweiligen ‚Datenschatten‘ und setzen letzteren mit ersterem gleich. Zwischen beiden besteht aber eine zwar graduelle, doch letztlich unüberbrückbare Kluft. Zunehmende Bereiche der Lebenswelt der Individuen werden IT-technisch durch diesen Datenschatten vorinformiert und vorformatiert. Dies übt eine Art Hintergrund-Anziehungskraft – bildlich Gravitation – auf die Wahrnehmungs-, Entscheidungs- und Handlungsoptionen der Individuen aus. Dies umso mehr, je geringer die Kluft zwischen Individuum und Datenschatten ist. Durch diese Gravitation nähert sich das Individuum seinem Datenschatten an, mit weitreichenden Konsequenzen für dessen Zukunftsmöglichkeiten.
Bruno Gransche
Gründe geben. Maschinelles Lernen als Problem der Moralfähigkeit von Entscheidungen
Zusammenfassung
Der Beitrag behandelt die Frage, ob und inwieweit Entscheidungssysteme, die auf maschinell lernenden Algorithmen beruhen, die Begründung von ethischen Entscheidungen verändern. Dabei wird zwischen praktischem und epistemischem Verstehen unterschieden: Während in alltäglichen Technikanwendungen das praktische Verstehen genügt, bedarf es bei der Anwendung von auf lernenden Algorithmen beruhenden Entscheidungssystemen auch eines epistemischen Verstehens, das die Funktionsweise der Systeme betrifft. Lernende Algorithmen verändern die Moralisierbarkeit von Entscheidungen, nicht weil die Gründe unzureichend sind, sondern weil die Begründungsform prinzipiell inadäquat ist. Das Sprachspiel der Begründung erfährt eine problematische Veränderung.
Andreas Kaminski

Grenzen der Datafizierung und der Adaption

Frontmatter
Das System setzt seine Grenzen nicht. Zu Adaption, Grenzziehung und Grenzüberschreitung
Zusammenfassung
Was heißt heute ‚Adaption‘ und ‚System(e)ʻ? Der Beitrag plädiert dafür, im Blick auf den heutigen soziotechnologischen Wandel zugleich die Frage nach Begriffskonzepten der Beschreibung und Modellierung dieses Wandels in den Blick zu nehmen. Hierzu werden, unter Bezugnahme auf jüngere theoretische und technikhistorische Diskussionen, drei Perspektiven der Frage nach den kybernetisch geprägten Konzepten der ‚Adaption‘ und des ‚Systems‘ im Verhältnis zum heutigen Wandel skizziert: Aufgeworfen wird diese Frage in Bezug, erstens, auf das Verhältnis zwischen kybernetischer Geschichte und Gegenwart; zweitens auf das Verhältnis zwischen Theorie und Praxis im soziotechnologischen Wandel; und drittens auf das Verhältnis zwischen diesen Begriffskonzepten und solchen jüngerer Ansätze, die ihnen gegenüber heute neue oder differenzierte Begriffe vorschlagen.
Regine Buschauer
Datenhermeneutik: Überlegungen zur Interpretierbarkeit von Daten
Zusammenfassung
Der Beitrag befasst sich mit der grundsätzlichen Problematik, dass bei der Veröffentlichung von Daten nicht ohne Weiteres vorausgesetzt werden kann, dass die Rezipienten auch in der Lage sind, diese angemessen zu interpretieren. Dies stellt eine Herausforderung dar, die sich im Zuge der zunehmenden automatisierten Gewinnung und Verarbeitung von Daten (Big Data) noch verschärfen wird. Es wird dafür plädiert, dass hierauf mit datenhermeneutischen Überlegungen zu antworten ist – unter anderem durch eine Auseinandersetzung mit Fragen betreffs der Bedingungen angemessener Interpretierbarkeit von Daten und diesbezüglicher Pflichten der Veröffentlicher von Daten.
Michael Nerurkar, Timon Gärtner

Menschliche Selbstverständnis und Wertewandel

Frontmatter
Das Zerstörungspotenzial von Big Data und Künstlicher Intelligenz für die Demokratie
Zusammenfassung
Der Ansatz, Massendaten („Big data“) mit den heutigen mächtigen, nach wie vor exponentiell wachsenden Computer-Kapazitäten und dazu passenden Methoden zu erfassen, zu speichern, durchzuforsten, zu kombinieren und auszuwerten, hat auch für die Künstliche Intelligenz (KI) neue Impulse und Möglichkeiten geschaffen. Diese rücken einerseits alte KI-Träume näher in den Bereich des Realen, können aber andererseits ein großes zerstörerisches Potenzial entfalten. Damit gehen neue Bedrohungen einher, unter anderem für die Datenintegrität, Persönlichkeitsrechte und Privatheit, für die Unabhängigkeit von Wissen und Information sowie für den gesellschaftlichen Zusammenhalt. Neue Medien wie Facebook oder Twitter, übermächtige IT-Konzerne wie Google oder Amazon sowie die fortschreitende Digitalisierung alltäglicher Vorgänge und Gegenstände („Internet der Dinge“) spielen dabei eine entscheidende Mittlerrolle. Immer wieder verkündete Visionen von der „technischen Singularität“, d. h. der möglichen Machtübernahme der Maschinen über die Menschen werfen Fragen nach dem Primat der Politik über Wirtschaft und Technik und dem Bestand und der Überlebensfähigkeit der Demokratie, wenn nicht sogar der Menschheit auf.
Wolfgang Hesse
Zwischen Delirium der Rationalität und Verlust biografischer Imaginationsfähigkeit
Zusammenfassung
Eine der Veränderungen im Kontext von Big Data besteht im schleichenden Verlust der Erzählbarkeit des eigenen Lebens durch (potenziell) lückenlose Datensammlungen. Ethisch relevant sind dabei der Verlust von Selbstbestimmtheit und Würde. Die zunehmende Quantifizierung und Indexikalisierung menschlichen Lebens können als Angriff auf die existenzielle Realität verstanden werden. Der performative Selbstwiderspruch datengetriebener Gesellschaften besteht darin, einerseits Optimierungs- und Flexibilitätsanforderungen an Individuen immer normativer zu adressieren, gleichzeitig aber in Kauf zu nehmen, dass Lebensentwürfe konformer und Lebensgeschichten weniger narrativer werden. Der Verlust biographischer Imaginationsfähigkeit sowie der plastischen Narrationsmöglichkeit des eigenen Lebens stellen eine bislang kaum beachtete ethische Sollbruchstelle des Big Data Zeitalters dar.
Stefan Selke
Erratum zu: Erzählerische Wahrheit im Zeitalter von Big Data: Zwischen Delirium der Rationalität und Verlust biografischer Imaginationsfähigkeit
Stefan Selke
Metadaten
Titel
Datafizierung und Big Data
herausgegeben von
Prof. Dr. Klaus Wiegerling
Dr. Michael Nerurkar
Christian Wadephul
Copyright-Jahr
2020
Electronic ISBN
978-3-658-27149-7
Print ISBN
978-3-658-27148-0
DOI
https://doi.org/10.1007/978-3-658-27149-7

    Marktübersichten

    Die im Laufe eines Jahres in der „adhäsion“ veröffentlichten Marktübersichten helfen Anwendern verschiedenster Branchen, sich einen gezielten Überblick über Lieferantenangebote zu verschaffen.