Algorithmic Bias: Verzerrungen durch Algorithmen verstehen und verhindern
Ein Leitfaden für Entscheider und Data Scientists
- 2022
- Buch
- Verfasst von
- Tobias Bär
- Verlag
- Springer Berlin Heidelberg
Über dieses Buch
Sind Algorithmen Freund oder Feind?
Der menschliche Verstand ist evolutionär darauf ausgelegt, Abkürzungen zu nehmen, um zu überleben. Wir ziehen voreilige Schlüsse, weil unser Gehirn uns in Sicherheit wiegen will. Die meisten unserer Voreingenommenheiten wirken sich zu unseren Gunsten aus, z. B. wenn wir ein Auto, das in unsere Richtung fährt, für gefährlich halten und sofort ausweichen oder wenn wir beschließen, einen Bissen Essen nicht zu essen, der verdorben zu sein scheint. Allerdings wirken sich inhärente Vorurteile negativ auf das Arbeitsumfeld und die Entscheidungsfindung in unseren Gemeinschaften aus. Zwar wird mit der Entwicklung von Algorithmen und maschinellem Lernen versucht, Voreingenommenheit zu beseitigen, doch werden sie schließlich von Menschen geschaffen und sind daher anfällig für das, was wir algorithmische Voreingenommenheit nennen.
In Understand, Manage, and Prevent Algorithmic Bias (Algorithmische Voreingenommenheit verstehen, handhaben und verhindern) hilft Ihnen der Autor Tobias Baer zu verstehen, woher algorithmische Voreingenommenheit kommt, wie man sie als Geschäftsanwender oder Regulierungsbehörde handhaben kann und wie die Datenwissenschaft verhindern kann, dass Voreingenommenheit in statistische Algorithmen einfließt. Baer befasst sich fachkundig mit einigen der mehr als 100 Arten natürlicher Verzerrungen wie Confirmation Bias, Stability Bias, Pattern Recognition Bias und vielen anderen. Algorithmische Verzerrungen spiegeln diese menschlichen Tendenzen wider und haben ihren Ursprung in ihnen. Baer befasst sich mit so unterschiedlichen Themen wie der Erkennung von Anomalien, hybriden Modellstrukturen und selbstverbesserndem maschinellen Lernen.
Während sich die meisten Schriften über algorithmische Voreingenommenheit auf die Gefahren konzentrieren, weist der Kern dieses positiven, unterhaltsamen Buches auf einen Weg hin, auf dem Voreingenommenheit in Schach gehalten und sogar beseitigt werden kann. Sie erhalten Managementtechniken, um unvoreingenommene Algorithmen zu entwickeln, die Fähigkeit, Voreingenommenheit schneller zu erkennen, und das Wissen, um unvoreingenommene Daten zu erstellen. Algorithmic Bias verstehen, verwalten und verhindern ist ein innovatives, zeitgemäßes und wichtiges Buch, das in Ihr Regal gehört. Egal, ob Sie eine erfahrene Führungskraft in der Wirtschaft, ein Datenwissenschaftler oder einfach nur ein Enthusiast sind, jetzt ist ein entscheidender Zeitpunkt, um sich über die Auswirkungen algorithmischer Verzerrungen auf die Gesellschaft zu informieren und eine aktive Rolle im Kampf gegen Verzerrungen zu übernehmen.
Was Sie lernen werden
Untersuchung der vielen Quellen algorithmischer Verzerrungen, einschließlich kognitiver Verzerrungen in der realen Welt, verzerrter Daten und statistischer Artefakte
Verstehen Sie die Risiken algorithmischer Verzerrungen, wie sie erkannt werden können und welche Managementtechniken es gibt, um sie zu verhindern oder zu verwalten
Erkennen, wie maschinelles Lernen sowohl neue Quellen für algorithmische Verzerrungen schafft als auch ein Teil der Lösung sein kann
Kenntnis spezifischer statistischer Techniken, die ein Datenwissenschaftler anwenden kann, um algorithmische Verzerrungen zu erkennen und zu beseitigen
Für wen dieses Buch gedacht ist
Führungskräfte von Unternehmen, die Algorithmen im täglichen Betrieb einsetzen; Datenwissenschaftler (von Studenten bis hin zu erfahrenen Praktikern), die Algorithmen entwickeln; Compliance-Beamte, die über algorithmische Verzerrungen besorgt sind; Politiker, Journalisten und Philosophen, die über algorithmische Verzerrungen im Hinblick auf ihre Auswirkungen auf die Gesellschaft und mögliche regulatorische Maßnahmen nachdenken; und Verbraucher, die darüber besorgt sind, wie sie von algorithmischen Verzerrungen betroffen sein könnten
Inhaltsverzeichnis
-
Frontmatter
-
Eine Einführung in Verzerrungen und Algorithmen
-
Frontmatter
-
1. Einführung
Tobias BärDas Kapitel beginnt mit der Definition von Verzerrungen als Neigungen oder Vorurteile, die als ungerecht empfunden werden. Es erklärt, wie das menschliche Gehirn durch Vorurteile schnelle Entscheidungen trifft, um die Informationsverarbeitung zu beschleunigen. Algorithmen werden als mathematische Gleichungen zur Lösung von Problemen beschrieben, die ebenfalls Abkürzungen nutzen, um schnell und effizient zu sein. Allerdings können sowohl menschliche Entscheidungen als auch Algorithmen voreingenommen sein, was zu systematischen Fehlern führen kann. Das Kapitel untersucht Beispiele aus der Praxis, wie Voreingenommenheit in Algorithmen entsteht und welche schwerwiegenden Folgen dies haben kann. Es schließt mit der Betonung der Notwendigkeit, algorithmische Voreingenommenheit zu minimieren und bietet einen Überblick über die verschiedenen Techniken und Strategien, die hierfür entwickelt wurden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDie Einführung gibt eine Vorschau auf die Definition von Verzerrungen, warum Vorurteile zweischneidige Schwerter sind und warum Algorithmen Vorurteile sowohl propagieren als auch verhindern können. Außerdem gibt sie einen Überblick über den Inhalt der vier Teile dieses Buches. -
2. Voreingenommenheit in der menschlichen Entscheidungsfindung
Tobias BärDas Kapitel untersucht die Voreingenommenheit in der menschlichen Entscheidungsfindung und deren Auswirkungen auf algorithmische Verzerrungen. Es wird erklärt, wie menschliche kognitive Verzerrungen die Grundlage für algorithmische Voreingenommenheit bilden und welche zentralen Ziele der Natur – Genauigkeit, Geschwindigkeit und Effizienz – diese Verzerrungen beeinflussen. Die Natur muss gleichzeitig Genauigkeit, Geschwindigkeit und Effizienz im Gehirn gewährleisten, was zu verschiedenen Arten von Voreingenommenheit führt. Handlungsorientierte Voreingenommenheit spiegelt die Notwendigkeit der Natur wider, schnell zu handeln, während Stabilitätsverzerrungen Effizienz maximieren. Mustererkennungsfehler und soziale Voreingenommenheit sind weitere wichtige Themen, die die Genauigkeit und Effizienz von Entscheidungen beeinflussen. Das Kapitel schließt mit der Erkenntnis, dass nicht jede voreingenommene Entscheidung ein Problem darstellt, sondern oft ein Kompromiss zwischen konkurrierenden Zielen ist. Diese tiefgehende Analyse bietet wertvolle Einblicke für Datenwissenschaftler und Psychologen, die die Herausforderungen und Lösungen im Umgang mit Voreingenommenheit in Algorithmen verstehen wollen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungWie Sie in den folgenden Kapiteln sehen werden, haben algorithmische Verzerrungen ihren Ursprung in menschlichen kognitiven Verzerrungen oder spiegeln diese in vielerlei Hinsicht wider. Der beste Weg, algorithmische Voreingenommenheit zu verstehen, ist daher, menschliche Voreingenommenheit zu verstehen. Auch wenn „Voreingenommenheit“ umgangssprachlich oft als etwas Schlechtes angesehen wird, das rücksichtsvolle, wohlmeinende Menschen meiden würden, so ist sie doch ein zentraler Bestandteil der Arbeitsweise des menschlichen Gehirns. Der Grund dafür ist, dass die Natur drei konkurrierende Ziele gleichzeitig verfolgen muss: Genauigkeit, Geschwindigkeit und (Energie-)Effizienz. -
3. Wie Algorithmen Vorurteile bekämpfen
Tobias BärDieser Beitrag beleuchtet, wie Algorithmen menschliche Voreingenommenheit abmildern können. Es wird erklärt, wie ein guter Algorithmus funktioniert und wie er durch die Analyse von Datenpunkten objektive und unvoreingenommene Schätzungen ermöglicht. Ein einfaches Beispiel der linearen Regression veranschaulicht, wie statistische Algorithmen entwickelt und optimiert werden, um Vorurteile zu bekämpfen. Durch die Anwendung von statistischen Verfahren wie der Maximum-Likelihood-Schätzung können Algorithmen Fehler minimieren und die Genauigkeit der Schätzungen verbessern. Der Beitrag hebt hervor, wie Algorithmen nicht nur Daten analysieren, sondern auch Einblicke in ihre eigene Denkweise bieten, was wertvolle Informationen über die zugrunde liegenden kausalen Beziehungen liefert. Dies ermöglicht es, voreingenommene Annahmen zu identifizieren und zu korrigieren. Praktische Beispiele aus der Finanzbranche zeigen, wie die Implementierung von Algorithmen die Entscheidungsfindung verbessern und Kredit- und Versicherungsverluste reduzieren kann. Der Beitrag schließt mit der Erkenntnis, dass Algorithmen zwar mächtige Werkzeuge zur Bekämpfung von Vorurteilen sind, aber dennoch selbst anfällig für Verzerrungen sein können, was in späteren Kapiteln weiter untersucht wird.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIm vorangegangenen Kapitel haben Sie einen Crashkurs in Psychologie absolviert, um zu verstehen, warum Menschen bei ihren Entscheidungen manchmal voreingenommen sind und was einige der häufigsten Arten der kognitiven Vorurteilsprozesse sind. In diesem Kapitel, das sich in erster Linie an Leser richtet, die selbst keine Erfahrung mit der Entwicklung von Algorithmen haben, werde ich erklären, wie ein Algorithmus funktioniert. Genauer gesagt werde ich zeigen, wie ein guter Algorithmus funktioniert und wie er dadurch menschliche Voreingenommenheit abmildern kann. In späteren Kapiteln können Sie dann leichter verstehen, wie Algorithmen in die Irre führen können (d. h. Voreingenommenheit zeigen) – und welche verschiedenen Möglichkeiten es gibt, dieses Problem anzugehen. -
4. Der Modellentwicklungsprozess
Tobias BärDer Fachbeitrag behandelt den komplexen Prozess der Modellentwicklung in der Datenwissenschaft. Nach einer Einführung in die Funktionsweise von Algorithmen wird der Fokus auf die Entwicklung dieser Modelle gelegt. Besondere Aufmerksamkeit wird der Vermeidung von Vorurteilen geschenkt, die sich in den Modellen einschleichen können. Der Text betont die Wichtigkeit der Kommunikation zwischen Datenwissenschaftlern und Geschäftsanwendern, um ein effektives Modell zu entwickeln. Die fünf Hauptschritte der Modellentwicklung werden detailliert beschrieben: Modelldesign, Datenaufbereitung, Modellzusammenbau, Modellvalidierung und Modellimplementierung. Jeder Schritt wird ausführlich erläutert, wobei besonders auf die Datenaufbereitung und den Modellzusammenbau eingegangen wird, da diese Schritte entscheidend sind, um Verzerrungen zu minimieren. Der Text bietet praktische Beispiele und Hinweise, wie man konzeptionelle Probleme und faktisch korrekte Datenverzerrungen identifiziert und behandelt. Zudem wird die Bedeutung der Modellvalidierung und -implementierung hervorgehoben, um sicherzustellen, dass das Modell im tatsächlichen Geschäftsbetrieb effektiv funktioniert. Der Beitrag schließt mit einem Ausblick auf die Bedeutung der Modellierungstechniken im maschinellen Lernen und deren Anwendung in zukünftigen Kapiteln.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIm vorigen Kapitel haben Sie gesehen, wie ein Algorithmus funktioniert. In diesem Kapitel gehe ich darauf ein, wie ein Algorithmus entwickelt wird. Das ist natürlich sehr hilfreich, um die vielen Möglichkeiten zu verstehen, wie sich Vorurteile in Algorithmen einschleichen können. Auch erfahrene Datenwissenschaftler sollten einen kurzen Blick auf dieses Kapitel werfen, damit sie sich meines Denkrahmens und meiner Terminologie bewusst sind, da ich in Zukunft häufig auf beides Bezug nehmen werde. Eine Anmerkung zur Terminologie: Mit dem Aufkommen des maschinellen Lernens wurde ein völlig neues Vokabular eingeführt (z. B. wurden Beobachtungen zu Instanzen, abhängige Variablen im Englischen zu „Labels“ und prädiktive Variablen zu Merkmalen, „features“ im Englischen), was es leider sehr schwierig macht, etwas zu schreiben, das alle Generationen von Datenwissenschaftlern verstehen können. Zumindest ist die neue Berufsbezeichnung Data Scientist viel schicker als Modellentwickler, wie Datenwissenschaftler früher (ca. anno 2010) genannt wurden! Abgesehen von der Berufsbezeichnung werde ich in der Regel traditionellere Begriffe verwenden, vor allem zum Nutzen derjenigen, die in anderen Studienfächern nur ein klein wenig mit Statistik in Berührung gekommen sind und für die es einfacher ist, die Zusammenhänge zu verstehen, wenn ich vertraute Begriffe verwende. -
5. Eine kurze Einführung in das Maschinelle Lernen
Tobias BärDas Kapitel führt in das maschinelle Lernen ein und erklärt, wie es Probleme löst, die traditionelle statistische Techniken nicht bewältigen können. Es wird die Geschichte und Entwicklung des maschinellen Lernens beleuchtet und die Vorteile der Automatisierung hervorgehoben. Besonders interessant ist die detaillierte Darstellung der verschiedenen Techniken zur Verbesserung von Algorithmen, wie nichtlineare Transformationen, differenzierte Behandlung von Teilsegmenten und das Hinzufügen weiterer erklärender Variablen. Das Kapitel endet mit einer Diskussion über die Grenzen und Risiken des maschinellen Lernens und die Notwendigkeit einer sorgfältigen Überwachung und Validierung von Algorithmen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungSie haben wahrscheinlich schon von maschinellem Lernen gehört – es ist zu einem Schlagwort geworden, das mit allem in Verbindung gebracht wird, von utopischen Paradiesen, in denen maschinelles Lernen in der Lage zu sein scheint, fast jedes Problem an einem Tag zu lösen, bis hin zu Szenarien, in denen maschinelles Lernen mit schrecklichen Vorurteilen in Verbindung gebracht wird, die Menschen aller Schattierungen unterdrücken.
-
-
Woher kommen algorithmischen Verzerrungen?
-
Frontmatter
-
6. Wie Vorurteile in der realen Welt von Algorithmen widergespiegelt werden
Tobias BärDas Kapitel beleuchtet die komplexen Wege, auf denen Vorurteile in der realen Welt durch Algorithmen widergespiegelt werden. Es wird gezeigt, wie menschliche Voreingenommenheit die Daten und Entscheidungen von Algorithmen beeinflusst und wie diese Verzerrungen oft tief in der Gesellschaft verankert sind. Ein zentrales Thema ist die ethische und philosophische Dimension dieser Problematik, die darauf hinweist, dass Algorithmen sowohl zur Lösung als auch zur Verstärkung von Vorurteilen beitragen können. Besonders interessant ist die Diskussion darüber, wie Algorithmen in Zukunft fairer gestaltet werden können und welche Rolle sie in der Bekämpfung von Diskriminierung spielen können. Das Kapitel regt dazu an, die Komplexität der Herausforderungen zu verstehen und mögliche Lösungsansätze zu erkunden.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungNachdem Sie nun zum einen erfahren haben, auf welch vielfältige Weise menschliches Denken verzerrt sein kann, und zum anderen, wie komplex die Entwicklung eines Algorithmus ist, haben Sie wahrscheinlich begonnen zu verstehen, auf welch vielfältige Weise algorithmische Verzerrungen entstehen können. In diesem zweiten Teil des Buches werden wir die verschiedenen Wege, auf denen algorithmische Verzerrungen entstehen können, genauer untersuchen. -
7. Vorurteile von Datenwissenschaftlern
Tobias BärDer Beitrag untersucht die Ursachen algorithmischer Voreingenommenheiten, die durch das Urteilsvermögen von Datenwissenschaftlern entstehen. Dabei werden drei Hauptquellen identifiziert: Bestätigungsfehler, mentale Ermüdung (Ego-Depletion) und übermäßiges Selbstvertrauen (Lake-Wobegon-Effekt). Bestätigungsfehler führen dazu, dass Modelle voreingenommene Fragen beantworten, während mentale Ermüdung die Fähigkeit des Datenwissenschaftlers beeinträchtigt, Vorurteile zu vermeiden. Übermäßiges Selbstvertrauen veranlasst Datenwissenschaftler, Signale zu ignorieren, die auf mögliche Verzerrungen hinweisen. Der Text analysiert, wie diese Faktoren das Modellentwurf und die Stichprobenauswahl beeinflussen und bietet Einblicke in die Vermeidung dieser Voreingenommenheiten, um fairere und genauere Algorithmen zu entwickeln.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIm letzten Kapitel haben wir die schlimmstmögliche Situation betrachtet – Vorurteile, die sich so tief in der Realität verankert haben, dass es unmöglich ist, Daten zu sammeln, um sie zu widerlegen. Sehr oft sind die Daten, die erforderlich sind, um Vorurteile aus dem Algorithmus herauszuhalten, jedoch sehr wohl vorhanden, aber irgendwie lässt der Datenwissenschaftler dennoch ein Vorurteil durch. In diesem Kapitel wird diese Ursache für algorithmische Voreingenommenheit näher beleuchtet. -
8. Wie Daten zu Verzerrungen führen können
Tobias BärDas Kapitel untersucht die vielfältigen Möglichkeiten, wie mangelhafte Daten zu Verzerrungen in Algorithmen führen können. Es werden sechs verschiedene Arten von Verzerrungen identifiziert: subjektive Daten, scheinbar quantitative Daten, traumatisierende Ereignisse, voreingenommene Verhaltensweisen, konzeptionelle Fehler und unsachgemäße Datenverarbeitung. Jede dieser Verzerrungen entsteht in unterschiedlichen Phasen des Modellentwicklungsprozesses und erfordert spezifische Lösungsansätze. Subjektive Daten, wie Restaurantbewertungen, sind von Natur aus voreingenommen und können durch die Messmethodik verzerrt werden. Scheinbar quantitative Daten, wie das Jahreseinkommen, sind oft Schätzungen und somit verzerrt. Traumatisierende Ereignisse, wie Naturkatastrophen, können die Daten nachhaltig verzerren. Voreingenommene Verhaltensweisen, wie die Bewertung der Managementqualität, können die Aussagekraft der Variablen mindern. Konzeptionelle Fehler, wie das Abschneiden von Daten, können wichtige Informationen verlieren. Unsachgemäße Datenverarbeitung, wie das Überschreiben historischer Werte, kann zu Rückblicksverzerrungen führen. Das Kapitel bietet praktische Beispiele und Lösungsansätze, um diese Verzerrungen zu vermeiden und die Qualität der Algorithmen zu verbessern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungEin altes Sprichwort lautet: „Garbage in, garbage out“, was bedeutet, dass selbst der beste Algorithmus, der mit Mülldaten gefüttert wird, am Ende Müll ausgibt. Das Gleiche gilt für Verzerrungen. In diesem Kapitel werden wir uns mit den vielen Möglichkeiten befassen, wie mangelhafte Daten zu einem verzerrten Algorithmus führen können. Wie Sie sehen werden, können einige dieser Probleme vom Datenwissenschaftler angegangen werden; andere Probleme müssen tatsächlich von den Personen behoben werden, die die Daten letztendlich erzeugen (z. B. ein Versicherungsvertreter, der Anträge bearbeitet, oder ein Programmierer, der eine Webseite aktualisiert). -
9. Die Anfälligkeit von Algorithmen für Stabilitätsverzerrungen
Tobias BärDas Kapitel beleuchtet die Problematik der Stabilitätsverzerrungen bei Algorithmen, die sowohl Menschen als auch maschinelle Systeme betreffen. Es wird untersucht, wie sich Systeminstabilität und die Unfähigkeit von Algorithmen, neue Konzepte zu lernen, auf ihre Vorhersagegenauigkeit auswirken. Besondere Aufmerksamkeit wird der Reaktionsgeschwindigkeit und der Definition von Ergebnissen als gut oder schlecht geschenkt. Praktische Beispiele und Lösungsansätze, wie die Erweiterung von Stichproben und das schnelle Lernen durch maschinelles Lernen, werden vorgestellt, um die Verzerrungen zu minimieren. Ein besonderes Augenmerk liegt auf der Herausforderung, mit strukturellen Brüchen umzugehen, bei denen historische Daten nicht ausreichen, um zukünftige Szenarien vorherzusagen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungBei unserer Untersuchung menschlicher kognitiver Verzerrungen stachen die Stabilitätsverzerrungen ins Auge. Es stellt sich heraus, dass Menschen nicht allein sind: Auch Algorithmen weisen häufig Stabilitätsfehler auf. In diesem Kapitel gehen wir auf die wichtigsten davon ein und untersuchen, welche Art von Kontextattributen sie begünstigt. -
10. Durch den Algorithmus selbst geschaffene Verzerrungen
Tobias BärDas Kapitel untersucht die weniger bekannten Verzerrungen, die Algorithmen selbst erzeugen können, und wie diese Verzerrungen in der realen Welt zu erheblichen Auswirkungen führen können. Es wird gezeigt, wie Algorithmen unbeabsichtigt Vorurteile einführen können, die in bestimmten Kontexten verstärkt werden können. Ein besonderes Augenmerk liegt auf der Rolle von Stichprobengrößen und Fallhäufigkeiten in der Modellentwicklung und wie diese Faktoren die Funktionsweise von Algorithmen beeinflussen. Des Weiteren wird die Problematik bei baumbasierten Modellen, wie Entscheidungsbäumen und Zufallswäldern, beleuchtet, die besonders anfällig für Verzerrungen sind. Abschließend wird eine philosophische Perspektive eingenommen, um die ethischen Implikationen dieser Verzerrungen zu diskutieren und die potenziellen Schäden für die Betroffenen zu betonen. Die detaillierte Analyse und die tiefgehende Reflexion machen dieses Kapitel zu einem wertvollen Beitrag für Fachleute, die sich mit den komplexen Herausforderungen und ethischen Fragen der Algorithmik auseinandersetzen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIn der bisherigen Diskussion haben Sie Algorithmen als neutral und faktenorientiert erlebt, die aktiv das Ziel verfolgen, unverzerrte Schätzungen zu produzieren. Die untersuchten Arten von algorithmischen Verzerrungen hatten alle ihren Ursprung außerhalb des Algorithmus, z. B. in Verzerrungen in der realen Welt oder unzureichenden Daten. In diesem Kapitel werden wir tiefer in die Funktionsweise eines Algorithmus eintauchen und Situationen entdecken, in denen ein Algorithmus „zufällig“ neue Vorurteile im Sinne von Vorurteilen gegenüber bestimmten Profilen einführt. Vieles davon kann als Rauschen betrachtet werden, aber hin und wieder kann eine solche algorithmische Voreingenommenheit durch den Kontext, in dem der Algorithmus verwendet wird, vergrößert, verstärkt oder sogar aufgepeitscht werden, wodurch die Wirkung einer solchen algorithmischen Voreingenommenheit überproportional wachsen kann. -
11. Algorithmische Verzerrungen und soziale Medien
Tobias BärDas Kapitel beleuchtet die komplexen Mechanismen, durch die algorithmische Verzerrungen in sozialen Medien entstehen und sich verstärken. Es wird erläutert, wie Algorithmen den Fluss von Nachrichten steuern und wie Vorurteile der Nutzer und Entscheidungen der Datenwissenschaftler bei der Modellgestaltung zu Verzerrungen führen. Besondere Aufmerksamkeit wird der Rolle der Nutzer und der Möglichkeiten von Dritten geschenkt, die Algorithmen manipulieren, um ihre eigenen Interessen zu verfolgen. Die Diskussion zeigt auf, wie diese Interaktionen ein System schaffen, das Verzerrungen aufrechterhält und verstärkt, und schlägt Maßnahmen vor, um diese Probleme auf verschiedenen Ebenen anzugehen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDieses letzte Kapitel von Teil II des Buches unterscheidet sich insofern von den vorangegangenen Kapiteln, als es auf eine bestimmte Situation eingeht, in der algorithmische Voreingenommenheit auftritt: die Auswahl der Beiträge, die den Nutzern sozialer Medien angezeigt werden. Damit erreiche ich zwei Ziele: Dies dient als Fallstudie, die zeigt, wie die verschiedenen bisher erörterten Verzerrungen zusammenwirken und sich gegenseitig verstärken können, und es veranschaulicht, wie dynamisch algorithmische Verzerrungen sein können. Vorurteile sind nicht in Stein gemeißelt, sondern können sich im Laufe der Zeit aus einer Interaktion zwischen Nutzer und Algorithmus entwickeln und wachsen – die Voreingenommenheit beider Seiten verstärkt sich gegenseitig, bis das Ergebnis eine unangenehm starke Verzerrung sein kann.
-
-
Was können Nutzer gegen algorithmische Verzerrungen tun?
-
Frontmatter
-
12. Optionen für die Entscheidungsfindung
Tobias BärDieser Beitrag beleuchtet die Herausforderungen und Lösungsansätze im Umgang mit algorithmischen Verzerrungen. Es wird erläutert, wie Führungskräfte und andere Entscheidungsträger voreingenommene Algorithmen erkennen und behandeln können. Dabei werden verschiedene Entscheidungsansätze, wie die Vermeidung von Algorithmen, die Beschränkung auf sichere Fälle und die Kombination von Algorithmen mit menschlichem Urteilsvermögen, detailliert beschrieben. Besonderes Augenmerk wird auf die Bewertung der Genauigkeit von Algorithmen im Vergleich zu anderen Methoden gelegt, wobei der Gini-Koeffizient und wirtschaftliche Analysen als wichtige Kennzahlen hervorgehoben werden. Der Text bietet praktische Empfehlungen, um die besten Entscheidungsansätze zu identifizieren und zu implementieren, um die Risiken algorithmischer Verzerrungen zu minimieren.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIn diesem Teil des Buches wird erörtert, wie Nutzern von Algorithmen (z. B. Führungskräfte aus der Wirtschaft und Regierungsbeamte) sowie andere Personen, die Entscheidungen über die Verwendung von Algorithmen treffen müssen (z. B. Compliance-Beauftragte und Aufsichtsbehörden), algorithmische Verzerrungen erkennen, behandeln und verhindern können. Wie Sie sehen werden, ergänzen die Werkzeuge und Techniken, die Geschäftsanwendern zur Verfügung stehen, häufig die Beiträge von Datenwissenschaftlern zur Bekämpfung algorithmischer Verzerrungen, die im Mittelpunkt des vierten und letzten Teils des Buches stehen werden. -
13. Bewertung des Risikos einer algorithmischen Verzerrung
Tobias BärDieser Fachbeitrag untersucht die Bewertung des Risikos einer algorithmischen Verzerrung. Es wird erklärt, wie man die Wahrscheinlichkeit und Schwere solcher Verzerrungen quantifiziert und welche Faktoren diese beeinflussen. Dabei werden ethische, rechtliche und wirtschaftliche Aspekte berücksichtigt. Besonders interessant ist die Checkliste zur schnellen Bewertung der Verzerrungsanfälligkeit und die Diskussion über die Auswirkungen auf verschiedene Branchen wie die Strafverfolgung und die Kreditvergabe. Der Beitrag bietet praktische Ansätze zur Minimierung der Risiken und zur Entscheidung, ob ein Algorithmus eingesetzt werden sollte.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIm letzten Kapitel wurde die Grundlage für eine fundierte Entscheidung darüber gelegt, ob die Verwendung eines Algorithmus eine bessere oder schlechtere Lösung für ein Entscheidungsproblem darstellt als alternative Ansätze wie menschliches Urteilsvermögen, ein einfaches Kriterium oder das Würfeln. Die Diskussion schloss mit der Feststellung, dass Algorithmen empirisch gesehen in vielen Situationen bessere Entscheidungen treffen als alternative Ansätze: Sie machen weniger Fehler (vor allem, weil menschliche Entscheidungen oft noch voreingenommener sind) und können sowohl schneller als auch kostengünstiger sein. Die Einführung eines Algorithmus zur Entscheidungsfindung kann jedoch den Preis neuer Voreingenommenheit mit sich bringen. In diesem Kapital diskutieren wir daher auf konzeptioneller Ebene, wie Situationen mit einem hohen und einem geringen Risiko einer algorithmischen Verzerrung unterschieden werden können. -
14. Sichere Verwendung von Algorithmen
Tobias BärDieser Beitrag behandelt die sichere Verwendung von Algorithmen und Maßnahmen zur Vermeidung algorithmischer Verzerrungen. Es werden drei zentrale Gewohnheiten vorgestellt, die Laien helfen, die Risiken algorithmischer Verzerrungen zu verstehen und zu managen. Dazu gehören das Stellen kritischer Fragen an Datenwissenschaftler, das Kennzeichnen von Unsicherheiten durch den Algorithmus und die regelmäßige Anforderung aussagekräftiger Überwachungsberichte. Diese Praktiken ermöglichen es Nutzern, informierte Entscheidungen zu treffen und die Zuverlässigkeit algorithmischer Ergebnisse zu gewährleisten. Der Beitrag betont die Bedeutung einer engen Zusammenarbeit zwischen Fachanwendern und Datenwissenschaftlern, um die Grenzen und Risiken von Algorithmen zu verstehen und zu adressieren.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIm letzten Kapitel haben Sie gelernt, wie man das Risiko der Voreingenommenheit eines bestimmten Algorithmus bewerten kann. Die Schlussfolgerung war, dass wir in vielen Situationen feststellen können, dass ein gewisses Risiko der algorithmischen Verzerrung vorhanden ist, dass aber der Algorithmus auf der Grundlage einer Kosten-Nutzen-Analyse immer noch bessere Entscheidungen trifft als andere Ansätze (wie z. B. noch voreingenommenere Menschen). Diese Situation kann mit einem lebensrettenden Medikament mit schweren Nebenwirkungen verglichen werden. Genauso wie der Arzt versuchen wird, die Nebenwirkungen eines Medikaments zu lindern, werden wir in diesem Kapitel erörtern, welche Maßnahmen Sie ergreifen können, um sich vor algorithmischen Verzerrungen zu schützen. -
15. Wie man algorithmische Verzerrungen erkennt
Tobias BärDer Beitrag behandelt die Herausforderungen bei der Überwachung von Algorithmen, insbesondere solcher, die durch maschinelles Lernen entwickelt wurden. Es wird erläutert, wie algorithmische Verzerrungen erkannt und überwacht werden können. Besondere Herausforderungen entstehen durch die Komplexität und die kontinuierliche Aktualisierung von maschinellen Lernmodellen. Der Text beschreibt verschiedene Ansätze zur Überwachung und Analyse von Algorithmen, einschließlich der Verwendung von Verteilungsanalysen, manuellen Korrekturen und Kalibrierungsanalysen. Besondere Aufmerksamkeit wird auf die Überwachung selbstverbessernder Algorithmen gelegt, die sich schnell ändern können. Der Beitrag bietet praktische Ratschläge und Werkzeuge zur Bewältigung dieser Herausforderungen und zeigt, wie durch kontinuierliche Überwachung und Analyse die Integrität und Fairness von Algorithmen gewährleistet werden kann.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIm vorigen Kapitel habe ich darauf hingewiesen, dass die Überwachung eine zentrale Rolle bei der sicheren Benutzung von Algorithmen spielt. Dies ist erstaunlich schwierig. Wie Ron DeLegge II es so schön formulierte: „99 Prozent aller Statistiken erzählen nur 49 Prozent der Geschichte“. Infolgedessen wird viel Unfug gesagt und getan, weil in irgendeinem Bericht bedeutungslose Zahlen auftauchen. Selbst wenn keine bösen Absichten im Spiel sind, kann eine schlecht berechnete oder interpretierte Zahl Sie ernsthaft in die Irre führen. Dieses Kapitel gibt einen umfassenden Überblick darüber, wie man Algorithmen am besten auf Verzerrungen aus der Sicht des Nutzers überwacht. -
16. Management-Strategien zur Korrektur algorithmischer Verzerrungen
Tobias BärDer Fachtext behandelt umfassend die Management-Strategien zur Korrektur algorithmischer Verzerrungen. Es werden verschiedene Ansätze zur Anpassung von Entscheidungsarchitekturen und Algorithmen selbst vorgestellt, um gesellschaftliche Voreingenommenheiten zu überwinden. Dabei werden sowohl die technischen Aspekte der Algorithmusmanipulation als auch die psychologischen und sozialen Auswirkungen auf die Betroffenen beleuchtet. Ein besonderer Fokus liegt auf der praktischen Umsetzbarkeit der vorgeschlagenen Maßnahmen und der Notwendigkeit, die Zustimmung verschiedener Interessengruppen zu gewinnen. Der Beitrag bietet eine fundierte Grundlage für Experten, die sich mit der Beseitigung von Verzerrungen in algorithmischen Systemen auseinandersetzen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungWenn sich bestimmte algorithmische Verzerrungen durch statistische Methoden nicht beheben lassen – insbesondere, weil sie Vorurteile in der realen Welt widerspriegeln –, besteht für die Geschäftsführung (oder wer auch immer für die durch den Algorithmus bewerkstelligte Entscheidung zuständig ist) die Möglichkeit, den Algorithmus manuell so zu verändern, dass die Voreingenommenheit umschifft wird. In diesem Kapital werden die Argumente für und gegen eine solche Intervention diskutiert und konkrete Verfahren zu einer solchen Anpassung des Algorithmus vorgeschlagen. -
17. Wie man unverzerrte Daten generiert
Tobias BärDer Beitrag beleuchtet die Bedeutung unverzerrter Daten für die Entwicklung zuverlässiger Algorithmen. Ein zentrales Beispiel ist die Zollkontrolle, bei der verzerrte Daten zu fatalen Fehlentscheidungen führen können. Der Autor betont die Notwendigkeit, neue, unvoreingenommene Daten zu generieren, um diese Probleme zu vermeiden. Dazu werden zwei wichtige Anforderungen diskutiert: die Zufälligkeit der Stichprobe und die Standardisierung der Inspektionsroutine. Praktische Techniken zur Umsetzung dieser Anforderungen werden vorgestellt, einschließlich der Schulung eines kleinen Teams von Inspektoren und der Durchführung von Pilotprojekten. Der Beitrag schließt mit der Erkenntnis, dass die Generierung unverzerrter Daten eine Managementaufgabe ist, die kontinuierlich betrieben werden muss, um Vorurteile zu vermeiden und die Qualität der Daten zu sichern.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungEin Motto unserer Zeit könnte lauten: „Daten sind das neue Gold“ – allerdings glänzen sie nur, wenn sie rein und frei von Schmutz sind. Verzerrte Daten können tödlich verunreinigt und damit wertlos sein. Dieses Kapital diskutiert die wesentlichen Komplikationen, die der Gewinnung von unverzerrten Daten im Wege stehen können, und bietet Lösungsvorschläge an.
-
-
Was können Datenwissenschaftler gegen algorithmische Verzerrungen tun?
-
Frontmatter
-
18. Die Rolle des Datenwissenschaftlers bei der Überwindung algorithmischer Verzerrungen
Tobias BärDas Kapitel beleuchtet die Herausforderungen und Strategien, mit denen Datenwissenschaftler konfrontiert sind, wenn sie algorithmische Verzerrungen in Modellen überwinden wollen. Es beginnt mit der Betonung der Bedeutung von Einblicken aus dem wirklichen Leben und der Notwendigkeit, verzerrte Daten zu vermeiden. Das Modelldesign wird detailliert erläutert, wobei spezifische Schritte und Werkzeuge vorgestellt werden, um Verzerrungen zu minimieren. Die Datenaufbereitung wird als kritischer Schritt hervorgehoben, bei dem die Definition der Stichprobe und die Qualität der Daten sorgfältig geprüft werden müssen. Die Modellzusammenbauphase wird ebenfalls umfassend behandelt, wobei auf die Notwendigkeit hingewiesen wird, die Hyperparameter sorgfältig zu justieren und das Modell gründlich zu testen. Die Bedeutung der Modellvalidierung und der Implementierung wird betont, wobei auf die Notwendigkeit hingewiesen wird, Verzerrungen auch nach der Implementierung zu überwachen und zu korrigieren. Das Kapitel schließt mit einer Zusammenfassung der wichtigsten Strategien zur Vermeidung algorithmischer Verzerrungen und betont die Bedeutung von Best-Practice-Dokumentationen und kontinuierlicher Überwachung.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungWie unsere Reise durch die Welt der algorithmischen Voreingenommenheit gezeigt hat, stehen Datenwissenschaftler vor einer gewaltigen Herausforderung, bei der uralte gesellschaftliche Praktiken und Vorurteile, Unternehmenseigentümer, Nutzer, widerspenstige Datensätze und das müde Gehirn des Datenwissenschaftlers sich alle verschwören können, um algorithmische Verzerrungen entstehen zu lassen. Gleichzeitig haben Datenwissenschaftler viele Möglichkeiten, algorithmische Verzerrungen durch durchdachte Modellierungsentscheidungen einzudämmen. In diesem letzten Teil des Buches werden wir die wichtigsten Techniken, mit denen Datenwissenschaftler algorithmische Verzerrungen eindämmen können, in größerem und technischerem Detail diskutieren. Damit ich keine unrealistischen Erwartungen wecke, möchte ich betonen: Algorithmische Verzerrungen sind kein einzelner Feind, sondern eine ganze Armee von Gegnern – die Erstellung eines Modells kann sich wie eine Wanderung durch den Dschungel anfühlen, bei der man sich gegen alles wehren muss, von Moskitos über Giftschlangen bis hin zu wilden Tigern. Deshalb gibt es leider kein Patentrezept, sondern nur einen Überlebenskurs und eine Packliste mit empfehlenswerten Utensilien wie Moskitoschutzmittel und Machete. -
19. Eine Röntgenuntersuchung Ihrer Daten
Tobias BärDieser Fachbeitrag behandelt die systematische Untersuchung von Daten auf algorithmische Verzerrungen. Es wird eine sechsstufige Analyse vorgestellt, die von der Überprüfung der Stichprobenebene über die Erkennung von Datenlecks bis hin zur visuellen Analyse reicht. Jeder Schritt zielt darauf ab, potenzielle Probleme in den Daten zu identifizieren und zu beheben, um eine robuste und verlässliche Modellentwicklung zu gewährleisten. Die Anwendung von Techniken wie der Hauptkomponentenanalyse und der Korrelationsanalyse ermöglicht es, die Struktur der Daten zu verstehen und Anomalien zu erkennen. Besonders hervorhebenswert ist die Kombination aus manuellen und maschinellen Lernmethoden zur Erkennung von Verzerrungen, die eine umfassende und effiziente Analyse ermöglicht.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungIn diesem Kapitel werden wir uns mit der Frage beschäftigen, wie Sie die Keime für algorithmische Verzerrungen in Ihren Daten erkennen können. Wie aus den vorangegangenen Kapiteln deutlich geworden sein dürfte, jagen wir viele verschiedene Feinde; daher müssen wir unsere Daten auf viele verschiedene Arten potenzieller Probleme untersuchen, so wie ein jährlicher Gesundheitscheck ein Dutzend Verfahren zur Überprüfung von Blut, Urin und verschiedenen Organen umfassen könnte. Mit den Empfehlungen in diesem Kapitel möchte ich Ihnen in sechs relativ einfachen und effizienten Schritten „tausend Augen und tausend Ohren“ geben. Durch diese Analysen wird eine Reihe von Berichten erstellt, wobei jeder Bericht versucht, bestimmte Bereiche, die Anlass zur Besorgnis geben, in leuchtendem Rot zu schattieren, so wie bei einer Röntgenuntersuchung gebrochene Knochen, gerissene Organe und verschlucktes Besteck sichtbar werden. Auf diese Weise können Sie alle signifikanten Unregelmäßigkeiten überprüfen und (unter Berücksichtigung Ihres Kontextwissens und dessen, was Sie in diesem Buch, insbesondere im vorherigen Kapitel, gelernt haben) entscheiden, ob es Grund zur Besorgnis gibt, und wenn ja, was Sie am besten tun können, um eine algorithmische Verzerrung zu vermeiden. -
20. Wann sollte maschinelles Lernen eingesetzt werden?
Tobias BärDieser Beitrag beleuchtet die Entscheidungskriterien für den Einsatz von maschinellem Lernen gegenüber handwerklichen Ansätzen in der Datenwissenschaft. Es wird diskutiert, wann maschinelles Lernen aufgrund seiner Geschwindigkeit und Kosteneffizienz vorteilhaft ist und wann ein handwerklicher Ansatz notwendig ist, um algorithmische Verzerrungen zu vermeiden. Besonders hervorgehoben wird die Notwendigkeit, den Kosten-Nutzen-Rahmen zu berücksichtigen und die spezifischen Anforderungen des Geschäftsproblems zu bewerten. Der Text bietet praktische Ratschläge für die Entscheidungsfindung und zeigt auf, wie beide Ansätze in einem hybriden Modell kombiniert werden können, um optimale Ergebnisse zu erzielen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungSo wie die Erfindung von Computern und des Internets unsere Welt grundlegend verändert hat, ermöglicht das maschinelle Lernen plötzlich, dass die Analytik fast überall präsent ist. Bei solch rasanten Veränderungen neigen wir Menschen natürlich auch zum Überschwang, ja sogar zum Hype, und manchmal müssen wir einen Schritt zurücktreten und tief durchatmen, um die Dinge im Blick zu behalten. In diesem Kapital werden maschinelles Lernen und ein handwerklicher Ansatz hinsichtlich ihrer jeweiligen Fähigkeit, mit algorithmischen Verzerrungen umzugehen, gegenübergestellt, und es werden Implikationen dafür abgeleitet, wann jeder Ansatz am besten geeignet erscheint. -
21. Wie man maschinelles Lernen mit traditionellen Methoden verbindet
Tobias BärDer Beitrag präsentiert vier spezifische Techniken zur Integration von maschinellem Lernen in traditionelle Modelle, um algorithmische Verzerrungen zu vermeiden. Dabei werden maschinelles Lernen auf Prädiktorebene, Segmentierung mit Hilfe von maschinellem Lernen, Identifizierung von Interaktionseffekten durch maschinelles Lernen und Zweite Meinung durch maschinelles Lernen detailliert erläutert. Diese Techniken ermöglichen es Datenwissenschaftlern, die Vorteile des maschinellen Lernens zu nutzen, ohne die Kontrolle über das Modell zu verlieren. Besonders interessant ist die Möglichkeit, föderales maschinelles Lernen zu verwenden, bei dem Daten auf verteilten Geräten bleiben und nur der Algorithmus zentral aggregiert wird. Durch diese hybriden Ansätze können Datenwissenschaftler die Vorhersagekraft ihrer Modelle erheblich steigern und gleichzeitig sicherstellen, dass sie fair und transparent sind.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungWenn ich die Wahl habe, einen Kuchen zu behalten oder ihn zu essen, versuche ich immer, einen Weg zu finden, beides zu tun. Und das ist mir im Bereich des maschinellen Lernens auch gelungen! Wie das geht, ist Inhalt dieses Kapitels. -
22. Wie man Voreingenommenheit in selbstverbessernden Modellen vermeidet
Tobias BärDas Kapitel beschäftigt sich mit der Herausforderung, Voreingenommenheit in selbstverbessernden Modellen des maschinellen Lernens zu vermeiden. Es werden spezifische Werkzeuge und Techniken vorgestellt, um algorithmische Verzerrungen zu minimieren. Dabei wird besonders auf das Modelldesign, die Datenaufbereitung und die Implementierung von Notbremsen eingegangen. Diese Maßnahmen sind entscheidend, um die Zuverlässigkeit und Fairness der Modelle zu gewährleisten. Zudem wird die Bedeutung regelmäßiger manueller Überprüfungen und der Überwachung von Modellmetriken hervorgehoben, um frühzeitig auf potenzielle Probleme reagieren zu können. Ein weiterer Fokus liegt auf maschinellem Lernen in Echtzeit, bei dem besondere Herausforderungen und Lösungsansätze zur Vermeidung von Verzerrungen diskutiert werden. Insgesamt bietet das Kapitel praktische Ratschläge und Techniken, die Datenwissenschaftlern und Ingenieuren helfen, verlässliche und faire selbstverbessernde Modelle zu entwickeln.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungEiner der größten Vorteile des maschinellen Lernens besteht darin, dass die Modelle sich selbst entwickeln und aktualisieren können, ohne dass ein menschliches Eingreifen erforderlich ist, so dass sie in der Lage sind, schnellstmöglich auf strukturelle Veränderungen zu reagieren. Gerade der Kontext, der solche sich selbst verbessernden Algorithmen erfordert (die schnelle Veränderung des Umfelds, in dem sie arbeiten), ist auch die Quelle eines erhöhten Risikos von Voreingenommenheit, die sich auf den Algorithmus auswirkt, sei es durch sich selbst verstärkende Rückkopplungsschleifen, wie wir sie im Zusammenhang mit sozialen Medien erlebt haben (Kap. 11), oder durch neue Daten, die es dem Algorithmus ermöglichen könnten, eine Voreingenommenheit gegenüber einer geschützten Klasse zu entwickeln. In diesem Kapital beschreibe ich daher einige spezifische Werkzeuge, die dabei helfen können, algorithmische Verzerrungen in selbstverbessernden maschinellen Lernmodellen in Schach zu halten. -
23. Wie man Debiasing institutionalisiert
Tobias BärDieser Beitrag behandelt die Herausforderung, Debiasing in großen Organisationen zu institutionalisieren. Es werden sieben konkrete Schritte vorgestellt, um algorithmische Verzerrungen zu bekämpfen und zu verhindern. Dazu gehören die Optimierung des Datenflusses und der Datenvorhaltung, die Standardisierung von Prozessen und Formularen, die Einführung eines Wesentlichkeitskonzepts, die Kalibrierung von Modellen, die unabhängige Validierung, die kontinuierliche Überwachung und die Generierung unverzerrter Daten. Jeder Schritt wird detailliert erläutert und bietet praktische Ansätze zur Umsetzung in der Praxis. Die Implementierung dieser Maßnahmen kann dazu beitragen, die Zuverlässigkeit und Fairness von Algorithmen in Unternehmen zu erhöhen.KI-Generiert
Diese Zusammenfassung des Fachinhalts wurde mit Hilfe von KI generiert.
ZusammenfassungDas Erste, was ich als Berater gelernt habe, ist, dass es einfach ist, gute Ideen zu haben – die eigentliche Herausforderung besteht darin, sie umzusetzen! Nachdem Sie bereits 22 Kapitel dieses Buches gelesen haben, ist Ihr Kopf hoffentlich randvoll mit guten Ideen, wie man algorithmische Verzerrungen bekämpfen kann. Aber wie setzen Sie das in die Tat um, vor allem, wenn Sie, sagen wir mal, ein paar hundert Datenwissenschaftler managen, die unter Termindruck stehen und sich als Menschen erweisen, indem sie ihren Anteil an Selbstüberschätzung an den Tag legen? In diesem Kapital stelle ich sieben konkrete Schritte vor, um die in diesem Buch besprochenen Praktiken in Ihrer Organisation zu institutionalisieren.
-
- Titel
- Algorithmic Bias: Verzerrungen durch Algorithmen verstehen und verhindern
- Verfasst von
-
Tobias Bär
- Copyright-Jahr
- 2022
- Verlag
- Springer Berlin Heidelberg
- Electronic ISBN
- 978-3-662-66315-8
- Print ISBN
- 978-3-662-66314-1
- DOI
- https://doi.org/10.1007/978-3-662-66315-8
Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.