Zum Inhalt

Algorithmic Bias: Verzerrungen durch Algorithmen verstehen und verhindern

Ein Leitfaden für Entscheider und Data Scientists

  • 2022
  • Buch

Über dieses Buch

Sind Algorithmen Freund oder Feind?

Der menschliche Verstand ist evolutionär darauf ausgelegt, Abkürzungen zu nehmen, um zu überleben. Wir ziehen voreilige Schlüsse, weil unser Gehirn uns in Sicherheit wiegen will. Die meisten unserer Voreingenommenheiten wirken sich zu unseren Gunsten aus, z. B. wenn wir ein Auto, das in unsere Richtung fährt, für gefährlich halten und sofort ausweichen oder wenn wir beschließen, einen Bissen Essen nicht zu essen, der verdorben zu sein scheint. Allerdings wirken sich inhärente Vorurteile negativ auf das Arbeitsumfeld und die Entscheidungsfindung in unseren Gemeinschaften aus. Zwar wird mit der Entwicklung von Algorithmen und maschinellem Lernen versucht, Voreingenommenheit zu beseitigen, doch werden sie schließlich von Menschen geschaffen und sind daher anfällig für das, was wir algorithmische Voreingenommenheit nennen.

In Understand, Manage, and Prevent Algorithmic Bias (Algorithmische Voreingenommenheit verstehen, handhaben und verhindern) hilft Ihnen der Autor Tobias Baer zu verstehen, woher algorithmische Voreingenommenheit kommt, wie man sie als Geschäftsanwender oder Regulierungsbehörde handhaben kann und wie die Datenwissenschaft verhindern kann, dass Voreingenommenheit in statistische Algorithmen einfließt. Baer befasst sich fachkundig mit einigen der mehr als 100 Arten natürlicher Verzerrungen wie Confirmation Bias, Stability Bias, Pattern Recognition Bias und vielen anderen. Algorithmische Verzerrungen spiegeln diese menschlichen Tendenzen wider und haben ihren Ursprung in ihnen. Baer befasst sich mit so unterschiedlichen Themen wie der Erkennung von Anomalien, hybriden Modellstrukturen und selbstverbesserndem maschinellen Lernen.

Während sich die meisten Schriften über algorithmische Voreingenommenheit auf die Gefahren konzentrieren, weist der Kern dieses positiven, unterhaltsamen Buches auf einen Weg hin, auf dem Voreingenommenheit in Schach gehalten und sogar beseitigt werden kann. Sie erhalten Managementtechniken, um unvoreingenommene Algorithmen zu entwickeln, die Fähigkeit, Voreingenommenheit schneller zu erkennen, und das Wissen, um unvoreingenommene Daten zu erstellen. Algorithmic Bias verstehen, verwalten und verhindern ist ein innovatives, zeitgemäßes und wichtiges Buch, das in Ihr Regal gehört. Egal, ob Sie eine erfahrene Führungskraft in der Wirtschaft, ein Datenwissenschaftler oder einfach nur ein Enthusiast sind, jetzt ist ein entscheidender Zeitpunkt, um sich über die Auswirkungen algorithmischer Verzerrungen auf die Gesellschaft zu informieren und eine aktive Rolle im Kampf gegen Verzerrungen zu übernehmen.

Was Sie lernen werden

Untersuchung der vielen Quellen algorithmischer Verzerrungen, einschließlich kognitiver Verzerrungen in der realen Welt, verzerrter Daten und statistischer Artefakte

Verstehen Sie die Risiken algorithmischer Verzerrungen, wie sie erkannt werden können und welche Managementtechniken es gibt, um sie zu verhindern oder zu verwalten

Erkennen, wie maschinelles Lernen sowohl neue Quellen für algorithmische Verzerrungen schafft als auch ein Teil der Lösung sein kann

Kenntnis spezifischer statistischer Techniken, die ein Datenwissenschaftler anwenden kann, um algorithmische Verzerrungen zu erkennen und zu beseitigen

Für wen dieses Buch gedacht ist

Führungskräfte von Unternehmen, die Algorithmen im täglichen Betrieb einsetzen; Datenwissenschaftler (von Studenten bis hin zu erfahrenen Praktikern), die Algorithmen entwickeln; Compliance-Beamte, die über algorithmische Verzerrungen besorgt sind; Politiker, Journalisten und Philosophen, die über algorithmische Verzerrungen im Hinblick auf ihre Auswirkungen auf die Gesellschaft und mögliche regulatorische Maßnahmen nachdenken; und Verbraucher, die darüber besorgt sind, wie sie von algorithmischen Verzerrungen betroffen sein könnten

Inhaltsverzeichnis

  1. Frontmatter

  2. Eine Einführung in Verzerrungen und Algorithmen

    1. Frontmatter

    2. 1. Einführung

      Tobias Bär
      Das Kapitel beginnt mit der Definition von Verzerrungen als Neigungen oder Vorurteile, die als ungerecht empfunden werden. Es erklärt, wie das menschliche Gehirn durch Vorurteile schnelle Entscheidungen trifft, um die Informationsverarbeitung zu beschleunigen. Algorithmen werden als mathematische Gleichungen zur Lösung von Problemen beschrieben, die ebenfalls Abkürzungen nutzen, um schnell und effizient zu sein. Allerdings können sowohl menschliche Entscheidungen als auch Algorithmen voreingenommen sein, was zu systematischen Fehlern führen kann. Das Kapitel untersucht Beispiele aus der Praxis, wie Voreingenommenheit in Algorithmen entsteht und welche schwerwiegenden Folgen dies haben kann. Es schließt mit der Betonung der Notwendigkeit, algorithmische Voreingenommenheit zu minimieren und bietet einen Überblick über die verschiedenen Techniken und Strategien, die hierfür entwickelt wurden.
    3. 2. Voreingenommenheit in der menschlichen Entscheidungsfindung

      Tobias Bär
      Das Kapitel untersucht die Voreingenommenheit in der menschlichen Entscheidungsfindung und deren Auswirkungen auf algorithmische Verzerrungen. Es wird erklärt, wie menschliche kognitive Verzerrungen die Grundlage für algorithmische Voreingenommenheit bilden und welche zentralen Ziele der Natur – Genauigkeit, Geschwindigkeit und Effizienz – diese Verzerrungen beeinflussen. Die Natur muss gleichzeitig Genauigkeit, Geschwindigkeit und Effizienz im Gehirn gewährleisten, was zu verschiedenen Arten von Voreingenommenheit führt. Handlungsorientierte Voreingenommenheit spiegelt die Notwendigkeit der Natur wider, schnell zu handeln, während Stabilitätsverzerrungen Effizienz maximieren. Mustererkennungsfehler und soziale Voreingenommenheit sind weitere wichtige Themen, die die Genauigkeit und Effizienz von Entscheidungen beeinflussen. Das Kapitel schließt mit der Erkenntnis, dass nicht jede voreingenommene Entscheidung ein Problem darstellt, sondern oft ein Kompromiss zwischen konkurrierenden Zielen ist. Diese tiefgehende Analyse bietet wertvolle Einblicke für Datenwissenschaftler und Psychologen, die die Herausforderungen und Lösungen im Umgang mit Voreingenommenheit in Algorithmen verstehen wollen.
    4. 3. Wie Algorithmen Vorurteile bekämpfen

      Tobias Bär
      Dieser Beitrag beleuchtet, wie Algorithmen menschliche Voreingenommenheit abmildern können. Es wird erklärt, wie ein guter Algorithmus funktioniert und wie er durch die Analyse von Datenpunkten objektive und unvoreingenommene Schätzungen ermöglicht. Ein einfaches Beispiel der linearen Regression veranschaulicht, wie statistische Algorithmen entwickelt und optimiert werden, um Vorurteile zu bekämpfen. Durch die Anwendung von statistischen Verfahren wie der Maximum-Likelihood-Schätzung können Algorithmen Fehler minimieren und die Genauigkeit der Schätzungen verbessern. Der Beitrag hebt hervor, wie Algorithmen nicht nur Daten analysieren, sondern auch Einblicke in ihre eigene Denkweise bieten, was wertvolle Informationen über die zugrunde liegenden kausalen Beziehungen liefert. Dies ermöglicht es, voreingenommene Annahmen zu identifizieren und zu korrigieren. Praktische Beispiele aus der Finanzbranche zeigen, wie die Implementierung von Algorithmen die Entscheidungsfindung verbessern und Kredit- und Versicherungsverluste reduzieren kann. Der Beitrag schließt mit der Erkenntnis, dass Algorithmen zwar mächtige Werkzeuge zur Bekämpfung von Vorurteilen sind, aber dennoch selbst anfällig für Verzerrungen sein können, was in späteren Kapiteln weiter untersucht wird.
    5. 4. Der Modellentwicklungsprozess

      Tobias Bär
      Der Fachbeitrag behandelt den komplexen Prozess der Modellentwicklung in der Datenwissenschaft. Nach einer Einführung in die Funktionsweise von Algorithmen wird der Fokus auf die Entwicklung dieser Modelle gelegt. Besondere Aufmerksamkeit wird der Vermeidung von Vorurteilen geschenkt, die sich in den Modellen einschleichen können. Der Text betont die Wichtigkeit der Kommunikation zwischen Datenwissenschaftlern und Geschäftsanwendern, um ein effektives Modell zu entwickeln. Die fünf Hauptschritte der Modellentwicklung werden detailliert beschrieben: Modelldesign, Datenaufbereitung, Modellzusammenbau, Modellvalidierung und Modellimplementierung. Jeder Schritt wird ausführlich erläutert, wobei besonders auf die Datenaufbereitung und den Modellzusammenbau eingegangen wird, da diese Schritte entscheidend sind, um Verzerrungen zu minimieren. Der Text bietet praktische Beispiele und Hinweise, wie man konzeptionelle Probleme und faktisch korrekte Datenverzerrungen identifiziert und behandelt. Zudem wird die Bedeutung der Modellvalidierung und -implementierung hervorgehoben, um sicherzustellen, dass das Modell im tatsächlichen Geschäftsbetrieb effektiv funktioniert. Der Beitrag schließt mit einem Ausblick auf die Bedeutung der Modellierungstechniken im maschinellen Lernen und deren Anwendung in zukünftigen Kapiteln.
    6. 5. Eine kurze Einführung in das Maschinelle Lernen

      Tobias Bär
      Das Kapitel führt in das maschinelle Lernen ein und erklärt, wie es Probleme löst, die traditionelle statistische Techniken nicht bewältigen können. Es wird die Geschichte und Entwicklung des maschinellen Lernens beleuchtet und die Vorteile der Automatisierung hervorgehoben. Besonders interessant ist die detaillierte Darstellung der verschiedenen Techniken zur Verbesserung von Algorithmen, wie nichtlineare Transformationen, differenzierte Behandlung von Teilsegmenten und das Hinzufügen weiterer erklärender Variablen. Das Kapitel endet mit einer Diskussion über die Grenzen und Risiken des maschinellen Lernens und die Notwendigkeit einer sorgfältigen Überwachung und Validierung von Algorithmen.
  3. Woher kommen algorithmischen Verzerrungen?

    1. Frontmatter

    2. 6. Wie Vorurteile in der realen Welt von Algorithmen widergespiegelt werden

      Tobias Bär
      Das Kapitel beleuchtet die komplexen Wege, auf denen Vorurteile in der realen Welt durch Algorithmen widergespiegelt werden. Es wird gezeigt, wie menschliche Voreingenommenheit die Daten und Entscheidungen von Algorithmen beeinflusst und wie diese Verzerrungen oft tief in der Gesellschaft verankert sind. Ein zentrales Thema ist die ethische und philosophische Dimension dieser Problematik, die darauf hinweist, dass Algorithmen sowohl zur Lösung als auch zur Verstärkung von Vorurteilen beitragen können. Besonders interessant ist die Diskussion darüber, wie Algorithmen in Zukunft fairer gestaltet werden können und welche Rolle sie in der Bekämpfung von Diskriminierung spielen können. Das Kapitel regt dazu an, die Komplexität der Herausforderungen zu verstehen und mögliche Lösungsansätze zu erkunden.
    3. 7. Vorurteile von Datenwissenschaftlern

      Tobias Bär
      Der Beitrag untersucht die Ursachen algorithmischer Voreingenommenheiten, die durch das Urteilsvermögen von Datenwissenschaftlern entstehen. Dabei werden drei Hauptquellen identifiziert: Bestätigungsfehler, mentale Ermüdung (Ego-Depletion) und übermäßiges Selbstvertrauen (Lake-Wobegon-Effekt). Bestätigungsfehler führen dazu, dass Modelle voreingenommene Fragen beantworten, während mentale Ermüdung die Fähigkeit des Datenwissenschaftlers beeinträchtigt, Vorurteile zu vermeiden. Übermäßiges Selbstvertrauen veranlasst Datenwissenschaftler, Signale zu ignorieren, die auf mögliche Verzerrungen hinweisen. Der Text analysiert, wie diese Faktoren das Modellentwurf und die Stichprobenauswahl beeinflussen und bietet Einblicke in die Vermeidung dieser Voreingenommenheiten, um fairere und genauere Algorithmen zu entwickeln.
    4. 8. Wie Daten zu Verzerrungen führen können

      Tobias Bär
      Das Kapitel untersucht die vielfältigen Möglichkeiten, wie mangelhafte Daten zu Verzerrungen in Algorithmen führen können. Es werden sechs verschiedene Arten von Verzerrungen identifiziert: subjektive Daten, scheinbar quantitative Daten, traumatisierende Ereignisse, voreingenommene Verhaltensweisen, konzeptionelle Fehler und unsachgemäße Datenverarbeitung. Jede dieser Verzerrungen entsteht in unterschiedlichen Phasen des Modellentwicklungsprozesses und erfordert spezifische Lösungsansätze. Subjektive Daten, wie Restaurantbewertungen, sind von Natur aus voreingenommen und können durch die Messmethodik verzerrt werden. Scheinbar quantitative Daten, wie das Jahreseinkommen, sind oft Schätzungen und somit verzerrt. Traumatisierende Ereignisse, wie Naturkatastrophen, können die Daten nachhaltig verzerren. Voreingenommene Verhaltensweisen, wie die Bewertung der Managementqualität, können die Aussagekraft der Variablen mindern. Konzeptionelle Fehler, wie das Abschneiden von Daten, können wichtige Informationen verlieren. Unsachgemäße Datenverarbeitung, wie das Überschreiben historischer Werte, kann zu Rückblicksverzerrungen führen. Das Kapitel bietet praktische Beispiele und Lösungsansätze, um diese Verzerrungen zu vermeiden und die Qualität der Algorithmen zu verbessern.
    5. 9. Die Anfälligkeit von Algorithmen für Stabilitätsverzerrungen

      Tobias Bär
      Das Kapitel beleuchtet die Problematik der Stabilitätsverzerrungen bei Algorithmen, die sowohl Menschen als auch maschinelle Systeme betreffen. Es wird untersucht, wie sich Systeminstabilität und die Unfähigkeit von Algorithmen, neue Konzepte zu lernen, auf ihre Vorhersagegenauigkeit auswirken. Besondere Aufmerksamkeit wird der Reaktionsgeschwindigkeit und der Definition von Ergebnissen als gut oder schlecht geschenkt. Praktische Beispiele und Lösungsansätze, wie die Erweiterung von Stichproben und das schnelle Lernen durch maschinelles Lernen, werden vorgestellt, um die Verzerrungen zu minimieren. Ein besonderes Augenmerk liegt auf der Herausforderung, mit strukturellen Brüchen umzugehen, bei denen historische Daten nicht ausreichen, um zukünftige Szenarien vorherzusagen.
    6. 10. Durch den Algorithmus selbst geschaffene Verzerrungen

      Tobias Bär
      Das Kapitel untersucht die weniger bekannten Verzerrungen, die Algorithmen selbst erzeugen können, und wie diese Verzerrungen in der realen Welt zu erheblichen Auswirkungen führen können. Es wird gezeigt, wie Algorithmen unbeabsichtigt Vorurteile einführen können, die in bestimmten Kontexten verstärkt werden können. Ein besonderes Augenmerk liegt auf der Rolle von Stichprobengrößen und Fallhäufigkeiten in der Modellentwicklung und wie diese Faktoren die Funktionsweise von Algorithmen beeinflussen. Des Weiteren wird die Problematik bei baumbasierten Modellen, wie Entscheidungsbäumen und Zufallswäldern, beleuchtet, die besonders anfällig für Verzerrungen sind. Abschließend wird eine philosophische Perspektive eingenommen, um die ethischen Implikationen dieser Verzerrungen zu diskutieren und die potenziellen Schäden für die Betroffenen zu betonen. Die detaillierte Analyse und die tiefgehende Reflexion machen dieses Kapitel zu einem wertvollen Beitrag für Fachleute, die sich mit den komplexen Herausforderungen und ethischen Fragen der Algorithmik auseinandersetzen.
    7. 11. Algorithmische Verzerrungen und soziale Medien

      Tobias Bär
      Das Kapitel beleuchtet die komplexen Mechanismen, durch die algorithmische Verzerrungen in sozialen Medien entstehen und sich verstärken. Es wird erläutert, wie Algorithmen den Fluss von Nachrichten steuern und wie Vorurteile der Nutzer und Entscheidungen der Datenwissenschaftler bei der Modellgestaltung zu Verzerrungen führen. Besondere Aufmerksamkeit wird der Rolle der Nutzer und der Möglichkeiten von Dritten geschenkt, die Algorithmen manipulieren, um ihre eigenen Interessen zu verfolgen. Die Diskussion zeigt auf, wie diese Interaktionen ein System schaffen, das Verzerrungen aufrechterhält und verstärkt, und schlägt Maßnahmen vor, um diese Probleme auf verschiedenen Ebenen anzugehen.
  4. Was können Nutzer gegen algorithmische Verzerrungen tun?

    1. Frontmatter

    2. 12. Optionen für die Entscheidungsfindung

      Tobias Bär
      Dieser Beitrag beleuchtet die Herausforderungen und Lösungsansätze im Umgang mit algorithmischen Verzerrungen. Es wird erläutert, wie Führungskräfte und andere Entscheidungsträger voreingenommene Algorithmen erkennen und behandeln können. Dabei werden verschiedene Entscheidungsansätze, wie die Vermeidung von Algorithmen, die Beschränkung auf sichere Fälle und die Kombination von Algorithmen mit menschlichem Urteilsvermögen, detailliert beschrieben. Besonderes Augenmerk wird auf die Bewertung der Genauigkeit von Algorithmen im Vergleich zu anderen Methoden gelegt, wobei der Gini-Koeffizient und wirtschaftliche Analysen als wichtige Kennzahlen hervorgehoben werden. Der Text bietet praktische Empfehlungen, um die besten Entscheidungsansätze zu identifizieren und zu implementieren, um die Risiken algorithmischer Verzerrungen zu minimieren.
    3. 13. Bewertung des Risikos einer algorithmischen Verzerrung

      Tobias Bär
      Dieser Fachbeitrag untersucht die Bewertung des Risikos einer algorithmischen Verzerrung. Es wird erklärt, wie man die Wahrscheinlichkeit und Schwere solcher Verzerrungen quantifiziert und welche Faktoren diese beeinflussen. Dabei werden ethische, rechtliche und wirtschaftliche Aspekte berücksichtigt. Besonders interessant ist die Checkliste zur schnellen Bewertung der Verzerrungsanfälligkeit und die Diskussion über die Auswirkungen auf verschiedene Branchen wie die Strafverfolgung und die Kreditvergabe. Der Beitrag bietet praktische Ansätze zur Minimierung der Risiken und zur Entscheidung, ob ein Algorithmus eingesetzt werden sollte.
    4. 14. Sichere Verwendung von Algorithmen

      Tobias Bär
      Dieser Beitrag behandelt die sichere Verwendung von Algorithmen und Maßnahmen zur Vermeidung algorithmischer Verzerrungen. Es werden drei zentrale Gewohnheiten vorgestellt, die Laien helfen, die Risiken algorithmischer Verzerrungen zu verstehen und zu managen. Dazu gehören das Stellen kritischer Fragen an Datenwissenschaftler, das Kennzeichnen von Unsicherheiten durch den Algorithmus und die regelmäßige Anforderung aussagekräftiger Überwachungsberichte. Diese Praktiken ermöglichen es Nutzern, informierte Entscheidungen zu treffen und die Zuverlässigkeit algorithmischer Ergebnisse zu gewährleisten. Der Beitrag betont die Bedeutung einer engen Zusammenarbeit zwischen Fachanwendern und Datenwissenschaftlern, um die Grenzen und Risiken von Algorithmen zu verstehen und zu adressieren.
    5. 15. Wie man algorithmische Verzerrungen erkennt

      Tobias Bär
      Der Beitrag behandelt die Herausforderungen bei der Überwachung von Algorithmen, insbesondere solcher, die durch maschinelles Lernen entwickelt wurden. Es wird erläutert, wie algorithmische Verzerrungen erkannt und überwacht werden können. Besondere Herausforderungen entstehen durch die Komplexität und die kontinuierliche Aktualisierung von maschinellen Lernmodellen. Der Text beschreibt verschiedene Ansätze zur Überwachung und Analyse von Algorithmen, einschließlich der Verwendung von Verteilungsanalysen, manuellen Korrekturen und Kalibrierungsanalysen. Besondere Aufmerksamkeit wird auf die Überwachung selbstverbessernder Algorithmen gelegt, die sich schnell ändern können. Der Beitrag bietet praktische Ratschläge und Werkzeuge zur Bewältigung dieser Herausforderungen und zeigt, wie durch kontinuierliche Überwachung und Analyse die Integrität und Fairness von Algorithmen gewährleistet werden kann.
    6. 16. Management-Strategien zur Korrektur algorithmischer Verzerrungen

      Tobias Bär
      Der Fachtext behandelt umfassend die Management-Strategien zur Korrektur algorithmischer Verzerrungen. Es werden verschiedene Ansätze zur Anpassung von Entscheidungsarchitekturen und Algorithmen selbst vorgestellt, um gesellschaftliche Voreingenommenheiten zu überwinden. Dabei werden sowohl die technischen Aspekte der Algorithmusmanipulation als auch die psychologischen und sozialen Auswirkungen auf die Betroffenen beleuchtet. Ein besonderer Fokus liegt auf der praktischen Umsetzbarkeit der vorgeschlagenen Maßnahmen und der Notwendigkeit, die Zustimmung verschiedener Interessengruppen zu gewinnen. Der Beitrag bietet eine fundierte Grundlage für Experten, die sich mit der Beseitigung von Verzerrungen in algorithmischen Systemen auseinandersetzen.
    7. 17. Wie man unverzerrte Daten generiert

      Tobias Bär
      Der Beitrag beleuchtet die Bedeutung unverzerrter Daten für die Entwicklung zuverlässiger Algorithmen. Ein zentrales Beispiel ist die Zollkontrolle, bei der verzerrte Daten zu fatalen Fehlentscheidungen führen können. Der Autor betont die Notwendigkeit, neue, unvoreingenommene Daten zu generieren, um diese Probleme zu vermeiden. Dazu werden zwei wichtige Anforderungen diskutiert: die Zufälligkeit der Stichprobe und die Standardisierung der Inspektionsroutine. Praktische Techniken zur Umsetzung dieser Anforderungen werden vorgestellt, einschließlich der Schulung eines kleinen Teams von Inspektoren und der Durchführung von Pilotprojekten. Der Beitrag schließt mit der Erkenntnis, dass die Generierung unverzerrter Daten eine Managementaufgabe ist, die kontinuierlich betrieben werden muss, um Vorurteile zu vermeiden und die Qualität der Daten zu sichern.
  5. Was können Datenwissenschaftler gegen algorithmische Verzerrungen tun?

    1. Frontmatter

    2. 18. Die Rolle des Datenwissenschaftlers bei der Überwindung algorithmischer Verzerrungen

      Tobias Bär
      Das Kapitel beleuchtet die Herausforderungen und Strategien, mit denen Datenwissenschaftler konfrontiert sind, wenn sie algorithmische Verzerrungen in Modellen überwinden wollen. Es beginnt mit der Betonung der Bedeutung von Einblicken aus dem wirklichen Leben und der Notwendigkeit, verzerrte Daten zu vermeiden. Das Modelldesign wird detailliert erläutert, wobei spezifische Schritte und Werkzeuge vorgestellt werden, um Verzerrungen zu minimieren. Die Datenaufbereitung wird als kritischer Schritt hervorgehoben, bei dem die Definition der Stichprobe und die Qualität der Daten sorgfältig geprüft werden müssen. Die Modellzusammenbauphase wird ebenfalls umfassend behandelt, wobei auf die Notwendigkeit hingewiesen wird, die Hyperparameter sorgfältig zu justieren und das Modell gründlich zu testen. Die Bedeutung der Modellvalidierung und der Implementierung wird betont, wobei auf die Notwendigkeit hingewiesen wird, Verzerrungen auch nach der Implementierung zu überwachen und zu korrigieren. Das Kapitel schließt mit einer Zusammenfassung der wichtigsten Strategien zur Vermeidung algorithmischer Verzerrungen und betont die Bedeutung von Best-Practice-Dokumentationen und kontinuierlicher Überwachung.
    3. 19. Eine Röntgenuntersuchung Ihrer Daten

      Tobias Bär
      Dieser Fachbeitrag behandelt die systematische Untersuchung von Daten auf algorithmische Verzerrungen. Es wird eine sechsstufige Analyse vorgestellt, die von der Überprüfung der Stichprobenebene über die Erkennung von Datenlecks bis hin zur visuellen Analyse reicht. Jeder Schritt zielt darauf ab, potenzielle Probleme in den Daten zu identifizieren und zu beheben, um eine robuste und verlässliche Modellentwicklung zu gewährleisten. Die Anwendung von Techniken wie der Hauptkomponentenanalyse und der Korrelationsanalyse ermöglicht es, die Struktur der Daten zu verstehen und Anomalien zu erkennen. Besonders hervorhebenswert ist die Kombination aus manuellen und maschinellen Lernmethoden zur Erkennung von Verzerrungen, die eine umfassende und effiziente Analyse ermöglicht.
    4. 20. Wann sollte maschinelles Lernen eingesetzt werden?

      Tobias Bär
      Dieser Beitrag beleuchtet die Entscheidungskriterien für den Einsatz von maschinellem Lernen gegenüber handwerklichen Ansätzen in der Datenwissenschaft. Es wird diskutiert, wann maschinelles Lernen aufgrund seiner Geschwindigkeit und Kosteneffizienz vorteilhaft ist und wann ein handwerklicher Ansatz notwendig ist, um algorithmische Verzerrungen zu vermeiden. Besonders hervorgehoben wird die Notwendigkeit, den Kosten-Nutzen-Rahmen zu berücksichtigen und die spezifischen Anforderungen des Geschäftsproblems zu bewerten. Der Text bietet praktische Ratschläge für die Entscheidungsfindung und zeigt auf, wie beide Ansätze in einem hybriden Modell kombiniert werden können, um optimale Ergebnisse zu erzielen.
    5. 21. Wie man maschinelles Lernen mit traditionellen Methoden verbindet

      Tobias Bär
      Der Beitrag präsentiert vier spezifische Techniken zur Integration von maschinellem Lernen in traditionelle Modelle, um algorithmische Verzerrungen zu vermeiden. Dabei werden maschinelles Lernen auf Prädiktorebene, Segmentierung mit Hilfe von maschinellem Lernen, Identifizierung von Interaktionseffekten durch maschinelles Lernen und Zweite Meinung durch maschinelles Lernen detailliert erläutert. Diese Techniken ermöglichen es Datenwissenschaftlern, die Vorteile des maschinellen Lernens zu nutzen, ohne die Kontrolle über das Modell zu verlieren. Besonders interessant ist die Möglichkeit, föderales maschinelles Lernen zu verwenden, bei dem Daten auf verteilten Geräten bleiben und nur der Algorithmus zentral aggregiert wird. Durch diese hybriden Ansätze können Datenwissenschaftler die Vorhersagekraft ihrer Modelle erheblich steigern und gleichzeitig sicherstellen, dass sie fair und transparent sind.
    6. 22. Wie man Voreingenommenheit in selbstverbessernden Modellen vermeidet

      Tobias Bär
      Das Kapitel beschäftigt sich mit der Herausforderung, Voreingenommenheit in selbstverbessernden Modellen des maschinellen Lernens zu vermeiden. Es werden spezifische Werkzeuge und Techniken vorgestellt, um algorithmische Verzerrungen zu minimieren. Dabei wird besonders auf das Modelldesign, die Datenaufbereitung und die Implementierung von Notbremsen eingegangen. Diese Maßnahmen sind entscheidend, um die Zuverlässigkeit und Fairness der Modelle zu gewährleisten. Zudem wird die Bedeutung regelmäßiger manueller Überprüfungen und der Überwachung von Modellmetriken hervorgehoben, um frühzeitig auf potenzielle Probleme reagieren zu können. Ein weiterer Fokus liegt auf maschinellem Lernen in Echtzeit, bei dem besondere Herausforderungen und Lösungsansätze zur Vermeidung von Verzerrungen diskutiert werden. Insgesamt bietet das Kapitel praktische Ratschläge und Techniken, die Datenwissenschaftlern und Ingenieuren helfen, verlässliche und faire selbstverbessernde Modelle zu entwickeln.
    7. 23. Wie man Debiasing institutionalisiert

      Tobias Bär
      Dieser Beitrag behandelt die Herausforderung, Debiasing in großen Organisationen zu institutionalisieren. Es werden sieben konkrete Schritte vorgestellt, um algorithmische Verzerrungen zu bekämpfen und zu verhindern. Dazu gehören die Optimierung des Datenflusses und der Datenvorhaltung, die Standardisierung von Prozessen und Formularen, die Einführung eines Wesentlichkeitskonzepts, die Kalibrierung von Modellen, die unabhängige Validierung, die kontinuierliche Überwachung und die Generierung unverzerrter Daten. Jeder Schritt wird detailliert erläutert und bietet praktische Ansätze zur Umsetzung in der Praxis. Die Implementierung dieser Maßnahmen kann dazu beitragen, die Zuverlässigkeit und Fairness von Algorithmen in Unternehmen zu erhöhen.
Titel
Algorithmic Bias: Verzerrungen durch Algorithmen verstehen und verhindern
Verfasst von
Tobias Bär
Copyright-Jahr
2022
Verlag
Springer Berlin Heidelberg
Electronic ISBN
978-3-662-66315-8
Print ISBN
978-3-662-66314-1
DOI
https://doi.org/10.1007/978-3-662-66315-8

Informationen zur Barrierefreiheit für dieses Buch folgen in Kürze. Wir arbeiten daran, sie so schnell wie möglich verfügbar zu machen. Vielen Dank für Ihre Geduld.

    Bildnachweise
    AvePoint Deutschland GmbH/© AvePoint Deutschland GmbH, ams.solutions GmbH/© ams.solutions GmbH, Wildix/© Wildix, arvato Systems GmbH/© arvato Systems GmbH, Ninox Software GmbH/© Ninox Software GmbH, Nagarro GmbH/© Nagarro GmbH, GWS mbH/© GWS mbH, CELONIS Labs GmbH, USU GmbH/© USU GmbH, G Data CyberDefense/© G Data CyberDefense, Vendosoft/© Vendosoft, Deutsche Telekom MMS GmbH/© Vendosoft, Noriis Network AG/© Noriis Network AG, Asseco Solutions AG/© Asseco Solutions AG, AFB Gemeinnützige GmbH/© AFB Gemeinnützige GmbH, Ferrari electronic AG/© Ferrari electronic AG, Doxee AT GmbH/© Doxee AT GmbH , Haufe Group SE/© Haufe Group SE, NTT Data/© NTT Data, Videocast 1: Standbild/© Springer Fachmedien Wiesbaden, IT-Director und IT-Mittelstand: Ihre Webinar-Matineen /© da-kuk / Getty Images / iStock