Zum Inhalt

7. Bias Detection and Fairness Evaluation

  • 2026
  • OriginalPaper
  • Buchkapitel
Erschienen in:

Aktivieren Sie unsere intelligente Suche, um passende Fachinhalte oder Patente zu finden.

search-config
loading …

Abstract

Dieses Kapitel vertieft die entscheidende Frage der Voreingenommenheit und Fairness in maschinellen Lernsystemen, insbesondere in Bereichen mit hohem Einsatz wie Strafjustiz, Gesundheitswesen, Einstellung und Finanzen. Sie führt ein strukturiertes Rahmenwerk zum Verständnis und zur Bewertung von Vorurteilen ein, das diese in historische Verzerrungen, Repräsentation, Messung, Aggregation und Bewertung einteilt. Die mathematischen Grundlagen von Fairness-Messgrößen werden untersucht, darunter statistische Parität, ausgeglichene Chancen, Chancengleichheit, Kalibrierung und individuelle Fairness. Das Kapitel diskutiert auch das Unmöglichkeitstheorem, das die Herausforderungen der gleichzeitigen Erfüllung mehrerer Fairness-Kriterien hervorhebt. Praktische Methoden zur Erkennung von Voreingenommenheit werden skizziert, darunter Datenanalysetechniken wie Verteilungsanalyse, Korrelationsanalyse und Labelverteilungsanalyse sowie modellbasierte Erkennungsmethoden wie unterschiedliche Wirkungsanalysen, Schwellenanalysen und Tests statistischer Signifikanz. Fairness-Bewertungsrahmen, einschließlich des Fairness Tree Framework, der Stakeholder-zentrierten Evaluation und des Contextual Evaluation Framework, werden vorgestellt, um Fairness in verschiedenen Kontexten systematisch zu bewerten. Das Kapitel schließt mit einer Diskussion über Strategien zur Eindämmung von Vorurteilen, einschließlich Vorverarbeitungstechniken wie Neugewichtung und Generierung synthetischer Daten, Verarbeitungstechniken wie kontradiktorische Beschränkungen hinsichtlich Verzerrung und Fairness und Nachbearbeitungstechniken wie Schwellwertoptimierung und Kalibrierungsanpassung. Fortgeschrittene Themen wie kausale Fairness, langfristige Fairness-Dynamiken, Fairness unter Verteilungsverschiebung, erklärbares faires ML und Fairness in Gründungsmodellen werden ebenfalls untersucht und bieten eine zukunftsorientierte Perspektive auf das sich entwickelnde Feld der Fairness im maschinellen Lernen.

Sie sind noch kein Kunde? Dann Informieren Sie sich jetzt über unsere Lizenzmodelle:

Einzelzugang

Starten Sie jetzt Ihren persönlichen Einzelzugang. Erhalten Sie sofortigen Zugriff auf mehr als 170.000 Bücher und 540 Zeitschriften - pdf-Downloads und Neu-Erscheinungen inklusive.

Jetzt ab 54,00 € pro Monat!                                        

Mehr erfahren

Zugang für Unternehmen

Nutzen Sie Springer Professional in Ihrem Unternehmen und geben Sie Ihren Mitarbeitern fundiertes Fachwissen an die Hand. Fordern Sie jetzt Informationen für Firmenzugänge an.

Erleben Sie, wie Springer Professional Sie in Ihrer Arbeit unterstützt!

Beraten lassen
Titel
Bias Detection and Fairness Evaluation
Verfasst von
Keshav Kumar
Man Mohan Shukla
Copyright-Jahr
2026
DOI
https://doi.org/10.1007/978-3-032-15606-8_7
Dieser Inhalt ist nur sichtbar, wenn du eingeloggt bist und die entsprechende Berechtigung hast.