Skip to main content
main-content

12.03.2021 | Künstliche Intelligenz | Im Fokus | Online-Artikel

Diskriminierung durch KI ist im HR-Bereich angekommen

verfasst von: Michaela Paefgen-Laß

5 Min. Lesedauer
share
TEILEN
print
DRUCKEN
insite
SUCHEN

Künstliche Intelligenz ist hilfreich, aber nicht fehlerfrei. Ein Forschungsprojekt beschäftigt sich jetzt mit den Aspekten Fairness und Arbeitsplatzsicherheit in der Mensch-Maschine-Kooperation. Im Fokus stehen die Diskriminierungspotenziale von Algorithmen.

Künstliche Intelligenz denkt und entscheidet wie der weiße Mann, mit allen Vorbehalten gegenüber dem weiblichen Geschlecht, Menschen anderer Hautfarbe oder niedrigeren Bildungsniveaus. Dass das weder eine bloße Behauptung ist noch von ungefähr kommt, lässt sich mittlerweile durch eine Reihe an Studienergebnissen belegen. Ursächlich dafür ist der geringe Diversifizierungsgrad der Entwicklergemeinde. 

Empfehlung der Redaktion

2020 | OriginalPaper | Buchkapitel

Anwendungsmöglichkeiten Künstlicher Intelligenz

Die Anwendungsfelder von Künstlicher Intelligenz (KI) sind vielfältig. Es sind Achtsamkeit und kontinuierliche Anstrengungen sowie Aufklärung und Anleitung notwendig, um den Herausforderungen zum Einsatz von KI wirkungsvoll zum Wohle des Menschen zu begegnen.

So fanden Forscher der Columbia University heraus, dass sowohl verzerrte Trainingsdaten als auch eigene Vorurteile an die lernende KI weitergegeben werden. Der Report Discriminating Systems: Gender, Race, and Power in AI des New Yorker AI Now Institues spricht gar von eine diversity crisis, weil 80 Prozent aller in der KI-Forschung tätigen Professoren männlich sind und sich das direkt auf die Diversität in den Forschungsabteilungen der großen Tech-Konzerne auswirkt: In der KI-Forschung bei Facebook sind lediglich 15 Prozent Frauen beschäftigt, bei Google nur zehn Prozent. Noch niedriger ist der Anteil der People of Color bei Facebook (4 Prozent) und Google (2,5 Prozent). Subjektiv gefärbte Basisdaten bei KI-basierten Background-Checks, Karriereplattformen, Chatbots, Persönlichkeitstest und anderen Analyse-Anwendungen sind das Resultat.

Verzerrung und Ungleichheit wird in KI eingespeist

Algorithmische Entscheidungssysteme (AES oder ADM für Automated Decision Making) kommen überall dort zum Einsatz, wo Daten vorsortiert werden müssen, um menschliche Entscheidungen zu unterstützen. Sei es in Personalabteilungen bei Einstellungs- oder Karriereverfahren, bei Kreditvergaben, Versicherungsangelegenheiten, in der medizinischen Diagnostik, beim Berechnen von Routenoptionen, der Rückfallwahrscheinlichkeit von Straftätern oder der Effizienz menschlicher Arbeit. 

Entweder funktionieren die Systeme regelbasiert, dann liefern sie Schlussfolgerungen nach zuvor eingespeisten Wenn-Dann-Regeln oder sie bilden sich selbständig mithilfe von Trainingsdaten weiter und entwickeln ihre eigenen Analyseregeln. Dann werden sie den Bereichen Machine Learning (ML) und KI zugeordnet. Sind die Trainingsdaten mit denen die Systeme lernen allerdings einseitig ausgewählt, folgen sie eingefahrenen Stereotypen, Ungleichheiten oder gesellschaftlich etablierten Vorbehalten, dann überträgt sich diskriminierendes Verhalten in ihre Entscheidungen. Auch fehlerhafte Daten, können das KI-System zu falschen Schlüssen und Ungleichbehandlung verleiten. 

Diskriminierung in KI-Systemen aufspüren

Eine ausführliche Betrachtung von möglicher Diskriminierung in allen Lebensbereichen durch AES legte im vergangenen Oktober das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) vor. Das Projektkonsortium Exam AI beschäftigt sich mit Kontroll- und Testverfahren für KI-Systeme mit Fokus auf die Anforderungen Transparenz, Nachvollziehbarkeit, Fairness, Gleichbehandlung, Haftbarkeit, Zuverlässigkeit und Datenschutz. 

In zwei Publikation hat die Forschungsgemeinschaft nun elf Szenarien entwickelt, die kritische  Diskriminierungs- und Schadensfälle bei KI-Anwendungen im Personal- und Talentmanagement sowie der Produktionsautomatisierung beschreiben. Die Beispiele sollen die Anforderungen für einen beherrschbaren, nachvollziehbaren und fairen Einsatz von Künstlicher Intelligenz im Konflikt mit unbeabsichtigten Ungleichbehandlungen, Sicherheitsrisiken und Rechtsverstößen diskutieren.

Beispiel AES in der Personalarbeit

Die Personalabteilung im Unternehmen XY muss eine zentrale Stelle neu besetzen. Die Anforderungen der Position sind vielseitig, die Profile der Kandidaten sehr unterschiedlich. Zum Einsatz kommt ein internes Jobprofil-Matching-System, das Anforderungen und individuelle Fähigkeiten miteinander abgleicht. Es generiert vielversprechende Vorschläge mit überraschend geringem Frauenanteil. Was ist passiert? 

Um Anforderungen mit Fähigkeiten abgleichen zu können, müssen dem System entweder Personeneigenschaften von Hand eingegeben oder durch ein lernendes System beigebracht werden. Anhand historischer Unternehmensdaten wird vorab ermittelt, welche Personeneigenschaften in der Vergangenheit ausschlaggebend waren für die Besetzung der Stelle und wie erfolgreich die Stelle damit ausgefüllt werden konnte. Im Unternehmen XY war die Position bislang mit Männern besetzt, folglich sind die geforderten Fähigkeiten primär männlich konnotiert beschrieben und es kommt zu Matchings mit männlichen Kandidaten, die diese Eigenschaften erfüllen. Ungewollt sind Frauen vom KI-System ausgeschlossen und benachteiligt worden.

Nutzen: Zeitkritische Personalentscheidungen können schneller erfolgen. Diskriminierung: Die Anwendung eines solchen Systems birgt die Gefahr, dass Informationen über geschützte Merkmale (indirekt) in die Entscheidung einfließen, ohne dass die Betroffenen darüber informiert sind. (Exam AI)

Beispiel AES in der Produktionsautomatisierung

Das gleiche Unternehmen setzt in seiner Produktionshalle neue Fahrerlose Transportfahrzeuge (FTFs) ein. Ein KI-System weißt sowohl den FTFs als auch den mit ihnen kooperierenden Gabelstaplerfahrern die Routen zu. Dabei erkennt es, dass Gabelstaplerfahrer A besonders schnell unterwegs ist. Also bekommt er mehr Fahrten als alle anderen zugewiesen. Um hinterherzukommen, erledigt der Fahrer seine Fahrten nun immer schneller. Die KI interpretiert das als Effizienzsteigerung und setzt ihn noch häufiger ein. Am Ende des Jahres wird Fahrer A deutlich mehr gearbeitet haben als seine Kollegen. Die KI hat aus seinem Verhalten die falschen Schlüsse gezogen und Diskriminierung auch in die vermeintlich harmlose Routenplanung einschleichen lassen.

KI-Methoden ermöglichen die Transition vom automatischen zum autonomen Fahren und eröffnen neue Möglichkeiten für die Mensch-Maschine-Interaktion. [...] Anstatt den Materialfluss zentral und ohne Freiheitsgrade von einer Leitstelle vorzugeben, könnten die FTFs sich selbst organisieren. Das hätte nicht nur Auswirkungen auf die Interaktion der FTFs untereinander, sondern auch auf die Interaktion zwischen den FTFs und den Menschen. (Exam AI)

Wie fair und divers kann KI sein?

Ist die perfekte, diskriminierungsfreie KI-Anwendung überhaupt möglich, oder muss die Arbeit der Zukunft lernen, sich bei allen Chancen und Nutzungsversprechen Künstlicher Intelligenz mit ihren verstecken Verzerrungen (hidden biases) zu arrangieren? Gibt es schlichtweg keine "perfekte (diskriminierungs- und konfliktfreie) Personalarbeit", wie es Springer-Autor Christian Gärtner in seiner Zusammenstellung von ethischen und gesetzlichen Richtlinien für Smart HR resümiert (Seite 229)? Auch deshalb nicht, weil die männlich, weiße Bro-Culture bei den Software-Giganten der KI ihre Werte, Normen und Routinen einschreibt?

"Hinsichtlich der fortschreitenden Selbstständigkeit der Künstlichen Intelligenz spielen ethische Grundsätze und deren Integration in neuronale Netze eine gewichtige Rolle", schreibt Springer-Autorin Julia Davin über die Moral der Maschinen (Seite 273). Mit ihrer Forschungsarbeit verdeutlicht die Autorin, wie die ethische und moralische Entscheidungsfähigkeit von neuronalen Netzen durch Basisdaten geprägt wird. Ihr Fazit: Spezifische ethische Grundsätze müssen klar und neutral  definiert sein. 

"Doch die Suche nach Daten, die unsere ethischen Werte in geeigneten und konkreten Aussagen formulieren, gestaltet sich knifflig. Andererseits könnte die Beschäftigung mit dieser komplizierten Thematik den Menschen dazu anregen, über seine eigene Moral nachzudenken und ihr Ausdruck zu geben." (Seite 295) Der Einsatz von Algorithmischen Entscheidungssystemen ist bis auf weiteres also angewiesen auf die Bewusstmachung  ihrer Diskriminierungspotenziale  und  die Realisierung von Diversität, Transparenz, Nachvollziehbarkeit, Überprüfung, Anpassung und Legitimierung.

Weiterführende Themen

Die Hintergründe zu diesem Inhalt

Das könnte Sie auch interessieren

10.02.2020 | Künstliche Intelligenz | Best Practice | Online-Artikel

KI zwischen Zuspruch und Skepsis

01.08.2019 | Personalmanagement | Im Fokus | Online-Artikel

KI wird für Personaler immer interessanter

15.12.2020 | Personalmanagement | Gastbeitrag | Online-Artikel

Die wichtigsten HR-Trends 2021

Stellenausschreibungen

Anzeige

Premium Partner