Das Handeln von Unternehmen wird nachhaltiger (Winston 2021). Doch wie genau wird Nachhaltigkeit gemessen? Die umfangreiche Erfassung von qualitativ hochwertigen Daten zur Nachhaltigkeit determiniert die Schaffung von Transparenz in den Nachhaltigkeitsmaßnahmen von Unternehmen. Herausforderungen in der Datenerhebung sind vielfältig – von inkonsistenten Datenfragen bis hin zu schwer nachvollziehbaren Kennzahldefinitionen. Neben der Erstellung von Nachhaltigkeitsberichten eröffnet die Anwendung von Künstlicher Intelligenz (KI) neue Analysepotenziale. Anwendungsbeispiele erstrecken sich entlang des gesamten Geschäftsprozesses – vom Ressourceneinsatz über die Produktion und den Transport hin zum Produkt. Ein umfangreiches Datenverständnis und eine gewissenhafte Interpretation der Ergebnisse des Maschinellen Lernens sind ausschlaggebend, um Fallstricke wie Scheinkorrelation und Verzerrungen in den Daten zu adressieren und eine mehrwertstiftende Umsetzung von KI-Projekten sicherzustellen.
Anzeige
Bitte loggen Sie sich ein, um Zugang zu diesem Inhalt zu erhalten
Um die Modellevaluierung so objektiv wie möglich zu gestalten, wird allgemein nicht nur zwischen Trainings- und Testdaten unterschieden, sondern auch ein Validierungsdatensatz verwendet. Während die Trainings- und Validierungsdatensätze zum Trainieren des Modells verwendet werden, findet die finale Evaluierung (einmalig) mit zuvor komplett ungesehenen Testdaten statt. Zur Vereinfachung des ML-Prozesses wird sich in der hier verwendeten Beschreibung nur auf Trainings- und Testdaten bezogen.
A/B-Tests stellen eine Form eines kontrollierten Experiments dar, bei dem zwei verschiedene Versionen einer Website, einer Benutzeroberfläche, eines Preises oder anderer Faktoren randomisiert einer Nutzergruppe zugeordnet werden und auf Basis ihres Verhaltens gegeneinander abgewogen werden (Gallo 2017).
Zum Beispiel können KI-basierte Einstellungsprozesse männliche gegenüber weiblichen Bewerbenden vorziehen, wenn sie mit Daten von Bewerbenden trainiert werden, die historisch gesehen eher männlich waren (Dastin 2018). Auch bei Gesichtserkennungssystemen (Hardesty 2018), individualisierter Werbung (Simonite 2015) und bei Hypothekengenehmigungen (Blattner und Nelson 2021) konnten aufgrund von verzerrten Daten diskriminierende Entscheidungen der KI aufgezeigt werden.