Künstliche Intelligenz: Warum wir faire Algorithmen brauchen
Immer mehr und immer tiefgreifendere Entscheidungen werden heute von selbstlernenden Algorithmen getroffen – egal ob im Finanzbereich, Straßenverkehr oder Personalwesen. Doch deren Einsatz birgt auch das Risiko systematischer Diskriminierung. Der Frage, wie man vorbeugen kann geht Benjamin M. Grether, Steering Lab Horváth Managementberatung, in seinem Kommentar nach.
Benjamin Grether, Steering Lab Horváth Managementberatung
Anwendungen Künstlicher Intelligenz (KI) können Unternehmen viel Arbeit abnehmen. Sie werten Massen an Informationen und Dokumenten aus – z.B. für eine Kreditvergabe – und treffen dann auf Basis gelernter Muster objektiv richtige Entscheidungen. Doch selbstlernende Algorithmen sind häufig nicht vorurteilsfrei. Sie können bestimmte Personengruppen diskriminieren und (z.B. von der Kreditvergabe) ausschließen, wenn sie nicht auf Fairness trainiert werden.
So musste Amazon bereits 2014 die Erfahrung machen, dass bei Einstellungen in der Softwareabteilung männliche Bewerber bevorzugt wurden, weil das eingesetzte Machine-Learning-Modell auf Muster der letzten zehn Jahre trainiert wurde – als sich in der IT überwiegend Männer bewarben. Das System hatte sich selbst beigebracht, männliche Kandidaten zu bevorzugen, da diese statistisch häufiger eingestellt wurden. Es wurde schlichtweg nicht bedacht, in den Daten vorhandene Ungleichheiten angemessen zu berücksichtigen.
Solche und ähnliche Fälle systematischer Diskriminierung durch KI-Anwendungen haben die Sensibilität der Unternehmen deutlich erhöht. Neben Reputationsrisiken bestehen auch Haftungsrisiken, denn Unternehmen und Management sind für diskriminierungsfreie Prozesse verantwortlich. Das gilt auch für die korrekte Funktionsweise der von ihnen eingesetzten Algorithmen. Diese müssen daher so trainiert werden, dass sie vorhandene Ungleichheiten (Verzerrungen) in den Daten nicht noch weiter verstärken und systematisieren.
Fairness definieren und messbar machen
Besonders wichtig ist Fairness hinsichtlich „sensitiver Attribute“ wie etwa Geschlecht, soziale Herkunft, Religionsbekenntnis oder Familienstand: Entscheidet sich beispielsweise eine Bank dazu, Kreditentscheidungen per Algorithmus zu fällen, darf die soziale Herkunft des Antragsstellers keine Rolle spielen. Die Entscheidung sollte rein an erklärenden Faktoren (wie dem Einkommen) festgemacht werden. Das Modell muss also darauf abzielen, die Einkommensschwelle zu lernen, die zuverlässig vorhersagt, ob jemand seinen Kredit zurückzahlen kann oder nicht. Um die Fariness der Entscheidung messbar zu machen, gibt es verschiedene Verfahren:
Der Ansatz der „Proportionalen Parität“ sieht vor, dass jedes Segment eines geschützten Attributes, etwa soziale Herkunft, das gewünschte positive Ergebnis – also die Kreditzusage – zu gleichen Teilen erhält. Damit wird zwar eine Gleichbehandlung aller Personengruppen erreicht, doch die Entscheidung birgt ein hohes Risiko, sich als unwirtschaftlich herauszustellen, da das tatsächliche Risiko eines Kreditausfalls nicht berücksichtigt wird.
Das Fairness-Kriterium „Chancengleichheit“ erfordert, dass jede Gruppe das positive Ergebnis Kreditzusage zu gleichen Anteilen erhält – vorausgesetzt, die Personen in dieser Gruppe qualifizieren sich dafür (z.B. durch geringes Risiko). Damit liegt diese Definition deutlich näher an den Anforderungen wirtschaftlichen Handelns. Resultat ist eine eigene Einkommensschwelle, durch die in jeder Gruppe der gleiche Anteil an Personen, die sich für einen Kredit qualifizieren, eine Zusage erhalten.
Das Konzept der „Ausgeglichenen Quoten“ ist am restriktivsten, denn es setzt voraus, dass das Modell das positive Ergebnis mit gleichen Raten in allen Gruppen korrekt identifiziert, aber auch gleich häufig falsch klassifiziert. Diese Fairness-Definition hat den Nachteil, dass sie die Modellgenauigkeit und damit auch die Wirtschaftlichkeit beeinträchtigen kann. Hier ist zu erwarten, dass es weniger Kreditzusagen gibt, bei denen eine vollständige Rückzahlung zu erwarten ist, weil die Priorität auf der Gleichbehandlung liegt.
Der bestmögliche Kompromiss ist daher ein Tarieren zwischen Fairness und Genauigkeit in der Zielerreichung, ebenso die Wahl der für die individuelle Modellierung passenden Fairness-Definition. Sie hängt maßgeblich von Branche, Anwendungsfall und sensitiven Attributen ab. Sind Fairness-Definition und Attribute aber einmal festgelegt, gilt es, die Fairness technisch weiter zu optimieren. Dies erfolgt durch die Transformation und Anpassung von Daten und Ergebnissen vor, während und nach dem Modell-Training.
Fairness als Daueraufgabe für Unternehmen
Experten empfehlen, algorithmische Fairness in der Unternehmensorganisation als wichtiges Thema und Daueraufgabe zu verankern. Involvierte Stakeholder sind aus diesem Grund schon vor der Konzeption einer Anwendung auf unbewusste, aber vorhandene Ungleichheiten zu sensibilieren, um spätere Verzerrungen in den Algorithmen zu vermeiden. Die entsprechenden Lösungen sollten zudem – durch Audit-Prozesse – kontinuierlich auf Fairness untersucht und angepasst werden.
Fazit: Algorithmen haben das Potenzial, nicht nur effizienter, sondern auch fairer und transparenter als Menschen zu agieren – immer vorausgesetzt, sie werden richtig trainiert. So können mögliche Reputations- und Haftungsrisiken für Unternehmen begrenzt werden. Die Fairness und in der Folge Akzeptanz von selbstlernenden Algorithmen sicherzustellen, ist dessen ungeachtet kein einmaliges Projekt, sondern eine Daueraufgabe der Unternehmensleitung.
Der Autor
Benjamin Grether ist Experte für Artificial Intelligence (AI) und Machine Learning bei der Managementberatung Horváth in München.
Die Serie "Management Commentary" ist eine Kooperation von trend.at und der Unternehmensberatung Horváth & Partners. Die bisher erschienen Beiträge finden Sie zusammengefasst im Thema "Management Commentary".