
Das Morgen von gestern: Das Sujet wurde mit dem KI-Tool Midjourney mit geschlechtsneutralem Prompt erstellt. Das Ergebnis entspricht Stereotypen: der Entrepreneur ist männlich.
©MidjourneyKünstliche Intelligenz reproduziert gerne klassische Geschlechterrollen und verstärkt dadurch Diskriminierungen gegenüber Frauen. Expert:innen warnen vor Rückschritten bei der Gleichberechtigung. Wie KI gerechter werden kann und warum feministische KI eine Chance für Unternehmen ist.
Sprachmodelle, die Ärztinnen zu Assistentinnen degradieren, Bewerbungsalgorithmen, die Männer bevorzugen, und Bildgeneratoren, die den Begriff CEO fast ausschließlich mit einem weißen Mann im Anzug und Frauen als dessen Sekretärin bebildern. Künstliche Intelligenz (KI) gilt als die Zukunftstechnologie schlechthin, doch die Zukunft scheint rückwärtsgewandt. So manche KI-Systeme übersehen Frauen und deren Realitäten, benachteiligen oder grenzen sie aus.
Es ist ein Trugschluss, zu glauben, KI sei eine neutrale Technologie, betonen Expert:innen. Eine davon ist die deutsche Wissenschaftlerin und Unternehmerin Eva Gengler. Sie bestätigt, dass die Daten, mit denen Sprachmodelle trainiert werden, gesellschaftliche Vorurteile, Diskriminierungen und blinde Flecken widerspiegeln. Dementsprechend hat auch der Begriff der verantwortungsvollen, gerechten oder feministischen KI Eingang in den Tech-Diskurs gefunden. Gengler ist eine der prominentesten Vertreter:innen dieser Bewegungen im deutschsprachigen Raum: „Mittlerweile haben wir KI-Systeme entwickelt, die nicht nur reproduzieren, sondern Vorurteile und Diskriminierungen verstärken. Die KI lernt aus den Daten, erkennt Muster und verstärkt diese“, warnt Gengler. So wie manche KI-Systeme programmiert sind, machen sie die Gesellschaft also nicht gerechter, sondern ungleicher.
Wie Frauen unsichtbar gemacht werden
Internationale Studien zeigen, dass Frauen, aber auch Schwarze Menschen, ältere Personen oder Menschen mit Behinderungen von Algorithmen anders bewertet oder zu wenig repräsentiert werden. Das wird nicht nur bei der Bildgenerierung sichtbar, die klassische Rollenbilder reproduziert, sondern auch bei KI, die etwa im Gesundheitswesen eingesetzt wird. Kürzlich fand eine Studie der britischen London School of Economics and Political Science (LSE) heraus, dass die im britischen Pflegewesen eingesetzte KI Frauen strukturell benachteiligt. Der Gesundheitszustand von Frauen wurde weniger ernsthaft bewertet.
Ähnliche Risiken sieht Expertin Gengler bei manchen KI-Systemen, die beim Recruiting in Personalabteilungen eingesetzt werden. Der oft durch Betreuungspflichten anders verlaufende Karrierepfad von Frauen wird automatisch aussortiert oder niedriger bewertet. Dabei wären inklusive Recruiting-Tools für Unternehmen gewinnbringend einsetzbar. Wie zahlreiche Studien belegen, schätzen Frauen ihre Qualifikationen oft falsch ein und bewerben sich nicht auf passende Jobausschreibungen: „Man könnte den Prozess verändern, indem man ein Matching-Tool einsetzt, das Frauen Jobs vorschlägt, auf die sie sich nicht selber bewerben würden“, meint Gengler.
Mit KI hätte man die Chance, das System umzudrehen und es so gerechter zu gestalten – aber auch einen Business-Case daraus zu machen. „Für Unternehmen ist eine gerechtere oder feministische KI nicht nur ein Nice-to-have. Es ist eine Businessentscheidung. Was wir bisher tun, ist ja, bestehende Muster zu reproduzieren“, so Gengler. Unternehmen haben schließlich Interesse daran, die besten Kandidat:innen einzustellen und nicht jene, die aufgrund von blinden Flecken der KI ausgewählt wurden.
Wer Algorithmen programmiert, ist entscheidend
Das Problem von diskriminierenden KI-Tools liegt nicht nur in den lückenhaften Daten. Mitentscheidend, wie inklusiv eine KI ist, ist auch, wer sie programmiert und designt.
Österreich ist europäisches Schlusslicht, was die Anzahl von weiblichen KITalenten, also Personen, die im Bereich KI arbeiten, angeht. Eine Studie des Berliner Thinktanks interface belegt, dass nicht einmal 20 Prozent der heimischen KI-Talente weiblich sind.
Eines von ihnen ist Mira Reisinger. Die Datenwissenschaftlerin arbeitet für das Start-up leiwand.ai, das Unternehmen berät und unterstützt, faire und verantwortungsvolle KIModelle zu entwickeln. Außerdem engagiert sich Reisinger bei Women in AI Austria. Das Netzwerk setzt sich für mehr Diversität und Inklusion im Bereich der KI ein. „Das Bewusstsein für Diskriminierungserfahrungen haben oft nur Menschen, die zu den betroffenen Gruppen gehören. Sind solche Personen in den Entwicklungsteams, kann das etwas verändern“, klärt Reisinger auf. Wird im Designprozess bereits darauf geachtet, welche Vorurteile und Diskriminierungen im Sprachmodell und in den Algorithmen inkludiert sein könnten, wird das fertige KI-System besser.
Für Reisinger ist eine andere Frage ebenfalls essenziell: „Oft ist es wichtiger, wer am Entscheidungstisch sitzt, als wer die KI-Systeme entwickelt. Wer entscheidet, ob und welche Systeme man verwendet oder verwenden darf und wie man sie verwendet?“
KI birgt Chancen und Risiken
Wenn Expert:innen wie Reisinger und Gengler von besserer KI sprechen, dann beziehen sie sich nicht ausschließlich auf Produktivitätssteigerungen und Effizienz. „Jedes Unternehmen hat gewisse Unternehmenswerte. Und beim Einsatz von KI muss man sich auch Gedanken machen, ob die KI, die man verwendet, mit diesen Werten übereinstimmt“, meint Gengler. Wenn ein Unternehmen sich als fortschrittlich und inklusiv versteht, sei es nicht kongruent, mit Algorithmen zu arbeiten, die Mitarbeiterinnen diskriminieren oder vom Mann als Norm ausgehen, so die Forscherin. Die Innen- und die Außensicht sollten zusammenpassen.
Das betrifft auch das gesellschaftliche Zusammenleben: „Es gibt viele Gesetze zu Gleichberechtigung und Gleichbehandlungsinitiativen. Bis solche Entscheidungen in der Realität angekommen sind, dauert das lang. Und je mehr man da Automatisierung und KI, die auf historischen Daten beruht, einsetzt, umso eher kann man einen Rückschritt machen“, warnt Reisinger. Gesellschaftliche Fortschritte, die mühsam erkämpft wurden, müssen also in die Datengrundlagen, die Designprozesse und die Entscheidungen zum Einsatz von KI inkludiert werden. Nur so kann das Morgen tatsächlich zukunftsgewandt sein.
Der Artikel ist im trend.FEMALE im September 2025 erschienen.
