Wenn Maschinen Vorurteile lernen: Wie gefährlich ist Gender Bias in der Künstlichen Intelligenz?
Künstliche Intelligenz (KI) wird heute schon vielfach bei der
Entscheidungsfindung benutzt. Doch was passiert, wenn die Datengrundlage,
auf der diese Entscheidungen beruhen, verzerrt ist? Eine
geschlechtsspezifische Voreingenommenheit, die technische und
gesellschaftliche Folgen haben kann, meint Datenwissenschaftler Prof. Dr.
Christian Prinz von der SRH Fernhochschule.
Prof. Dr. Christian Prinz, Molekularmediziner, Professor für Data Science
und Künstliche Intelligenz an der SRH Fernhochschule – The Mobile
University lehrt und forscht rund um das Thema KI. Für ihn ist klar: KI
ist nur so objektiv wie die Daten, mit denen sie trainiert wurde. Das
Problem: Viele dieser Daten spiegeln gesellschaftliche Vorurteile wider.
Besonders deutlich wird das in der Medizin. Studien zeigen, dass Frauen
bei Brustschmerzen im Schnitt länger auf ein EKG warten als Männer. Ihre
Symptome werden häufiger als psychisch eingestuft, insbesondere wenn sie
von der vermeintlich männlichen Herzinfarktsymptomatik abweichen. Und das
hat Auswirkungen auf die Ergebnisse, wenn man die KI mit diesen
Studiendaten trainiert, um sie dann zur Unterstützung rund um eine
Herzinfarktdiagnose einzusetzen.
Die Daten lügen nicht. Oder doch?
„Die vorhandenen Daten sind immer die Grundlage. Wenn sie Bias enthalten,
dann produzieren sie Bias behaftete Vorhersagen. Das passiert oft
unbemerkt, wenn man nicht genau auf die Daten schaut“, erklärt Prinz.
Überlässt man also der KI das Feld unkontrolliert, entsteht laut dem
Wissenschaftler bei gesellschaftlich positiven Entwicklungen in der KI oft
wieder ein Reset, weil deren Datengrundlage somit massiv überholt ist.
In seiner Forschung beschäftigt sich Christian Prinz unter anderem mit
geschlechtsspezifischen Unterschieden in medizinischen Daten und den
Risiken algorithmischer Entscheidungen. Aus diesem Bereich liefert er ein
konkretes Beispiel: Eine Frau klagt über Übelkeit, Rückenschmerzen und
Erschöpfung: Symptome, die durchaus zu einem Herzinfarkt gehören, aber oft
übersehen werden. „Die KI erkennt solche Fälle oft schlechter, weil sie
auf Datensätzen basiert, in denen Männer überrepräsentiert sind und
weibliche Symptomatiken als ‚atypisch‘ gelten“, so Prinz.
Wenn Algorithmen benachteiligen
Nicht nur in der Medizin, auch in anderen Bereichen zeigt sich Gender
Bias. Ein großer internationaler Onlinehändler stoppte ein Bewerbertool,
weil es Frauen systematisch benachteiligte. Die KI bewertete Begriffe und
Formulierungen aus alten Bewerbungen – mehrheitlich von Männern – als
besonders positiv. Frauen mit ähnlichen Qualifikationen wurden schlechter
eingestuft.
Dabei ist Bias nicht nur ein Datenproblem, sondern auch eine Frage der
Modellierung. „KI übernimmt nicht nur die Muster aus den Daten, sondern
reproduziert auch die Denkweisen ihrer Entwickler“, sagt Prinz. Gerade bei
generativer KI sei das besonders kritisch: „Wenn ChatGPT etwa beim
Programmieren hilft, übernimmt es oft Codefragmente mit inhärenten
Verzerrungen. Diese werden dann weitergetragen.“
Präzise, aber falsch: Bias und Noise
Vorhersagefehler lassen sich grob in zwei Kategorien einteilen: Bias
(Verzerrung) und Noise (Zufälligkeit). „Ein gutes Bild liefert das
Dartspiel: Wenn man zehnmal in die rechte obere Ecke trifft, ist man sehr
präzise, aber nicht richtig. Das ist Bias. Wenn die Pfeile wild um das
Zentrum streuen, ist das Noise“, erklärt Prinz.
„Diversität in den Daten ist essenziell“
Vollständig ausschließen lässt sich Bias wohl nie. Doch es gibt
wirkungsvolle Maßnahmen, um ihn zu erkennen und zu reduzieren. Technisch
helfen Fairnessmetriken, De-Bias-Methoden oder Explainability-Tools, die
nachvollziehbar machen, wie eine KI zu ihren Entscheidungen kommt.
Organisatorisch sind interdisziplinäre Teams, Audits und Ethikleitlinien
notwendig. Und gesellschaftlich braucht es mehr Aufklärung und
Verantwortung.
„Ein wichtiger Faktor ist auch die Datenqualität“, betont Prinz. „Wenn wir
KI mit verzerrten oder unausgewogenen Daten füttern, dürfen wir uns über
diskriminierende Ergebnisse nicht wundern. Diversität in den Daten ist
essenziell.“ Noch wichtiger ist aber laut dem Professor der SRH
Fernhochschule, dass in den Daten das abgebildet sein muss, was
vorhergesagt werden soll.
Eine Frage der Gerechtigkeit
Gender Bias in der Künstlichen Intelligenz ist kein Randphänomen. Er
betrifft viele Lebensbereiche und kann reale Folgen haben: Etwa, wenn eine
Frau wegen ihrer „atypischen“ Symptome nicht rechtzeitig behandelt wird.
Oder wenn qualifizierte Bewerberinnen von einem Algorithmus aussortiert
werden.
„Doch die Technik ist nicht unser Feind“, sagt Prinz. Er ist sich sicher:
KI kann helfen, Entscheidungen objektiver und besser zu machen, wenn sie
richtig eingesetzt wird. Dazu gehört, bestehende Ungleichheiten zu
erkennen und nicht unreflektiert in neue Systeme zu übernehmen. Nur so
kann KI zu einem Werkzeug der Gerechtigkeit werden; und nicht zu einem
Verstärker alter Vorurteile.
Was ist Gender Bias in der Künstlichen Intelligenz?
Gender Bias bezeichnet eine systematische Verzerrung in Daten oder
Entscheidungen aufgrund des Geschlechts. In der Künstlichen Intelligenz
entsteht dieser Bias oft, weil die Trainingsdaten gesellschaftliche
Ungleichheiten widerspiegeln. Wenn etwa in medizinischen Datensätzen
überwiegend Männer vertreten sind, erkennt eine KI typische weibliche
Symptome schlechter. Auch Bewerbungs-KIs oder Sprachmodelle wie ChatGPT
können Vorurteile übernehmen. Zum Beispiel indem sie Männer mit Führung,
Frauen mit Pflege assoziieren.
Bias kann sich in allen Phasen der KI-Entwicklung einschleichen:
• Datenerhebung: Wenn bestimmte Gruppen unterrepräsentiert sind
• Datenverarbeitung: Wenn fehlerhafte Annahmen getroffen werden
• Modelltraining: Wenn Algorithmen bestehende Muster verstärken
• Anwendung: Wenn Entscheidungen ohne menschliches Hinterfragen
getroffen werden
Ziel fairer KI-Entwicklung ist es, diese Verzerrungen zu erkennen, zu
benennen und zu minimieren.
Prof. Dr. Christian Prinz
Christian Prinz ist Molekularmediziner und spezialisiert in MR-
Neuroimmunpharmakologie und klinischen Datenwissenschaften. Nach Stationen
in Erlangen, Parma, Berlin und Heidelberg als Wissenschaftler, später
Projektmanager und Consultant in der medizinischen Softwareentwicklung
lehrte Christian Prinz seit 2022 im Bereich Data Science & Analytics an
der SRH Fernhochschule - The Mobile University als Fachdozent. Seit März
2025 hält er eine Professur für Data Science und Künstliche Intelligenz.