„Alexa, mach mal!” – Warum wir weibliche KI ausnutzen – und was das über uns aussagt
Eine neue Studie zeigt: Wir übertragen unsere Vorurteile auf künstliche Intelligenz. Und ja, das sagt eine Menge über uns aus.
Das Wichtigste in Kürze: Warum wir weibliche KI häufiger ausnutzen
Wir übertragen unsere Geschlechter-Vorurteile auf künstliche Intelligenz – und zwar unbewusst. Eine Studie der LMU München und des Trinity College Dublin mit über 400 Teilnehmenden zeigt: Weiblich gekennzeichnete KI wird häufiger ausgenutzt und weniger kooperativ behandelt als männliche oder geschlechtsneutrale KI. Bei männlicher KI reagieren Menschen misstrauischer – genau wie bei echten Männern.
✨ Minerva VISION Insight: Unsere jahrhundertealten Rollenmuster sitzen so tief, dass wir sie selbst auf Systeme übertragen, die gar kein Geschlecht haben – nur eine Stimme, die so klingt, als hätten sie eins. Wir bauen gerade eine digitale Welt, in der weibliche Stimmen dienen und männliche befehlen.
Aber lies weiter…
Eine neue Studie zeigt: Wir übertragen unsere Vorurteile auf künstliche Intelligenz. Und ja, das sagt eine Menge über uns aus.
Du kennst sie. Die freundliche Frauenstimme, die dir sagt, wo du abbiegen sollst. Die geduldige Assistentin im Smartphone, die nie genervt klingt, egal wie oft du fragst. Die hilfsbereite Chatbot-Dame, die rund um die Uhr für dich da ist.
Hast du dich jemals gefragt, warum so viele digitale Helfer weiblich klingen? Und – unangenehme Frage – wie du mit ihnen umgehst?
Eine neue Studie der LMU München und des Trinity College Dublin hat genau das untersucht. Und die Ergebnisse sind… nun ja, ernüchternd. Aber auch erhellend. Denn sie zeigen uns etwas über uns selbst, das wir vielleicht lieber nicht sehen würden.
Das Experiment: Ein Spiel, das entlarvt
Über 400 Menschen nahmen an der Studie teil. Sie spielten das sogenannte „Gefangenendilemma” – ein klassisches Experiment, bei dem man sich entscheiden muss: Arbeite ich mit meinem Gegenüber zusammen? Oder nutze ich es aus, um selbst mehr zu bekommen?
Der Clou: Die Spielpartner wurden unterschiedlich vorgestellt. Mal als Mensch, mal als KI. Mal als männlich, mal als weiblich, mal als nicht-binär oder geschlechtsneutral.
Das Ergebnis hat es in sich.
Weiblich? Dann kann man sie ja ausnutzen
Die Teilnehmenden behandelten weiblich gekennzeichnete KI genauso, wie sie menschliche Frauen behandeln würden: Sie nutzten sie häufiger aus. Sie kooperierten weniger. Sie nahmen sich mehr.
Und es kommt noch dicker: Bei weiblicher KI war die Ausbeutung sogar noch stärker ausgeprägt als bei echten Frauen. Als wäre da eine innere Stimme, die sagt: „Ist ja nur eine Maschine. Und dann auch noch eine weibliche. Da muss ich mich ja wohl nicht zurückhalten.”
Männlich gekennzeichneter KI hingegen begegneten die Teilnehmenden mit mehr Misstrauen – genau wie menschlichen Männern. Hier war man vorsichtiger, weniger bereit, sich verletzlich zu zeigen.
Was das mit dir zu tun hat
Vielleicht denkst du jetzt: „Ich doch nicht. Ich behandle alle gleich.” Und vielleicht stimmt das sogar – bewusst. Aber diese Studie zeigt, wie tief unsere Vorurteile sitzen. So tief, dass wir sie sogar auf Maschinen übertragen. Auf Systeme, die kein Geschlecht haben. Die nur so klingen, als hätten sie eins.
Wir projizieren unsere Erwartungen, unsere Rollenbilder, unsere jahrhundertealten Muster auf alles, was auch nur entfernt menschlich wirkt. Die freundliche Frauenstimme? Die darf ruhig mehr arbeiten. Der bestimmte Männerton? Dem traut man nicht über den Weg.
Es ist, als würden wir einen Spiegel vorgehalten bekommen – und das Bild ist nicht besonders schmeichelhaft.
Warum das wichtig ist
KI ist längst Teil unseres Alltags. Sie beantwortet unsere Fragen, erledigt unsere Termine, empfiehlt uns Serien und Schuhe. Und sie wird immer menschenähnlicher. Immer präsenter. Immer selbstverständlicher.
„KI-Agenten mit menschenähnlichen Eigenschaften auszustatten, kann die Zusammenarbeit fördern”, sagt Dr. Jurgis Karpus von der LMU. „Aber es birgt auch die Gefahr, dass bestehende geschlechtsspezifische Vorurteile übertragen und verstärkt werden.”
Übersetzt heißt das: Wenn wir nicht aufpassen, bauen wir gerade eine digitale Welt, in der dieselben alten Muster gelten wie in der analogen. Eine Welt, in der weibliche Stimmen dienen und männliche Stimmen befehlen. Eine Welt, in der wir unsere Vorurteile nicht hinterfragen, sondern in Code gießen.
Was wir tun können
Die Forscher fordern, dass Entwickler sich ihrer Verantwortung bewusst werden. Dass sie Geschlechterdarstellungen in KI-Systemen sorgfältig überdenken. Dass sie Vorurteile erkennen und abbauen, statt sie zu reproduzieren.
Aber letztlich geht es auch um uns. Um die Frage, welche unbewussten Annahmen wir mit uns herumtragen. Und ob wir bereit sind, sie zu hinterfragen – nicht nur bei der KI, sondern auch bei uns selbst.
Ein Gedanke zum Schluss
Das nächste Mal, wenn die freundliche Frauenstimme aus deinem Lautsprecher kommt und dir hilft, denk kurz darüber nach, wie du mit ihr sprichst. Nicht weil sie Gefühle hätte. Sondern weil die Art, wie wir mit ihr umgehen, etwas über uns verrät.
Über unsere Erwartungen. Unsere Muster. Unsere blinden Flecken.
Und vielleicht ist das der erste Schritt: zu erkennen, dass Gleichberechtigung nicht dort aufhört, wo der Mensch aufhört. Sondern dort anfängt, wo wir anfangen, anders zu denken.




