«Welches Geschlecht hat KI, Nadine Bienefeld?»

Die promovierte Psychologin und ETH-Dozentin für Mensch-KI-Interaktion über Vorurteile und Chancen: Teil zwei der Interview-Serie über Vorbilder, die Gleichstellung vorantreiben.

Es geht nicht nur um Strukturen, sondern auch um Verhalten. Viele Frauen zweifeln an sich. Es braucht mitunter einen selbstsicheren Auftritt, gerade im technischen Bereich.
Nadine Bienefeld

Was würden Sie sagen, wenn ich Ihnen erzähle, ich hätte diese Interviewfragen von ChatGPT schreiben lassen?

Gute Arbeitszeit-Effizienz-Gestaltung. Ich würde aber erwarten, dass Sie sie kritisch reflektiert haben.

Wie sexistisch ist KI? Sie gilt als objektiv – tatsächlich reproduziert sie aber patriarchale Strukturen?

Objektiv ist sie per definitionem nicht. KI basiert auf Daten – sie spiegelt diese wider, inklusive gesellschaftlicher Biases. Diskriminierung, auch Sexismus, kann sich im System festigen. Das Beispiel Bewerbungsalgorithmen zeigte: Aufgrund historischer Daten wurden patriarchale Strukturen abgebildet und White Males bevorzugt. Ich sehe jedoch eine Chance: Wenn wir transparent arbeiten, können wir Biases aufdecken und durch Fine-Tuning bewusst gegensteuern – bei allen Formen der Ungleichheit, nicht nur Gender, was besonders bei medizinischer KI zentral ist. KI ist weder gut noch böse, aber formbar.

Also brauchen wir eine feministische KI?

Nein. Das wäre wiederum exklusiv. Wir brauchen eine faire KI für alle.

Reicht es, mehr Frauen in die KI-Entwicklung zu holen?

Es geht nicht nur um Strukturen, sondern auch um Verhalten. Viele Frauen zweifeln an sich. Es braucht mitunter einen selbstsicheren Auftritt, gerade im technischen Bereich.

Frauen haben oft Minderwertigkeitskomplexe in Mathe und Technologie...

Das hängt von den Erfahrungen ab. Mein Mathematiklehrer sagte damals: «Schnallts die Blondine aus Obwalden?» So ein Selbstwertknick lässt sich auch mit einem Sechser in Statistik oder einem Professorinnentitel nur teilweise ausbügeln.

Sie sagen, gerade für Frauen liege in KI eine grosse Chance.

KI kann Analytisches wie Softwareentwicklung automatisieren. Dadurch gewinnen menschliche Kompetenzen wie Empathie an Bedeutung, weil sie nicht automatisierbar sind. So kann zum Beispiel Care-Arbeit, die traditionell weiblich konnotiert ist, mehr Sichtbarkeit und Anerkennung gewinnen.

Welches Geschlecht hat KI?

Wir haben die gefährliche Tendenz, sie zu vermenschlichen. KI ist weder männlich noch weiblich – sondern schlichtweg Technologie.

Wo unterstützt KI Sie im Alltag?

Privat gar nicht – in Beziehungsfragen, wo viele sie nutzen, hat sie nichts zu suchen. Beruflich ist sie nicht mehr wegzudenken.