Was würden Sie sagen, wenn ich Ihnen erzähle, ich hätte diese Interviewfragen von ChatGPT schreiben lassen?
Gute Arbeitszeit-Effizienz-Gestaltung. Ich würde aber erwarten, dass Sie sie kritisch reflektiert haben.
Die promovierte Psychologin und ETH-Dozentin für Mensch-KI-Interaktion über Vorurteile und Chancen: Teil zwei der Interview-Serie über Vorbilder, die Gleichstellung vorantreiben.

Es geht nicht nur um Strukturen, sondern auch um Verhalten. Viele Frauen zweifeln an sich. Es braucht mitunter einen selbstsicheren Auftritt, gerade im technischen Bereich.
Gute Arbeitszeit-Effizienz-Gestaltung. Ich würde aber erwarten, dass Sie sie kritisch reflektiert haben.
Objektiv ist sie per definitionem nicht. KI basiert auf Daten – sie spiegelt diese wider, inklusive gesellschaftlicher Biases. Diskriminierung, auch Sexismus, kann sich im System festigen. Das Beispiel Bewerbungsalgorithmen zeigte: Aufgrund historischer Daten wurden patriarchale Strukturen abgebildet und White Males bevorzugt. Ich sehe jedoch eine Chance: Wenn wir transparent arbeiten, können wir Biases aufdecken und durch Fine-Tuning bewusst gegensteuern – bei allen Formen der Ungleichheit, nicht nur Gender, was besonders bei medizinischer KI zentral ist. KI ist weder gut noch böse, aber formbar.
Nein. Das wäre wiederum exklusiv. Wir brauchen eine faire KI für alle.
Es geht nicht nur um Strukturen, sondern auch um Verhalten. Viele Frauen zweifeln an sich. Es braucht mitunter einen selbstsicheren Auftritt, gerade im technischen Bereich.
Das hängt von den Erfahrungen ab. Mein Mathematiklehrer sagte damals: «Schnallts die Blondine aus Obwalden?» So ein Selbstwertknick lässt sich auch mit einem Sechser in Statistik oder einem Professorinnentitel nur teilweise ausbügeln.
KI kann Analytisches wie Softwareentwicklung automatisieren. Dadurch gewinnen menschliche Kompetenzen wie Empathie an Bedeutung, weil sie nicht automatisierbar sind. So kann zum Beispiel Care-Arbeit, die traditionell weiblich konnotiert ist, mehr Sichtbarkeit und Anerkennung gewinnen.
Wir haben die gefährliche Tendenz, sie zu vermenschlichen. KI ist weder männlich noch weiblich – sondern schlichtweg Technologie.
Privat gar nicht – in Beziehungsfragen, wo viele sie nutzen, hat sie nichts zu suchen. Beruflich ist sie nicht mehr wegzudenken.