Künstliche Intelligenz und Gender

„You’re a slut, Siri!“

// Hannah Lechner //
Han Dopler ist Linguist*in, schreibt aktuell eine Masterarbeit zum Thema (Gender)Queerness, Spracherleben und Körperbild an der Uni Wien und hat sich im Laufe des Studiums unter anderem auf die Schnittstelle von Sprache und Technologien spezialisiert. Im Interview spricht Han über AI Girlfriends, gegenderte KI-Stimmen und automatische Übersetzungstools – und darüber, warum Tech politisch ist.
Auf Seite 27 dieser ëres-Ausgabe geht es um bildgenerierende Künstliche Intelligenz (KI) und wie diese problematische Schönheitsnormen reproduziert, KI kann aber viel mehr als „nur“ Bilder. Du hast dich z.B. intensiv mit AI Girlfriends auseinandergesetzt. Was sind solche „KI-Freundinnen“ und inwiefern ist der Trend problematisch?
Sehr heruntergebrochen: Das Ganze funktioniert mit Apps, in denen Personen (hauptsächlich Männer) eine fiktive Figur (in der Regel eine Frau) erstellen, mit der sie dann über Chat und Sprachfunktion interagieren können. Dabei geht es meistens um eine romantische und/oder sexuelle Beziehung, die sich unter Umständen sehr intensiv und „echt“ anfühlt. Das heißt, die Nutzenden erstellen sich quasi ihre ideale Partner*in, die Kommunikation funktioniert mittels künstlicher Intelligenz. Problematisch kann das sein, weil dabei Genderstereotype und ganz bestimmte (Schönheits)Ideale reproduziert und weiter normalisiert werden: Die AI Girlfriends sind in der Regel jung, normschön, weiß und dünn. Sie sollen einerseits sexy, enthemmt, lustig und selbstbewusst sein und dabei aber gleichzeitig auch empathisch und „bemutternd“. Sie geben auf Kommando Komplimente, hören jederzeit geduldig zu und haben absolut keine eigenen Bedürfnisse. Spannend ist auch, dass die Sprachausgabe, bei der man theoretisch zwischen „weiblichen“, „männlichen“ und „nicht-binären“ Stimmen auswählen kann, nur mit weiblich gegenderten Stimmen wirklich gut funktioniert.

Inwiefern?
Viele von uns verwenden Smart Home Devices, wie Amazons Alexa oder Voice Assistants am Handy wie Siri auf Apple Geräten. Diese Interaktionen sind meist so beiläufig und selbstverständlich in unseren Alltag integriert, dass wir nicht aktiv darüber nachdenken – wenn man aber kurz überlegt, fällt auf, dass die allermeisten Assistants mit einer ganz klar weiblich gegenderten Stimme als Voreinstellung daherkommen. Die Entwicklungsteams dahinter sind großteils weiße, US-amerikanische cis Männer, deren ganz konkrete Vorstellungen über „Weiblichkeit“ in das Design der Persönlichkeit und Stimme der Voice Assistants einfließen. Und hier sind wir wieder bei Genderstereotypen: Forschung zeigt, dass weibliche Stimmen generell als sympathischer und angenehmer wahrgenommen werden und Nutzer*innen ihre „weiblichen“ Voice Assistants vor allem als hilfsbereit und unterwürfig beschreiben – mit Siri und Alexa etwa interagieren wir ja quasi nur, indem wir Befehle erteilen. Weil sie so häufig verwendet werden, sind weiblich gegenderte KI-Stimmen auch sehr viel weiter in der Entwicklung. Demgegenüber werden „männliche“ KI-Stimmen tendenziell als autoritärer wahrgenommen.

Spannend finde ich auch, wie „weibliche“ Voice Assistants auf Beleidigungen und verbale sexualisierte Übergriffe reagieren. Kannst du darüber mehr erzählen?
Ja! Ein sehr pla­katives Beispiel dafür ist etwa Siris Reaktion auf die Aussage „You’re a slut, Siri!“ (Deutsch: „Du bist eine Schlampe, Siri!“). 2017 antwortete Siri nämlich noch mit „I’d blush if I could.“ (Deutsch: „Wenn ich könnte, würde ich erröten“). Inzwischen sagt Siri: „Darauf antworte ich nicht.“ Damit sich das aber verändert hat, musste es erst mal Kritik geben. Eine eindeutig negative Reaktion auf sexuell übergriffige Aussagen gibt es aber nach wie vor weder bei Siri noch bei anderen gängigen Voice Assistants.

Was viele von uns auch sehr selbstverständlich und häufig im Alltag verwenden, sind automatische Übersetzungstools wie z.B. Google Übersetzer oder DeepL – damit hast du in letzter Zeit auch experimentiert. Was sind deine Erkenntnisse?
Das Problem von automatischen Übersetzungstools wird vor allem sichtbar, wenn man von Sprachen ohne grammatikalisches Geschlecht, wie z.B. Englisch, in Sprachen mit grammatikalischem Geschlecht, wie z.B. Deutsch, übersetzt. Lange Zeit war es so, dass „the doctor“ automatisch als „der Arzt“ übersetzt wurde, mittlerweile geben sowohl Google Übersetzer als auch DeepL wenigstens „der Arzt / die Ärztin“ als Übersetzungsmöglichkeiten an. Verwendet man Nomen aber in einem Satz, verschwindet dieser Effekt sofort wieder und die Übersetzungen zeigen erneut einen Gender Bias und darauf beruhende Zuschreibungen. Ich hab das letztens mit „the dancer“ (Deutsch: der*die Tänzer*in) ausprobiert: „This dancer is beautiful“ übersetzt Google Übersetzer mit „diese Tänzerin ist wunderschön“, während „this dancer is talented“ mit „dieser Tänzer ist talentiert“ übersetzt wird, „the shy dancer“ ist „die schüchterne Tänzerin, „the brave dancer“ aber „der mutige Tänzer“.

Wir empfehlen in den Chill Tipps (S. 30/31) den Podcast „Tech Won’t Save Us“ für alle, die sich noch tiefer mit dem Thema auseinandersetzen wollen. Hast du, gerade vor dem Hintergrund dessen, was aktuell in den USA passiert, noch andere Empfehlungen?
Habe ich! Es gibt noch einen anderen tollen Podcast, nämlich „System Crash“, der sich spezifisch mit dem Einfluss großer Tech-Unternehmer auf das politische und gesellschaftliche Geschehen beschäftigt. Eine Entwicklung in diese Richtung zeichnet sich ja schon lange ab, ist nunmehr aber für alle sichtbar eskaliert: Elon Musk hat sich mit Twitter (jetzt X) eine der größten Social Media Plattformen gekauft, auf der jetzt nach seinen Regeln gespielt wird, und wird wohl eine wichtige Rolle in der Trump Regierung einnehmen. Auch Mark Zuckerberg hat einschneidende Veränderungen in den „Spielregeln“ für Metas Plattformen (etwa Facebook und Instagram) vorgenommen – es wird, nach dem Vorbild von X und zumindest in den USA, keine Faktenchecks mehr geben, das heißt, dass Falschinformationen und hate speech (Deutsch: Hassrede) uneingeschränkt verbreitet werden können. Das alles macht Angst und es benötigt enorm viel mentale Energie, um sich damit auseinanderzusetzen. Wir erleben gerade aber eine Zeit, die klarer denn je vor Augen führt, dass eine unpolitische Perspektive auf die Tech-Industrie im besten Fall naiv und im schlimmsten Fall gefährlich ist.

Han Dopler © privat

Voci letterarie femminili

Quando le storie nate a Bolzano piacciono in tutto il mondo

// Lorena Palanga //
La storia visionaria di Stefania Gander, l’imprenditrice che ha deciso di fare della piccola editoria la sua attività profes­sionale e che ora spedisce libri in Francia, Belgio e Canada
Stefania Gander con il suo libro “Forse Non sono Dio” © privato
Dal minuscolo ufficio di via Righi a Bolzano al resto del mondo. Potrebbe sembrare il titolo di un libro e invece è la storia vera di una piccola casa editrice altoatesina, la Gander Books. Iniziare ad editare libri, nell’era degli eBook e del digitale spinto, era da sempre il sogno “visionario” nel cassetto di Stefania Gander. Lei che ha lavorato per grandi tipografie italiane nel ruolo di direttrice commerciale per l’estero, nel 2021 ha voluto farsi un regalo per il suo 50esimo compleanno: aprire una casa editrice. I pareri? Non sempre positivi, ma Stefania non ha mollato. Un anno di lavoro e nel 2022 la Gander Book è diventata realtà. Il primo libro quello della giornalista locale Martina Capovin e poi via via decine di scritti, in particolar modo di autori altoatesini. La vera svolta è arrivata nell’estate del 2024 con il libro scritto dalla stessa Gander “Forse non sono Dio – Cronache di un gatto”, un racconto unico e divertente dove la narrazione è affidata ad un gatto domestico.
Stefania, in pochi anni è diventata titolare di una casa editrice e scrittrice di un libro apprezzato ormai in diverse parti del mondo e per mesi nella top 100 dei libri più letti su Amazon. È stata una visionaria?
Far diventare l’editoria la mia prima attività professionale è stata una scommessa. Sono partita in punta di piedi. Ho cercato di trovare storie che appassionassero i lettori, raccontate spesso da volti conosciuti a livello locale. Poi ho lavorato cercando di costruire una rete.

I suoi libri si trovano oggi in 150 librerie in tutta Italia. C’è perfino una piccola libreria indipendente a 60 km da Bruxelles che vende il suo libro “Forse non sono Dio”. Come ha fatto?
Gli investimenti pubblicitari soprattutto online sono stati alti. E poi ho sfruttato le grandi potenzialità di Amazon. Non sono d’accordo con chi sostiene che il colosso rappresenta la “morte dell’editoria”. Per i piccoli è una grande opportunità per raggiungere mercati altrimenti impensabili, come nel mio caso Francia, Belgio e Canada. Di recente sono stata contattata da una nota agenzia letteraria di Taiwan, interessata a portare il mio libro in Cina. Ho puntato anche alla rete con altri piccoli editori sparsi in tutta Italia, ho cercato di guardare al Sud. Le piccole realtà imprenditoriali italiane devono imparare a non considerarsi solo come concorrenza, a collaborare poco come parte di un ecosistema su alcune tematiche. Non si può rimanere chiusi nei confini provinciali.
Cos’è secondo Lei oggi visionario nel settore dell’editoria?
Visionario oggi è puntare su libri “popolari”. L’editoria, e la cultura in generale, non possono essere elitarie. Devono portare e riportare le persone a leggere. Una delle recensioni più belle che ho ricevuto al mio libro è proprio quella di una persona che raccontava di non leggere mai, ma che il mio libro l’aveva letto e riletto. Ecco: forse quella persona si appassionerà d’ora in poi alla lettura. L’editoria deve tornare con i piedi per terra.

Il suo libro “Forse non sono Dio” ha raggiunto le 15 mila copie. Cosa piace secondo Lei ai lettori?
Ho studiato questa trama nei minimi particolari, sono riuscita a costruire un ritmo incessante, mi sono ispirata alla comicità di Molière in una commedia fatta di equivoci e di emozioni sul legame che da sempre si è instaurato tra umani e gatti. Ci ho messo tutta me stessa per creare una storia di qualità e i lettori sembrano aver apprezzato.