Wie künstliche Intelligenz Gender-Bias aufdeckt
„Alice im Wunderland“ zählt bis heute zu den bekanntesten Kinderbüchern der Weltliteratur. Das Werk des Autors Lewis Carroll erschien erstmals 1865 in der von Königin Victoria regierten britischen Monarchie. Zu einer Zeit also, in der die Rollenverteilung von Frauen und Männern noch klar definiert war. Familie, Mutterschaft, Erziehung waren Frauen zugeordnet. Ihr Ort war die häusliche Umgebung. Männer entdeckten die Welt im Außen.
In Carrolls Märchen kümmert sich Alice wenig um diese Rollenbilder. Voller Neugier betritt sie das magische Wunderland und begegnet dort ungewöhnlichen Figuren und Gesellschaften. Alice hat keine Ängste und dringt auch an Plätze vor, die eigentlich Männern vorbehalten sind. Dass sich die Heldin Geschlechterklischees widersetzt, war nicht nur für die damaligen Verhältnisse ungewöhnlich. Bis heute spiegeln Kinderbücher bevorzugt gesellschaftliche Normen und Genderstereotype wider. Das belegen Untersuchungen, unter anderem eine Studie aus 2021, die Kinderbücher aus den Jahren 1960 bis 2020 mit Fokus auf Geschlechterrollen analysierte. Männliche Protagonisten sind noch immer in der Überzahl, lautete ein zentrales Ergebnis.
KI scannt Kinderbücher
Das Problem daran ist, Geschichten haben einen prägenden Einfluss auf die jungen Leser:innen. Geschlechterstereotype bilden sich nachweislich schon früh in der Kindheit heraus. Das hat Auswirkungen auf die emotionale und kognitive Entwicklung von Kindern und Jugendlichen, die sich etwa in schulischer Leistung und Berufswahl manifestieren.
Um mehr Sensibilität für eine Schieflage zu schaffen, die sich früh verfestigt, haben sich die Statistikerinnen Camilla Damian und Laura Vana-Gür ein Modell überlegt, das mithilfe von künstlicher Intelligenz Kinderliteratur auf Gender-Bias scannt. Auf Basis von eigens definierten und vielzähligen geschlechtsbezogenen Aspekten, die das kleine Team vorab definierte, sollten die Computer lernen, Texte zu analysieren, um daraus für jedes Buch einen Gender-Score zu generieren. Theoretisch beherrschen Sprachverarbeitungsprogramme solche Aufgaben bereits. Man denke nur an die Fähigkeiten von ChatGPT. Doch um ein wirklich valides Ergebnis zu bekommen, das sich nachvollziehen lässt und aus dem sich Empfehlungen ableiten lassen, braucht es mehr.
Computer lernen implizite Geschlechterungleichheiten
„Ein Nachteil von aktuellen Algorithmen zur Sprachverarbeitung ist, dass sie Vorurteile mitübernehmen“, erklärt Vana-Gür. Das wollte die junge Forscherin in ihrem vom Wissenschaftsfonds FWF geförderten 1000-Ideen-Projekt ausschließen. Um also die Analyse selbst von Anfang an vor Gender-Bias zu schützen – und nicht erst nachträglich, wie es in der Regel praktiziert wird –, haben die Forschenden ein aufwendiges manuelles Feintuning durchgeführt, mit dem die Algorithmen trainiert wurden. Sie haben unter anderem Erkenntnisse aus soziologischer, psychologischer und pädagogischer Forschung herangezogen, um Indikatoren für Geschlechterstereotype zu definieren.
Sie selbst werteten Kinderliteratur aus, um Faktoren zu eruieren, die implizit mit Gender-Bias in Verbindung gebracht werden können. Dazu schauten sich die beiden Wissenschaftlerinnnen die Berufe der Figuren an und untersuchten auch, ob sie anhand ihres Aussehens oder vielmehr ihrer Intelligenz dargestellt wurden. Auch Eigenschaften wie Freundlichkeit und Aggressivität, die typischerweise weiblichen bzw. männlichen Charakteren vorbehalten sind, seien ebenfalls relevant für die Analyse, sagt Vana-Gür. Zudem wurden Datenvisualisierungen erstellt, die zeigen, wie die Hauptdarsteller:innen mit den Nebenfiguren in Beziehung stehen.
Projektwebsite
Nachvollziehbare Ergebnisse erzielen
Auf Basis dieser qualitativen Auswertung und der umfassenden Datenerhebung baute das Forscherteam das Messverfahren auf. Angewendet wurde es an rund 30 Kinderbüchern aus dem Gutenberg-Projekt – das vor allem klassische Werke, wie eben „Alice im Wunderland“, „Cinderella“, „Aladin und die Wunderlampe“ oder „Hänsel und Gretel“, erfasst hat – Werke, die nicht mehr dem Urheberrecht unterliegen und damit für die Wissenschaftler:innen frei zugänglich waren.
„Das Potenzial dieser systematischen Herangehensweise ist groß, wenn auch sehr komplex“, bestätigt Vana-Gür, und verweist auf einen weiteren Vorteil, der in der KI-Forschung zunehmend wichtig wird: „Die Ergebnisse müssen transparent und nachvollziehbar sein, das ist ein wichtiges Ziel im Projekt.“ In der Forschung spricht man von „explainable AI“. Erklärbare Messergebnisse sind für die Wissenschaftler:innen die Voraussetzung dafür, valide Richtlinien zu liefern, die ein Bewusstsein für problematische Unter- und Fehlrepräsentationen von Geschlecht in der Kinderliteratur schaffen können. „Uns ist es wichtig, eine interpretierbare Gesamtbewertung zu erhalten, um etwa Verleger:innen, Pädagog:innen oder auch Eltern fundierte Entscheidungen zu ermöglichen“, sagt Gür.
Um das neue Werkzeug weiter zu etablieren, braucht es noch mehr Training und zusätzliche Datenbanken für Kinderliteratur, an denen getestet werden kann. Man stehe also gerade am Anfang, betont die Forscherin. Im Idealfall hilft der automatisch erzeugte Gender-Score am Ende dabei, weniger Geschichten auf dem Kinderbuchmarkt zu finden, die von zauberhaften Prinzessinnen und mutigen Astronauten erzählen. Denn die Welt von Buben und Mädchen und schließlich von uns Erwachsenen birgt viel mehr. „Alice im Wunderland“ hat uns schon vor 150 Jahren davon überzeugt.
Zur Person
Laura Vana-Gür hat Wirtschaftswissenschaften in Rumänien studiert und ihr Doktorat in Statistik an der Wirtschaftsuniversität Wien (WU) abgeschlossen. Seit 2021 ist sie Assistenzprofessorin im Forschungsbereich Computational Statistics an der TU Wien. Davor war sie Universitätsassistentin (Postdoc) an der WU Wien. Ihr Forschungsinteresse liegt in der Entwicklung statistischer Methoden und von Software, die die Analyse komplexer Daten, vor allem in Nachhaltigkeitsbereich, ermöglichen.