Wie kĂŒnstliche Intelligenz Gender-Bias aufdeckt
âAlice im Wunderlandâ zĂ€hlt bis heute zu den bekanntesten KinderbĂŒchern der Weltliteratur. Das Werk des Autors Lewis Carroll erschien erstmals 1865 in der von Königin Victoria regierten britischen Monarchie. Zu einer Zeit also, in der die Rollenverteilung von Frauen und MĂ€nnern noch klar definiert war. Familie, Mutterschaft, Erziehung waren Frauen zugeordnet. Ihr Ort war die hĂ€usliche Umgebung. MĂ€nner entdeckten die Welt im AuĂen.
In Carrolls MĂ€rchen kĂŒmmert sich Alice wenig um diese Rollenbilder. Voller Neugier betritt sie das magische Wunderland und begegnet dort ungewöhnlichen Figuren und Gesellschaften. Alice hat keine Ăngste und dringt auch an PlĂ€tze vor, die eigentlich MĂ€nnern vorbehalten sind. Dass sich die Heldin Geschlechterklischees widersetzt, war nicht nur fĂŒr die damaligen VerhĂ€ltnisse ungewöhnlich. Bis heute spiegeln KinderbĂŒcher bevorzugt gesellschaftliche Normen und Genderstereotype wider. Das belegen Untersuchungen, unter anderem eine Studie aus 2021, die KinderbĂŒcher aus den Jahren 1960 bis 2020 mit Fokus auf Geschlechterrollen analysierte. MĂ€nnliche Protagonisten sind noch immer in der Ăberzahl, lautete ein zentrales Ergebnis.
KI scannt KinderbĂŒcher
Das Problem daran ist, Geschichten haben einen prĂ€genden Einfluss auf die jungen Leser:innen. Geschlechterstereotype bilden sich nachweislich schon frĂŒh in der Kindheit heraus. Das hat Auswirkungen auf die emotionale und kognitive Entwicklung von Kindern und Jugendlichen, die sich etwa in schulischer Leistung und Berufswahl manifestieren.
Um mehr SensibilitĂ€t fĂŒr eine Schieflage zu schaffen, die sich frĂŒh verfestigt, haben sich die Statistikerinnen Camilla Damian und Laura Vana-GĂŒr ein Modell ĂŒberlegt, das mithilfe von kĂŒnstlicher Intelligenz Kinderliteratur auf Gender-Bias scannt. Auf Basis von eigens definierten und vielzĂ€hligen geschlechtsbezogenen Aspekten, die das kleine Team vorab definierte, sollten die Computer lernen, Texte zu analysieren, um daraus fĂŒr jedes Buch einen Gender-Score zu generieren. Theoretisch beherrschen Sprachverarbeitungsprogramme solche Aufgaben bereits. Man denke nur an die FĂ€higkeiten von ChatGPT. Doch um ein wirklich valides Ergebnis zu bekommen, das sich nachvollziehen lĂ€sst und aus dem sich Empfehlungen ableiten lassen, braucht es mehr.
Computer lernen implizite Geschlechterungleichheiten
âEin Nachteil von aktuellen Algorithmen zur Sprachverarbeitung ist, dass sie Vorurteile mitĂŒbernehmenâ, erklĂ€rt Vana-GĂŒr. Das wollte die junge Forscherin in ihrem vom Wissenschaftsfonds FWF geförderten 1000-Ideen-Projekt ausschlieĂen. Um also die Analyse selbst von Anfang an vor Gender-Bias zu schĂŒtzen â und nicht erst nachtrĂ€glich, wie es in der Regel praktiziert wird â, haben die Forschenden ein aufwendiges manuelles Feintuning durchgefĂŒhrt, mit dem die Algorithmen trainiert wurden. Sie haben unter anderem Erkenntnisse aus soziologischer, psychologischer und pĂ€dagogischer Forschung herangezogen, um Indikatoren fĂŒr Geschlechterstereotype zu definieren.
Sie selbst werteten Kinderliteratur aus, um Faktoren zu eruieren, die implizit mit Gender-Bias in Verbindung gebracht werden können. Dazu schauten sich die beiden Wissenschaftlerinnnen die Berufe der Figuren an und untersuchten auch, ob sie anhand ihres Aussehens oder vielmehr ihrer Intelligenz dargestellt wurden. Auch Eigenschaften wie Freundlichkeit und AggressivitĂ€t, die typischerweise weiblichen bzw. mĂ€nnlichen Charakteren vorbehalten sind, seien ebenfalls relevant fĂŒr die Analyse, sagt Vana-GĂŒr. Zudem wurden Datenvisualisierungen erstellt, die zeigen, wie die Hauptdarsteller:innen mit den Nebenfiguren in Beziehung stehen.
Projektwebsite
Nachvollziehbare Ergebnisse erzielen
Auf Basis dieser qualitativen Auswertung und der umfassenden Datenerhebung baute das Forscherteam das Messverfahren auf. Angewendet wurde es an rund 30 KinderbĂŒchern aus dem Gutenberg-Projekt â das vor allem klassische Werke, wie eben âAlice im Wunderlandâ, âCinderellaâ, âAladin und die Wunderlampeâ oder âHĂ€nsel und Gretelâ, erfasst hat â Werke, die nicht mehr dem Urheberrecht unterliegen und damit fĂŒr die Wissenschaftler:innen frei zugĂ€nglich waren.
âDas Potenzial dieser systematischen Herangehensweise ist groĂ, wenn auch sehr komplexâ, bestĂ€tigt Vana-GĂŒr, und verweist auf einen weiteren Vorteil, der in der KI-Forschung zunehmend wichtig wird: âDie Ergebnisse mĂŒssen transparent und nachvollziehbar sein, das ist ein wichtiges Ziel im Projekt.â In der Forschung spricht man von âexplainable AIâ. ErklĂ€rbare Messergebnisse sind fĂŒr die Wissenschaftler:innen die Voraussetzung dafĂŒr, valide Richtlinien zu liefern, die ein Bewusstsein fĂŒr problematische Unter- und FehlreprĂ€sentationen von Geschlecht in der Kinderliteratur schaffen können. âUns ist es wichtig, eine interpretierbare Gesamtbewertung zu erhalten, um etwa Verleger:innen, PĂ€dagog:innen oder auch Eltern fundierte Entscheidungen zu ermöglichenâ, sagt GĂŒr.
Um das neue Werkzeug weiter zu etablieren, braucht es noch mehr Training und zusĂ€tzliche Datenbanken fĂŒr Kinderliteratur, an denen getestet werden kann. Man stehe also gerade am Anfang, betont die Forscherin. Im Idealfall hilft der automatisch erzeugte Gender-Score am Ende dabei, weniger Geschichten auf dem Kinderbuchmarkt zu finden, die von zauberhaften Prinzessinnen und mutigen Astronauten erzĂ€hlen. Denn die Welt von Buben und MĂ€dchen und schlieĂlich von uns Erwachsenen birgt viel mehr. âAlice im Wunderlandâ hat uns schon vor 150 Jahren davon ĂŒberzeugt.
Zur Person
Laura Vana-GĂŒr hat Wirtschaftswissenschaften in RumĂ€nien studiert und ihr Doktorat in Statistik an der WirtschaftsuniversitĂ€t Wien (WU) abgeschlossen. Seit 2021 ist sie Assistenzprofessorin im Forschungsbereich Computational Statistics an der TU Wien. Davor war sie UniversitĂ€tsassistentin (Postdoc) an der WU Wien. Ihr Forschungsinteresse liegt in der Entwicklung statistischer Methoden und von Software, die die Analyse komplexer Daten, vor allem in Nachhaltigkeitsbereich, ermöglichen.