

Fight the Bias - Was KI Fairness von Feminismus lernen kann | Eva Gengler
KI und Feminismus klingen auf den ersten Blick nach zwei komplett getrennten Feldern. Aber was haben diese beiden Themen gemeinsam und wie können feministische Ansätze dabei helfen KI Systeme fairer und besser zu machen? Darüber spricht Christian Krug, der Host des Podcasts „Unf*ck Your Data“ mit Eva Gengler, Promotionsstudentin an der FAU Erlangen-Nürnberg und Gründerin von FeministAI und EnableYou.
KI skaliert und automatisiert Dinge. Mit den Daten mit denen sie trainiert wurde und die damit für die KI die Welt repräsentieren.
Jetzt ist es aber so, dass nicht alle Daten dieser Welt gleichmäßig oder der Verteilung entsprechend in den KI Systemen landen. Das kann an den unterschiedlichsten Faktoren liegen.
Oft ist das gewollt, zum Beispiel wenn wir nur Bilder von uns zeigen die uns gut darstellen. Denn wer möchte ein Familienbild generieren bei dem Tante Erna den Mund aufreißt oder uns nach dem direkt nach dem Aufstehen sehr verknautscht zeigt.
Manchmal liegen aber auch andere Effekte dahinter, die die Verteilung nicht angemessen repräsentieren oder bestehende Missverhältnisse abbilden, die wir eigentlich nicht mehr wollen.
So sind für KI Systeme CEOs oft weiße Männer namens Christian oder Thomas. Diese sind in den Positionen überrepräsentiert. Das kann ein KI System allerdings nur schwer bewerten und so wird eine bildgenerierende KI oft einen CEO genauso darstellen.
Denn generell werden Frauen oft marginalisiert, aber nicht nur Frauen, auch People of Color.
Und diese Biase in den Trainingsdaten schlagen sich dann in den Ergebnissen wieder.
Das reicht von vermeintlich harmlosen Fällen wie Seifenspendern die nur helle Hände erkennen zu wirklich kritischen Themen. Wie in der Strafverfolgung.
Wenn die KI für Women of Color höhere Rückfallraten vorhersagt als für weiße Männer. Oder wenn Men of Color häufiger falsch verdächtig werden, weil die Gesichtserkennung nicht richtig klappt.
Damit hier eine KI fair wird und auf objektiveren Merkmalen urteilt müssen wir die Modelle eben besser trainieren. Mit der korrekten Zielsetzung und den richtigen Daten.
▬▬▬▬▬▬ Profile: ▬▬▬▬
Zum LinkedIn-Profil von Eva: https://www.linkedin.com/in/eva-gengler/
Zum LinkedIn-Profil von Christian: https://www.linkedin.com/in/christian-krug/
Christians Wonderlink: https://wonderl.ink/@christiankrug
Unf*ck Your Data auf Linkedin: https://www.linkedin.com/company/unfck-your-data
▬▬▬▬▬▬ Buchempfehlung: ▬▬▬▬
Buchempfehlung von Eva: Unsichtbare Frauen -
Alle Empfehlungen in Melenas Bücherladen: https://gunzenhausen.buchhandlung.de/unfuckyourdata
▬▬▬▬▬▬ Hier findest Du Unf*ck Your Data: ▬▬▬▬
Zum Podcast auf Spotify: https://open.spotify.com/show/6Ow7ySMbgnir27etMYkpxT?si=dc0fd2b3c6454bfa
Zum Podcast auf iTunes: https://podcasts.apple.com/de/podcast/unf-ck-your-data/id1673832019
Zum Podcast auf Deezer: https://deezer.page.link/FnT5kRSjf2k54iib6
Zum Podcast auf Youtube: https://www.youtube.com/@unfckyourdata
▬▬▬▬▬▬ Merch: ▬▬▬▬▬▬▬▬▬▬▬▬▬▬▬
https://unfckyourdata-shop.de/
▬▬▬▬▬▬ Kontakt: ▬▬▬▬
E-Mail: christian@uyd-podcast.com
▬▬▬▬▬▬ Timestamps: ▬▬▬▬▬▬▬▬▬▬▬▬▬
00:00 Einführung in KI-Bias und Vorurteile
02:59 Feminismus und intersektionale Perspektiven
05:55 Diskriminierung in KI-Systemen
08:48 Die Rolle von Daten und deren Verzerrungen
11:52 Machtstrukturen und deren Einfluss auf KI
15:02 Kulturelle Prägungen in der Datenverarbeitung
18:09 Predictive Policing und die Gefahren von KI
21:02 Wirtschaftliche Aspekte und die Notwendigkeit von Veränderungen
33:25 Verlust von Potenzial durch mangelnde Diversität
34:14 Die Bedeutung von Diversität in Teams
36:51 Fehlende Perspektiven in der Produktentwicklung
38:40 Kulturelle Prägung und KI
40:18 Die Notwendigkeit lokaler KI-Systeme
41:38 Marginalisierte Gruppen und ihre Repräsentation
44:43 Verantwortung des Managements in der KI-Entwicklung
48:17 Ehrlichkeit und Authentizität in Unternehmen
51:04 Transparenz in der Datennutzung
55:33 Zielsetzung und Governance in der KI-Entwicklung