

KI und Sexismus - Wie Künstliche Intelligenz Rollenbilder zementiert
16 snips Sep 18, 2025
Dieses Mal wird diskutiert, wie Künstliche Intelligenz alte Rollenbilder zementiert und Frauen oft benachteiligt. Algorithmen lernen von Klischees, was zu Ungleichheiten bei Kreditvergaben und Gesichtserkennung führt. Interessante Einblicke gibt es in die verzerrte Wahrnehmung von Geschlechtern in der Arbeitswelt und in Deepfakes. Die Gesprächspartnerinnen beleuchten auch, wie mehr Frauen in der IT-Branche und Projekte wie 'African Girls Can Code' einen Wandel herbeiführen können.
AI Snips
Chapters
Transcript
Episode notes
Alte Muster Werden Automatisch Fortgeschrieben
- Machine‑Learning‑Modelle reproduzieren historische Muster aus Trainingsdaten automatisch.
- Judith Simon warnt, dass so vergangene Ungleichheiten in die Zukunft fortgeschrieben werden.
Kreditlimits Nach Altem Muster
- Ein NYT‑Fall zeigte, dass Apples Kreditkarte Frauen schlechtere Limits zuwies, obwohl die Frau bessere Finanzen hatte.
- Der Algorithmus hatte aus historischen Kreditmustern gelernt, Männer erhalten höhere Limits.
Gesichtserkennung Diskriminiert Frauen
- Das MIT‑Paper zeigte, dass Gesichtserkennung Frauen, besonders schwarze Frauen, schlechter erkannte.
- Der IGBADatensatz enthielt nur 25% Frauen und ca. 4% schwarze Frauen, wodurch der Algorithmus schlecht trainiert war.