KI verstehen

KI und Sexismus - Wie Künstliche Intelligenz Rollenbilder zementiert

16 snips
Sep 18, 2025
Dieses Mal wird diskutiert, wie Künstliche Intelligenz alte Rollenbilder zementiert und Frauen oft benachteiligt. Algorithmen lernen von Klischees, was zu Ungleichheiten bei Kreditvergaben und Gesichtserkennung führt. Interessante Einblicke gibt es in die verzerrte Wahrnehmung von Geschlechtern in der Arbeitswelt und in Deepfakes. Die Gesprächspartnerinnen beleuchten auch, wie mehr Frauen in der IT-Branche und Projekte wie 'African Girls Can Code' einen Wandel herbeiführen können.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Alte Muster Werden Automatisch Fortgeschrieben

  • Machine‑Learning‑Modelle reproduzieren historische Muster aus Trainingsdaten automatisch.
  • Judith Simon warnt, dass so vergangene Ungleichheiten in die Zukunft fortgeschrieben werden.
ANECDOTE

Kreditlimits Nach Altem Muster

  • Ein NYT‑Fall zeigte, dass Apples Kreditkarte Frauen schlechtere Limits zuwies, obwohl die Frau bessere Finanzen hatte.
  • Der Algorithmus hatte aus historischen Kreditmustern gelernt, Männer erhalten höhere Limits.
ANECDOTE

Gesichtserkennung Diskriminiert Frauen

  • Das MIT‑Paper zeigte, dass Gesichtserkennung Frauen, besonders schwarze Frauen, schlechter erkannte.
  • Der IGBADatensatz enthielt nur 25% Frauen und ca. 4% schwarze Frauen, wodurch der Algorithmus schlecht trainiert war.
Get the Snipd Podcast app to discover more snips from this episode
Get the app