Künstliche Intelligenz trifft Entscheidungen auf Faktenlage und bleibt, im Gegensatz zum Menschen, stets neutral. So die allgemeine Überzeugung. Doch sowohl im Code als auch in den Daten sind Vorurteile verbaut. KI diskriminiert jeden Tag. Ralf fragt sich, ob eine neutrale KI überhaupt möglich ist und Carina muss ihn gleich mehrfach enttäuschen.
Kapitelmarken (3:38) Tobias Matzner: “Die großen Tech-Firmen haben nicht nur Trottel da sitzen”
(6:42) Ungleichbehandlung durch KI führt zu Suiziden in Australien
(7:58) Unsichtbare Vorurteile
(9:17) Emanuel Towfigh: “Diskriminierung durch Computersysteme ist real”
(10:56) Algorithmus und Daten sind das Problem.
(15:50) Verstärkt generative KI das Problem?
(19:11) Neutrale KI gibt es nicht.
(20:12) Was könnte Diskriminierung verhindern?
(27:43) KI darf nicht überall eingesetzt werden
Weiterführende LinksWenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an
kiverstehen@deutschlandfunk.de oder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Dlf Audiothek App. Zu finden in den App-Stores von
Apple und
Google.
Folgt dem Deutschlandfunk auch auf
Instagram oder
Facebook.