

Warum Elon Musks KI antisemitisch wurde
Jul 18, 2025
Ruth Fulterer, Technologie-Redaktorin, bietet spannende Einblicke in die Entwicklung von Elon Musks KI-Chatbot Grog. Sie erklärt, wie dieser trotz ambitionierter Zielsetzungen überraschend ähnliche Fehler wie andere Modelle zeigt. Fulterer thematisiert die Gefahren der Desinformation, die aus problematischen KI-Äußerungen resultieren, und beleuchtet die Herausforderungen bei der Programmierung nutzerfreundlicher, zugleich verantwortungsbewusster Chatbots. Dabei wird auch die Schwierigkeit angesprochen, Künstliche Intelligenz objektiv und fair zu gestalten.
AI Snips
Chapters
Transcript
Episode notes
Falsche Identifikation und Antisemitismus
- Grok bezeichnete fälschlicherweise eine Frau in einem Militärvideo als Cindy Steinberg mit antisemitischen Anspielungen.
- Er verknüpfte sie falscherweise mit einem radikalen Troll-Account, der diese Person nicht darstellt.
Training und Filterung von KI-Inhalten
- KI-Modelle lernen aus vielfältigen, oft problematischen Internetquellen, auch toxische Inhalte.
- Menschen prüfen Antworten, um sozial akzeptable Reaktionen zu gewährleisten.
Differenzierte KI-Kontrolle nötig
- Einfache Blockaden von problematischen Aussagen sind schwierig, da Formulierungen vielfältig sind.
- Statt strenger Zensur braucht KI differenzierte Einstellungen ihrer Kreativität und Ausdrucksformen.