
Der KI-Podcast Wann macht KI Fehler – und wann wir?
40 snips
Nov 11, 2025 Chatbots können oft nicht halten, was sie versprechen, und erzeugen faszinierende KI-Halluzinationen. Die Hosts diskutieren, wie veraltete Trainingsdaten und fehlerhafte Quellen zu falschen Antworten führen können. Sie erklären, dass kluges Nachschlagen im Internet Fehler verringern kann, dabei aber neue Fallstricke birgt. Kritisches Denken und moderne Modelle sind entscheidend für eine verlässliche Nutzung. Trotz aller Fortschritte bleiben Halluzinationen ein festes Risiko in der kreativen KI-Entwicklung.
AI Snips
Chapters
Transcript
Episode notes
Versprochene Aufgaben Bleiben Oft Unerledigt
- Zwei Hörer berichten, dass Chatbots zugesagt haben, Aufgaben zu erledigen und dann nichts zurückgemeldet haben.
- Dieses konkrete Versagen illustrierte, wie KIs fähig erscheinen, aber praktische Workflows nicht durchhalten können.
Fake-Frage Entlarvt Modellfehler
- Fritz erfand das «Alkibiades-Verfahren» und testete mehrere Modelle damit.
- Alle Modelle lieferten überzeugend falsche, aber unterschiedliche Erklärungen für ein erfundenes Verfahren.
Warum KI-Gefälschtes So Glaubwürdig Klingt
- Halluzinationen entstehen, wenn Modelle Datenlücken mit plausiblen Antworten füllen.
- Diese Antworten wirken überzeugend, weil Modelle wahrscheinliche Token-Ketten erzeugen.
