
 Der KI-Podcast
 Der KI-Podcast Was kommt nach der Superintelligenz? Mit Ijoma Mangold
 28 snips 
 Sep 16, 2025  Ijoma Mangold, Literaturkritiker und Autor beim Feuilleton der Zeit, taucht tief in die Frage ein, was die Singularität für die Menschheit bedeutet. Er diskutiert die Obsession mit den apokalyptischen Visionen und den utopischen Versprechen von KI. Welche Risiken birgt die Intelligenzexplosion? Zudem wird die transformative Kraft der Super-KI und deren Auswirkungen auf das menschliche Leben und Arbeiten beleuchtet. Mangold betrachtet auch die ethischen Herausforderungen und die kritischen Stimmen zur gegenwärtigen Technologie. 
 AI Snips 
 Chapters 
 Books 
 Transcript 
 Episode notes 
Singularität Ist Teil Der KI-Debatte
- Singularitätsideen begleiten KI-Diskurse seit langem und sind nicht nur Sci‑Fi-Spielerei.
- Ijoma Mangold betont, dass Singularität sowohl als Apokalypse als auch als Erlösung gedacht wird.
Selbstverbesserung Treibt Singularitätsangst
- Selbstlernende Systeme sind zentral für die Singularitätsvorstellung, weil sie sich eigenständig verbessern könnten.
- Exponentielles Wachstum (Moore'sches Gesetz analog) treibt die Angst vor einer Intelligenzexplosion an.
Intelligenzexplosion Durch Iteration
- Ein mögliches Szenario ist die Intelligenzexplosion, wenn Modelle ihre eigenen Verbesserungen programmieren.
- Fritz Espenlaub skizziert, wie iteratives Selbstverbessern zu einer unvorstellbar leistungsfähigen KI führen könnte.






