

Was kommt nach der Superintelligenz? Mit Ijoma Mangold
Sep 16, 2025
Ijoma Mangold, Literaturkritiker und Autor beim Feuilleton der Zeit, taucht tief in die Frage ein, was die Singularität für die Menschheit bedeutet. Er diskutiert die Obsession mit den apokalyptischen Visionen und den utopischen Versprechen von KI. Welche Risiken birgt die Intelligenzexplosion? Zudem wird die transformative Kraft der Super-KI und deren Auswirkungen auf das menschliche Leben und Arbeiten beleuchtet. Mangold betrachtet auch die ethischen Herausforderungen und die kritischen Stimmen zur gegenwärtigen Technologie.
AI Snips
Chapters
Books
Transcript
Episode notes
Singularität Ist Teil Der KI-Debatte
- Singularitätsideen begleiten KI-Diskurse seit langem und sind nicht nur Sci‑Fi-Spielerei.
- Ijoma Mangold betont, dass Singularität sowohl als Apokalypse als auch als Erlösung gedacht wird.
Selbstverbesserung Treibt Singularitätsangst
- Selbstlernende Systeme sind zentral für die Singularitätsvorstellung, weil sie sich eigenständig verbessern könnten.
- Exponentielles Wachstum (Moore'sches Gesetz analog) treibt die Angst vor einer Intelligenzexplosion an.
Intelligenzexplosion Durch Iteration
- Ein mögliches Szenario ist die Intelligenzexplosion, wenn Modelle ihre eigenen Verbesserungen programmieren.
- Fritz Espenlaub skizziert, wie iteratives Selbstverbessern zu einer unvorstellbar leistungsfähigen KI führen könnte.