IQ - Wissenschaft und Forschung

Vertrauen in die Blackbox - Wie erklärbar muss Künstliche Intelligenz sein?

Oct 18, 2025
Zu Gast sind Till Krause, Professor für Medien und Kommunikation, der Experimente mit Sprachmodellen durchführt, und Ute Schmid, Lehrstuhlinhaberin für Kognitive Systeme mit Fokus auf erklärbare KI. Sie diskutieren, wie Künstliche Intelligenz als 'Blackbox' unsere Entscheidungen beeinflussen kann und welche Herausforderungen bei der Erklärung ihrer Funktionsweisen bestehen. Außerdem beleuchten sie die Bedeutung von Alltagswissen für Sprachmodelle und die Risiken, die mit einem unkritischen Vertrauen in KI verbunden sind.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
ANECDOTE

Journalistische KI‑Experimentserie

  • Till Krause erzählt, wie er seit 2022 Sprachmodelle mit der Aufgabe des „Gemischten Doppels“ getestet hat.
  • Die Experimente zeigten zuerst schlechte, dann schrittweise bessere Ergebnisse durch prompt‑Feinjustierung.
INSIGHT

Wörter Als Hochdimensionale Vektoren

  • Transformersprachmodelle sagen Wort für Wort voraus, indem sie Wahrscheinlichkeiten berechnen und Wörter als Vektoren darstellen.
  • Bedeutungen liegen in hochdimensionalen Räumen nah beieinander und bestimmen die Wortwahl durch Kontext.
INSIGHT

Die Unschärfe Der Blackbox

  • Die interne Gewichtung und Entscheidungsfindung von Sprachmodellen bleibt oft undurchsichtig — die Blackbox‑Problematik.
  • Das macht es schwer zu wissen, warum ein Modell gerade diese Formulierung wählt.
Get the Snipd Podcast app to discover more snips from this episode
Get the app