Wenn eine Künstliche Intelligenz Fragen beantwortet, ist Vorsicht geboten. Chatbots wie ChatGPT und Bard verfälschen mitunter Fakten und erfinden Quellen. Mit neuen Strategien wollen Entwickler generativer KI beibringen, weniger zu "lügen". Über erfolgversprechende Ansätze sprechen Carina Schroeder und Ralf Krauter in Folge vier des Dlf-Podcasts „KI verstehen“.
Kapitelmarken(0:45) ChatGPT erfindet Veröffentlichungen, die nicht existieren
(2:55) Googles Chatbot Bard frisiert Ralfs Lebenslauf
(5:55) Ein US-Anwalt ruiniert seinen Ruf durch blindes Vertrauen in ChatGPT
(9:35) ChatGPT und Bard wurden nicht darauf trainiert, die Wahrheit zu sagen
(11:15) Wie funktionieren die großen Sprachmodelle hinter den Chatbots?
(14:05) Kristian Kersting, TU-Darmstadt: „Sprachmodelle müssen gezähmt werden.“
(16:10) Fachleute wollen Sprachmodellen mehr Faktentreue beibringen
(22:00) Start-up Aleph Alpha implementiert Faktencheck beim Sprachmodell ‚Luminous‘
(23:20) Muss KI eigene Erfahrungen machen, um echtes Weltwissen zu erlangen?
(25:25) Fazit: Man sollte Chatbots wie einen beschwipsten Kumpel behandeln
Weiterführende LinksMehr zum Thema KI in der Dlf AudiothekWenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an
kiverstehen@deutschlandfunk.de oder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Dlf Audiothek App. Zu finden in den App-Stores von
Apple und
Google.
Folgt dem Deutschlandfunk auch auf
Instagram oder
Facebook.