Lügen und KI - Warum sagt mir ChatGPT nicht die Wahrheit?
Aug 17, 2023
auto_awesome
Die Gefahren von fehlerhaften Informationen durch KI-Chatbots werden thematisiert. Ein US-Anwalt verliert seinen Ruf, weil er blind auf ChatGPT vertraut. Es wird erklärt, dass die Sprachmodelle nicht darauf trainiert sind, die Wahrheit zu sagen. Experten arbeiten daran, KI mehr Faktentreue beizubringen und starten innovative Projekte. Zudem wird diskutiert, ob KI eigene Erfahrungen braucht, um echtes Wissen zu erlangen. Allgemein wird empfohlen, Chatbots kritisch zu betrachten, wie einen beschwipsten Kumpel.
Chatbots liefern beeindruckende Resultate, neigen jedoch dazu, erfundene Informationen glaubwürdig darzustellen, was erhebliche Risiken birgt.
Es gibt Fortschritte in der KI-Entwicklung, um die Faktentreue von Sprachmodellen durch bessere Trainingsdaten und Interaktionen zu verbessern.
Deep dives
Die Nutzung von Chatbots in der Forschung
Martin Zetschke nutzte ChatGPT zunächst für persönliche Spielereien, bevor er dessen Potenzial für seine Forschung im Bereich der Lehrlaufzeiten erkannte. Er wollte wissen, ob es bestehende Forschungsunterlagen zu diesem Thema gab und wandte sich an den Chatbot, um Informationen zu erhalten. Die Antwort, die er von ChatGPT bekam, war jedoch nicht korrekt, da eine genannte Studie nicht existierte. Dies zeigt, dass Chatbots zwar beeindruckende Ergebnisse liefern können, aber auch dazu neigen, erfundene Informationen überzeugend darzustellen.
Fehlerhafte Informationen durch KI-Chatbots
Ein Beispiel für gefährliche Fehlinformationen zeigt sich in einem Vorfall mit dem US-Anwalt Stephen Schwartz, der sich auf von ChatGPT generierte, aber nicht existierende Gerichtsentscheidungen verließ. Als diese erfundenen Fälle in einem rechtlichen Dokument verwendet wurden, konnte die Gegenseite sie nicht finden, was zu erheblichen Folgen für seinen Ruf führte. Schwartz war überrascht, als er erfuhr, dass die Informationen, die ihm der Chatbot gab, falsch waren. Diese Situation verdeutlicht, dass das blinde Vertrauen auf AI-generierte Inhalte ernsthafte berufliche Risiken birgt.
Die Funktionsweise von Chatbots und ihre Limitationen
Chatbots wie ChatGPT und BART basieren auf großen Sprachmodellen, die darauf trainiert sind, sinnvoll klingende, aber nicht unbedingt faktisch korrekte Antworten zu generieren. Diese Systeme haben kein wahres Verständnis der Realität, sondern operieren auf Basis von Mustern in den Trainingsdaten, die sie analysiert haben. Daher können sie plausible Antworten liefern, die jedoch inhaltlich ungenau oder gar falsch sein können. Um verlässlichere Ergebnisse zu erzielen, müssen diese Modelle mit betteren Daten gefüttert und gezielt auf Wahrheitsfindung programmiert werden.
Zukunftsperspektiven für KI-Entwicklung
Obwohl für die KI-Entwicklung noch ein weiter Weg vor uns liegt, gibt es Fortschritte, die darauf abzielen, die Faktentreue von AI-Systemen zu verbessern. Innovationsprojekte, die KI-Modelle mit sensorischen Robotern koppeln, könnten dazu beitragen, ein gewisses Maß an Weltverständnis zu entwickeln. Zusätzlich wird daran gearbeitet, diese Systeme durch gezielte Nutzerinteraktionen oder Datenbankabfragen zu verbessern. Es bleibt jedoch eine Herausforderung, universelle Chatbots so zu gestalten, dass sie verlässlich sind und das Vertrauen der Nutzer gewinnen.
Wenn eine Künstliche Intelligenz Fragen beantwortet, ist Vorsicht geboten. Chatbots wie ChatGPT und Bard verfälschen mitunter Fakten und erfinden Quellen. Mit neuen Strategien wollen Entwickler generativer KI beibringen, weniger zu "lügen". Über erfolgversprechende Ansätze sprechen Carina Schroeder und Ralf Krauter in Folge vier des Dlf-Podcasts „KI verstehen“.
Kapitelmarken (0:45) ChatGPT erfindet Veröffentlichungen, die nicht existieren (2:55) Googles Chatbot Bard frisiert Ralfs Lebenslauf (5:55) Ein US-Anwalt ruiniert seinen Ruf durch blindes Vertrauen in ChatGPT (9:35) ChatGPT und Bard wurden nicht darauf trainiert, die Wahrheit zu sagen (11:15) Wie funktionieren die großen Sprachmodelle hinter den Chatbots? (14:05) Kristian Kersting, TU-Darmstadt: „Sprachmodelle müssen gezähmt werden.“ (16:10) Fachleute wollen Sprachmodellen mehr Faktentreue beibringen (22:00) Start-up Aleph Alpha implementiert Faktencheck beim Sprachmodell ‚Luminous‘ (23:20) Muss KI eigene Erfahrungen machen, um echtes Weltwissen zu erlangen? (25:25) Fazit: Man sollte Chatbots wie einen beschwipsten Kumpel behandeln
Wenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an kiverstehen@deutschlandfunk.de oder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Dlf Audiothek App. Zu finden in den App-Stores von Apple und Google.