Wer haftet für Chatbots, die lügen?
Es ist eine Lüge, dass die Organisation Campact sich aus Steuermitteln finanziert. Dennoch hat der KI-Chatbot Grok das behauptet. Grok gehört zur Firma xAI, die auch das Netzwerk X betreibt. Campact ist juristisch gegen sie vorgegangen und hatte vor dem Landgericht Hamburg Erfolg: xAI muss nun dafür sorgen, dass die KI diese falsche Aussage nicht länger verbreitet.
Doch woher kommen solche falschen Behauptungen von KI-Chatbots überhaupt? Und wer ist verantwortlich, wenn sie Unsinn ausgeben? Darüber spricht Holger Klein diese Woche mit Falk Steiner.
Steiner ist Journalist mit dem Schwerpunkt Digitalpolitik und erklärt: Bei der Technik hinter KI-Chatbots, den sogenannten Large Language Models (LLM), geht es nicht darum, ob etwas wahr oder falsch ist, sondern um Statistik: „Die KI schaut sich an, welche Aussagen es gibt (…), puzzelt sie neu zusammen und sagt dann: Das hier ist wahrscheinlich die korrekte Antwort auf eine Frage.“ Es gehe darum, was angesichts der Algorithmen plausibel erscheint, mit denen die Modelle trainiert wurden. Und wenn bei X viele Nutzer behaupten, dass Campact Steuergelder erhält, übernimmt die KI diese Aussage.
Wie kann man falsch gelerntes Wissen aus solchen Modellen wieder entfernen? Was können Einzelpersonen tun, über die die KI falsche Dinge behauptet? Und brauchen wir für KI neue Gesetze – oder gibt es die passenden schon? Darüber sprechen Holger Klein und Falk Steiner in der neuen Folge von „Holger ruft an…“.
Der Gesprächspartner: Falk Steiner ist Journalist in Berlin. Er ist als Autor für „heise online“, Tageszeitungen, Fachnewsletter sowie Magazine tätig und berichtet unter anderem über Digitalpolitik im Bund und in der EU.
Mehr zum Thema:
LG Hamburg: xAI darf Unwahrheiten nicht als Fakten verbreiten (Text von Falk Steiner bei heise.de)
Macht bei Axel Springer bald KI die ganze Arbeit? (Podcast mit Marvin Schade)
Wie stark färbt die „Bild“ auf ChatGPT ab?