Mit Bildgeneratoren wie DALL-E, Midjourney und Stable Diffusion kann man im Nu photorealistische Bilder erzeugen. Ob ein im Internet kursierendes Foto echt ist oder ein Fake, ist oft kaum noch erkennbar. Können wir unseren Augen künftig noch trauen? Darüber sprechen Carina Schroeder und Ralf Krauter in Folge fünf des Dlf-Podcasts „KI verstehen“.
Kapitelmarken (0:06) Carina führt Ralf mit einem KI-generierten Bild in die Irre (4:32) Wie der Bildgenerator Stable Diffusion photorealistische Katzenbilder erzeugt (6:54) Europol und BKA warnen vor einer Flut an gefälschten Bildern (12:10) Brauchen wir eine Kennzeichnungspflicht für KI-generierten Content? (14:05) Detektionstools zur Erkennung von Deepfakes (16:30) Bilderrückwärtssuche kann Fake-Fotos enttarnen (22:32) Wir können unseren Augen immer weniger trauen (25:40) Politik, Wirtschaft und Gesellschaft müssen das Problem gemeinsam angehen
Wenn Euch diese Episode gefallen hat, abonniert uns und empfehlt uns gerne weiter. Für Kritik, Fragen und Anregungen aller Art schickt uns eine E-Mail an kiverstehen@deutschlandfunk.deoder eine Sprachnachricht per Signal oder Whatsapp an 0152-59529753.
Noch mehr spannende Podcasts gibt’s in der Dlf Audiothek App. Zu finden in den App-Stores von Apple und Google.