

KI - und jetzt? Wie wir Künstliche Intelligenz leben wollen
SR
Die einen schauen mit Sorgen auf die Künstliche Intelligenz, für die anderen ist das alles noch Zukunftsmusik. Wir aber sagen: Künstliche Intelligenz ist längst da. Wir sprechen mit denjenigen, die sie im Alltag längst nutzen. Ein Mittdreißiger aus Berlin, der sich einen eigenen Bot zum Abnehmen baut. Ein Cyberkriminologe, der uns sagt, wie KI uns gegen Verbrechen helfen kann. Oder die Lehrerin, die mit KI ihre Unterrichtsstunde plant - KI macht's möglich und zwar nicht erst in der Zukunft. Die Hosts Simin Sadeghi vom Saarländischen Rundfunk und Aljoscha Burchardt, Experte des Deutschen Forschungszentrum für Künstliche Intelligenz, zeigen im ARD-Podcast "KI und jetzt?”, warum Angst vor der KI uns nicht weiterbringt und wie wir sie stattdessen für uns nutzen können und das auch längst tun.
Episodes
Mentioned books

23 snips
Jul 9, 2025 • 0sec
KI trifft Klassenzimmer - Wie Schule sich jetzt verändern muss
Julia Knopf, Professorin für Didaktik an der Universität des Saarlandes und Expertin für Digitale Bildung, beleuchtet die transformative Rolle der Künstlichen Intelligenz im Klassenzimmer. Sie erörtert, wie KI nicht nur den Unterricht bereichern kann, sondern auch neue Lehrmethoden und Prüfungsformate erfordert. Knopf betont die Bedeutung einer hybriden Lernumgebung und die Notwendigkeit, KI in alle Fächer zu integrieren. Dabei spielt die Fortbildung der Lehrkräfte eine zentrale Rolle, um die vielfältigen Chancen der Digitalisierung im Bildungswesen zu nutzen.

8 snips
Jul 2, 2025 • 0sec
"Wir stehen ganz am Anfang" Sascha Lobo darüber, wie KI die Welt verändert
KI könnte die wirkmächtigste Technologie aller Zeiten sein. Das sagt Autor, Podcaster und KI-Vordenker Sascha Lobo im Gespräch mit ARD-Journalistin Simin Sadeghi und dem Experten des DFKI, Aljoscha Burchardt. Sie sprechen darüber, wie sich die Welt gerade durch KI verändert. Der Schlüssel dazu für Lobo: dass KI mit Sprachmodellen wie ChatGPT mittlerweile in der Breite der Gesellschaft angekommen ist. Und trotzdem: Für Lobo stehen wir in Sachen KI noch ganz am Anfang. Quellen: Studie des ZEW zur KI-Nutzung von Arbeitnehmern:https://www.zew.de/presse/pressearchiv/beschaeftigte-nutzen-ki-auch-ohne-betriebliche-einfuehrungIhr habt Lob, Kritik oder ein KI-Thema, das ihr unbedingt bei uns hören wollt?Dann schreibt an kiundjetzt@sr.de Podcast-Tipp:Sascha Lobos neuster Podcast: Tech, KI und Schmetterlinge https://open.spotify.com/show/5KlYjpj6RhYTP8L8k4bzi4

Jun 25, 2025 • 0sec
Schockanrufe und Co. - KI im Dienst von Tätern und Ermittlern
Nur wenige Klicks und zack haben wir unseren eigenen Schockanruf erstellt. KI macht’s möglich. Und macht deshalb auch eine ganze Menge für Kriminelle möglich. Darüber sprechen ARD-Journalistin Simin Sadeghi und DFKI-Experte Aljoscha Burchardt mit dem Experten für Cyberkriminologie Prof. Thomas-Gabriel Rüdiger. Er sagt: Schon weil Verbrecher Künstliche Intelligenz nutzen, müssen Polizei und Ermittler sie auch nutzen. Und tatsächlich tun sie das auch schon. Ihr habt Lob, Kritik oder ein KI-Thema, das ihr unbedingt bei uns hören wollt? Dann schreibt an kiundjetzt@sr.de Podcast-Tipp: https://1.ard.de/der-ki-podcast0

Jun 18, 2025 • 0sec
Trailer - "KI und jetzt?" geht in die 2. Staffel
Künstliche Intelligenz hat längst bewiesen, dass sie mehr als ein Hype ist. Und: Sie ist längst keine Zukunftsmusik mehr. ARD-Journalistin Simin Sadeghi und Aljoscha-Burchardt, Experte vom Deutschen Forschungszentrum für Künstliche Intelligenz, schauen da hin, wo KI längst zum Einsatz kommt: Ein Mittdreißiger aus Berlin, der sich einen eigenen Bot zum Abnehmen baut. Ein Cyberkriminologe, der uns sagt, wie KI uns gegen Verbrechen helfen kann. Oder die Lehrerin, die mit KI ihre Unterrichtsstunde plant - KI macht’s möglich und zwar schon heute. Und weil sie eh schon da ist, gucken wir vor allem darauf, wie wir sie für uns nutzen können. Staffel 2 startet ab 26. Juni."KI und jetzt?" ist ein ARD-Podcast von SR, rbb und dem Deutschen Forschungszentrum für Künstliche Intelligenz, DFKI.

Mar 22, 2024 • 0sec
Auf der KI-Couch – Psychotherapie und Künstliche Intelligenz
Wer mit Depressionen und anderen psychischen Erkrankungen kämpft muss oft Monate auf einen Therapieplatz warten. Gleichzeitig ist künstliche Intelligenz in der Lage selbst minimale Gesichtsregungen auszuwerten und daraus Schlüsse über Gefühle zu ziehen. Dadurch ist sie z.B. in der Lage, den Therapieerfolg bei Borderline-Patienten genau so zuverlässig - oder sogar exakter - vorauszusagen als ausgebildete Therapeut:innen. Hat KI das Potential, Menschen mit psychischen Erkrankungen zu unterstützen - so wie es schon im Rahmen von Therapie-Chatbots passiert? Oder ist gerade in diesem Bereich menschlicher Kontakt unersetzbar? Wie lassen sich mögliche Risiken ethisch gegen das Ungenutztlassen eines großen Potentials für die Versorgung abwägen? Darüber sprechen Nadia Kailouli und Aljoscha Burchardt mit Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg.Links: Fall der Woche: Gesichtserkennung in der Psychotherapie:https://healthcare-in-europe.com/de/news/ki-gesichtserkennung-psychotherapie.htmlWelche Regeln brauchen Roboter-Therapeuten:https://healthcare-in-europe.com/de/news/ethik-welche-regeln-brauchen-roboter-therapeuten.htmlKi in der Psychologie - Interview mit Prof. Dr. Georg W. Alpers von der Uni Mannheim:https://www.uni-mannheim.de/newsroom/forum/ausgabe-2-2023/schwerpunkt/ki-die-uns-alle-betrifft/ki-in-der-psychologie/Fulmer, R., Joerin, A., Gentile, B., Lakerink, L. & Rauws, M. (2018):Using Psychological Artificial Intelligence (Tess) to Relieve Symptoms of Depression and Anxiety: Randomized Controlled Trial. JMIR mental health, 5(4), e64.https://doi.org/10.2196/mental.9782

Mar 15, 2024 • 0sec
Vor Gericht – Strafverfolgung und Künstliche Intelligenz
Rechtsverstöße sind in der virtuellen Welt an der Tagesordnung. Ob Hatespeach, Pornografie oder Volksverhetzung - diese Inhalte sind strafbar, werden aber in der Realität oft nicht verfolgt. Ein Problem dabei ist die schiere Masse von Straftaten, die die Kapazität von Medienaufsicht und Justiz sprengt. KI kann helfen möglicherweise illegale Inhalte zu erkennen und zu markieren. Das ist nicht nur im Sinne der Nutzer:innen, sondern auch im Sinne der Plattformen, die durch den “Digital Service Act” mehr Verantwortung für Inhalte übernehmen müssen. Aber: Die Filtermechanismen sind weit davon entfernt perfekt zu sein - z.B. bei Ironie oder Kunst stoßen sie an Grenzen und löschen möglicherweise zu viel. Und: Unter Umständen kann KI sogar zu mehr Rechtsverstößen im Netz führen. Wenn sie z.B. eingesetzt wird um illegale Deepfakes zu produzieren. Macht KI das Netz Rechtssicherer? Darüber sprechen Nadia Kailouli und Aljoscha Burchardt mit Philipp Hacker, Rechtswissenschaftler und Experte für digitale TechnologienLinks: Fall der Woche: Das Kivi-Tool zur Medienaufsicht:https://www.bpb.de/lernen/digitale-bildung/werkstatt/513732/ki-in-der-medienaufsicht-was-leistet-das-tool-kivi/Interview mit Phillipp Hacker zur KI-Regulierung:https://www.rbb24.de/studiofrankfurt/panorama/2023/12/kuenstliche-intelligenz-regulierung-interview.htmlHintergrund zum AI-Act der EU:https://artificialintelligenceact.eu/de/What the KI - Firefly und die Mona Lisa:https://www.wuv.de/Themen/Tech/KI-Fail-Alle-lachen-ueber-die-XXL-Mona-Lisa

Mar 8, 2024 • 0sec
Geliebter Bot – Emotionen und Künstliche Intelligenz
Können wir uns in eine KI verlieben? Auch wenn die uns vermutlich nicht zurückliebt? Diese Fragen inspirieren seit langem Science Fiction-Stoffe wie "Du bist mein Mensch" oder "Geliebter Roboter". Aber ist das überhaupt noch Zukunft oder schon die Gegenwart? Unter dem Stichwort "Affective Computing" arbeiten Forscherinnen und Forscher daran, dass Künstliche Intelligenz menschliche Emotionen lesen und reproduzieren kann. Und die Technologie macht rasante Fortschritte in Sachen Gefühlserkennung z.B. Auf der Basis von Mimik und Stimme. Wo liegen Potentiale für eine empathische Künstliche Intelligenz - z.B. in der Pflege? Und welche Gefühle sollten wir für Menschen reservieren? Darüber sprechen Nadia Kailouli und Aljoscha Burchardt mit der Managerin und Bestsellerautorin Kenza Ait Si Abbou.Links Wenn KI menschliche Emotionen analysiert und versteht:https://digitaleweltmagazin.de/wenn-kuenstliche-intelligenz-menschliche-emotionen-analysiert-und-versteht/Gefühle erkennen mit Künstlicher Intelligenz:https://www.swr.de/wissen/gefuehle-erkennen-mit-kuenstlicher-intelligenz-100.htmlBuch von Gast Kenza Ait Si Abbou:Menschenversteher - Wie Emotionale Künstliche Intelligenz unseren Alltag erobert. Droemer Knaur Verlag 2023

Mar 1, 2024 • 0sec
Selbstlernende Prothese – Medizintechnik und Künstliche Intelligenz
Selbstlernende Prothese - Medizintechnik und Künstliche Intelligenz Das Medizintechnik-Unternehmen Ottobock hat eine Handprothese entwickelt, die auf Künstlicher Intelligenz basiert. Handamputierte können sie intuitiv mit der Kraft ihrer Gedanken steuern und dadurch ein aktives, eigenständiges Leben führen. Mithilfe von acht Elektroden misst die Prothese die eingehenden Signale und erkennt daraus Muster, die zu einzelnen Bewegungen gehören. Die Signale und Muster kann die intelligente Prothese klassifizieren und verstärken, um sie schließlich in eine Handbewegung zu übersetzen. Feintuning per App also - die KI muss neu lernen, nicht der Patient. Doch worin liegt der große Vorteil für den Anwender? Darüber sprechen Nadia Kailouli und Aljoscha Burchardt mit Daniel Meise, dem Produktmanager von “Myo Plus”.Links: Lernende Systeme:https://www.plattform-lernende-systeme.de/best-practice.html?AID=820https://www.grin.com/document/63275?lang=de#:~:text=Die%20Hand%20ist%20das%20Symbol,Lebensgeschichte%20eines%20jeden%20einzelnen%20MenschenUnternehmen Ottobock:https://www.ottobock.com/de-de/product/13E520PinkMirror - Professional Face Analyser:https://pinkmirror.com

Feb 23, 2024 • 0sec
Faire Auswahlverfahren – Ethischer Algorithmus und Künstliche Intelligenz
Algorithmen sind überall und erleichtern in vielen Bereichen unser Leben. Zum Teil auch schon bei der Kita-Platzvergabe. Denn wie die Platzvergabe transparenter und gerechter erfolgen kann, zeigt die vom ZEW - Leibniz-Zentrum für Europäische Wirtschaftsforschung entwickelte Software "KitaMatch". Die Planungsunsicherheit und emotionale Belastung, die oft mit der Suche einhergehen, lassen sich auf diese Weise ebenfalls verringern. Doch die Empfehlungen einer Software sind nur so gerecht, wie die Kriterien, nach denen diese programmiert sind. Stellt sich also die Frage, ob ethische Algorithmen automatisch für mehr Fairness sorgen? Darüber sprechen Nadia Kailouli und Aljoscha Burchardt mit Carla Hustedt, Leiterin des Bereichs "Digitalisierte Gesellschaft" bei der Mercator Stiftung.Links: Weigernder Drucker:https://t3n.de/news/chatgpt-witzige-kreative-experimente-chatbot-1519273/Kitaplatz-Vergabe mit Hilfe von Algorithmen:https://www.bertelsmann-stiftung.de/de/themen/aktuelle-meldungen/2021/juni/bessere-kita-platzvergabe-durch-algorithmenhttps://www.elektroniknet.de/karriere/arbeitswelt/per-algorithmus-zum-kita-platz.205870.htmlZu Carla Hustedt:https://de.linkedin.com/in/carlahustedtEthischer Algorithmus:https://www.sichtart.at/ethik-fuer-algorithmen/

Feb 16, 2024 • 0sec
Desinformation als Risiko – Demokratie und Künstliche Intelligenz
Der Global Risks Report 2024 sieht Fehl- und Desinformationen als das größte kurzfristige Risiko. Gerade in Hinblick auf die Wahlen, die in den nächsten zwei Jahren in mehreren Volkswirtschaften anstehen, werden Falschinformationen als großes Problem angesehen. Denn wer verlässliche Infos sucht, macht dies meist auch im Netz - per Google, Bing Chat und Co. Doch auch die Suchmaschinen nutzen zunehmend KI generierte Inhalte. Das Problem dabei ist: Die Suchergebnisse zu politischen Informationen und Wahlen, die ChatGPT in einer Studie der NGO "Algorithmwatch" ausspuckte, waren teils desaströs falsch. Gefährden also KI-Suchmaschinen demokratische Wahlen? Darüber sprechen Nadia Kailouli und Aljoscha Burchardt mit Matthias Spielkamp, Geschäftsführer und Mitgründer von "AlgorithmWatch".Links: Studie zu Bing Chat:https://algorithmwatch.org/de/schlussbericht-microsoft-bing-chat/Gefährden Desinformationen demokratische Wahlen?:https://algorithmwatch.org/de/bing-chat-wahlen-2023/Global Risks Report:https://info.marsh.com/l/395202/2023-12-19/cl8gbq/395202/1702999023JBs7dHUu/Global_Risks_Report_2024_Exec_Summary.pdfDesinformation als Herausforderung für die Demokratie:https://www.bertelsmann-stiftung.de/de/publikationen/publikation/did/desinformation-herausforderung-fuer-die-demokratie