

Le Futurologue Podcast
Le Futurologue
J’analyse les risques de l’IA. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Episodes
Mentioned books

Oct 13, 2025 • 1h 23min
Expert mondial de l’IA : "Vous n’avez aucune idée de ce qui arrive."
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODENicolas Miailhe est le fondateur de The Future Society, groupe de réflexion qu’il a dirigé de 2014 à 2023 et qui s’est imposé comme une référence mondiale en matière de régulation de l’intelligence artificielle. Plus récemment, il a cofondé et dirige PRISM Eval, une startup parisienne spécialisée dans la détection des vulnérabilités des IA de pointe. Reconnu comme l’un des pionniers de l’encadrement de l’IA, il a été nommé au Global Partnership on AI, siège au groupe d’experts en IA de l’OCDE ainsi qu’au groupe de haut niveau de l’UNESCO sur l’éthique de l’IA. Diplômé d’un master en administration publique de Harvard, il enseigne à Sciences Po Paris, donne régulièrement des conférences à travers le monde et conseille gouvernements, organisations internationales, fondations philanthropiques et multinationales.———TIME CODE0:00 Introduction1:35 Vers une pause de l’IA ?7:23 Les plus grands risques de l’IA18:53 La géopolitique de l’IA24:51 La régulation contre l’innovation29:20 Un développement antidémocratique32:20 La Chine face à l’IA42:17 L’Inde face à l’IA51:34 Les Émirats arabes unis face à l’IA57:51 La coopération internationale1:04:33 L’IA face à nos institutions1:09:44 La bulle de l’IA1:14:53 Les solutions1:20:04 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Oct 6, 2025 • 1h 29min
Ex ingénieure Google : "On est en train de créer des IA vivantes."
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEJennifer Prendki est docteure en physique des particules et a dirigé le département data de Google DeepMind. Depuis vingt ans, elle se situe à l’avant-garde de la recherche et de la technologie. Experte reconnue, elle a conseillé plus de 170 entreprises dans l’élaboration de leurs stratégies technologiques. Elle est également la fondatrice de Quantum of Data, une société de recherche et de conseil qui explore l’intersection entre intelligence artificielle et ordinateurs quantiques, ainsi que les questions liées à l'apparition de la conscience dans les IA.———TIME CODE0:00 Introduction1:05 Vers des IA vivantes ?9:28 Vers des IA conscientes ?34:23 Les relations avec les IA45:13 L’IA et l’ordinateur quantique 1:01:58 Pourquoi avoir quitté Google ?1:18:04 Garder l’IA surhumaine sous contrôle1:27:01 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sep 29, 2025 • 1h 20min
Les experts en IA avertissent : "L’IA pourrait détruire le monde !"
🗣️ La déclaration💬 Discord du Centre pour la Sécurité de l’IA✉️ Contacter vos représentants💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODECharbel-Raphaël Segerie est ingénieur, chercheur et enseignant en intelligence artificielle. Il est expert IA auprès de l’OCDE et dirige le Centre pour la Sécurité de l’IA. Dans cet épisode, il explique pourquoi il a lancé un appel mondial à la mise en place de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA. ———TIME CODE0:00 Introduction1:10 La déclaration et ses signataires6:44 Pourquoi avoir écrit cette déclaration ?11:33 Les progrès rapides de l’IA18:37 Les plus gros risques de l’IA25:44 Les comportements inquiétants des IA34:55 Les risques d’extinction de l’IA42:15 Combien de temps nous reste-il ?47:07 Pourquoi 2026 ?48:34 Que sont les lignes rouges ?51:13 Pourquoi des lignes rouges ?54:51 Les lignes rouges vs l’innovation57:42 Les difficultés géopolitiques59:05 Le risque des pays malveillants1:01:41 Le défi de l’opérationnalisation1:07:27 Quelles sont les prochaines étapes ?1:10:33 Quelques anecdotes1:13:38 Vivre en ayant conscience de ces risques1:17:04 Que faire à titre individuel ?1:19:42 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sep 15, 2025 • 1h 35min
Est-on sur le point de perdre le contrôle de l’IA ? - Débat d’experts
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODE-> Jean-Gabriel Ganascia est ingénieur, philosophe, professeur d’informatique à Sorbonne Université et auteur d’une dizaine d’ouvrages sur l’intelligence artificielle. Dans son livre le plus connu, Le Mythe de la Singularité : Faut-il craindre l’intelligence artificielle ?, il défend l’idée que le scénario d’une IA surpassant l’intelligence humaine et s’auto-améliorant jusqu’à devenir incontrôlable relève davantage du mythe contemporain que d’une perspective scientifique réaliste.-> Flavien Chervet est écrivain, conférencier, prospectiviste et auteur de plusieurs ouvrages sur l’intelligence artificielle. Dans son dernier livre, Hyperarme : Anatomie d’une intranquillité planétaire, il alerte sur la possibilité qu’une superintelligence artificielle, plus puissante que l’ensemble de l’humanité, émerge dans les cinq prochaines années et constitue une menace existentielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sep 8, 2025 • 1h 31min
Ingénieur en IA : "L’extinction est le scénario par défaut."
⏸️ Rejoignez le canal WhatsApp et le serveur Discord de Pause IA———💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEMaxime Fournes cumule plus de dix ans d’expérience en intelligence artificielle. Après avoir travaillé pour de grands fonds d’investissement et occupé des postes enviés, il a choisi de tout quitter pour cofonder en 2024 Pause IA, une association qui milite pour une pause dans le développement des intelligences artificielles les plus dangereuses. Nous avions déjà échangé dans plusieurs épisodes, mais, depuis notre dernière conversation, les avancées en IA ont été fulgurantes. Dans cet entretien, nous revenons sur ces progrès et sur les immenses risques qu’ils font peser sur notre avenir.———TIME CODE0:00 Introduction1:40 Alpha Evolve10:33 Sakana AI21:31 Claude 433:47 AI 202737:42 Le virage des géants de la tech41:15 Une interdiction de réguler ?46:41 Une pause de l’IA Act ?52:07 Vers l’extinction humaine ?57:58 La super IA va-t-elle se remettre en question ?1:06:09 La super IA est-elle une opportunité pour la nature ?1:10:01 Comment la super IA va-t-elle nous tuer ?1:11:28 Alignement interne vs alignement externe1:14:55 Qu’est-ce que la super IA va optimiser ?1:22:01 La France va-t-elle perdre la course ?1:26:09 Des nouvelles de Pause IA1:29:26 Un message pour l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sep 1, 2025 • 1h 39min
Chercheur en IA : "Je peux faire dire ce que je veux à ChatGPT."
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEPierre Peigné est directeur scientifique et cofondateur de PRISM Eval, une start-up spécialisée dans l’évaluation des vulnérabilités des intelligences artificielles. Après un parcours en tant qu’ingénieur et chercheur en IA, il consacre aujourd’hui son expertise à mettre en lumière les failles des systèmes d’IA et les risques qu’elles représentent.———TIME CODE0:00 Introduction0:58 Le jailbreaking8:45 L’amélioration des performances13:05 La convergence instrumentale18:47 Les types de risques22:56 Les IA boîtes noires26:05 La nullité des sécurités29:12 Qui sont vos clients ?33:01 Retour sur les IA boîtes noires37:29 Évaluer les capacités42:08 Une IA qui jailbreak d’autres IA45:27 Comment jailbreaker les IA ?48:45 L’état de l’art de l’évaluation des IA52:54 Capacités vs sécurité55:12 L’entraînement sur les benchmarks57:10 La dangerosité de l’évaluation de l’IA1:01:54 Faut-il mettre les IA en open source ?1:09:07 Évaluer les systèmes multi agents1:12:17 Évaluer les IA qui ont accès à internet1:15:05 Évaluer les IA qui raisonnent1:17:17 Lien entre intelligence et robustesse1:20:10 Les obligations d’évaluation1:22:09 L’évaluation selon la puissance de calcul1:25:18 Les évaluations indépendantes1:27:09 L’enjeu de la France en évaluation1:28:44 Les usages borderline1:31:57 Les capacités d’humour1:33:57 Les IA sont des outils ?1:37:04 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Aug 28, 2025 • 1h 40min
Économiste : "Oui, l’IA pourrait tous nous mettre au chômage."
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEAxelle Arquié est docteure en économie, spécialiste du marché du travail et cofondatrice de l’Observatoire des Emplois Menacés et Émergents. Elle ne mâche pas ses mots : selon elle, les IA actuelles pourraient déjà provoquer un choc majeur sur le marché du travail. Et si une IA surhumaine devait émerger, ce serait un véritable risque existentiel pour nos économies. Nous plongeons ensemble dans son analyse, pour explorer ce que nous pouvons faire, individuellement et collectivement, face à la vague d’automatisation qui s’annonce.———TIME CODE0:00 Introduction1:41 Dans quoi sommes-nous embarqués ?3:18 L’impact des LLM sur le travail9:45 Une diffusion dans l’économie ultra rapide14:26 L’impact des agents autonomes sur le travail25:43 L’impact sur les métiers relationnels32:04 Le faux espoir des nouveaux métiers38:50 Les enjeux de la pression concurrentielle41:42 AI 2027 et l’auto-amélioration45:54 La perte de contrôle de l’IA48:52 Le rapport de la Commission de l’IA57:21 Les effets avant l’automatisation totale1:08:29 Les géants de la tech savent ce qu’ils font1:14:05 Vers une domination des géants de la tech1:22:19 Le problème du contrôle de l’IA1:27:29 Que faire à titre individuel et collectif ?1:30:40 Réponses à 3 objections courantes1:37:21 Présentation de l’Observatoire des emplois menacés et émergents1:38:31 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Aug 18, 2025 • 37min
Interview de GPT-5 : Ce que personne n’ose dire sur l’IA
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———👉 Laissez-moi un feedback anonyme———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———TIME CODE0:00 Introduction0:40 Présentation de GPT-51:03 Comment définir notre époque ?2:12 L’importance et l’omniprésence de l’IA3:36 Vers des IA surhumaines ?4:08 Contrôler les IA surhumaines7:17 L’IA surhumaine, c’est pour quand ?8:39 Un monde où l’humain n’est plus nécessaire9:23 Il suffit de débrancher la prise ?10:41 La convergence instrumentale11:48 Et si on poursuit la trajectoire ?13:05 L’impact de l’IA sur l’emploi13:53 Quel rôle restera-t-il à l’humanité ?14:43 Les machines parlent !16:47 Que de la science-fiction ?17:38 Quels sont les risques de l’IA ?18:20 La dépendance à l’intelligence artificielle19:57 La perte de contrôle rapide vs progressive21:13 L’auto-amélioration récursive23:24 Et si on gardait le contrôle ?25:31 Une prédiction pas agréable26:15 Quelles sont les solutions ?27:24 Une mesure d’urgence à appliquer28:09 L’utopie de GPT-529:09 Les obstacles à l’utopie30:04 Un poème qui reflète ces enjeux30:50 Expliquer l’humanité à une autre IA31:37 La vision de l’IA sur l’humanité32:36 Un petit problème d’identité ?33:13 La plus grande illusion des humains34:05 Promo de ma chaîne « Le Futurologue »35:08 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Aug 11, 2025 • 1h 38min
"L’IA est un désastre écologique !" - Philippe Bihouix
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———👉 Laissez-moi un feedback anonyme———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-techCyberGhost VPNRiverside (Enregistrement de podcast)Audible (Livres audio)Kindle (eBooks)———TIME CODE0:00 Introduction1:20 Que pensez-vous de l’intelligence artificielle ?11:39 Pourquoi est-ce difficile d’avoir des chiffres précis sur les impacts environnementaux de l’IA ?22:35 Les impacts environnementaux futurs de l’IA30:58 L’effet rebond de l’IA37:32 L’accélération de l’économie par l’IA46:21 L’influence de l’IA sur nos idées1:01:45 La neutralité des technologies1:09:01 Le problème de la compétition 1:22:36 Le désastre de l’école numérique1:31:12 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Aug 4, 2025 • 1h 16min
"Il est urgent d’interdire les robots tueurs !" - Anne-Sophie Simpere
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———👉 Laissez-moi un feedback anonyme———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-techCyberGhost VPNRiverside (Enregistrement de podcast)———TIME CODE0:00 Introduction1:22 Que sont les robots tueurs ? Existent-ils déjà ?4:43 Le non-respect du droit international11:45 La déshumanisation numérique13:45 Le renforcement des inégalités16:04 L’inexplicabilité et l’incontrôlabilité21:32 Un message aux géants de la tech28:43 L’utilisation terroriste30:30 Une accessibilité inquiétante31:43 La perte de la responsabilité32:33 L’abaissement du seuil de la guerre35:06 Vers une « guerre propre » ?36:39 Une nouvelle course au armement ?39:41 Les utilisations de l’IA dans l’armée41:30 Que sont les armes autonomes ?44:43 Les armes autonomes non-problématiques47:10 Un arsenal dont on perd le contrôle48:12 L’utilisation de l’IA dans la répression53:09 La position des différents pays57:36 Quel est le plan de Stop Killer Robots ?58:32 Le positionnement de la France1:01:33 Est-ce possible d’interdire les armes autonomes ?1:04:44 Le sophisme de la solution parfaite1:10:08 Les exemples historiques de contrôle des armements1:15:13 Un message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.