

Le Futurologue Podcast
Le Futurologue
J’analyse les risques de l’IA. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Episodes
Mentioned books

Nov 10, 2025 • 1h 48min
"15 bombes nucléaires suffiraient à détruire la France." – Benoît Pelopidas
📖 Le livre de Benoît « Repenser les choix nucléaires »———🎬 Vidéo de 60s recommandée par Benoît———💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEBenoît Pelopidas est docteur et professeur en sciences politiques, fondateur du programme d’étude des savoirs nucléaires à Sciences Po. Chercheur affilié au Centre pour la sécurité internationale et la coopération de l’Université Stanford, il est également l’auteur de l’ouvrage « Repenser les choix nucléaires ». À la tête d’une des rares équipes de recherche indépendantes et non partisanes, il œuvre pour une analyse rigoureuse et impartiale des enjeux liés aux politiques nucléaires. Lauréat de quatre prix internationaux, il est aujourd’hui reconnu comme l’un des grands spécialistes mondiaux des armes nucléaires et des catastrophes qu’elles pourraient provoquer.———TIME CODE0:00 Introduction1:15 Pourquoi se soucier des armes nucléaires ?6:27 Où en sont les armes nucléaires dans le monde ?13:52 Les conséquences d’une guerre nucléaire21:20 Les armes nucléaires garantissent-elles la paix ?36:26 Pourquoi n’y a-t-il pas eu de guerre nucléaire ?1:00:52 Que penser du débat sur les armes nucléaires ?1:14:23 L’intégration de l’IA dans l’arsenal nucléaire1:21:38 Les parallèles entre les armes nucléaires et l’IA1:42:25 Que faire ?1:46:43 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Nov 3, 2025 • 1h 42min
"Il y a des IA bien plus terrifiantes que ChatGPT." - Jean-Lou Fourquet
👉 La chaîne YouTube de Jean-Lou, son livre et sa newsletter———💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———QUI EST JEAN-LOU FOURQUET ?Jean-Lou Fourquet est ingénieur, vidéaste et enseignant. Fondateur du média Après la Bière, il y analyse les impacts des nouvelles technologies sur nos vies. Membre de l’association Tournesol, il œuvre pour une intelligence artificielle plus démocratique. Il est aussi co-auteur du livre « La dictature des algorithmes : Une transition numérique démocratique est possible ».———TIME CODE0:00 Introduction1:01 L’importance des IA de recommandation21:41 La sophistication des IA de recommandation28:52 Suivre d’où vient l’argent40:41 Liens entre IA générative et IA de recommandation52:57 Les vrais capacités des IA de recommandation58:25 Les conséquences des IA de recommandation 1/21:08:09 Les conflits d’intérêt des experts en IA1:15:50 Les conséquences des IA de recommandation 2/21:23:26 Les IA de recommandation sont-elles neutres ?1:39:29 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Oct 27, 2025 • 1h 6min
Monsieur Phi : "On ne sait pas comment ChatGPT fonctionne."
👉 Le nouveau livre et la chaîne YouTube de Monsieur Phi———💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEThibaut Giraud est docteur en philosophie et ancien professeur. Il est le créateur de la chaîne YouTube Monsieur Phi, l’une des plus populaires en France dans le domaine. Intéressé par les questions liées à l’intelligence artificielle, il a consacré depuis 2023 pas moins de 13 vidéos à ce sujet, faisant de sa chaîne une référence francophone sur l’IA. Il publie aujourd’hui « La parole aux machines : Philosophie des grands modèles de langage », un ouvrage qui prolonge cette réflexion avec une approche à la fois rigoureuse et accessible.———TIME CODE0:00 Introduction1:02 Les machines parlent !11:00 La mise à l’échelle19:32 Les IA sont-elles intelligentes ?21:59 Les IA sont des boites noires36:34 Les comportements étranges des IA49:48 Quand arrivera-t-on à l’IA surhumaine ?53:20 Les IA sont-elles autonomes ?57:20 Penser correctement la super IA1:03:09 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Oct 20, 2025 • 1h 28min
Expert de la conscience : "ChatGPT est peut-être déjà conscient."
👉 Le livre et le podcast de Victor, ainsi que les sources de l’épisode——💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEVictor Duran-Le Peuch a étudié la philosophie à la Sorbonne et à l’Université de York avant de s’engager dans la lutte contre la souffrance animale. Il est le créateur du podcast Comme un poisson dans l’eau, aujourd’hui le plus grand podcast francophone consacré à cette thématique. Plus récemment, il est également devenu auteur avec la parution de son ouvrage En finir avec les idées fausses sur l’antispécisme.———TIME CODE0:00 Introduction1:11 Les IA sont-elles déjà conscientes ?36:26 Les implications des IA conscientes45:47 Faut-il être vivant pour être conscient ?56:29 Faut-il être incarné pour être conscient ?58:23 Comment savoir si les IA sont conscientes ?1:01:50 Les différences entre la conscience humaine et artificielle1:05:53 Les IA conscientes seraient-elles plus dangereuses ?1:10:53 Les IA sont-elles conscientes d’elles-mêmes ?1:18:38 La prise de conscience de ces dangers1:20:52 Les IA qui traduisent les animaux1:22:29 Le suprémacisme humain1:24:36 Quelles sont les solutions ?1:26:06 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Oct 13, 2025 • 1h 23min
Expert mondial de l’IA : "Vous n’avez aucune idée de ce qui arrive."
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODENicolas Miailhe est le fondateur de The Future Society, groupe de réflexion qu’il a dirigé de 2014 à 2023 et qui s’est imposé comme une référence mondiale en matière de régulation de l’intelligence artificielle. Plus récemment, il a cofondé et dirige PRISM Eval, une startup parisienne spécialisée dans la détection des vulnérabilités des IA de pointe. Reconnu comme l’un des pionniers de l’encadrement de l’IA, il a été nommé au Global Partnership on AI, siège au groupe d’experts en IA de l’OCDE ainsi qu’au groupe de haut niveau de l’UNESCO sur l’éthique de l’IA. Diplômé d’un master en administration publique de Harvard, il enseigne à Sciences Po Paris, donne régulièrement des conférences à travers le monde et conseille gouvernements, organisations internationales, fondations philanthropiques et multinationales.———TIME CODE0:00 Introduction1:35 Vers une pause de l’IA ?7:23 Les plus grands risques de l’IA18:53 La géopolitique de l’IA24:51 La régulation contre l’innovation29:20 Un développement antidémocratique32:20 La Chine face à l’IA42:17 L’Inde face à l’IA51:34 Les Émirats arabes unis face à l’IA57:51 La coopération internationale1:04:33 L’IA face à nos institutions1:09:44 La bulle de l’IA1:14:53 Les solutions1:20:04 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Oct 6, 2025 • 1h 29min
Ex ingénieure Google : "On est en train de créer des IA vivantes."
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEJennifer Prendki est docteure en physique des particules et a dirigé le département data de Google DeepMind. Depuis vingt ans, elle se situe à l’avant-garde de la recherche et de la technologie. Experte reconnue, elle a conseillé plus de 170 entreprises dans l’élaboration de leurs stratégies technologiques. Elle est également la fondatrice de Quantum of Data, une société de recherche et de conseil qui explore l’intersection entre intelligence artificielle et ordinateurs quantiques, ainsi que les questions liées à l'apparition de la conscience dans les IA.———TIME CODE0:00 Introduction1:05 Vers des IA vivantes ?9:28 Vers des IA conscientes ?34:23 Les relations avec les IA45:13 L’IA et l’ordinateur quantique 1:01:58 Pourquoi avoir quitté Google ?1:18:04 Garder l’IA surhumaine sous contrôle1:27:01 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sep 29, 2025 • 1h 20min
Les experts en IA avertissent : "L’IA pourrait détruire le monde !"
🗣️ La déclaration💬 Discord du Centre pour la Sécurité de l’IA✉️ Contacter vos représentants💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODECharbel-Raphaël Segerie est ingénieur, chercheur et enseignant en intelligence artificielle. Il est expert IA auprès de l’OCDE et dirige le Centre pour la Sécurité de l’IA. Dans cet épisode, il explique pourquoi il a lancé un appel mondial à la mise en place de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA. ———TIME CODE0:00 Introduction1:10 La déclaration et ses signataires6:44 Pourquoi avoir écrit cette déclaration ?11:33 Les progrès rapides de l’IA18:37 Les plus gros risques de l’IA25:44 Les comportements inquiétants des IA34:55 Les risques d’extinction de l’IA42:15 Combien de temps nous reste-il ?47:07 Pourquoi 2026 ?48:34 Que sont les lignes rouges ?51:13 Pourquoi des lignes rouges ?54:51 Les lignes rouges vs l’innovation57:42 Les difficultés géopolitiques59:05 Le risque des pays malveillants1:01:41 Le défi de l’opérationnalisation1:07:27 Quelles sont les prochaines étapes ?1:10:33 Quelques anecdotes1:13:38 Vivre en ayant conscience de ces risques1:17:04 Que faire à titre individuel ?1:19:42 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sep 15, 2025 • 1h 35min
Est-on sur le point de perdre le contrôle de l’IA ? - Débat d’experts
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODE-> Jean-Gabriel Ganascia est ingénieur, philosophe, professeur d’informatique à Sorbonne Université et auteur d’une dizaine d’ouvrages sur l’intelligence artificielle. Dans son livre le plus connu, Le Mythe de la Singularité : Faut-il craindre l’intelligence artificielle ?, il défend l’idée que le scénario d’une IA surpassant l’intelligence humaine et s’auto-améliorant jusqu’à devenir incontrôlable relève davantage du mythe contemporain que d’une perspective scientifique réaliste.-> Flavien Chervet est écrivain, conférencier, prospectiviste et auteur de plusieurs ouvrages sur l’intelligence artificielle. Dans son dernier livre, Hyperarme : Anatomie d’une intranquillité planétaire, il alerte sur la possibilité qu’une superintelligence artificielle, plus puissante que l’ensemble de l’humanité, émerge dans les cinq prochaines années et constitue une menace existentielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sep 8, 2025 • 1h 31min
Ingénieur en IA : "L’extinction est le scénario par défaut."
⏸️ Rejoignez le canal WhatsApp et le serveur Discord de Pause IA———💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEMaxime Fournes cumule plus de dix ans d’expérience en intelligence artificielle. Après avoir travaillé pour de grands fonds d’investissement et occupé des postes enviés, il a choisi de tout quitter pour cofonder en 2024 Pause IA, une association qui milite pour une pause dans le développement des intelligences artificielles les plus dangereuses. Nous avions déjà échangé dans plusieurs épisodes, mais, depuis notre dernière conversation, les avancées en IA ont été fulgurantes. Dans cet entretien, nous revenons sur ces progrès et sur les immenses risques qu’ils font peser sur notre avenir.———TIME CODE0:00 Introduction1:40 Alpha Evolve10:33 Sakana AI21:31 Claude 433:47 AI 202737:42 Le virage des géants de la tech41:15 Une interdiction de réguler ?46:41 Une pause de l’IA Act ?52:07 Vers l’extinction humaine ?57:58 La super IA va-t-elle se remettre en question ?1:06:09 La super IA est-elle une opportunité pour la nature ?1:10:01 Comment la super IA va-t-elle nous tuer ?1:11:28 Alignement interne vs alignement externe1:14:55 Qu’est-ce que la super IA va optimiser ?1:22:01 La France va-t-elle perdre la course ?1:26:09 Des nouvelles de Pause IA1:29:26 Un message pour l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sep 1, 2025 • 1h 39min
Chercheur en IA : "Je peux faire dire ce que je veux à ChatGPT."
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEPierre Peigné est directeur scientifique et cofondateur de PRISM Eval, une start-up spécialisée dans l’évaluation des vulnérabilités des intelligences artificielles. Après un parcours en tant qu’ingénieur et chercheur en IA, il consacre aujourd’hui son expertise à mettre en lumière les failles des systèmes d’IA et les risques qu’elles représentent.———TIME CODE0:00 Introduction0:58 Le jailbreaking8:45 L’amélioration des performances13:05 La convergence instrumentale18:47 Les types de risques22:56 Les IA boîtes noires26:05 La nullité des sécurités29:12 Qui sont vos clients ?33:01 Retour sur les IA boîtes noires37:29 Évaluer les capacités42:08 Une IA qui jailbreak d’autres IA45:27 Comment jailbreaker les IA ?48:45 L’état de l’art de l’évaluation des IA52:54 Capacités vs sécurité55:12 L’entraînement sur les benchmarks57:10 La dangerosité de l’évaluation de l’IA1:01:54 Faut-il mettre les IA en open source ?1:09:07 Évaluer les systèmes multi agents1:12:17 Évaluer les IA qui ont accès à internet1:15:05 Évaluer les IA qui raisonnent1:17:17 Lien entre intelligence et robustesse1:20:10 Les obligations d’évaluation1:22:09 L’évaluation selon la puissance de calcul1:25:18 Les évaluations indépendantes1:27:09 L’enjeu de la France en évaluation1:28:44 Les usages borderline1:31:57 Les capacités d’humour1:33:57 Les IA sont des outils ?1:37:04 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.


