Le Futurologue

Shaïman Thürler
undefined
Nov 24, 2025 • 1h 38min

Et si ChatGPT était déjà conscient ? - Albert Moukheiber et Monsieur Phi

👉 Créez votre site grâce à Hostinguer : Réduction de 10 % sur l’abonnement avec le code FUTUROLOGUE———🎬 Mon interview de Charbel-Raphaël Segerie sur les risques de l’IA———🗣️ Mon site de conférencier———💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lus———QUI SONT ALBERT ET THIBAUT ?Albert Moukheiber est docteur en neurosciences, psychologue clinicien et auteur de plusieurs ouvrages de vulgarisation scientifique. Dans son dernier livre, « Neuromania : Le vrai du faux sur votre cerveau », il démonte un à un les mythes tenaces qui circulent autour du fonctionnement cérébral.Thibaut Giraud est docteur en philosophie et créateur de l’une des plus grandes chaînes YouTube francophones dédiées à la philosophie, Monsieur Phi. Il vient de publier « La parole aux machines : Philosophie des grands modèles de langage », un ouvrage qui a rapidement rejoint la liste de mes livres préférés sur l’IA.———TIME CODE0:00 Introduction0:52 Qu’est-ce que la conscience ?8:18 Informations importantes sur la conscience23:39 La conscience est-elle réservée au vivant ?33:06 La probabilité que les IA soient conscientes40:42 Cognition incarnée et principe de précaution48:45 Les liens entre la conscience et le langage1:03:23 Une étude étonnante1:14:38 La position de Geoffrey Hinton1:16:59 Les liens entre la conscience et les risques1:21:53 Les difficultés de la science de la conscience1:32:29 Les risques de l’IA Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Nov 16, 2025 • 1h 30min

ChatGPT signe la fin de l’humanité telle qu’on la connaît. - Éric Sadin

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEÉric Sadin est philosophe, spécialiste des technologies numériques et de l’intelligence artificielle. Auteur d’une dizaine de livres portant sur les impacts de ces technologies sur la société et nos psychés, il a récemment publié « Penser à temps : Faire face à l’emprise numérique » et « Le Désert de nous-mêmes : Le tournant intellectuel et créatif de l’intelligence artificielle ».———TIME CODE0:00 introduction 1:03 Pourquoi faut-il s’intéresser à l’IA ?22:25 La course à l’IA est-elle arrêtable ?23:58 Le pseudo langage des IA génératives35:47 Faut-il utiliser ChatGPT ?40:46 L’ère de l’indistinction généralisée48:33 L’impact de l’IA sur le travail59:18 Que penser des risques liés à la super IA ?1:24:42 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Nov 10, 2025 • 1h 48min

Expert mondial de la guerre nucléaire : "Nous fonçons droit vers la catastrophe !"

📖 Le livre de Benoît « Repenser les choix nucléaires »———🎬 Vidéo de 60s recommandée par Benoît———💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEBenoît Pelopidas est docteur et professeur en sciences politiques, fondateur du programme d’étude des savoirs nucléaires à Sciences Po. Chercheur affilié au Centre pour la sécurité internationale et la coopération de l’Université Stanford, il est également l’auteur de l’ouvrage « Repenser les choix nucléaires ». À la tête d’une des rares équipes de recherche indépendantes et non partisanes, il œuvre pour une analyse rigoureuse et impartiale des enjeux liés aux politiques nucléaires. Lauréat de quatre prix internationaux, il est aujourd’hui reconnu comme l’un des grands spécialistes mondiaux des armes nucléaires et des catastrophes qu’elles pourraient provoquer.———TIME CODE0:00 Introduction1:15 Pourquoi se soucier des armes nucléaires ?6:27 Où en sont les armes nucléaires dans le monde ?13:52 Les conséquences d’une guerre nucléaire21:20 Les armes nucléaires garantissent-elles la paix ?36:26 Pourquoi n’y a-t-il pas eu de guerre nucléaire ?1:00:52 Que penser du débat sur les armes nucléaires ?1:14:23 L’intégration de l’IA dans l’arsenal nucléaire1:21:38 Les parallèles entre les armes nucléaires et l’IA1:42:25 Que faire ?1:46:43 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Nov 3, 2025 • 1h 42min

"Il y a des IA bien plus terrifiantes que ChatGPT." - Jean-Lou Fourquet

👉 La chaîne YouTube de Jean-Lou, son livre et sa newsletter———💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———QUI EST JEAN-LOU FOURQUET ?Jean-Lou Fourquet est ingénieur, vidéaste et enseignant. Fondateur du média Après la Bière, il y analyse les impacts des nouvelles technologies sur nos vies. Membre de l’association Tournesol, il œuvre pour une intelligence artificielle plus démocratique. Il est aussi co-auteur du livre « La dictature des algorithmes : Une transition numérique démocratique est possible ».———TIME CODE0:00 Introduction1:01 L’importance des IA de recommandation21:41 La sophistication des IA de recommandation28:52 Suivre d’où vient l’argent40:41 Liens entre IA générative et IA de recommandation52:57 Les vrais capacités des IA de recommandation58:25 Les conséquences des IA de recommandation 1/21:08:09 Les conflits d’intérêt des experts en IA1:15:50 Les conséquences des IA de recommandation 2/21:23:26 Les IA de recommandation sont-elles neutres ?1:39:29 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Oct 27, 2025 • 1h 6min

Un philosophe face à l’intelligence artificielle - Monsieur Phi

👉 Le nouveau livre et la chaîne YouTube de Monsieur Phi———💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEThibaut Giraud est docteur en philosophie et ancien professeur. Il est le créateur de la chaîne YouTube Monsieur Phi, l’une des plus populaires en France dans le domaine. Intéressé par les questions liées à l’intelligence artificielle, il a consacré depuis 2023 pas moins de 13 vidéos à ce sujet, faisant de sa chaîne une référence francophone sur l’IA. Il publie aujourd’hui « La parole aux machines : Philosophie des grands modèles de langage », un ouvrage qui prolonge cette réflexion avec une approche à la fois rigoureuse et accessible.———TIME CODE0:00 Introduction1:02 Les machines parlent !11:00 La mise à l’échelle19:32 Les IA sont-elles intelligentes ?21:59 Les IA sont des boites noires36:34 Les comportements étranges des IA49:48 Quand arrivera-t-on à l’IA surhumaine ?53:20 Les IA sont-elles autonomes ?57:20 Penser correctement la super IA1:03:09 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Oct 20, 2025 • 1h 28min

"Il se pourrait que ChatGPT soit déjà conscient." - L’avertissement d’un expert

👉 Le livre et le podcast de Victor, ainsi que les sources de l’épisode——💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEVictor Duran-Le Peuch a étudié la philosophie à la Sorbonne et à l’Université de York avant de s’engager dans la lutte contre la souffrance animale. Il est le créateur du podcast Comme un poisson dans l’eau, aujourd’hui le plus grand podcast francophone consacré à cette thématique. Plus récemment, il est également devenu auteur avec la parution de son ouvrage En finir avec les idées fausses sur l’antispécisme.———TIME CODE0:00 Introduction1:11 Les IA sont-elles déjà conscientes ?36:26 Les implications des IA conscientes45:47 Faut-il être vivant pour être conscient ?56:29 Faut-il être incarné pour être conscient ?58:23 Comment savoir si les IA sont conscientes ?1:01:50 Les différences entre la conscience humaine et artificielle1:05:53 Les IA conscientes seraient-elles plus dangereuses ?1:10:53 Les IA sont-elles conscientes d’elles-mêmes ?1:18:38 La prise de conscience de ces dangers1:20:52 Les IA qui traduisent les animaux1:22:29 Le suprémacisme humain1:24:36 Quelles sont les solutions ?1:26:06 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Oct 13, 2025 • 1h 23min

Expert mondial de l’IA : "Vous n’avez aucune idée de ce qui arrive."

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODENicolas Miailhe est le fondateur de The Future Society, groupe de réflexion qu’il a dirigé de 2014 à 2023 et qui s’est imposé comme une référence mondiale en matière de régulation de l’intelligence artificielle. Plus récemment, il a cofondé et dirige PRISM Eval, une startup parisienne spécialisée dans la détection des vulnérabilités des IA de pointe. Reconnu comme l’un des pionniers de l’encadrement de l’IA, il a été nommé au Global Partnership on AI, siège au groupe d’experts en IA de l’OCDE ainsi qu’au groupe de haut niveau de l’UNESCO sur l’éthique de l’IA. Diplômé d’un master en administration publique de Harvard, il enseigne à Sciences Po Paris, donne régulièrement des conférences à travers le monde et conseille gouvernements, organisations internationales, fondations philanthropiques et multinationales.———TIME CODE0:00 Introduction1:35 Vers une pause de l’IA ?7:23 Les plus grands risques de l’IA18:53 La géopolitique de l’IA24:51 La régulation contre l’innovation29:20 Un développement antidémocratique32:20 La Chine face à l’IA42:17 L’Inde face à l’IA51:34 Les Émirats arabes unis face à l’IA57:51 La coopération internationale1:04:33 L’IA face à nos institutions1:09:44 La bulle de l’IA1:14:53 Les solutions1:20:04 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Oct 6, 2025 • 1h 29min

Ex ingénieure Google : "On est en train de créer des IA vivantes."

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEJennifer Prendki est docteure en physique des particules et a dirigé le département data de Google DeepMind. Depuis vingt ans, elle se situe à l’avant-garde de la recherche et de la technologie. Experte reconnue, elle a conseillé plus de 170 entreprises dans l’élaboration de leurs stratégies technologiques. Elle est également la fondatrice de Quantum of Data, une société de recherche et de conseil qui explore l’intersection entre intelligence artificielle et ordinateurs quantiques, ainsi que les questions liées à l'apparition de la conscience dans les IA.———TIME CODE0:00 Introduction1:05 Vers des IA vivantes ?9:28 Vers des IA conscientes ?34:23 Les relations avec les IA45:13 L’IA et l’ordinateur quantique 1:01:58 Pourquoi avoir quitté Google ?1:18:04 Garder l’IA surhumaine sous contrôle1:27:01 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Sep 29, 2025 • 1h 20min

"L’IA pourrait détruire le monde !" - Charbel-Raphaël Segerie

🗣️ La déclaration💬 Discord du Centre pour la Sécurité de l’IA✉️ Contacter vos représentants💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODECharbel-Raphaël Segerie est ingénieur, chercheur et enseignant en intelligence artificielle. Il est expert IA auprès de l’OCDE et dirige le Centre pour la Sécurité de l’IA. Dans cet épisode, il explique pourquoi il a lancé un appel mondial à la mise en place de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA. ———TIME CODE0:00 Introduction1:10 La déclaration et ses signataires6:44 Pourquoi avoir écrit cette déclaration ?11:33 Les progrès rapides de l’IA18:37 Les plus gros risques de l’IA25:44 Les comportements inquiétants des IA34:55 Les risques d’extinction de l’IA42:15 Combien de temps nous reste-il ?47:07 Pourquoi 2026 ?48:34 Que sont les lignes rouges ?51:13 Pourquoi des lignes rouges ?54:51 Les lignes rouges vs l’innovation57:42 Les difficultés géopolitiques59:05 Le risque des pays malveillants1:01:41 Le défi de l’opérationnalisation1:07:27 Quelles sont les prochaines étapes ?1:10:33 Quelques anecdotes1:13:38 Vivre en ayant conscience de ces risques1:17:04 Que faire à titre individuel ?1:19:42 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Sep 15, 2025 • 1h 35min

Intelligence artificielle surhumaine en 2027 !? - Débat d’experts

💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODE-> Jean-Gabriel Ganascia est ingénieur, philosophe, professeur d’informatique à Sorbonne Université et auteur d’une dizaine d’ouvrages sur l’intelligence artificielle. Dans son livre le plus connu, Le Mythe de la Singularité : Faut-il craindre l’intelligence artificielle ?, il défend l’idée que le scénario d’une IA surpassant l’intelligence humaine et s’auto-améliorant jusqu’à devenir incontrôlable relève davantage du mythe contemporain que d’une perspective scientifique réaliste.-> Flavien Chervet est écrivain, conférencier, prospectiviste et auteur de plusieurs ouvrages sur l’intelligence artificielle. Dans son dernier livre, Hyperarme : Anatomie d’une intranquillité planétaire, il alerte sur la possibilité qu’une superintelligence artificielle, plus puissante que l’ensemble de l’humanité, émerge dans les cinq prochaines années et constitue une menace existentielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

The AI-powered Podcast Player

Save insights by tapping your headphones, chat with episodes, discover the best highlights - and more!
App store bannerPlay store banner
Get the app