
L'IA aujourd'hui épisode du 2026-01-09
L'IA aujourd'hui !
00:00
ChatGPT Health : cadre et limites
Michel explique le lancement de ChatGPT Health, ses sources de données et son rôle non diagnostique.
Play episode from 03:50
Transcript
Transcript
Episode notes
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : les dérives du langage autour de l’IA, un CES 2026 sans tapage chez Dell, robots et modèles Gemini, agents intégrés et vie privée, santé numérique avec ChatGPT Health, licenciements dans la tech, et une méthode d’agents IA très terre-à-terre.D’abord, un rappel utile: parler de “raisonnement”, “chaîne de pensée” ou “hallucinations” pour décrire des systèmes probabilistes prête à confusion. Ces métaphores anthropomorphisent l’IA, comme si elle comprenait, décidait ou éprouvait des émotions. Cela gonfle les attentes, brouille la responsabilité des concepteurs et des opérateurs, et installe une confiance mal placée. Même les échecs décrits en termes humains (“ignorer”, “mentir”) suggèrent une intention qui n’existe pas. Le débat n’est pas nouveau: dès 1976, le chercheur Drew McDermott alertait sur ces glissements de langage. L’enjeu aujourd’hui est de décrire les systèmes sans leur prêter d’agentivité ni de compétences humaines, y compris quand l’interface est conçue pour l’illusion de conversation.Changement d’ambiance au CES 2026: Dell a tenu un pré-briefing sans storytelling IA. Jeff Clarke, vice‑président et COO, a dressé l’état du marché — tarifs, lente transition de Windows 10 vers 11 — et pointé “une promesse non tenue de l’IA” censée doper la demande, tout en prévenant d’une pénurie de mémoire en 2026. Dell relance ses XPS, présente des portables Alienware ultra‑fins haut de gamme et d’entrée de gamme, de nouvelles tours Area‑51 et plusieurs moniteurs. Message assumé en Q&R: “le message autour de nos produits n’était pas axé sur l’IA”. Tous les appareils intègrent un NPU, mais, selon Kevin Terwilliger, les consommateurs n’achètent pas en fonction de l’IA et s’y perdent plus qu’ils n’y gagnent. Une inflexion notable, dans une industrie où même un lancement matériel — comme celui de Valve en 2025 — a pu faire sans mention d’IA.Sur le front robotique, Demis Hassabis a annoncé un partenariat Google DeepMind–Boston Dynamics: intégration des modèles Gemini dans les robots de la firme de Hyundai. Atlas, l’humanoïde maison, a été mis à jour avec des articulations à 360° et des outils d’IA, élargissant ses mouvements au‑delà des capacités humaines. Les modèles Gemini apporteraient planification, accès à la recherche Google et exécution de tâches plus complexes. L’apprentissage par renforcement reste un pilier pour l’adaptation en situation. Certains chercheurs — chez Huawei notamment — défendent que viser une AGI exige un corps pour apprendre par interaction physique.Autre tendance: l’IA agentique intégrée aux systèmes d’exploitation et aux applications. Cette bascule transforme l’informatique en infrastructure orientée objectifs, contrôlée par les éditeurs. Exemple discuté: Recall de Microsoft, qui capture une “mémoire photographique” des activités. Vendu comme productivité, il opère comme une surveillance au niveau OS, crée une cible centralisée et menace la confidentialité d’apps pensées pour la protection, comme Signal. Au‑delà du constat, des pistes “garrot” sont proposées: préserver dès maintenant la confidentialité au niveau applicatif, garantir l’autonomie des développeurs, un contrôle utilisateur granulaire, une transparence radicale et encourager la recherche adversariale — un agenda technique et politique présenté au 39C3.Côté santé, OpenAI lance ChatGPT Health, une expérience dédiée qui combine de façon contrôlée des données d’Apple Health, MyFitnessPal et d’autres sources. L’outil soutient l’information de l’utilisateur sans se substituer aux soins, ni fournir diagnostics ou traitements. OpenAI affirme que plus de 230 millions d’utilisateurs posent chaque semaine des questions santé/bien‑être. Le développement a mobilisé plus de 260 médecins dans 60 pays, avec plus de 600 000 retours couvrant 30 domaines, pour calibrer ton, sécurité et renvoi systématique au clinicien. Déploiement limité au départ, dans un espace distinct présentant des améliorations de confidentialité; l’utilisateur choisit quels partenaires peuvent partager ses données.Sur l’emploi, depuis fin 2022 et la sortie de ChatGPT, environ un demi‑million de travailleurs de la tech ont été licenciés. Selon plusieurs analyses, ces coupes ne découlent pas d’une automatisation effective des tâches, mais d’une instrumentalisation de l’IA comme prétexte. Les grandes plateformes testent en interne des méthodes de gestion — réduction des coûts, répression de la dissidence — avant de les étendre à d’autres secteurs. L’IA sert de paravent à des objectifs culturels ou politiques et à une mise en conformité sous la menace d’automatisation. Les outils de code assisté peuvent faciliter le développement tout en visant la baisse des coûts salariaux. Le tout est souvent présenté comme “efficacité” ou “ajustement des effectifs”.Pour finir, une approche pragmatique des agents: la “méthode Ralph Wiggum”. Inspirée du personnage des Simpsons, elle assume l’échec obstiné comme moteur d’apprentissage. Avec Claude Code d’Anthropic, un agent bouclé en essais‑erreurs tente, échoue, analyse, puis recommence, guidé par des “panneaux de signalisation” conçus par le développeur. Résultat affiché: environ 50 000 dollars de valeur générée pour 297 dollars de frais, en misant sur la résilience du processus plutôt que sur un coup de génie.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui !
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
The AI-powered Podcast Player
Save insights by tapping your headphones, chat with episodes, discover the best highlights - and more!


