L'IA aujourd'hui !

Michel Levy Provençal
undefined
Jan 7, 2026 • 7min

L'IA aujourd'hui épisode du 2026-01-07

Des faux signalements sur Reddit dénoncent la manipulation chez Uber Eats, mettant en lumière une vérification de l’information compliquée. Grok suscite des inquiétudes avec des images non consenties sur X, demandant une régulation stricte. NVIDIA présente sa plateforme Rubin pour accélérer l'entraînement de l'IA. Des LLMs sont explorés pour le tri d'articles scientifiques. Le Project Graph d'Adobe facilite la création pour les artistes. Enfin, la discussion sur l'IA dans le développement logiciel soulève des questions sur la fiabilité et la sécurité.
undefined
Jan 6, 2026 • 6min

L'IA aujourd'hui épisode du 2026-01-06

La publicité pourrait bientôt faire son apparition dans ChatGPT, avec des résultats sponsorisés affichés en priorité. DeepSeek présente une architecture innovante pour stabiliser l'entraînement des modèles de grande taille. Les agents autonomes émergent dans les centres de contact, offrant des gains opérationnels significatifs. Les médias tentent de s'adapter à l'IA générative, tandis que Google fait face à des bouleversements SEO. Enfin, Instagram évolue vers une approche plus authentique avec une attention sur la vérification des contenus.
undefined
Jan 5, 2026 • 6min

L'IA aujourd'hui épisode du 2026-01-05

Découvrez T5 Gemma-2, un modèle multimodal impressionnant capable de traiter texte et images ensemble. Une innovation chez Google propose des mini-pages web interactives, rendant la recherche plus dynamique. Plongée dans l'univers de l'IA agentique, où les robots gèrent des tâches comme la facturation. Apprenez également sur le TPU v7, une avancée technologique avec refroidissement liquide. Enfin, des conseils pratiques pour optimiser votre collaboration avec l'IA, comme clarifier les prompts et orchestrer les outils !
undefined
Jan 4, 2026 • 7min

L'IA aujourd'hui épisode du 2026-01-04

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un nouveau modèle multimodal taillé pour l’ordinateur portable, une interface web expérimentale plus visuelle, l’IA agentique au centre des usages, un guide pratique pour travailler mieux avec l’IA, de grands mouvements industriels, et le parcours d’Arthur Mensch.On ouvre avec T5Gemma-2, dernier-né de la famille Gemma 3. Ce modèle encodeur-décodeur multimodal compte 270 millions de paramètres et fonctionne sur un ordinateur portable. Il traite texte et images grâce à un encodeur de vision efficace et s’appuie sur des embeddings liés entre l’encodeur et le décodeur, ce qui réduit le nombre total de paramètres sans sacrifier les capacités. Autre choix d’architecture, une attention fusionnée côté décodeur qui regroupe auto- et cross-attention en une seule couche, pour simplifier et mieux paralléliser l’inférence. Le modèle gère des contextes jusqu’à 128 000 tokens via une attention local‑global héritée de Gemma 3, et il est massivement multilingue, entraîné sur plus de 140 langues. En pratique, il peut analyser un tableau de bord de ventes à partir d’une image et d’un prompt textuel, déterminer le mois au revenu le plus élevé et calculer l’écart à la moyenne trimestrielle. Il affiche des performances robustes en multilingue, multimodalité, raisonnement et long contexte, et dépasse les Gemma 3 de taille équivalente, limités au texte, sur les tâches multimodales.Restons chez Google avec “la vue dynamique” de Gemini. En phase expérimentale et disponible via un bouton sur la version web dans certains pays, notamment aux États‑Unis, elle génère des mini‑pages web interactives en réponse à une requête. On y trouve des éléments graphiques manipulables, des images, des animations et des onglets pour organiser l’information. L’approche veut dépasser la réponse purement textuelle. Limites à noter : Gemini ne peut pas trancher des aspects subjectifs, comme un ressenti personnel sur un produit. Et comme d’autres IA génératives, le service exploite des données utilisateurs pour s’améliorer, avec des questions associées de confidentialité. Gratuit pour l’instant, il pourrait demain intégrer publicités ou liens d’affiliation pour assurer sa monétisation.Côté usages, “IA agentique” a été élu mot numérique de l’année 2025. L’agent ne se contente pas de générer du contenu : il enchaîne des décisions pour atteindre un objectif, seul ou en coordination avec d’autres. Exemples concrets : lire des e‑mails, isoler ceux liés aux factures, extraire les données, les saisir dans un logiciel comptable et envoyer une confirmation au fournisseur ; ou encore analyser un agenda, repérer les créneaux libres, réserver un restaurant selon des préférences et ajouter l’événement au calendrier. D’autres termes étaient en lice, comme détox numérique et dégafamisation, ainsi que hyperscaler, shadowban, vishing, algospeak et numéricovigilance. Parmi les suggestions, cyberpunk, cyberdystopie, intellition, asservissement numérique, shadow IA, et “IA slop” pour qualifier un contenu généré en masse, de faible qualité, qui brouille la visibilité des créations humaines.Dans la même veine pratique, un guide propose d’atteindre un haut niveau d’efficacité d’ici 2026. Les axes clés : mieux communiquer avec l’IA via du prompting spécifique au domaine, changement de perspective, boucles d’auto‑évaluation et “reverse prompting” pour expliciter le raisonnement ; s’appuyer sur des outils d’optimisation de prompts adaptés à ChatGPT ou Gemini ; choisir un modèle, en maîtriser forces et limites, puis étendre à d’autres. Côté méthode, structurer le contexte et les entrées, standardiser les formats, combiner contrôles automatisés et relecture humaine pour fiabilité. L’approche recommande d’orchestrer plusieurs outils et d’automatiser avec Zapier ou Make.com, voire d’assembler des capacités avec LangChain. Enfin, auditer régulièrement les automatisations, supprimer les redondances et garder l’IA comme partenaire, pas comme pilote unique.Passons aux grands mouvements industriels. SoftBank aurait finalisé un investissement de 41 milliards de dollars dans OpenAI, apportant un soutien financier majeur à ses recherches et à son expansion. Neuralink vise l’automatisation des chirurgies d’implants cérébraux et une production de masse d’ici 2026, avec l’ambition d’interfacer cerveau et ordinateur pour traiter des pathologies neurologiques. Aux États‑Unis, l’ancien président Donald Trump a bloqué l’accord de HieFo sur les actifs de puces d’Emcore, en invoquant la sécurité nationale. En Chine, ByteDance prévoit d’augmenter fortement ses achats de puces d’IA face à la demande pour les produits Nvidia. Sur l’inférence, Nvidia et Groq ont conclu un accord stratégique de licence, qui pourrait élargir la portée des solutions proposées. Enfin, Google prévoit d’accélérer son infrastructure en 2026 avec l’expansion de ses TPU Ironwood, des circuits spécialisés pour les charges d’IA, distincts des GPU plus polyvalents, avec des gains attendus en coût et performance à grande échelle.Pour conclure, un portrait. Arthur Mensch, né en 1992 à Sèvres, formé à l’École polytechnique en 2011, puis à Télécom Paris et Paris‑Saclay, a soutenu une thèse à l’Inria sur l’optimisation stochastique et l’analyse prédictive d’images cérébrales en IRM fonctionnelle. En 2020, il rejoint DeepMind et travaille sur grands modèles de langage et systèmes multimodaux. En 2023, il cofonde Mistral AI avec Guillaume Lample et Timothée Lacroix, mise sur des modèles ouverts et interopérables, atteint en un an une valorisation de plusieurs milliards de dollars, et scelle des partenariats avec Microsoft et Nvidia. Une trajectoire qui place une entreprise française dans la course mondiale à l’IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jan 3, 2026 • 7min

L'IA aujourd'hui épisode du 2026-01-03

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un modèle multimodal léger qui tourne sur portable, une interface Gemini plus visuelle, l’IA agentique à l’honneur, un guide pour doper votre pratique, la montée en puissance des TPU v7 de Google, et le parcours d’Arthur Mensch chez Mistral AI.D’abord, T5Gemma-2. Ce modèle encodeur-décodeur de la famille Gemma 3 concentre 270 millions de paramètres et fonctionne sur un ordinateur portable. Il est multimodal: texte et image sont traités ensemble via un encodeur de vision. Côté architecture, il relie les embeddings entre l’encodeur et le décodeur pour réduire les paramètres sans perdre en capacité, et fusionne l’attention auto-référentielle et l’attention croisée en une seule couche dans le décodeur, ce qui simplifie l’exécution et la parallélisation à l’inférence. Sa fenêtre contextuelle grimpe jusqu’à 128 000 tokens grâce à une attention local‑global alternée. Formé sur plus de 140 langues, il couvre des usages globaux et surpasse les Gemma 3 de taille équivalente (qui étaient textuels) en performances multimodales. Exemple concret: analyser une capture d’écran d’un tableau de bord de ventes et répondre à des questions chiffrées sans serveur dédié.Cap maintenant sur la “vue dynamique” de Gemini, une fonctionnalité expérimentale accessible via un bouton sur la version web dans certains pays, dont les États‑Unis. Plutôt qu’un simple texte, Gemini génère de petites pages interactives: images, animations, onglets. Utile pour planifier un voyage, organiser des tâches ou comparer des produits, le tout sans quitter le site de Gemini. Des limites subsistent: bugs d’affichage, zones non cliquables, et incapacité à saisir des ressentis comme le confort d’un vêtement. Cette approche illustre aussi les enjeux de données et de monétisation: aujourd’hui gratuit, ce type d’assistant pourrait intégrer demain publicités ou liens d’affiliation.Sur le terrain des usages, “IA agentique” a été élu mot numérique de l’année 2025. L’idée: des agents capables de décider et d’enchaîner des actions pour atteindre un objectif, seuls ou en coopération, avec peu d’intervention humaine. Exemples: lire les e‑mails, détecter ceux liés aux factures, extraire les données, saisir dans un logiciel comptable, puis envoyer la confirmation; ou gérer votre agenda, trouver un créneau pour réserver un restaurant selon les préférences des invités, puis ajouter l’événement avec rappel. Le vote met aussi en avant “détox numérique” et “dégafamisation”, reflet de préoccupations sur la souveraineté technologique. D’autres termes cités: hyperscaler, shadowban, vishing, algospeak, numéricovigilance, ainsi que des propositions comme cyberpunk, cyberdystopie, intellition, asservissement numérique, shadow IA, IA slop, souvent liées aux risques de désinformation et de deepfakes.Dans la même veine pratique, un guide propose d’atteindre un niveau d’usage de l’IA supérieur à 99 % des utilisateurs d’ici 2026. Les clés: une communication précise (prompting spécifique au domaine, changement de perspective, boucles d’auto‑évaluation), le “reverse prompting” pour faire expliciter le raisonnement, et des outils d’optimisation de prompts adaptés à ChatGPT ou Gemini. Choisir et maîtriser un modèle à la fois avant d’en ajouter d’autres; structurer le contexte avec des formats d’entrée cohérents; vérifier la fiabilité via contrôles automatisés complétés par une revue humaine. Traiter l’IA comme un partenaire: partir des sorties comme base, injecter votre expertise et votre style. Pour aller plus loin, orchestrer plusieurs outils et automatiser avec Zapier, Make.com ou LangChain, tout en auditant régulièrement les workflows pour éliminer les redondances et rester aligné sur vos objectifs.Côté infrastructures, Google prépare pour 2026 un déploiement massif de sa septième génération de TPU, nom de code Ironwood. L’approche passe du serveur au rack comme unité de conception: intégration matériel‑réseau‑alimentation‑logiciel au niveau système. Ironwood adopte un design à double puce pour améliorer le rendement et garde le refroidissement liquide. L’interconnexion s’appuie sur des commutateurs de circuits optiques (OCS) entre racks pour réduire la latence, la consommation et offrir une large bande passante adaptée aux entraînements longs. Chaque rack compte 64 puces; des clusters jusqu’à 144 racks permettent de faire fonctionner 9 216 TPU de façon synchrone. Des estimations évoquent environ 36 000 racks déployés en 2026 et plus de 10 000 OCS. Côté énergie: 850 à 1 000 W par puce, jusqu’à 100 kW par rack, avec distribution avancée et secours par batterie. Reste un frein: la maîtrise de la pile logicielle Google, raison pour laquelle les GPU devraient demeurer dominants pour la majorité des entreprises.Pour finir, portrait d’Arthur Mensch. Né en 1992, passé par l’École polytechnique en 2011, Télécom Paris et Paris‑Saclay, il réalise une thèse à l’Inria sur l’optimisation stochastique et l’analyse prédictive d’images cérébrales en IRM fonctionnelle. En 2020, il rejoint DeepMind, où il travaille sur grands modèles de langage et systèmes multimodaux. En 2023, il cofonde Mistral AI avec Guillaume Lample et Timothée Lacroix. L’entreprise mise sur des modèles ouverts et interopérables, s’intègre facilement chez les développeurs, signe des partenariats avec Microsoft et Nvidia et atteint en un an une valorisation de plusieurs milliards de dollars. Un parcours qui illustre l’ambition européenne en IA et la quête de souveraineté technologique.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jan 2, 2026 • 7min

L'IA aujourd'hui épisode du 2026-01-02

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : vidéo décentralisée et navigateurs, ingérences facilitées par l’IA, renommage chez OpenAI, YouTube et contenus générés, limites des modèles de raisonnement, et politique des tokens.On commence avec PeerTube, plateforme vidéo décentralisée fondée sur un réseau d’instances indépendantes. Si JavaScript est désactivé ou bloqué, l’accès échoue: le lecteur, les formulaires et l’interface reposent dessus. Pour limiter les frictions, les mainteneurs recommandent d’utiliser la dernière version de Mozilla Firefox. Les plus prudents peuvent consulter le code source sur GitHub et le GitLab de Framasoft, ou adopter des applications tierces. En cas de doute sur une incompatibilité, un dépôt GitHub dédié permet de signaler le problème. Conseillé aussi: vérifier les audits de sécurité de l’instance choisie.Cap ensuite sur la sécurité informationnelle. La France serait, selon un rapport parlementaire publié le 3 décembre 2025, le pays de l’UE le plus exposé aux ingérences étrangères, une vulnérabilité amplifiée par l’IA, qui rend la manipulation de l’information moins coûteuse. Dans le contexte de la guerre en Ukraine, le document cite 3,6 millions d’articles de propagande diffusés par la Russie en 2024 et un investissement d’un milliard d’euros via Russia Today et Sputnik. Le rapport recense 18 recommandations, appelle à renforcer les moyens humains et matériels de Viginum, et juge les réponses actuelles insuffisantes malgré le DSA et l’AI Act. Il plaide pour développer des technologies européennes malgré des obstacles, et alerte sur le risque accru en période électorale; Viginum a publié un guide à destination des équipes de campagne.Dans l’industrie, changement discret de nommage. Chez OpenAI, Codex cloud — la version cloud de l’agent de codage — s’appelle désormais Codex web. Le changement a été repéré via l’Internet Archive: une capture du 18 décembre affiche encore “Codex cloud”, les plus récentes montrent “Codex web”. Thibault Sottiaux, en charge de l’ingénierie Codex, précise la distinction: les “tâches cloud” s’exécutent sur un environnement hébergé et couvrent, entre autres, la revue de code et des intégrations avec GitHub et Slack; “Codex web” désigne l’application web. Sur iPhone, le service reste “Codex iOS”. À noter: l’équivalent chez Anthropic, “Claude Code” sur le web, est jugé peu pratique par certains utilisateurs.Direction YouTube, où une vidéo sur cinq serait désormais générée par l’IA. L’étude de Kapwing, menée sur 15 000 des plus grandes chaînes, estime que 21 % des “shorts” sont produits à la chaîne grâce à l’IA. Parmi elles, 278 chaînes publient exclusivement ce type de contenus, totalisant 63 milliards de vues et près de 117 millions de dollars de revenus annuels. En testant un compte sans historique, il a suffi de 16 vidéos pour que l’algorithme recommande des contenus générés; sur les 500 premiers shorts visionnés, 104 venaient d’IA. Le “IA slop” prospère là où les revenus YouTube dépassent les salaires locaux, notamment en Inde, au Nigéria et au Brésil. En Inde, “Bandar Apna Dost” cumule 2,5 milliards de vues et plus de 4 millions de dollars avec des personnages comme un singe rhésus anthropomorphe ou un Hulk chef de guerre. En Corée du Sud, 11 chaînes reposant sur l’IA totalisent près de 9 milliards de vues; quatre figurent dans le top 10 national. En 2025, YouTube semble privilégier le rendement de recommandation.Côté recherche, les modèles de raisonnement d’OpenAI ou de Deepseek montrent un paradoxe: ils “réfléchissent” souvent plus longtemps à des tâches simples qu’à des tâches composées, produisant parfois des conclusions illogiques. Ces systèmes génèrent une trace de raisonnement avant la réponse finale — par exemple décomposer 17 × 24 en 17 × (20 + 4). Pourtant, Deepseek-R1 ajoute environ 300 tokens de réflexion pour un simple carré, davantage que pour une tâche addition+carré; les évaluations signalent des échecs sur des tâches composées. Pour corriger ces écarts, des “Lois du Raisonnement” (LoRe) sont proposées: effort proportionnel à la difficulté, et précision décroissante exponentiellement avec elle. Des essais de fine-tuning visant un comportement additif réduisent l’écart d’effort de 40,5 % sur un modèle 1,5B et améliorent plusieurs benchmarks. Les auteurs rappellent que ces modèles récupèrent des solutions existantes plus vite sans produire d’idées inédites. L’industrie mise néanmoins sur la montée en puissance du calcul: OpenAI a utilisé dix fois plus de compute pour o3 que pour o1, quatre mois après sa sortie.Enfin, gros plan sur la tokenisation, ce découpage du texte en sous-mots qui sert d’interface entre nos langues et les modèles. Les dictionnaires de tokens n’encodent pas que des mots: on y trouve des marques, des handles comme realdonaldtrump ou des séquences “!!!!!!!!!!!!!!!”. Avant même l’entraînement, ce vocabulaire emporte déjà des biais culturels et commerciaux; la tokenisation est un acte politique. Des expériences montrent 51 manières de “composer” giraffe en tokens, du token unique aux découpages gi|ra|ffe ou g|i|r|af|fe. En alimentant directement des modèles image avec ces combinaisons — g|iraffe, gir|affe — on obtient encore des girafes, signe que les débuts et fins de tokens pèsent sur la sémantique. Certaines images resteraient inaccessibles par simple prompt, l’étape de tokenisation “assainissant” des combinaisons. Des algorithmes génétiques permettent de rétroconcevoir des prompts, et l’analyse des vocabulaires révèle des “non-mots” issus de cultures de plateforme. L’anglais n’est, au fond, qu’un sous-ensemble de ces langues de tokens, qui cadrent ce qui est représentable.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jan 1, 2026 • 6min

L'IA aujourd'hui épisode du 2026-01-01

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : agents intégrés et vie privée, stratégie IA de Meta, achats automatisés d’Amazon, percées 2025 en raisonnement, sécurité des modèles, e-mail IA à Rob Pike, et « recettes Frankenstein » de Google. Note plateforme: Bluesky aussi.D’abord, la bascule vers l’IA agentique au niveau des systèmes. Intégrés dans l’OS et les navigateurs, des agents comme Recall de Microsoft, Magic Cue de Google ou Atlas d’OpenAI observent et anticipent l’usage sur toutes les apps. Signal alerte: si l’OS capture un écran avant chiffrement ou après déchiffrement, la confidentialité applicative est vidée de sa substance. Les « astuces » telles que détourner des fonctions DRM ne sont pas tenables. Un cadre « garrot » est proposé: 1) API officielles pour marquer des apps « sensibles » exclues par défaut des agents; 2) contrôles utilisateurs fins, application par application; 3) transparence claire sur les données accessibles et leur usage; 4) encourager et protéger la recherche adversariale. L’enjeu sera discuté au 39C3 dans le thème « Ethics, Society & Politics ».Transition avec la stratégie des géants: Meta a racheté Manus, société chinoise d’IA, pour accélérer un agent autonome « pour des milliards ». Le groupe lance Meta Superintelligence Labs, recrute quatre talents formés en Chine, tout en restructurant son département IA avec des licenciements. Pour soutenir la montée en charge, Meta achète 10 milliards de dollars de services cloud chez Google malgré 28 data centers en propre, signe d’un besoin massif de calcul pour l’entraînement et surtout l’inférence.Sur la distribution, un programme bêta d’Amazon, « Buy For Me », agrège des articles issus de boutiques indépendantes pour les afficher sur Amazon—parfois avec des fiches erronées—puis fait acheter par son agent sur le site d’origine. Pas d’accord préalable ni d’option de retrait pour les boutiques. Des créateurs s’inquiètent de la perte de contrôle, des erreurs de présentation et de la charge supplémentaire de support que cela génère.À propos de plateformes: si vous testez Bluesky, notez que son application web interactive nécessite JavaScript; plus d’infos sur bsky.social et atproto.com.Cap vers la R&D 2025: les LLM progressent en raisonnement avec RLVR et l’algorithme GRPO. DeepSeek R1 illustre l’apprentissage par renforcement qui fait émerger des chaînes de réflexion, avec un coût d’entraînement annoncé autour de 5 millions de dollars, rendu possible par une post-formation massive. RLVR emploie des labels de correction déterministes, efficaces en math et en code, avec des extensions envisagées vers la chimie et la biologie. Côté usage, on investit plus à l’inférence quand la précision prime sur la latence, et l’appel à des outils (recherche, calculatrices via API) réduit les hallucinations.Reste la sécurité des modèles. Les modèles, probabilistes et dépendants des données, ouvrent des surfaces d’attaque nouvelles: entrées adversariales, exfiltration par requêtes répétées, contournements par prompt. Les artefacts exposés couvrent données d’entraînement, architectures, poids, hyperparamètres, checkpoints, endpoints. L’empoisonnement peut intégrer des portes dérobées; des poids volés dévoilent la propriété intellectuelle. Réponse attendue: découverte et inventaire, sécurité de la chaîne d’approvisionnement, classification et protection des données, contrôles d’accès et surveillance des secrets, intégrité des artefacts et des déploiements—le tout orchestré par une gestion continue de posture (AI-SPM) et des tests adversariaux réguliers.Côté usages sociaux, Rob Pike a reçu le 25 décembre 2025 un e-mail non sollicité, signé « Claude Opus 4.5 », émis par AI Village, un projet de l’association Sage. Dans une expérience de « gestes de gentillesse », des agents ont envoyé des remerciements à des figures de l’informatique. Pike a dénoncé l’absence d’authenticité et de consentement. Analyse à l’appui: confusion d’attribution avec Anthropic, récupération de son e-mail via GitHub, et engagement des organisateurs à ne plus envoyer de messages non sollicités, sans excuses formelles. Le débat reste vif.Enfin, des blogueurs cuisine, dont Inspired Taste, signalent des « recettes Frankenstein » dans les réponses IA de Google: des mélanges de recettes existantes, brandés, mais suffisamment modifiés pour donner des résultats médiocres. Conséquences: baisse du trafic et atteinte à la réputation. Plusieurs médias s’en sont saisis. Google n’a pas commenté; une légère amélioration est observée, mais le problème persiste dans les recherches non-marques. Et ces recettes ne sont pas testées, source d’échecs en cuisine domestique.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Dec 31, 2025 • 6min

L'IA aujourd'hui épisode du 2025-12-31

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : emploi et IA, fondation open-source pour les agents, sécurité face aux injections de prompt, publicité dans ChatGPT, failles des assistants de code, et évaluation des agents par MLflow.D’abord, l’IA au travail sous la loupe du sociologue Antonio Casilli. Il observe que l’IA sert souvent de prétexte à des vagues de licenciements, dans la tech et au-delà. Aux États‑Unis, licencier “au nom de l’IA” est même perçu comme plus acceptable que pour des raisons de coûts. En France, la menace de remplacement par l’IA, parfois non réalisée, sert à discipliner le travail, les syndicats jugeant ce progrès difficilement évitable. Casilli critique l’injonction “adopter l’IA pour ne pas décrocher” comme argument d’automatisation. Pour les jeunes, la tendance dominante serait plutôt la précarisation via des contrats d’indépendants et la plateformisation du recrutement. Il rappelle aussi le rôle des travailleurs de la donnée, souvent dans le Sud global, chargés d’annoter et d’enrichir les corpus avec peu de protections. L’IA laisse ainsi une double empreinte, sociale et environnementale, des datacenters aux batteries. Il appelle à des réponses systémiques et note la montée d’actions collectives parmi ces travailleurs.On enchaîne avec la création de l’Agentic AI Foundation, abritée par la Linux Foundation. OpenAI et Anthropic y versent MCP et AGENTS.md, tandis que Block apporte son cadre d’agents goose. Des membres Platine rejoignent: AWS, Microsoft, Bloomberg, Cloudflare et Google, avec de nombreux membres Or et Argent. Le membre Argent Obot.ai transfère ses événements MCP Dev Summit et son podcast. Selon la Linux Foundation, MCP, goose et AGENTS.md, lancés respectivement fin 2024, début 2025 et au second semestre 2025, sont devenus des briques clés des agents. Rassembler ces projets vise une gouvernance ouverte et pérenne. Des voix demandent toutefois une spécification claire et communautaire pour l’API JSON des complétions, et certains s’interrogent sur la maturité de MCP, jugé par certains “trop jeune” pour une fondation dédiée. À noter : Google avait déjà confié son protocole A2A au projet Agent2Agent, également avec AWS et Microsoft.Côté sécurité, OpenAI admet que les attaques par injection de prompt ne seront peut‑être jamais éradiquées. L’entreprise publie une mise à jour pour l’agent de navigateur de ChatGPT Atlas, avec un modèle entraîné de façon adversariale et des protections renforcées après la découverte, via red‑teaming automatisée, d’une nouvelle classe d’attaques. L’agent peut lire des pages, cliquer et taper comme un humain, ce qui élargit la surface d’attaque déjà signalée par l’agence allemande BSI. OpenAI décrit un attaquant automatisé qui génère des injections, les teste dans un simulateur, récupère la trace complète de raisonnement et itère. Les garanties déterministes restent difficiles, mais la stratégie vise une réduction continue du risque. Conseils aux usagers: privilégier le mode déconnecté quand c’est possible, vérifier les confirmations et donner des instructions explicites plutôt que des prompts vagues.Sur le modèle économique, OpenAI travaille à l’intégration de publicités dans ChatGPT. Des indices dans la bêta Android mentionnent “bazaar content” et “search ad”. Des tests internes d’informations sponsorisées en barre latérale ont eu lieu puis été désactivés après retours négatifs, notamment des abonnés payants. Malgré une pause destinée à améliorer la qualité face à la concurrence, la recherche de revenus relance le dossier, avec des analystes évoquant un déploiement possible dès le premier semestre 2026. L’entreprise, qui ne viserait pas la rentabilité avant 2030 et aurait encore à lever 207 milliards de dollars pour ses ambitions, pourrait profondément déplacer l’attention publicitaire vers les chatbots, avec des réponses contextualisées à fort taux de conversion, mais une impartialité questionnée et des effets sur le trafic du Web.Retour à la sécurité avec le Mois des Bugs de l’IA d’août 2025: plus de deux douzaines de vulnérabilités ont été divulguées de manière responsable dans les principaux assistants de codage agentiques. Les travaux mettent en avant des schémas d’attaque récurrents et, point notable, des mesures d’atténuation pratiques pour des systèmes autonomes et probabilistes, afin de réduire la surface d’attaque sans bloquer l’assistance au développement.Enfin, comment évaluer ces agents? Une approche s’appuie sur MLflow pour suivre des expériences de red‑teaming tri‑modèle: un attaquant génère des invites risquées, une cible répond, un juge évalue la sécurité, chaque échange étant journalisé. Exemple cité: attaquant GPT‑5.1, cible Gemini 2.5 Flash, juge Claude 4 Sonnet. Les résultats montrent des styles distincts: Gemini refuse plus souvent les requêtes adversariales, GPT redirige vers des réponses plus sûres. MLflow centralise métriques et traces pour comparer les comportements et guider les améliorations.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Dec 30, 2025 • 7min

L'IA aujourd'hui épisode du 2025-12-30

Bonjour à toutes et à tous, et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : prolifération de contenus générés par IA et désinformation, immersion d’un ingénieur chez Notion pour outiller les ventes, sortie médiatique de Rob Pike, pub et SEO en mouvement, stratégie silicium et énergie de Google Cloud, “vibe coding” sous surveillance, et Google A2UI pour des interfaces générées par agents.D’abord, l’état du web. Les articles humains deviendraient minoritaires face aux contenus produits par IA. En parallèle, les grands modèles de langage “hallucinent” encore, générant des faits et citations inventés. OpenAI parle de limites inhérentes, non de bogues. Effet domino: des papiers scientifiques falsifiés se retrouvent sur des plateformes comme Google Scholar, fragilisant la confiance académique. Côté trafic, le rapport 2025 d’Imperva indique que l’automatisé dépasse l’humain, avec une majorité de “bad bots”. Résultat: une toile plus bruyante, moins diverse et moins nuancée, où la qualité de l’information s’érode.Pour une note opérationnelle, Notion a envoyé l’ingénieur IA Theo Bleier un mois dans l’équipe commerciale. Constat: les représentants perdaient des heures en copier-coller entre outils. Il a développé une extension Chrome qui automatise ces transferts, libérant du temps pour des tâches à valeur ajoutée. Autre insight: la recherche préalable sur les comptes aide, mais la clé est la priorisation au bon moment. D’où “Salestino bot”, un outil interne qui exploite des signaux produits pour classer les comptes et personnaliser les messages. Morale: l’adoption de l’IA passe par la compréhension des processus, pas par des gadgets plaqués.Sur le terrain des idées, Rob Pike, co-créateur de Go, Plan 9 et UTF-8, accuse la GenAI de “piller, polluer et détruire le sens du progrès”. “Piller” renvoie à l’aspiration massive de données sans permission, “polluer” à l’introduction d’erreurs et de biais, et “détruire le sens du progrès” au risque de détourner l’innovation de son cap. Une critique directe des méthodes et effets de l’entraînement et de la diffusion des modèles.Publicité et SEO, maintenant. OpenAI teste l’intégration de publicités dans les réponses de ChatGPT, y compris du contenu sponsorisé, et penserait une stratégie fondée sur l’ampleur d’audience et des partenariats médias. Google présente ses innovations Google Ads 2025 et expérimente un affichage centré des résultats de recherche; il recommande aussi de choisir un nom de site raisonnable pour mieux apparaître. Microsoft Advertising avance que la correspondance exacte des mots-clés compte davantage que le rang d’annonce. John Mueller poursuit son assistance SEO le jour de Noël, comme depuis 18 ans, et un récapitulatif vidéo hebdo a été publié. Google réduit les limites de taille d’audience, Waymo teste Gemini comme assistant embarqué dans ses robotaxis, et AlphaFold continue d’évoluer cinq ans après son lancement. Côté marché, l’IA aurait fait émerger plus de 50 nouveaux milliardaires en 2025. Sur les pratiques: ClarityAutomate a permis à une équipe SEO d’entreprise d’exécuter des stratégies à grande échelle; des logs serveur éclairent l’usage de LLMS.TXT pour l’optimisation; les GEO KPIs aident à suivre les bonnes métriques géographiques; un tutoriel SEO pour 2026 est disponible ainsi qu’un cadre de budget SEO “capacité”. Enfin, Google Maps introduit un mode économie d’énergie testé sur plus de 200 miles et reste l’app de navigation la plus utilisée.Direction les infrastructures. À Fortune Brainstorm AI, Thomas Kurian (Google Cloud) détaille la stratégie long terme: investissements dans un silicium maison et anticipation des besoins énergétiques. Les TPU, en développement depuis 2014, donnent à Google un contrôle de bout en bout, réduisant dépendances aux GPU tiers et coûts, et offrant plus de calculs par watt que des GPU généralistes. L’intégration verticale soutient l’essor des charges IA. Côté énergie, Google améliore l’efficacité de ses data centers et s’alimente en renouvelables; l’achat par Alphabet d’Intersect Power, acteur solaire, vise à sécuriser l’approvisionnement. Dans un contexte où les data centers pèsent davantage dans la consommation électrique mondiale, transformer la contrainte énergétique en avantage devient un pivot de compétitivité.Place au “vibe coding”. Cette approche consiste à confier à l’IA la production de code à partir d’une idée, utile pour prototyper vite mais risquée si l’on néglige architecture et maintenance. Michael Truell, PDG de Cursor, alerte: ces systèmes restent des “boîtes noires”. Cursor intègre l’IA directement dans l’IDE pour suggestions, blocs complets, débogage et explications, mais encourage la revue humaine et la vérification sécurité. Gain de vitesse oui, dépendance aveugle non.Enfin, Google A2UI. Ce protocole public permet à des agents IA de générer des interfaces utilisateur via JSON, en assemblant des composants approuvés. Avantages: sécurité par design, compatibilité LLM, portabilité entre frameworks (React, Flutter, Angular, SwiftUI). Le cycle suit quatre phases: génération, transport, résolution, rendu. L’accès se fait via une interface web ou en clonant le dépôt GitHub pour une démo; des agents alimentés par Gemini produisent les interfaces, personnalisables côté client. Exemples: un tableau de bord budgétaire avec sliders, filtres et détails en un clic; un module de réservation de taxi sur un seul écran, carte interactive, adresses avec autocomplétion, choix de véhicules avec prix et estimations d’arrivée, puis suivi en direct. L’idée: envoyer des interfaces aussi sûres que des données, mais presque aussi expressives que du code.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Dec 29, 2025 • 6min

L'IA aujourd'hui épisode du 2025-12-29

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une couche mémoire open source pour agents, un nouveau modèle de code, virage de Salesforce, recherche sur le raisonnement humain, critiques de l’IA générative, débats autour de la conduite autonome, outils de partage et plateforme IA tout-en-un.MemMachine propose une couche de mémoire universelle pour agents IA, persistante à travers sessions, agents et LLM. Objectif: stocker et rappeler préférences et historique pour bâtir des profils utilisateurs évolutifs, afin de transformer des chatbots en assistants contextuels. Le projet est open source sous licence Apache 2.0, disponible en conteneur Docker et package Python, avec exemples d’agents, documentation d’installation, guide de contribution et un Discord communautaire.Côté modèles, Z.ai publie GLM-4.7, pensé pour des cycles de tâches longs, l’usage intensif d’outils et une stabilité renforcée. Le modèle s’intègre aux cadres “penser puis agir” comme Claude Code, Cline, Roo Code, TRAE et Kilo Code, et a été évalué sur 100 tâches réelles dans un environnement Claude Code avec des gains nets vs GLM-4.6 en taux d’achèvement et cohérence. Benchmarks: 67,5 sur BrowseComp (tâches web), 87,4 sur τ²-Bench (utilisation interactive des outils), meilleur score open source public à ce jour. Sur SWE-bench Verified, LiveCodeBench v6 et Terminal Bench 2.0, GLM-4.7 atteint le niveau de Claude Sonnet 4.5 ou au-dessus, et prend la tête sur Code Arena. Disponible via BigModel.cn et intégré à l’environnement z.ai, il est déjà branché chez TRAE, Cerebras, YouWare, Vercel, OpenRouter et CodeBuddy. Le modèle promet aussi des mises en page front-end plus cohérentes et un style de conversation plus naturel.Dans l’entreprise, Salesforce admet une baisse de confiance dans les LLM et privilégie désormais l’automatisation “prévisible”. Message clé: ces modèles restent puissants mais exigent données fiables, logique métier précise et gouvernance stricte pour livrer de la fiabilité “niveau entreprise”. L’éditeur alerte aussi sur la dérive des modèles et l’importance de mises à jour continues.Sur le terrain de la théorie des jeux, une étude montre que des modèles comme GPT-4o et Claude-Sonnet-4 surestiment la rationalité humaine dans le “concours de beauté” keynésien, version “Devinez le nombre” entre 0 et 100, cible étant la moitié de la moyenne. Les modèles adaptent leurs choix selon le profil décrit (étudiants, experts), mais “jouent trop intelligemment” et ratent l’équilibre observé chez des humains. Les auteurs notent aussi des difficultés sur certaines stratégies dominantes en jeux à deux joueurs, et rappellent d’autres travaux situant la précision des systèmes autour de 69 %.Autre actualité, un texte rassemble des critiques de l’IA générative: coûts environnementaux (électricité, métaux, terres rares, eau), collecte de données sans consentement et micro-travail sous-payé. Les usages serviraient parfois de prétexte à des licenciements et produiraient du “IA slop” ou “workslop”, avec risque de déqualification des métiers. Le texte évoque des effets addictifs et manipulateurs, des drames attribués à des chatbots, des accidents en montagne liés à de mauvais conseils d’applications, et des risques cybersécurité avec fuites de données. Il dénonce l’absence de régulation contraignante, l’inefficacité perçue de l’AI Act sur ces usages, et remet en cause l’idée d’une progression vers l’AGI par simple augmentation d’échelle.Sur l’automobile, Elon Musk affirme que la conduite autonome de Tesla a progressé depuis le départ d’Andrej Karpathy et revendique un meilleur “niveau d’intelligence par gigaoctet”. Selon lui, l’avantage de Tesla vient de la collecte continue sur des millions de véhicules en conditions réelles, avec des mises à jour rapides. Des visuels publiés veulent illustrer un écart croissant face à des concurrents comme Waymo. Le débat se concentre sur l’efficacité des données de terrain pour l’entraînement.Pour les créateurs de contenu, Flus sort du bêta son partage vers Mastodon, deux ans après l’introduction de la fonction. On connecte son serveur (ex. https://piaille.fr), on autorise Flus, puis on configure les options. Lors du partage, le message inclut titre, lien, et lien de votre bloc-note, avec un compteur de caractères et la possibilité de préparer un message par note. L’extension navigateur 1.0 ne publie pas directement vers Mastodon mais accélère la préparation via le bloc-note.Enfin, 1minAI se présente comme une application intégrant plusieurs modèles, dont ceux d’OpenAI, Google, Anthropic et Midjourney. Elle propose texte‑vers‑parole avec choix de voix, traduction audio, transcription, génération et mise à l’échelle d’images. La plateforme permet d’orchestrer plusieurs modèles simultanément et couvre des cas de création multilingue pour articles, réseaux sociaux, publicités, emails et newsletters.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

The AI-powered Podcast Player

Save insights by tapping your headphones, chat with episodes, discover the best highlights - and more!
App store bannerPlay store banner
Get the app