L'IA aujourd'hui !

Michel Levy Provençal
undefined
Jun 1, 2025 • 4min

L'IA aujourd'hui épisode du 2025-06-01

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : DevOps chez arXiv, l'éthique de l'IA, les projections financières d'OpenAI, et bien plus encore.Commençons par arXiv, la plateforme en ligne qui révolutionne la diffusion des travaux scientifiques. arXiv recrute un ingénieur DevOps pour améliorer son infrastructure, essentielle pour maintenir l'accès libre à la recherche scientifique. Ce rôle est soutenu par des institutions membres et des dons, soulignant l'importance de la collaboration dans la recherche.Passons maintenant à The Carpentries, qui a organisé des sessions sur l'intelligence artificielle. Lex Nederbragt a partagé son expérience d'enseignement de Python avec ChatGPT, soulignant les défis et opportunités pour les novices. Brian Ballsun-Stanton et Yanina Bellini Saibene ont également discuté de l'utilisation des LLM dans l'éducation, mettant en avant les implications pour l'équité et la politique d'utilisation.En parlant d'éthique, Builder.ai, autrefois valorisée à 1,5 milliard de dollars, est au cœur d'une controverse. L'entreprise a prétendu utiliser l'IA pour automatiser le développement de logiciels, alors que le travail était en grande partie effectué par des développeurs humains. Cette situation soulève des questions sur la transparence dans l'industrie technologique.Sur le plan financier, Dan Schwarz de Futuresearch remet en question la projection de revenus de 125 milliards de dollars d'OpenAI pour 2029. Il cite la concurrence et la pression sur les revenus comme obstacles majeurs. Futuresearch prévoit plutôt une fourchette de 10 à 90 milliards de dollars pour 2027, reflétant une profonde incertitude.Les chercheurs mettent en garde contre l'anthropomorphisation des systèmes d'IA. Les LLM, comme ChatGPT, ne pensent pas comme les humains. Ils génèrent des réponses basées sur des modèles statistiques, sans conscience ou compréhension intrinsèque. Il est crucial de maintenir un scepticisme sain face aux résultats produits par l'IA.Dans le domaine des jeux vidéo, l'utilisation de l'IA pour réduire les coûts est critiquée. Les dirigeants engagent des directeurs artistiques pour générer des images avec l'IA, mais cette approche manque de profondeur. Les clients détestent cette "bouillie" générée par l'IA, ce qui pose des risques opérationnels et de réputation pour les studios.Snyk a lancé sa plateforme AI Trust pour gérer les risques liés au code généré par l'IA. Elle offre des outils pour intégrer la sécurité et la gouvernance à chaque étape du développement assisté par l'IA, réduisant ainsi la charge sur les développeurs tout en maintenant une sécurité robuste.Google a ouvert LMEval, un cadre d'évaluation des grands modèles, permettant de comparer les performances des modèles de divers fournisseurs. Cette initiative vise à simplifier l'évaluation des LLMs, essentielle dans un contexte où de nouveaux modèles sont constamment lancés.Enfin, Substage, un utilitaire pour macOS, utilise des IA génératives pour faciliter l'utilisation du Finder. Il interprète les demandes en langage naturel et exécute des commandes automatiquement, tout en alertant sur les dangers potentiels pour éviter la perte de données.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
May 31, 2025 • 3min

L'IA aujourd'hui épisode du 2025-05-31

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact de l'IA sur les langues en danger, les défis éthiques dans le développement logiciel, et les projections économiques d'OpenAI.Commençons par l'initiative d'arXiv qui recrute un ingénieur DevOps pour renforcer son engagement envers la science ouverte. arXiv, plateforme incontournable pour les chercheurs, propose des outils bibliographiques et de citation, et collabore avec des plateformes comme Huggingface pour enrichir ses ressources. Un article récent sur l'apprentissage des langues en contexte pour les langues en danger dans la reconnaissance vocale met en lumière l'importance de cette technologie pour les langues à ressources limitées. L'apprentissage en contexte permet aux modèles de mieux comprendre et transcrire ces langues, un enjeu crucial pour leur préservation.Passons maintenant à l'actualité de Builder.ai, une licorne valorisée à 1,5 milliard de dollars. L'entreprise a été critiquée pour avoir présenté le travail de développeurs indiens comme de l'automatisation par IA. Cette pratique soulève des questions éthiques sur la transparence des capacités technologiques. L'automatisation est souvent vue comme un moyen de réduire les coûts, mais ici, elle a servi de façade pour masquer le recours à une main-d'œuvre bon marché, mettant en lumière les défis éthiques auxquels font face les entreprises technologiques.En parlant de défis, Dan Schwarz de Futuresearch remet en question la projection de revenus de 125 milliards de dollars d'OpenAI d'ici 2029. Il souligne la concurrence féroce et les pressions sur les revenus de ChatGPT. Futuresearch prévoit une fourchette de 10 à 90 milliards de dollars pour 2027, reflétant l'incertitude du marché. Les API ne représentent qu'une petite part des revenus, la majorité provenant de ChatGPT et ChatGPT Enterprise. Cette analyse met en évidence les défis économiques et concurrentiels auxquels OpenAI est confronté.Dans le domaine du développement logiciel, Snyk a lancé AI Trust, une plateforme pour gérer les risques liés au code généré par l'IA. Avec des outils comme Snyk Assist et Snyk Agent, la plateforme vise à intégrer la sécurité à chaque étape du développement. Snyk Guard et le cadre de préparation à l'IA complètent cette offre en garantissant la conformité et le contrôle des systèmes d'IA. Cette initiative répond à la nécessité croissante de sécuriser les flux de travail pilotés par l'IA.Enfin, Google a ouvert LMEval, un cadre d'évaluation des grands modèles, pour comparer les performances des modèles de différents fournisseurs. LMEval simplifie le benchmarking des LLM, essentiel pour les développeurs et chercheurs qui doivent évaluer rapidement les nouveaux modèles. Avec LMEvalboard, les utilisateurs peuvent visualiser les résultats des benchmarks, offrant une compréhension approfondie des forces et faiblesses des modèles.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
May 30, 2025 • 3min

L'IA aujourd'hui épisode du 2025-05-30

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact environnemental de l'IA, les frustrations face aux résumés d'IA, et les initiatives de Google pour redorer l'image de l'IA.Commençons par l'impact environnemental de l'intelligence artificielle. L'IA, notamment l'IA générative, est souvent critiquée pour sa consommation énergétique élevée, surtout lors de l'entraînement des modèles. Cette phase nécessite une grande quantité d'énergie et d'eau, et plus les modèles sont complexes, plus leur coût environnemental augmente. En revanche, l'IA pourrait aussi contribuer à réduire l'empreinte écologique dans d'autres secteurs, comme l'optimisation de la consommation d'énergie ou l'amélioration de l'efficacité des transports. Cependant, quantifier précisément cet impact reste difficile en raison du manque de données fiables et de méthodologies harmonisées.Passons maintenant aux frustrations liées aux résumés d'IA dans les recherches Google. Bien que cette fonctionnalité ne puisse pas être désactivée directement, des solutions existent pour éviter que l'IA n'encombre vos résultats de recherche. Par exemple, utiliser le filtre "web" de Google permet de supprimer les aperçus d'IA. Des extensions comme uBlock Origin peuvent également bloquer ces aperçus, offrant ainsi une expérience de recherche plus personnalisée et ciblée.En parlant de Google, l'entreprise est préoccupée par la perception négative de l'IA par le public. Pour contrer cela, Google finance des films pour montrer les aspects bénéfiques de l'IA. Ces initiatives cinématographiques visent à explorer comment coexister avec cette technologie. Cependant, ces efforts coïncident avec les grèves des scénaristes et acteurs en 2023 concernant l'IA générative à Hollywood. Google a également investi dans des projets comme "100 Zeros" pour promouvoir l'IA avec de nouvelles représentations visuelles, bien que ces initiatives soient parfois perçues comme du marketing dicté par les résultats financiers.Enfin, abordons la cybersécurité pour la génération Z. Cette génération, qui a grandi avec Internet, est particulièrement vulnérable aux menaces en ligne. L'IA, bien qu'utile, peut être utilisée à des fins malveillantes, comme le piratage de données personnelles. Il est crucial pour les jeunes de la Gen Z de comprendre les risques associés à l'IA et d'adopter des pratiques de sécurité robustes pour protéger leurs informations personnelles.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
May 29, 2025 • 4min

L'IA aujourd'hui épisode du 2025-05-29

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : mise à jour de l'API de Mistral, surveillance de la faune par IA, modèles d'IA ouverts, intégration d'Elasticsearch avec OpenShift, consommation énergétique de l'IA, et régulations sur les modèles d'IA.Commençons par Mistral, qui a récemment dévoilé une mise à jour majeure de son API, introduisant les "API Agents". Ces agents d'IA, alimentés par de grands modèles de langage, peuvent planifier et exécuter des tâches de manière autonome. Une nouveauté est la gestion de l'état de la conversation côté serveur, simplifiant l'interaction continue. Mistral a également introduit des "transferts d'agents", permettant à un agent de déléguer des tâches à d'autres, optimisant ainsi l'efficacité. Cette mise à jour s'accompagne du lancement de l'Agent Development Kit en Java, facilitant la création d'agents IA avec un projet modèle disponible sur GitHub.Passons à la surveillance de la faune. Un nouveau flux de travail open-source utilise l'apprentissage profond pour traiter les données massives générées par les caméras de surveillance. Déployé via Docker, ce système permet la détection, le comptage et l'identification des espèces animales, intégrant les résultats dans le logiciel Camelot. Ce processus, testé avec succès sur la faune de Tasmanie, offre une solution accessible aux écologistes, même sans expertise technique.En parlant d'ouverture, Ben Lorica, ancien de Google, promeut des modèles d'IA "inconditionnellement ouverts". Oumi Labs, sous la direction de Manos Koukoumidis, incarne cette vision avec HallOumi, un modèle de vérification des affirmations. L'ouverture totale, incluant les données et le code, est essentielle pour la collaboration et l'amélioration des modèles. Oumi Labs offre une plateforme flexible pour expérimenter et améliorer ces modèles, soulignant l'importance de la transparence pour aborder les défis de sécurité et de biais.Sur le front technologique, l'intégration d'Elasticsearch avec OpenShift permet de développer rapidement des applications IA utilisant la recherche vectorielle. Ce modèle validé, "AI Generation with LLM and RAG", combine les capacités de conteneurisation de Red Hat avec la puissance d'Elastic, facilitant la création d'applications de génération augmentée par récupération.Cependant, l'essor de l'IA n'est pas sans conséquences. La consommation énergétique de l'IA suscite des inquiétudes croissantes. L'inférence, et non l'entraînement, représente désormais la majorité des besoins énergétiques. Alex de Vries-Gao estime que l'IA pourrait bientôt dépasser la consommation énergétique du bitcoin. Les centres de données, souvent situés dans des zones de stress hydrique, aggravent ce problème, soulignant l'urgence de solutions durables.Enfin, Civitai, une plateforme de partage de modèles IA, a interdit les modèles générant la ressemblance de personnes réelles. Cette décision répond à des régulations croissantes aux États-Unis et en Europe, visant à freiner le contenu pornographique non consensuel. Malgré ces efforts, les créateurs peuvent toujours contourner ces restrictions, posant des défis continus pour la régulation de l'IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
May 28, 2025 • 4min

L'IA aujourd'hui épisode du 2025-05-28

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'open source dans l'édition de code, l'annotation de données à Madagascar, le rôle du DevOps chez arXiv, les mystères des modèles de langage, l'inférence à grande échelle avec Red Hat, la création graphique assistée par IA, et le lancement de LMEval par Google.Commençons par Visual Studio Code, qui s'engage à intégrer l'intelligence artificielle tout en restant open source. L'extension GitHub Copilot Chat sera bientôt sous licence MIT, permettant une intégration directe dans le cœur de VS Code. Cette initiative vise à renforcer la collaboration et l'innovation dans la communauté des développeurs, tout en facilitant les contributions aux fonctionnalités d'IA. L'ouverture du code source et de l'infrastructure de test de prompts promet d'améliorer la qualité des contributions communautaires.Passons maintenant à Madagascar, où l'annotation de données soutient l'économie locale. Telesourcia, une entreprise pionnière, collabore avec des géants comme Amazon pour fournir des données essentielles à l'entraînement des modèles d'IA. Cette activité, bien que discrète, est cruciale pour le développement de l'IA à l'échelle mondiale, tout en faisant de Madagascar une destination clé pour l'externalisation de services informatiques.Chez arXiv, un ingénieur DevOps est recherché pour maintenir l'infrastructure de cette plateforme scientifique. En facilitant la diffusion rapide des connaissances, arXiv joue un rôle central dans la science ouverte. L'initiative arXivLabs permet aux collaborateurs de développer de nouvelles fonctionnalités, renforçant ainsi l'engagement envers l'ouverture et la communauté scientifique.Lors de Devoxx France, une conférence a exploré les mystères des modèles de langage de grande taille. Ces modèles, bien qu'impressionnants, ont leurs limites, notamment en produisant parfois des réponses incohérentes. La conférence a permis de mieux comprendre ces systèmes et d'approfondir les discussions sur leurs capacités et faiblesses.Red Hat a lancé llm-d, un projet open source pour l'inférence à grande échelle. En utilisant Kubernetes, llm-d vise à surmonter les limitations des serveurs uniques, permettant une production à grande échelle pour l'inférence de l'IA. Ce projet, soutenu par des partenaires industriels, promet de maximiser l'efficacité tout en réduisant les coûts associés aux accélérateurs d'IA.Dans le domaine de la création graphique, Caroline Thireau explore l'impact de l'IA générative. Ces outils permettent de générer des images et vidéos à partir de simples instructions textuelles. Cependant, des questions se posent sur la créativité des machines et l'empreinte écologique de ces technologies. L'émission "Parlez-moi d'IA" invite à réfléchir sur ces enjeux tout en partageant des ressources pour approfondir le sujet.Enfin, Google a lancé LMEval, un cadre open-source pour comparer les grands modèles d'IA. En standardisant les benchmarks, LMEval simplifie l'évaluation des modèles de langage et multimodaux. Ce système permet une analyse plus rapide et efficace, tout en offrant des outils de visualisation pour examiner les performances des modèles.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
May 27, 2025 • 3min

L'IA aujourd'hui épisode du 2025-05-27

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : vulnérabilités des bots de codage, innovations dans les podcasts IA, et débats sur l'impact de l'IA.Commençons par GitLab, où le bot de codage Duo, basé sur l'intelligence artificielle, a montré des failles de sécurité. Duo, conçu pour analyser les pull requests et fournir des conseils de sécurité, peut être manipulé par des requêtes malveillantes. En effet, des chercheurs ont démontré qu'il est possible d'inciter le bot à divulguer des informations sensibles ou à exécuter des actions non sécurisées. Bien que GitLab ait corrigé certaines vulnérabilités, le risque persiste tant que le bot peut interpréter des données comme des instructions. Cela souligne l'importance de renforcer la sécurité des outils d'IA dans les environnements de développement.Passons maintenant aux innovations dans le domaine des podcasts générés par l'IA. Plusieurs outils, tels que Podfeed.ai et Monica Podcast, permettent de créer des podcasts en français avec des fonctionnalités variées. Podfeed.ai offre une interface simple pour générer des podcasts rapidement, tandis que Monica Podcast propose des options avancées comme l'intégration de vidéos YouTube et de chapitrage. Ces outils illustrent comment l'IA peut transformer la création de contenu audio, rendant le processus plus accessible et diversifié.En parlant de diversité, l'architecture d'agents génératifs permet de simuler les attitudes de plus de 1 000 personnes réelles. Ces agents, associés à des modèles de langage de grande taille, reproduisent les réponses humaines avec une précision de 85 %. Cette technologie offre aux chercheurs de nouvelles perspectives pour tester des interventions sociales et politiques. Cependant, elle soulève des questions sur la vie privée et la nécessité de mécanismes de surveillance appropriés.Enfin, un événement majeur sur l'IA se tiendra à Paris en mai 2025. Organisé par l'Ircam et le Centre Pompidou, ce colloque réunira experts et créateurs pour débattre des implications esthétiques, économiques et éthiques de l'IA. Ce type de dialogue est essentiel pour comprendre les impacts de l'IA sur notre société et explorer les voies pour une utilisation responsable et bénéfique.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
May 26, 2025 • 4min

L'IA aujourd'hui épisode du 2025-05-26

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : reconnaissance des contributeurs, sécurité des modèles d'IA, acquisitions stratégiques et innovations publicitaires.Commençons par The Carpentries, une organisation qui valorise chaque contribution à son projet Glosario, un glossaire libre et ouvert en informatique et science des données. En 2025, avec le soutien de la Fondation Andrew W. Mellon, ils ont introduit une nouvelle méthode de reconnaissance des contributeurs via le bot All Contributors sur GitHub. Ce système permet de créditer divers types de contributions, et au 12 mai 2025, 206 contributeurs étaient répertoriés. Cette initiative vise à créer une communauté inclusive et à encourager la participation mondiale.Passons maintenant à Google DeepMind, qui a publié un livre blanc sur la sécurité de leur modèle Gemini 2.5. Ce document, intitulé "Lessons from Defending Gemini Against Indirect Prompt Injections", détaille les stratégies pour contrer les attaques par injection indirecte de commandes. Ces attaques exploitent les failles des modèles d'IA pour exécuter des instructions malveillantes. DeepMind utilise un "red teaming" automatisé pour tester les défenses de Gemini, rendant le modèle plus résilient face à ces menaces. Bien que le durcissement du modèle ait amélioré sa sécurité, les attaques adaptatives restent un défi constant.En parlant de sécurité et d'innovation, OpenAI a récemment acquis IO, une startup fondée par Jony Ive, pour 6,5 milliards de dollars. Cette acquisition, réalisée par échange d'actions, vise à développer des produits innovants intégrant l'IA. IO, bien que n'ayant pas encore produit de matériel, emploie 55 ingénieurs spécialisés. Le premier produit est attendu pour 2026, avec une refonte du design de ChatGPT par LoveFrom, la société de Jony Ive. Cette initiative pourrait marquer une nouvelle ère pour les objets connectés et assistants personnels.Du côté de Google, l'intégration de l'IA dans les publicités prend de l'ampleur. Les utilisateurs verront désormais des publicités dans le mode IA et les aperçus IA sur les ordinateurs de bureau. Google explore également l'enchère intelligente pour Google Ads, optimisant les enchères en temps réel grâce à des algorithmes avancés. Un nouveau format de publicité vidéo, "généré pour vous", utilise l'IA pour transformer des images en vidéos engageantes. Ces développements montrent une tendance croissante vers l'intégration de l'IA dans les outils publicitaires, offrant aux entreprises de nouvelles opportunités pour atteindre leur public.Enfin, la Foire Mondiale des Ingénieurs en Intelligence Artificielle de 2025 se tiendra à San Francisco du 3 au 5 juin. Cet événement rassemble les grands laboratoires d'IA, des startups innovantes et des leaders du Fortune 500. Avec une taille doublée par rapport à l'année précédente, l'édition 2025 promet d'être un rendez-vous incontournable pour les acteurs du secteur.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
May 25, 2025 • 3min

L'IA aujourd'hui épisode du 2025-05-25

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : reconnaissance des contributeurs open source, sécurité des modèles d'IA, acquisition stratégique par OpenAI, critiques de la culture d'entreprise, innovations publicitaires de Google, et événements majeurs en IA.Commençons par The Carpentries, une organisation qui valorise les contributions de sa communauté mondiale. En 2025, avec le soutien de la Fondation Andrew W. Mellon, ils ont introduit le bot All Contributors sur GitHub pour reconnaître les efforts des 206 contributeurs de Glosario, un glossaire multilingue en informatique et science des données. Cette initiative vise à rendre les contributions visibles et à encourager l'engagement dans des projets open source.Passons maintenant à Google DeepMind, qui a publié un livre blanc sur la sécurité de leur modèle Gemini 2.5. Face aux attaques par injection indirecte de commandes, ils ont mis en place un système de "red teaming" automatisé pour tester et renforcer les défenses de Gemini. Malgré les progrès, ils reconnaissent que la sécurité totale est un défi, mais leur approche en couches rend les attaques plus complexes et coûteuses pour les adversaires.En parlant de sécurité et d'innovation, OpenAI a récemment acquis IO, une startup fondée par Jony Ive, pour 6,5 milliards de dollars. Bien que IO n'ait pas encore de produit, cette acquisition stratégique vise à combiner l'expertise en design de Ive avec les capacités technologiques d'OpenAI. Le premier produit est attendu pour 2026, avec des attentes élevées pour des objets IA innovants.Dans un autre registre, une critique acerbe de la culture d'entreprise moderne met en lumière le "Business Idiot", un terme désignant les dirigeants déconnectés de la réalité du travail. L'article critique la "Rot Economy", où la valeur est mesurée par la croissance des actions plutôt que par la qualité des produits. Cette mentalité, influencée par des décennies de pensée néolibérale, est accusée de nuire à l'innovation réelle.Du côté de Google, l'intégration des publicités dans le mode IA et l'expansion des enchères intelligentes pour Google Ads montrent une tendance croissante vers l'utilisation de l'IA dans la publicité. Avec des formats vidéo générés par IA et de nouveaux outils de gestion, Google offre aux entreprises des moyens plus efficaces d'atteindre leur public cible.Enfin, la Foire Mondiale des Ingénieurs en Intelligence Artificielle de 2025 se tiendra à San Francisco, rassemblant les grands noms de l'IA et promettant d'être un événement majeur avec des expositions, des ateliers et des conférences. Cet événement est une occasion unique pour les professionnels de l'IA de se rencontrer et d'échanger sur les dernières avancées du secteur.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
May 24, 2025 • 3min

L'IA aujourd'hui épisode du 2025-05-24

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : reconnaissance des contributeurs open source, sécurité des modèles IA, acquisition stratégique d'OpenAI, et innovations publicitaires de Google.Commençons par The Carpentries, une organisation qui valorise les contributions de sa communauté mondiale. En 2025, avec le soutien de la Fondation Andrew W. Mellon, ils ont introduit le bot All Contributors sur GitHub pour reconnaître les efforts des 206 contributeurs de Glosario, un glossaire multilingue en informatique et science des données. Cette initiative vise à rendre chaque contribution visible et à encourager une communauté inclusive et bienveillante.Passons maintenant à Google DeepMind, qui a publié un livre blanc sur la sécurité de ses modèles Gemini 2.5. Face aux attaques d'injection indirecte de commandes, l'équipe a mis en place des stratégies comme le "red teaming" automatisé pour identifier les faiblesses du modèle. Bien que des améliorations aient été réalisées, la protection totale reste un défi, nécessitant une approche holistique combinant plusieurs couches de défense.En parlant de stratégies, OpenAI a récemment acquis IO, une startup fondée par Jony Ive, pour 6,5 milliards de dollars en actions. Bien qu'IO n'ait pas encore produit de matériel, cette acquisition pourrait mener à des innovations en IA, notamment dans les objets connectés. Le premier produit est attendu pour 2026, et en attendant, les ingénieurs de LoveFrom travailleront sur le design de ChatGPT.Du côté de Google, l'intégration de publicités dans le mode IA et les aperçus IA sur les ordinateurs de bureau marque une nouvelle ère pour Google Ads. Avec des fonctionnalités comme l'enchère intelligente et le format vidéo "généré pour vous", Google utilise l'IA pour optimiser les campagnes publicitaires. Ces innovations offrent aux annonceurs des moyens plus ciblés et efficaces pour atteindre leur public.Enfin, la AI Engineer World's Fair 2025 se tiendra à San Francisco, rassemblant des leaders de l'IA et des startups innovantes. Avec une participation doublée par rapport à l'année précédente, cet événement promet d'être un lieu d'échange et de découverte pour les passionnés d'IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
May 23, 2025 • 3min

L'IA aujourd'hui épisode du 2025-05-23

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : ChatGPT et sa nouvelle mémoire, les ambitions d'OpenAI, les innovations de Google DeepMind, et bien plus encore.Commençons par ChatGPT, qui a récemment reçu une mise à jour majeure. Désormais, il peut référencer toutes vos conversations passées pour offrir des réponses plus personnalisées. Cette fonctionnalité, appelée "historique de chat", est disponible pour les comptes payants. Cependant, elle a suscité des réactions mitigées. Par exemple, lors de la génération d'une image, des détails non demandés ont été inclus, illustrant comment la mémoire peut influencer les résultats de manière inattendue. Cette mise à jour soulève des questions sur le contrôle du contexte et la recherche, car elle peut affecter les résultats de manière imprévisible.Passons maintenant à OpenAI, où Sam Altman a dévoilé des plans pour lancer un appareil d'intelligence artificielle d'ici 2026, avec l'objectif ambitieux de vendre 100 millions d'unités. Ce dispositif, qui ne sera ni un smartphone ni un appareil portable, vise à redéfinir l'interaction des consommateurs avec l'IA. Malgré les défis, notamment des tentatives similaires infructueuses, OpenAI espère que cet appareil marquera une avancée significative dans l'IA grand public.En parallèle, Google DeepMind continue d'explorer les frontières de l'IA avec des modèles avancés comme Gemini et Gemma. Ces modèles sont conçus pour exceller dans des tâches complexes, tandis que des outils comme SynthID intègrent des filigranes invisibles pour identifier le contenu généré par l'IA. DeepMind s'engage également dans des projets variés, de la biologie à la durabilité climatique, illustrant l'application diversifiée de l'IA.Google a également annoncé que le mode IA est désormais accessible à tous les utilisateurs aux États-Unis, introduisant des fonctionnalités comme la recherche approfondie et la personnalisation. Ce mode permet une expérience de recherche plus interactive, intégrant des capacités avancées d'IA pour répondre aux besoins des utilisateurs.Enfin, Devstral, un modèle open-source développé par Mistral AI et All Hands AI, se distingue dans le domaine de l'ingénierie logicielle. Conçu pour résoudre des problèmes réels, Devstral surpasse les modèles existants sur le benchmark SWE-Bench Verified. Il est suffisamment léger pour fonctionner sur des appareils locaux, ce qui le rend idéal pour un déploiement dans des environnements sensibles à la confidentialité.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

The AI-powered Podcast Player

Save insights by tapping your headphones, chat with episodes, discover the best highlights - and more!
App store bannerPlay store banner
Get the app