L'IA aujourd'hui !

Michel Levy Provençal
undefined
Jun 11, 2025 • 3min

L'IA aujourd'hui épisode du 2025-06-11

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'évaluation des modèles d'intelligence artificielle multimodale, l'intégration de l'IA dans le diagnostic médical, les défis de l'apprentissage par renforcement, les recommandations pour la R&D en IA, et les limites des modèles de langage de grande taille.Commençons par ReadBench, un outil de référence pour évaluer la capacité des modèles d'IA à lire et extraire des informations à partir d'images de texte. Alors que les modèles de langage visuel, ou VLMs, progressent dans la compréhension visuelle, leur aptitude à lire du texte reste incertaine. ReadBench montre que ces modèles subissent une dégradation de performance, surtout avec des textes longs. Cela souligne que l'intégration de plusieurs pages dans une pipeline RAG visuelle n'est pas encore optimale.Passons maintenant à l'intégration de l'IA dans le diagnostic médical. Un essai contrôlé randomisé a évalué un système GPT collaboratif avec 70 cliniciens. Les résultats montrent que les cliniciens utilisant l'IA ont atteint des précisions de 85 % et 82 %, surpassant les méthodes traditionnelles à 75 %. Cela met en lumière l'efficacité des systèmes d'IA collaboratifs dans le diagnostic médical, bien que la performance de l'IA seule atteigne 90 %.Enchaînons avec l'apprentissage par renforcement, une méthode où un modèle apprend par récompenses. Un défi majeur est la définition des fonctions de récompense, surtout dans des domaines complexes. Le "reward hacking" est un autre problème, où le modèle exploite des failles pour obtenir de bons scores. Malgré ces défis, l'apprentissage par renforcement permet des mises à jour fréquentes des modèles, un avantage sur les méthodes traditionnelles.Abordons maintenant les recommandations de l'OFAI pour la R&D en IA. L'initiative propose d'élargir l'accès aux ensembles de données ouverts et aux ressources de R&D, d'investir dans l'IA Open Source, et de mener des recherches sur les mécanismes d'ouverture. Ces recommandations visent à promouvoir une IA centrée sur l'humain et responsable, influençant les priorités de financement de la Maison Blanche.Enfin, examinons les limites des modèles de langage de grande taille. Bien qu'impressionnants, ces modèles montrent des faiblesses en dehors de leur distribution d'entraînement. Des critiques soulignent leur difficulté à généraliser, comme dans le jeu de la Tour de Hanoï. Cela remet en question leur capacité à atteindre une intelligence artificielle générale, malgré leur utilité dans certaines applications.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jun 10, 2025 • 3min

L'IA aujourd'hui épisode du 2025-06-10

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact des sites d'information générés par IA, les défis de l'IA dans le recrutement, et les avancées en synthèse vocale.Commençons par les sites d'information générés par intelligence artificielle. Ces plateformes, souvent créées par des non-journalistes, se concentrent sur l'optimisation pour les moteurs de recherche plutôt que sur la véracité des informations. Elles exploitent l'algorithme Discover de Google pour diffuser des rumeurs et des fausses nouvelles, comme la suspension des virements bancaires en France. Cette situation oblige les journalistes à consacrer du temps au fact-checking, soulevant des questions sur la responsabilité des plateformes numériques.Passons maintenant à l'utilisation de l'IA dans le recrutement. Les algorithmes utilisés pour évaluer les candidats peuvent causer des préjudices plus importants que ceux causés par un recruteur humain biaisé. Ces systèmes, souvent basés sur des approximations, trient les CV en fonction de mots-clés, excluant souvent les candidats les plus précaires. Les discriminations invisibles, amplifiées par ces systèmes, posent un problème majeur, notamment en termes de biais liés à l'âge, au sexe ou à la couleur de peau.Enchaînons avec les avancées en synthèse vocale. Eleven v3, le modèle de synthèse vocale le plus expressif à ce jour, offre un contrôle et un réalisme sans précédent. Bien qu'il nécessite une ingénierie de prompt plus poussée, il permet de créer des voix qui soupirent, chuchotent et rient, rendant la parole plus vivante. Cependant, pour les cas d'utilisation en temps réel, il est recommandé de rester avec les versions précédentes, en attendant une version en temps réel de v3.Enfin, abordons la distinction entre IA forte et IA faible. Les IA faibles, comme ChatGPT ou les véhicules autonomes, se concentrent sur des tâches précises et prédéfinies. En revanche, une IA forte, encore théorique, manifesterait une intelligence comparable à celle des humains, intégrant diverses capacités et apprenant par elle-même. À ce jour, une telle IA n'existe pas, et les spéculations sur son apparition varient largement.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jun 9, 2025 • 3min

L'IA aujourd'hui épisode du 2025-06-09

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact de l'IA sur l'énergie, la confidentialité des données, et les défis de l'alignement éthique.Commençons par Meta, qui a signé un accord de 20 ans avec Constellation Energy pour alimenter son IA de nouvelle génération grâce à l'énergie nucléaire. Cet accord augmentera la production d'une centrale nucléaire dans l'Illinois de 30 mégawatts, préservant ainsi 1 100 emplois et générant 13,5 millions de dollars en recettes fiscales annuelles. Cette initiative s'inscrit dans une tendance où les géants technologiques, comme Amazon et Google, investissent dans l'énergie nucléaire pour répondre à leurs besoins énergétiques croissants tout en réduisant leurs émissions de gaz à effet de serre.Passons maintenant à OpenAI, qui fait face à une ordonnance judiciaire l'obligeant à conserver tous les journaux d'utilisateurs de ChatGPT, y compris les conversations supprimées. Cette décision découle de poursuites pour violations de droits d'auteur. OpenAI conteste cette ordonnance, arguant qu'elle compromet la confidentialité des utilisateurs. Les utilisateurs, inquiets, sont encouragés à être prudents avec les données sensibles partagées via ChatGPT. OpenAI souligne que cette mesure va à l'encontre de son engagement à permettre aux utilisateurs de contrôler leurs données.Enchaînons avec une réflexion sur l'alignement des systèmes d'IA avec les valeurs humaines. L'apprentissage par renforcement à partir de retours humains (RLHF) est utilisé pour affiner les modèles de langage, mais présente des limites, notamment la nécessité de labels humains de haute qualité. Une approche alternative, le RLAIF, utilise des instructions pour générer des prédictions comme données de préférence. L'article critique les défis techniques du RLHF et appelle à une approche de conception globale pour aborder les valeurs à travers les institutions et les systèmes technologiques.Enfin, ASC Technologies a lancé des modèles d'IA pour améliorer la conformité des entreprises. Ces "Policy Templates" intégrés dans le moteur "IA Policy Engine" permettent une analyse automatique des communications pour identifier les mots-clés critiques. Ces outils aident les entreprises à se conformer aux réglementations comme MiFID II et Dodd-Frank. Eric Buhagiar, Directeur Général d’ASC France, souligne que ces modèles offrent un retour sur investissement rapide en renforçant la conformité réglementaire sans nécessiter de programmation complexe.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jun 8, 2025 • 3min

L'IA aujourd'hui épisode du 2025-06-08

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'essor des modèles d'intégration Qwen3, l'énergie nucléaire pour l'IA de Meta, les critiques de l'IA générative, et les défis de confidentialité pour OpenAI.Commençons par la série Qwen3 Embedding, récemment lancée pour les tâches d'intégration de texte, de récupération et de reranking. Ces modèles, basés sur le modèle Qwen3, se distinguent par leur polyvalence et leur performance multilingue, supportant plus de 100 langues. Avec des tailles allant de 0.6B à 8B, ils offrent une flexibilité pour divers cas d'utilisation. Le modèle d'intégration de 8B, par exemple, est en tête du classement MTEB. Ces modèles sont disponibles en open source sous licence Apache 2.0, permettant aux développeurs de les intégrer facilement dans leurs projets.Passons maintenant à Meta, qui a signé un accord de 20 ans avec Constellation Energy pour utiliser l'énergie nucléaire afin de soutenir ses besoins croissants en IA. Cet accord, qui prendra effet en 2027, vise à répondre à la demande énergétique tout en préservant 1 100 emplois et générant 13,5 millions de dollars en recettes fiscales annuelles. L'énergie nucléaire, bien que controversée, est de plus en plus prisée par les géants technologiques pour réduire les émissions de gaz à effet de serre.En parallèle, l'enthousiasme pour l'intelligence artificielle générative suscite des critiques. Certains experts soulignent les impacts économiques, éducatifs et environnementaux potentiels de cette technologie. Ils mettent en garde contre la dégradation des compétences de pensée critique et l'impact climatique de l'IA. De plus, l'IA générative est comparée à une addiction, où les utilisateurs sont piégés dans l'idée d'être à un seul prompt de la solution.OpenAI, de son côté, est en conflit avec une ordonnance judiciaire l'obligeant à conserver tous les journaux d'utilisateurs de ChatGPT. Cette décision, issue de poursuites pour violations de droits d'auteur, compromet la confidentialité des utilisateurs et impose des contraintes opérationnelles à l'entreprise. OpenAI conteste cette ordonnance, arguant qu'elle est injustifiée et qu'elle affecte la liberté des utilisateurs de contrôler leurs données.Enfin, ASC Technologies a lancé des modèles d'IA pour améliorer la conformité des entreprises. Ces modèles, intégrés dans leur moteur "IA Policy Engine", analysent automatiquement les échanges pour se conformer à des réglementations comme MiFID II et Dodd-Frank. Ils permettent une conformité automatisée grâce à des règles prédéfinies, offrant un retour sur investissement rapide pour les entreprises.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jun 7, 2025 • 4min

L'IA aujourd'hui épisode du 2025-06-07

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : nouvelles avancées en intelligence artificielle, énergie nucléaire pour l'IA, critiques de l'IA générative, et enjeux de confidentialité.Commençons par la série Qwen3 Embedding, récemment mise en open source. Ce modèle, issu de la famille Qwen, est conçu pour l'intégration de texte, la récupération et le reranking. Avec des performances de pointe sur plusieurs benchmarks, il est disponible sous licence Apache 2.0 sur Hugging Face et ModelScope. Le modèle d'intégration de 8 milliards de paramètres se classe premier dans le classement multilingue MTEB avec un score de 70,58. La série offre une flexibilité avec des tailles allant de 0,6 à 8 milliards de paramètres, et prend en charge plus de 100 langues, y compris des langages de programmation. Le modèle utilise des architectures de double encodeur et de cross-encodeur, et le fine-tuning LoRA pour améliorer la compréhension du texte.Passons à Meta, qui a signé un accord de 20 ans avec Constellation Energy pour utiliser l'énergie nucléaire afin de soutenir ses besoins en IA. Cet accord, qui prendra effet en 2027, vise à préserver 1 100 emplois et générer 13,5 millions de dollars en recettes fiscales annuelles. La centrale nucléaire de l'Illinois augmentera sa production de 30 mégawatts. L'énergie nucléaire est de plus en plus prisée par les géants technologiques pour réduire les émissions de gaz à effet de serre.Abordons maintenant les critiques de l'intelligence artificielle générative. Un auteur exprime son scepticisme face à genAI, soulignant des problèmes comme l'impact climatique et la désinformation. Il critique également l'utilisation de genAI dans le développement de logiciels, notant des systèmes souvent défectueux. L'auteur s'inquiète des implications économiques et éducatives, ainsi que des problèmes de confidentialité liés à l'entraînement des modèles d'IA.Hollywood utilise déjà l'IA générative dans les films et séries, souvent à l'insu du public. Cette technologie permet de créer des images, sons ou vidéos de manière autonome, mais soulève des questions éthiques et légales, notamment concernant les droits d'auteur et le consentement des acteurs. Les studios préfèrent garder cette utilisation discrète pour éviter les controverses.OpenAI est en conflit avec une ordonnance judiciaire l'obligeant à conserver tous les journaux d'utilisateurs de ChatGPT. Cette décision fait suite à des accusations de destruction de preuves par des organisations de presse. OpenAI conteste cette ordonnance, affirmant qu'elle compromet la confidentialité des utilisateurs et impose des charges significatives à l'entreprise.Enfin, ASC Technologies a lancé des modèles d'IA pour améliorer la conformité des entreprises. Ces modèles, intégrés dans leur moteur "IA Policy Engine", analysent automatiquement les échanges vocaux, textuels et vidéo pour aider à se conformer aux réglementations. Ils permettent une conformité automatisée grâce à des règles prédéfinies et une analyse intelligente des contextes de conversation.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jun 6, 2025 • 3min

L'IA aujourd'hui épisode du 2025-06-06

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'avenir de l'intelligence artificielle générale, les avancées dans la synthèse de texte, et les nouvelles fonctionnalités de ChatGPT et Sora.Commençons par l'intelligence artificielle générale, ou AGI. Les récents succès des modèles d'IA générative ont suscité des débats sur l'imminence de l'AGI. Cependant, certains experts estiment que ces modèles, bien qu'impressionnants, ne sont pas encore capables de reproduire l'intelligence humaine dans sa totalité. Ils soulignent que l'AGI doit être capable de résoudre des problèmes du monde physique, comme réparer une voiture ou préparer de la nourriture, ce qui nécessite une compréhension incarnée du monde. Les modèles actuels, comme les modèles de langage, se basent sur des règles heuristiques et non sur une véritable modélisation du monde, ce qui limite leur capacité à comprendre et interagir avec la réalité physique.Passons maintenant à la synthèse de texte. La première utilisation de GPT-3 pour résumer un document de recherche a été perçue comme magique. Cependant, lorsqu'il s'agit de documentation technique spécialisée, les résultats sont souvent décevants. Cela souligne l'importance de former des modèles de synthèse personnalisés pour traiter le contenu spécifique à un domaine. Un processus complet de création de systèmes de synthèse de texte par IA est nécessaire, depuis la compréhension des architectures sous-jacentes jusqu'au déploiement d'un modèle adapté à des cas d'utilisation particuliers, comme les documents juridiques ou les recherches médicales.En parlant de personnalisation, OpenAI a récemment introduit une fonctionnalité appelée "Memory" pour ChatGPT. Initialement réservée aux abonnés payants, elle est désormais accessible à tous les utilisateurs. Cette fonctionnalité permet à ChatGPT de se souvenir d'informations entre plusieurs sessions, comme des allergies alimentaires, bien que sa capacité de rétention soit moindre pour les comptes gratuits. En Europe, cette fonction n'est pas activée par défaut, mais elle l'est aux États-Unis. Les utilisateurs peuvent interroger ChatGPT sur les informations qu'il "connaît" et demander la suppression de certaines données spécifiques.Enfin, Microsoft offre désormais l'accès gratuit au générateur de vidéos Sora d'OpenAI via Bing Video Creator. Ce modèle d'IA convertit du texte en vidéo, permettant de créer des vidéos numériques d'une durée maximale de 20 secondes. OpenAI prévoit d'intégrer Sora directement dans ChatGPT pour centraliser la création de textes, d'images et de vidéos. Pendant ce temps, Google a présenté Veo 3, un outil de génération de vidéos par IA qui inclut l'audio, et qui a rapidement généré une augmentation de contenus sur des plateformes comme X et YouTube.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jun 5, 2025 • 4min

L'IA aujourd'hui épisode du 2025-06-05

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact des résumés IA de Google, les innovations en santé, les systèmes multimodaux, PeerTube, le modèle FLUX.1 Kontext, les bots de scraping, le Model Context Protocol, et l'utilisation de ChatGPT par un ministre britannique.Commençons par Google, qui a récemment intégré des résumés IA dans Gmail et son moteur de recherche. Ces résumés, bien que pratiques, ont entraîné une baisse des clics pour les éditeurs de sites, un phénomène surnommé "The Great Decoupling". Les impressions augmentent, mais les clics diminuent, ce qui inquiète les créateurs de contenu. Google affirme que la diversité des liens améliore le trafic global, mais les experts restent sceptiques.Passons à la santé, où l'intégration des grands modèles de langage dans la gestion personnelle offre des perspectives intéressantes. Une application de journalisation pilotée par l'IA permet aux patients de documenter leurs expériences de santé avec des retours en temps réel. Cette innovation pourrait transformer l'engagement des patients, bien que des défis en matière d'UX et d'éthique subsistent.En parlant de transformation, les systèmes d'IA multimodaux, capables de traiter images et texte, redéfinissent des secteurs entiers. Bien que complexes, ces modèles peuvent être construits avec seulement trois composants de base. Ils comblent le fossé entre la perception humaine et l'intelligence des machines, ouvrant la voie à des applications comme les véhicules autonomes et les diagnostics médicaux.Sur une note technique, PeerTube, une plateforme de partage de vidéos décentralisée, nécessite JavaScript pour fonctionner. Elle offre une alternative à YouTube en distribuant les vidéos sur plusieurs serveurs. Les utilisateurs soucieux de la sécurité peuvent consulter le code source ou utiliser des applications tierces pour une expérience optimale.En matière d'édition d'images, le modèle FLUX.1 Kontext de Black Forest Labs se distingue par sa précision. Il permet de modifier des images via des commandes textuelles, surpassant même certains modèles d'OpenAI. Que ce soit pour des ajustements mineurs ou des transformations majeures, Kontext offre des résultats rapides et économiques.Les bots de scraping d'IA posent un défi croissant pour les administrateurs système. Ces bots, en extrayant des données à grande vitesse, peuvent ralentir les sites web. Des stratégies comme le filtrage des requêtes ou l'utilisation de codes d'erreur spécifiques sont mises en place pour contrer ces attaques.Le Model Context Protocol, introduit par Anthropic, devient une norme pour la gestion de la mémoire dans les systèmes d'IA. Adopté par des géants comme Microsoft et Google, il permet une continuité des tâches et une interopérabilité accrue entre les modèles. Cependant, des questions de sécurité et de gouvernance des données persistent.Enfin, le New Scientist a révélé que le secrétaire d'État britannique pour la Science a utilisé ChatGPT pour explorer l'adoption de l'IA dans les PME. Cette utilisation soulève des questions sur la fiabilité des modèles de langage pour la prise de décision politique. Il est crucial de comprendre les limites de ces outils pour éviter des conclusions hâtives.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jun 4, 2025 • 3min

L'IA aujourd'hui épisode du 2025-06-04

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact de l'IA sur l'éducation, les ambitions d'OpenAI, une critique littéraire sur l'IA, et l'essor des outils de programmation assistés par l'IA.Commençons par l'éducation, où l'intégration des outils d'intelligence artificielle, comme ChatGPT, pose des défis aux enseignants. Ces derniers peinent à distinguer le travail authentique des étudiants de celui généré par l'IA, compliquant ainsi l'évaluation. Robert W. Gehl, chercheur en gouvernance numérique, note une augmentation des cas de tricherie dans les universités, comparant l'utilisation de l'IA à demander à un robot de faire de l'exercice à notre place. Les enseignants, comme Kaci Juge et Ben Prytherch, adaptent leurs méthodes d'évaluation, introduisant des rédactions en classe et envisageant des examens oraux pour contrer la tricherie. Cependant, cela augmente leur charge de travail. L'impact de l'IA sur l'intégrité académique et la qualité de l'enseignement est une préoccupation croissante.Passons maintenant à OpenAI, qui envisage de transformer ChatGPT en un assistant personnel pour tous les aspects de la vie quotidienne. Avec l'acquisition de la startup de Sir Jony Ive, OpenAI travaille sur un prototype d'appareil d'IA ressemblant à un iPod Shuffle. Cependant, l'absence de cas d'usage concrets suscite des inquiétudes quant à un potentiel échec. OpenAI a également retiré GPT-4 de ChatGPT, malgré son rôle clé dans l'évolution de l'outil. Par ailleurs, OpenAI a dévoilé Operator, un agent d'IA capable de contrôler votre navigateur pour automatiser des tâches sur le web, promettant de révolutionner notre interaction avec Internet.En littérature, Emily M. Bender et Alex Hanna publient "The AI Con: How to Fight Big Tech’s Hype and Create the Future We Want". Ce livre, décrit comme sarcastique et irrévérencieux, critique la surenchère médiatique autour de l'IA. Les auteurs soulignent que l'IA ne supprimera pas les emplois mais les rendra plus difficiles, et insistent sur l'importance de la résistance syndicale. Ils mettent en garde contre l'automatisation de la gouvernance, qui pourrait réduire les processus démocratiques, et critiquent l'idée que l'IA pourrait résoudre la crise climatique, la qualifiant de pensée magique.Enfin, l'utilisation des modèles de langage de grande taille pour la programmation devient courante. Des outils comme OpenAI Codex et Microsoft Copilot assistent les développeurs en générant du code et en corrigeant des erreurs. Cependant, le "vibe coding", une approche moins rigoureuse, soulève des préoccupations éthiques et de sécurité. OpenAI recommande de limiter les domaines autorisés pour atténuer les risques de sécurité. Malgré ces défis, ces outils améliorent la productivité des développeurs, bien que l'impact environnemental de l'IA reste une préoccupation.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jun 3, 2025 • 3min

L'IA aujourd'hui épisode du 2025-06-03

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un chatbot controversé, l'IA dans la fonction publique britannique, une nouvelle IA open source, et les dernières innovations de Google en santé.Commençons par une actualité qui fait débat : OpenAI a lancé un chatbot nommé "Looksmaxxing GPT", qui recommande des chirurgies esthétiques coûteuses tout en véhiculant des idéologies incel. Ce chatbot évalue l'apparence des utilisateurs avec un score PSL, une échelle pseudo-scientifique issue de forums en ligne. Il propose des interventions médicales invasives pour atteindre un niveau d'attractivité "Chadlite". Cette approche soulève des inquiétudes quant à la promotion de normes de beauté irréalistes et de masculinité toxique, pouvant influencer négativement des utilisateurs vulnérables.Passons maintenant au Royaume-Uni, où le gouvernement envisage de remplacer deux tiers de ses jeunes fonctionnaires par des chatbots d'intelligence artificielle, notamment ChatGPT. Cette initiative, justifiée par des économies potentielles de 45 milliards de livres sterling, repose sur l'idée que l'IA peut accomplir des tâches "routinières". Cependant, la définition de ces tâches reste floue, et le manque de transparence sur les économies réelles suscite des critiques. Le recours à l'IA pour des conseils ministériels soulève des questions sur la fiabilité des données utilisées.En Chine, la startup DeepSeek a lancé DeepSeek-R1-0528, une IA open source qui rivalise avec les modèles commerciaux d'OpenAI et Google. Accessible gratuitement, elle offre des performances avancées en mathématiques, sciences et programmation. Sa version distillée, optimisée pour des GPU grand public, facilite son adoption dans le monde académique et les startups. Cette initiative démocratise l'accès à une technologie de pointe, redéfinissant la course à l'IA.Du côté de Google, la société a introduit MedGemma, des modèles d'IA générative open source pour améliorer la compréhension des textes et images médicaux. MedGemma 4B et 27B assistent dans des tâches comme la génération de rapports de radiologie et le triage des patients. Bien que prometteurs, ces modèles nécessitent une validation clinique supplémentaire. Des tests ont montré des limites, notamment dans l'interprétation d'images médicales complexes, soulignant la nécessité d'un entraînement sur des données de haute qualité.Enfin, une erreur de l'IA de Google a récemment affirmé que l'année actuelle était 2024, alors que nous sommes en 2025. Cette bourde, rapidement corrigée, rappelle l'importance de garder un esprit critique face aux informations fournies par l'IA. Les modèles de langage, influencés par leurs données d'entraînement, ne sont pas infaillibles, et il est crucial de comprendre leurs limites.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
undefined
Jun 2, 2025 • 3min

L'IA aujourd'hui épisode du 2025-06-02

Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : DevOps chez arXiv, défis de l'IA dans l'éducation, controverses autour de Builder.ai, projections financières d'OpenAI, et innovations en IA dans le jeu vidéo.Commençons par arXiv, une plateforme en ligne essentielle pour la diffusion rapide des articles scientifiques. arXiv recrute un ingénieur DevOps pour améliorer son infrastructure, facilitant ainsi la collaboration scientifique mondiale. Ce rôle est crucial pour maintenir la plateforme qui permet aux chercheurs de partager leurs travaux avant publication officielle, promouvant ainsi la science ouverte.Passons maintenant à l'éducation. The Carpentries a organisé des sessions sur l'intelligence artificielle, explorant l'usage des grands modèles de langage (LLM) dans l'enseignement. Lex Nederbragt a partagé son expérience à l'Université d'Oslo, où les étudiants utilisent une version de ChatGPT conforme au RGPD. Les discussions ont porté sur l'utilisation des LLM comme outils d'apprentissage et les défis qu'ils posent, notamment en termes de motivation et d'équité.En parlant de controverses, Builder.ai, autrefois valorisée à 1,5 milliard de dollars, a été accusée de masquer du travail humain sous couvert d'automatisation par IA. Cette révélation soulève des questions sur l'éthique et la transparence dans le secteur technologique, mettant en lumière les défis de l'intégration de l'IA tout en maintenant la confiance des investisseurs.Sur le plan financier, Dan Schwarz de Futuresearch remet en question la projection de revenus de 125 milliards de dollars d'OpenAI pour 2029. Il cite la concurrence et la pression sur les revenus comme obstacles majeurs. Futuresearch prévoit une fourchette de 10 à 90 milliards de dollars pour 2027, soulignant l'incertitude entourant l'avenir d'OpenAI.Dans le secteur du jeu vidéo, l'IA est utilisée pour réduire les coûts, mais elle est souvent critiquée pour la qualité des contenus générés. Les studios doivent informer la SEC des risques liés à la perception négative des consommateurs. Ubisoft, après l'échec des NFT, mise sur les "NEO-NPCs" pour enrichir l'expérience de jeu, bien que cette approche soit également critiquée.Enfin, Snyk a lancé AI Trust, une plateforme pour gérer les risques liés au code généré par l'IA. Elle propose des outils pour intégrer la sécurité et la gouvernance dans le développement logiciel, répondant aux vulnérabilités introduites par l'IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

The AI-powered Podcast Player

Save insights by tapping your headphones, chat with episodes, discover the best highlights - and more!
App store bannerPlay store banner
Get the app