

L'IA aujourd'hui !
Michel Levy Provençal
L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.En savoir plus sur Michel Levy ProvençalÉlargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Episodes
Mentioned books

Feb 16, 2025 • 4min
L'IA aujourd'hui épisode du 2025-02-16
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les avancées d'OpenAI avec GPT-4.5 et GPT-5, les implications économiques de l'IA, et les innovations en synthèse d'images. C’est parti !Commençons par OpenAI, où Sam Altman, le PDG, a dévoilé la feuille de route pour les modèles GPT-4.5 et GPT-5. Le modèle GPT-4.5, surnommé Orion, sera le dernier à ne pas utiliser la "chaîne de pensée", une méthode de raisonnement structuré. L'objectif est d'unifier les modèles pour créer des systèmes plus polyvalents. GPT-5 intégrera de nombreuses technologies, y compris le modèle o3, et proposera un accès par niveaux pour les utilisateurs de ChatGPT. Les abonnés Plus et Pro bénéficieront de niveaux d'intelligence plus élevés. Altman n'a pas précisé les dates de lancement, mais parle de "semaines/mois". Par ailleurs, Elon Musk a proposé d'acheter la branche à but non lucratif d'OpenAI pour 97,4 milliards de dollars, une offre que le conseil d'administration prévoit de rejeter.Passons maintenant aux implications économiques de l'IA. Sam Altman souligne que la croissance rapide de l'IA redéfinit le monde économique et culturel. L'augmentation des investissements entraîne une baisse des coûts, rendant l'IA plus accessible. Par exemple, le coût par jeton de GPT-4 a chuté de manière spectaculaire. L'intégration de l'IA dans la main-d'œuvre est progressive, mais elle pourrait transformer des secteurs comme l'ingénierie logicielle. Les agents d'IA, bien qu'ils nécessitent une supervision humaine, peuvent accomplir des tâches complexes. Altman évoque aussi l'impact inégal de l'IA sur les systèmes économiques, avec des industries cognitives potentiellement bouleversées. Les décideurs doivent aborder les disparités économiques pour s'assurer que les avantages de l'IA atteignent toute la société.En parlant de transformations, la synthèse d'images à partir de texte connaît des avancées rapides. NVIDIA a présenté Edify Image, un modèle de diffusion basé sur les pixels pour la génération d'images haute résolution. Contrairement aux générateurs traditionnels, Edify Image utilise un modèle de diffusion laplacien pour minimiser les artefacts et préserver les détails. Ce modèle permet de gérer la résolution de manière efficace, générant des images de qualité supérieure. Les résultats montrent une capacité à produire des images avec des ratios d'aspect flexibles et des contrôles de caméra, ouvrant des possibilités dans la création de contenu et la conception d'avatars numériques.Enfin, Larry Ellison, président d'Oracle, a exprimé son souhait de voir les gouvernements unifier les données nationales pour l'entraînement de l'IA. Cette proposition soulève des préoccupations de surveillance de masse. En Chine, des systèmes similaires sont déjà utilisés pour scanner les foules. Oracle a été accusée de mettre en place un système de surveillance mondiale et a rejoint le projet Stargate pour concurrencer les investissements américains dans l'IA. Ellison a également partagé ses inquiétudes sur les soins de santé en Occident, suggérant que des systèmes de surveillance pilotés par l'IA pourraient améliorer le comportement des citoyens, une vision qui suscite des débats éthiques.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 15, 2025 • 3min
L'IA aujourd'hui épisode du 2025-02-15
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI et ses nouveaux modèles, les avancées en synthèse d'images, et les enjeux de la centralisation des données. C’est parti !Commençons par OpenAI, où Sam Altman, le PDG, a récemment partagé la feuille de route pour les modèles GPT-4.5 et GPT-5. Le modèle GPT-4.5, surnommé "Orion", sera le dernier à ne pas utiliser la "chaîne de pensée", une méthode qui permet à l'IA de simuler un processus de réflexion plus humain. Après son lancement, OpenAI se concentrera sur l'unification des modèles de la série "o" et GPT, avec l'objectif de créer des systèmes capables d'utiliser tous les outils d'OpenAI. GPT-5, qui intégrera le modèle "o3", offrira un accès illimité à un niveau d'intelligence standard pour les utilisateurs gratuits de ChatGPT, tandis que les abonnés Plus et Pro bénéficieront de niveaux d'intelligence plus élevés. Altman n'a pas précisé de date de sortie, mais cela pourrait se produire dans les semaines ou mois à venir.Passons maintenant à la synthèse d'images. NVIDIA a présenté Edify Image, une suite de modèles de diffusion basés sur les pixels, permettant une synthèse d'images haute résolution avec un contrôle et une précision exceptionnels. Contrairement aux générateurs traditionnels, Edify Image utilise un modèle de diffusion Laplacien, une approche multi-échelle qui minimise les artefacts tout en préservant les détails de haute qualité. Les résultats montrent une capacité à générer des images avec des ratios d'aspect flexibles et des améliorations en termes d'équité et de diversité. Cette avancée pourrait transformer des domaines tels que la création de contenu et la génération de données synthétiques.Enfin, abordons la proposition de Larry Ellison, président d'Oracle, qui appelle à unifier les données nationales, y compris les données génomiques, pour l'entraînement de l'IA. Cette centralisation pourrait améliorer les soins de santé en permettant des diagnostics plus précis, mais elle soulève des préoccupations quant à la surveillance de masse et à la confidentialité des données. En parallèle, l'Union européenne a annoncé un investissement de 200 milliards de dollars dans l'IA pour rivaliser avec les États-Unis et la Chine, bien que cette somme soit inférieure aux 500 milliards de dollars du projet américain Stargate.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 14, 2025 • 3min
L'IA aujourd'hui épisode du 2025-02-14
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'essor de l'IA générative, les défis environnementaux des centres de données, et les innovations dans la création vidéo par IA. C’est parti !Commençons par l'impact fulgurant de ChatGPT, lancé le 30 novembre 2022, qui a rapidement atteint 100 millions d'utilisateurs en deux mois. Cette adoption record a marqué une accélération sans précédent dans le domaine de l'IA générative, poussant des entreprises comme Framasoft à suivre de près ces évolutions. En réponse, Framasoft a lancé FramIActu, une revue mensuelle dédiée à l'actualité de l'IA, soulignant l'importance de rester informé face à ces avancées technologiques.Passons maintenant aux préoccupations environnementales liées à l'IA. Infomaniak, une entreprise suisse, a récemment ouvert un centre de données présenté comme le plus écologique de Suisse. Cependant, la création de tels centres soulève des questions sur l'effet rebond, où les gains d'efficacité énergétique peuvent paradoxalement augmenter la consommation globale. Au Royaume-Uni, une "zone de croissance de l'IA" a été créée, mais elle met en lumière les tensions entre compétitivité technologique et durabilité, notamment en matière de ressources en eau.Dans le domaine de l'éducation, certaines écoles aux États-Unis expérimentent l'utilisation de l'IA pour remplacer les enseignants, promettant un apprentissage personnalisé. Cette approche suscite des débats sur la qualité de l'éducation et le rôle des enseignants, tout en mettant en avant les biais et l'opacité des systèmes d'IA.Adobe, de son côté, a intégré Firefly Video Generator dans sa suite Creative Cloud, permettant de transformer du texte et des images en courtes vidéos grâce à l'IA. Cet outil, accessible en version bêta publique, permet de créer des clips de 5 secondes en 1080p à 24 images par seconde. Adobe prévoit également des versions "Idéation" et 4K pour l'avenir, tout en assurant que son modèle vidéo a été entraîné uniquement sur du matériel sous licence.En parallèle, la compétition entre les États-Unis et la Chine s'intensifie avec l'émergence de modèles comme DeepSeek-V3 et DeepSeek-r1, qui défient les leaders établis tels qu'OpenAI et Google. Ces modèles ouverts et économiques signalent une nouvelle ère dans le développement de l'IA, poussant les équipes à optimiser l'efficacité et à exploiter l'open source pour l'innovation.Enfin, une étude de la BBC a révélé que les chatbots d'IA, tels que ChatGPT et Gemini, rencontrent des difficultés en matière d'exactitude lorsqu'ils résument des articles d'actualité. Plus de la moitié des résumés générés présentaient des problèmes notables, soulignant la nécessité pour les entreprises technologiques de résoudre ces inexactitudes pour éviter des dommages potentiels.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 13, 2025 • 3min
L'IA aujourd'hui épisode du 2025-02-13
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : éducation à l'IA, protection des œuvres générées par IA, innovation en entreprise, et avancées en vidéo générative. C’est parti !Commençons par l'éducation à l'intelligence artificielle. Le podcast "Salut l'info !" organise un webinaire interactif pour sensibiliser les élèves aux enjeux de l'IA, notamment les deepfakes. Prévu pour le 20 mars 2025, cet événement vise à enseigner aux jeunes comment utiliser l'IA de manière judicieuse pour éviter les fake news. Les élèves pourront participer à un quiz et écouter Anicet Mbida, spécialiste du sujet. Ce webinaire s'inscrit dans le programme "J'apprends l'info !" qui propose des ressources pédagogiques pour développer l'esprit critique des élèves.Passons maintenant à la protection des œuvres générées par IA en Chine. Deux affaires récentes, Le Vent Printanier et Cœur à Cœur, ont reconnu la protection par le droit d'auteur pour des images créées avec des logiciels d'IA. Les tribunaux ont souligné l'importance de l'investissement intellectuel humain dans le processus créatif. Ces décisions contrastent avec la position américaine, qui refuse la protection des œuvres générées par IA, et pourraient influencer les discussions internationales sur la propriété intellectuelle.En entreprise, une transformation est en cours dans l'approche de l'innovation. Tom Godden d'AWS observe un passage d'un modèle de Centre d'Excellence à un "centre d'engagement", favorisant l'expérimentation et le partage des données. Des entreprises créent des "pods d'innovation" pour tester l'IA, et organisent des "journées de découverte des données" pour encourager la collaboration. Cette approche vise à surmonter la "paralysie de la perfection" et à promouvoir une culture de l'expérimentation.Enfin, ByteDance innove avec ses modèles Goku, capables de générer des vidéos réalistes de produits sans acteurs humains. Utilisant une architecture de transformateur avancée, Goku produit des vidéos de haute qualité à partir de descriptions textuelles. Ces modèles pourraient transformer la production de contenu publicitaire, réduisant les coûts de 99 %. ByteDance envisage d'utiliser ces outils sur TikTok, bien que des complications réglementaires soient possibles.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 12, 2025 • 3min
L'IA aujourd'hui épisode du 2025-02-12
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact de l'IA sur l'art, la pensée critique, les perspectives de Yann LeCun, la détection des contenus générés par l'IA, et les enjeux politiques et écologiques de l'IA. C’est parti !Commençons par l'inquiétude croissante des photographes face à l'impact de l'intelligence artificielle sur leur art. Avec l'essor du scraping par IA, qui extrait des données protégées par des droits d'auteur pour entraîner des modèles génératifs, des outils comme Glaze et Nightshade ont été développés pour protéger les œuvres. Glaze modifie subtilement les images pour perturber la perception de l'IA, tandis que Nightshade empêche la reconnaissance du contenu. Ces outils, bien que prometteurs, laissent parfois des artefacts visibles, surtout dans les zones d'espace négatif des images.Passons maintenant à une étude menée par Microsoft et l'Université Carnegie Mellon, qui met en lumière une diminution de la pensée critique due à l'utilisation croissante de l'IA générative. En automatisant les tâches routinières, l'IA prive les utilisateurs d'occasions de renforcer leurs capacités cognitives. Les chercheurs ont constaté que plus les travailleurs faisaient confiance à l'IA, moins ils faisaient preuve de pensée critique. Ils suggèrent de développer des outils d'IA qui encouragent l'utilisateur à utiliser sa pensée critique, en fournissant des explications et des critiques guidées.Yann LeCun, responsable de l'IA chez Meta, exprime des réserves sur l'avenir de l'IA générative. Il critique la mentalité de la Silicon Valley et met en garde contre l'idée que l'intelligence artificielle générale est imminente. LeCun se concentre sur l'intelligence humaine-robotique, soulignant l'importance de comprendre l'architecture nécessaire pour développer une IA véritablement intelligente. Il critique l'approche actuelle de l'IA générative, qui repose sur des prédictions sans construire une véritable connaissance du monde.En France, la startup UncovAI développe une technologie pour détecter les contenus générés par l'IA, face à l'avalanche de textes produits par des machines. Cette technologie, qui s'appuie sur la certification des contenus via le C2PA, vise à garantir la transparence et la fiabilité des informations en ligne. UncovAI prévoit également de détecter les contenus audio et vidéo générés par l'IA, contribuant ainsi à un web plus transparent et fiable.Enfin, Framasoft, une organisation engagée dans la promotion du logiciel libre, souligne que la lutte contre l'IA ne doit pas se limiter à une opposition à la technologie elle-même. Le déploiement massif de l'IA est souvent motivé par des intérêts capitalistes, entraînant une intensification de l'extraction de ressources et une augmentation des inégalités. Framasoft appelle à une maîtrise démocratique de l'IA et à une limitation de ses usages pour privilégier les droits humains, sociaux et environnementaux.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 11, 2025 • 4min
L'IA aujourd'hui épisode du 2025-02-11
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un modèle de langage compact, l'open source en IA, l'éducation à l'IA en France, les défis de l'IA dans le droit, et bien plus encore. C’est parti !Commençons par Simon Willison, qui a récemment lancé le plugin llm-smollm2. Ce plugin permet d'installer un modèle de langage de grande taille via pip, tout en restant sous la barre des 100 Mo. Le modèle SmolLM2-135M-Instruct, choisi pour sa taille, est intégré dans un package Python, facilitant son installation. Bien que ce modèle soit amusant à utiliser, il n'est pas très performant. Cependant, il ouvre la voie à des modèles plus grands et plus puissants de la famille SmolLM.Passons maintenant à l'open source dans le développement de l'IA. Bien que souvent perçu comme un moyen de démocratiser l'accès à la technologie, l'open source en IA est plus complexe. Les grands modèles, comme Llama 2 de Meta, sont souvent sous des licences restrictives. De plus, les ensembles de données massifs, comme Laion-5B, soulèvent des questions éthiques et légales. L'article souligne la nécessité de transparence et de responsabilité dans le développement de ces technologies.En France, le gouvernement intègre des cours sur l'IA dans les programmes scolaires. Ces cours, obligatoires pour certains niveaux, visent à éduquer sur les biais et les limites de l'IA. Dispensés via la plateforme Pix, ces modules incluent des sections sur le "prompting". La ministre de l'Éducation, Élisabeth Borne, insiste sur l'importance de former les élèves à l'IA générative, promouvant un usage éthique de cette technologie.Dans le domaine du droit, l'IA générative, comme ChatGPT, montre des limites. Des mémoires basés sur des affaires inventées ont conduit à des sanctions pour les avocats. Une nouvelle fonctionnalité de "recherche approfondie" de ChatGPT, bien qu'impressionnante, nécessite une supervision humaine pour garantir l'exactitude des informations fournies.Sam Altman, PDG d'OpenAI, évoque les limites des modèles de langage de grande taille. OpenAI explore des modèles spécialisés optimisés par l'apprentissage par renforcement, appelés "grands modèles de raisonnement". Ces modèles offrent un gain d'efficacité de calcul, mais ne s'améliorent pas dans tous les domaines. Altman réitère l'intention d'OpenAI de revenir à des pratiques open-source.Google teste un "mode IA" pour son moteur de recherche, visant à fournir des réponses plus contextuelles. Cette innovation pourrait transformer le SEO, en privilégiant les réponses générées par l'IA. Sundar Pichai, PDG de Google, annonce des changements profonds d'ici 2025, en réponse à la montée des moteurs de recherche basés sur l'IA.Enfin, une étude de l'Université de New York révèle que seulement 0,001 % d'informations médicales erronées peuvent compromettre un modèle d'IA. Le "data poisoning" peut amener le modèle à produire des résultats dangereux. Les chercheurs ont développé un système de vérification pour détecter le contenu nocif, mais soulignent la nécessité d'essais cliniques pour valider les systèmes d'IA médicale.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 10, 2025 • 4min
L'IA aujourd'hui épisode du 2025-02-10
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'évolution des moteurs de recherche IA, la prolifération des sites d'information générés par IA, les avancées dans les modèles de raisonnement, et les nouvelles réglementations de l'UE sur l'IA. C’est parti !Commençons par OpenAI, qui a récemment annoncé que son moteur de recherche intégré à ChatGPT est désormais accessible sans connexion. Initialement réservé aux abonnés payants, il est devenu disponible pour tous en décembre. Cette mise à jour rend ChatGPT plus compétitif face à Google et Bing. Le moteur de recherche se distingue par sa capacité à fournir des réponses basées sur des informations collectées sur le web, tout en affichant les sources utilisées. Une mise à jour récente a également introduit des fonctionnalités visuelles, comme des cartes et des images, enrichissant l'expérience utilisateur.Passons maintenant à une enquête menée par Next, qui révèle une prolifération de sites d'information francophones générés par IA. Plus de 1 000 sites ont été identifiés, dont certains reposent sur du plagiat. Ces sites, souvent bien référencés sur Google Actualités, publient parfois des informations fausses, comme des rumeurs sur la mort de célébrités. Leur modèle économique repose sur la publicité programmatique, ce qui pose des questions déontologiques et juridiques. Pour lutter contre cette pollution numérique, Next a développé une extension pour navigateur qui alerte les utilisateurs lorsqu'ils consultent un site généré par IA.En 2024, le domaine des modèles de langage a vu une spécialisation croissante, notamment dans le développement de modèles de raisonnement. Ces modèles sont conçus pour exceller dans des tâches complexes nécessitant des étapes intermédiaires, comme les énigmes et les mathématiques avancées. Le rapport technique de DeepSeek R1 décrit trois variantes distinctes, utilisant des méthodes comme l'apprentissage par renforcement et le réglage fin supervisé. Ces approches visent à améliorer les capacités de raisonnement des modèles de langage, avec des implications pour le développement de modèles plus petits et efficaces.L'Union européenne a commencé à appliquer les premières règles de sa loi sur l'intelligence artificielle, adoptée en 2023. Cette législation impose une plus grande transparence aux entreprises et interdit certaines applications d'IA à haut risque, comme les bases de données de reconnaissance faciale. Les entreprises non conformes risquent de lourdes amendes. Cette loi vise à positionner l'UE comme un leader de l'IA de confiance, malgré les critiques de certaines grandes entreprises technologiques.Enfin, Google a lancé la version 2.0 de son assistant AI, Gemini, avec plusieurs nouveaux modèles mis à jour. Disponible via l'API Gemini, cette version se distingue par sa capacité à intégrer des modèles de raisonnement. Bien que l'application présente des lacunes par rapport à ChatGPT et Claude, son intégration rapide avec les services Google en fait un outil précieux. Une version expérimentale, Gemini 2.0 Pro, est également disponible, optimisée pour la performance de codage et les requêtes complexes.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 9, 2025 • 3min
L'IA aujourd'hui épisode du 2025-02-09
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'accessibilité de ChatGPT, la prolifération des sites d'information générés par IA, les avancées des modèles de raisonnement, et les nouvelles régulations de l'IA en Europe. C’est parti !Commençons par OpenAI, qui a récemment annoncé que son moteur de recherche intégré à ChatGPT est désormais accessible sans connexion. Cette mise à jour rend l'outil plus compétitif face à Google et Bing, en permettant aux utilisateurs d'accéder aux fonctionnalités de recherche sans créer de compte. ChatGPT présente ses réponses avec des sources vérifiables, offrant une transparence accrue. L'outil adopte aussi une interface plus traditionnelle, avec des cartes et images des attractions locales, enrichissant l'expérience utilisateur.Passons maintenant à la prolifération des sites d'information générés par IA. Next a identifié plus de 1 000 sites francophones prétendant être rédigés par des journalistes, alors qu'ils sont en réalité produits par des IA. Ces sites, souvent basés sur le plagiat, sont soutenus par la publicité programmatique, ce qui pose un problème de crédibilité et de pollution numérique. NewsGuard a répertorié 1 150 sites non fiables générés par IA, une augmentation significative depuis mai 2023. Ce phénomène, alimenté par des professionnels du SEO, menace les revenus des médias traditionnels.En 2024, le domaine des grands modèles de langage (LLM) se spécialise davantage, notamment dans le développement de modèles de raisonnement. Ces modèles, conçus pour des tâches complexes, utilisent des approches comme le scaling à l'inférence et l'apprentissage par renforcement. DeepSeek R1, par exemple, a introduit des variantes comme DeepSeek-R1-Zero, formé uniquement par apprentissage par renforcement. Ces avancées visent à améliorer les performances des LLM dans des tâches nécessitant des étapes intermédiaires.L'Union européenne a mis en application son Acte sur l'Intelligence Artificielle, imposant plus de transparence aux entreprises. Cette législation interdit les applications d'IA à haut risque, comme les bases de données de reconnaissance faciale. Les entreprises non conformes risquent des amendes ou des interdictions d'opérer dans l'UE. Malgré les critiques de Donald Trump, Bruxelles cherche à se positionner comme un leader de l'IA de confiance.Enfin, Google a lancé la version 2.0 de son assistant AI, Gemini, avec des modèles mis à jour pour un plus grand nombre d'utilisateurs. Gemini 2.0 Flash et Flash-Lite offrent des options pour les développeurs, tandis que Gemini 2.0 Pro se concentre sur le codage et les requêtes complexes. Bien que Gemini présente certaines lacunes par rapport à ChatGPT, son intégration dans l'écosystème Google en fait un outil pratique pour de nombreux utilisateurs.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 8, 2025 • 4min
L'IA aujourd'hui épisode du 2025-02-08
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'accessibilité de ChatGPT, la prolifération des sites d'information générés par IA, les avancées dans les modèles de raisonnement, et bien plus encore. C’est parti !Commençons par OpenAI, qui a récemment annoncé que son moteur de recherche intégré à ChatGPT est désormais accessible sans connexion. Cette décision rend l'outil plus accessible au grand public, permettant à tous d'explorer les fonctionnalités de recherche de l'IA sans créer de compte. Initialement réservé aux abonnés payants, ce service a été étendu à tous en décembre. Avec cette mise à jour, ChatGPT se positionne comme un concurrent direct de Google et Bing, offrant une interface de recherche enrichie de cartes et d'images locales.Passons maintenant à la prolifération des sites d'information générés par IA. Next a identifié plus de 1 000 sites francophones prétendant être rédigés par des journalistes, alors qu'ils sont en réalité produits par des IA. Ces sites, souvent basés sur le plagiat, sont référencés sur Wikipédia et Google Actualités, malgré leur contenu douteux. NewsGuard a répertorié 1 150 sites non fiables générés par IA, une augmentation significative par rapport aux 49 identifiés en mai 2023. Ce phénomène soulève des questions éthiques et financières, car ces sites attirent des revenus publicitaires au détriment des rédactions traditionnelles.En parallèle, le développement des modèles de raisonnement dans le domaine des LLM se spécialise. Ces modèles, comme DeepSeek-R1, sont conçus pour exceller dans des tâches complexes nécessitant des étapes intermédiaires, telles que les puzzles et les mathématiques avancées. Quatre approches principales sont utilisées pour améliorer ces modèles : la mise à l'échelle au moment de l'inférence, l'apprentissage par renforcement pur, le réglage fin supervisé combiné à l'apprentissage par renforcement, et la distillation. Ces techniques visent à optimiser les performances tout en tenant compte des coûts et des ressources.Dans le domaine de la santé, l'intégration des LLM transforme les systèmes de soutien à la décision clinique. Ces modèles permettent des diagnostics plus rapides et précis, en analysant de vastes ensembles de données médicales. Ils s'intègrent aux dossiers de santé électroniques pour offrir des soins personnalisés et basés sur les données. Cependant, cette intégration nécessite des cadres éthiques robustes et des mesures de sécurité des données pour garantir la confidentialité et l'équité.Enfin, Microsoft a publié un rapport sur les défis de la sécurité des produits d'IA générative. Le "Red Teaming" est utilisé pour identifier les vulnérabilités des systèmes d'IA face aux menaces potentielles. Le rapport souligne l'importance de renforcer les systèmes contre des catégories entières d'attaques plutôt que de corriger chaque faille individuellement. La sécurité doit être un processus continu, nécessitant une vigilance constante face à l'évolution des menaces.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 7, 2025 • 3min
L'IA aujourd'hui épisode du 2025-02-07
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les défis des bibliothèques face aux livres générés par IA, les avancées de Mozilla pour détecter les deepfakes, les vulnérabilités des modèles de langage, et les évolutions des modèles d'IA. C’est parti !Les bibliothèques publiques sont confrontées à un afflux de livres numériques de faible qualité, souvent générés par intelligence artificielle. Ces ouvrages, disponibles via des plateformes comme Hoopla, posent un défi aux bibliothécaires qui doivent trier ces contenus pour garantir la qualité des informations proposées aux usagers. Hoopla, avec son catalogue imposant, inclut de nombreux livres générés par IA, souvent mal formatés et écrits par des auteurs sans empreinte numérique. Les bibliothécaires demandent plus de contrôle sur ces contenus pour assurer la transparence et la qualité des informations.Passons maintenant à Mozilla, qui a lancé une extension pour Firefox, le Deep Fake Detector. Cet outil gratuit vise à identifier les contenus générés par IA sur le web, une réponse à l'augmentation des deepfakes. En analysant le texte, l'extension aide à distinguer les contenus authentiques des créations artificielles. Bien que perfectible, cet outil marque une avancée dans la lutte contre les contenus trompeurs en ligne.En parlant de sécurité, les modèles de langage de grande taille sont vulnérables aux attaques par injection de prompt et vol de prompt. Ces techniques permettent à des acteurs malveillants d'accéder à des informations sensibles ou de manipuler le comportement des modèles. Pour se défendre, des détecteurs de prompts adverses et le réglage fin des modèles sont proposés, bien que ces solutions ne soient pas infaillibles.Dans le domaine des modèles d'IA, les récents lancements de Google, OpenAI et DeepSeek montrent un rythme d'innovation soutenu. Les modèles améliorés par le raisonnement et l'intégration d'outils externes sont au cœur des développements. Ces modèles, capables de gérer des tâches complexes, s'orientent vers une interaction multimodale, incluant la génération d'images et de vidéos. Les entreprises cherchent à optimiser la taille des modèles et les coûts de calcul, tout en améliorant l'efficacité et l'accessibilité.Enfin, Google a récemment modifié sa politique sur l'utilisation de l'IA à des fins militaires. En supprimant les restrictions sur les applications militaires et de surveillance, Google s'inscrit dans un contexte où l'IA joue un rôle croissant dans les opérations militaires. Cette décision soulève des préoccupations quant aux biais potentiels et aux erreurs des systèmes d'IA dans des contextes critiques.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.


