

L'IA aujourd'hui !
Michel Levy Provençal
L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.En savoir plus sur Michel Levy ProvençalÉlargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Episodes
Mentioned books

Feb 6, 2025 • 3min
L'IA aujourd'hui épisode du 2025-02-06
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : avancées technologiques d'OpenAI, opportunités de carrière en IA/ML, transformation de l'industrie juridique par l'IA, et innovations matérielles. C’est parti !Commençons par OpenAI, qui a récemment lancé deux nouveaux produits : o3-mini et Deep Research. Le modèle o3-mini, successeur de o1-mini, améliore la rapidité et la précision des tâches STEM dans ChatGPT et l'API. Il propose des fonctionnalités comme l'appel de fonctions et des sorties structurées, avec des réglages d'effort de raisonnement adaptatifs. Lors de la compétition mathématique AIME, il a atteint une précision de 87,3 % avec un effort élevé. En plus de ses performances, il est 63 % moins cher que o1-mini. Deep Research, quant à lui, est un agent conçu pour des analyses multi-étapes, disponible pour les utilisateurs Pro avec une allocation de 100 tâches par mois. Ces innovations réduisent le coût des modèles de raisonnement et étendent les capacités de recherche.Passons maintenant aux opportunités de carrière en IA/ML. Les rôles se divisent en trois catégories : ingénieur ML, data scientist et scientifique appliqué. Le processus d'entretien pour ces postes inclut une revue de CV, des appels avec des recruteurs, des écrans techniques, des défis à domicile, et une boucle d'entretien complète. La préparation est cruciale, notamment pour les entretiens de conception de systèmes ML. Les startups recherchent des solutions ML de bout en bout, tandis que les grandes entreprises valorisent l'échelle et la profondeur des connaissances.En parallèle, l'IA transforme l'industrie juridique. La convergence des services juridiques et de la technologie, ou "lawtech", automatise les tâches routinières, permettant aux professionnels du droit de se concentrer sur des défis plus complexes. Les grands modèles de langage, comme ChatGPT, génèrent des textes juridiques et deviennent courants dans les applications destinées aux clients. En 2025, la lawtech améliorera l'accès à la justice grâce à des portails en libre-service et des conseils juridiques automatisés. L'IA aidera aussi à prédire l'issue des procès, rendant les conseils juridiques plus basés sur les données.Enfin, OpenAI collabore avec Jony Ive sur un appareil AI innovant. Sam Altman a confirmé que cet appareil, qui pourrait ne pas ressembler à un téléphone, utilisera la voix comme interface principale. OpenAI développe également son propre silicium pour ces appareils. Bien que le prototype prenne plusieurs années à être finalisé, cette collaboration promet de redéfinir notre interaction avec les technologies AI.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 5, 2025 • 4min
L'IA aujourd'hui épisode du 2025-02-05
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : prototypage avec l'IA, descriptions d'images par IA, avancées des LLMs, chatbots populaires, et l'AGI en 2025. C’est parti !Commençons par le prototypage avec l'intelligence artificielle, un outil devenu incontournable pour les chefs de produit. Des outils comme Lovable, Databutton et Bolt permettent de créer rapidement des prototypes interactifs. Lovable facilite la création d'applications full-stack sans codage, bien qu'il puisse modifier des fichiers de manière inattendue. Databutton s'intègre bien avec Firestore, mais a des limites pour les projets plus grands. Bolt, quant à lui, se concentre sur le front-end avec un support pour divers langages de programmation. Ces outils permettent de tester des hypothèses de marché et d'usabilité de manière rapide et économique, tout en intégrant des données réelles pour des tests plus fiables.Passons maintenant à Dries Buytaert, qui a exploré l'utilisation de l'IA pour générer des descriptions d'images et des textes alternatifs pour les photos de son site web. Avec environ 10 000 photos, dont 9 000 sans alt-text, il a testé 12 modèles de langage pour automatiser ce processus. Les modèles basés sur le cloud, comme GPT-4, ont offert les meilleures performances, mais Dries privilégie les modèles locaux pour des raisons de confidentialité. Parmi ceux-ci, Llama et MiniCPM-V se sont distingués. Dries se demande si un alt-text de niveau "B" est préférable à l'absence totale de description, pesant les avantages de la confidentialité contre l'accessibilité.En parlant de modèles de langage, les LLMs transforment notre compréhension du langage humain et de l'intelligence. Ils offrent de nouvelles perspectives en linguistique, neurosciences et sciences cognitives. Ces modèles dépassent notre capacité à les comprendre scientifiquement, soulignant la nécessité d'une collaboration interdisciplinaire pour explorer leurs implications.Abordons maintenant les chatbots IA populaires en 2025. ChatGPT, développé par OpenAI, est apprécié pour le débogage et l'écriture de code. Gemini, de Google AI, aide à la planification et à l'apprentissage. Perplexity se positionne comme une alternative aux moteurs de recherche traditionnels. Microsoft Copilot, intégré à Office, génère des images et du texte. Jasper, quant à lui, est prisé pour la création de contenu marketing. Chaque chatbot a ses forces et ses limites, et le choix dépend des besoins spécifiques des utilisateurs.Enfin, l'AGI, ou intelligence artificielle générale, est en développement par des entreprises comme OpenAI et Anthropic. L'AGI pourrait transformer le monde du travail en rendant les employés existants beaucoup plus productifs. Dans le secteur de la santé, l'AGI pourrait remplacer les médecins dans la médecine diagnostique. Avec la baisse des coûts des GPU, le développement de l'AGI devient de plus en plus accessible, soulignant l'importance de prendre des décisions éclairées dès maintenant.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 4, 2025 • 3min
L'IA aujourd'hui épisode du 2025-02-04
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : DeepSeek défie OpenAI, le technocolonialisme des données, et les innovations d'OpenAI Canvas. C’est parti !Commençons par l'actualité qui secoue le monde de l'intelligence artificielle : DeepSeek, une entreprise chinoise, a surpris les géants du secteur avec son modèle open source R1. Ce modèle, développé avec une fraction de la puissance de calcul utilisée par OpenAI, offre des performances comparables aux meilleurs modèles payants. OpenAI, qui ne prévoit pas de bénéfices avant la fin de la décennie, accuse DeepSeek d'avoir utilisé ses résultats pour entraîner R1, une pratique appelée "distillation". Cette situation a ébranlé les investisseurs et pourrait bouleverser les plans de l'industrie américaine de l'IA, qui repose sur l'idée que plus de données et de puissance de calcul sont nécessaires pour progresser vers l'intelligence artificielle générale.Passons maintenant à une réflexion sur le technocolonialisme, un concept exploré par Hubert Guillaud. Ce terme décrit comment les grandes entreprises technologiques s'approprient nos données à l'échelle mondiale, prolongeant un héritage de dépossession similaire au colonialisme historique. Les Big Tech, sous couvert de progrès, renforcent les inégalités par une collecte massive de données. Cette dynamique est comparée à l'époque coloniale, où la mission civilisatrice justifiait la domination. Aujourd'hui, la surveillance et l'exploitation des travailleurs du clic sont des outils modernes de contrôle. Les auteurs appellent à une résistance inspirée des luttes anticoloniales pour réinventer notre rapport aux technologies.En parallèle, OpenAI innove avec Canvas, une interface qui permet d'écrire et de coder en collaboration avec ChatGPT. Ce nouvel outil facilite le brainstorming et l'itération sur le texte et le code, rendant le processus plus naturel et efficace. Le cours "Collaborative Writing and Coding with OpenAI Canvas", dirigé par Karina Nguyen, enseigne comment maximiser l'utilisation de cette interface. Canvas propose des suggestions d'amélioration, aide au débogage et permet une collaboration fluide entre l'utilisateur et l'IA.Enfin, revenons sur les préoccupations soulevées par les intelligences artificielles génératives. Une enseignante-chercheuse met en garde contre les dangers des grands modèles de langage, soulignant les impacts environnementaux et les implications politiques. Les infrastructures nécessaires consomment énormément de ressources, exacerbant les conflits d'accès locaux. De plus, la concentration des acteurs et des ressources soulève des inquiétudes quant à l'influence disproportionnée de quelques grandes entreprises. Les promesses de ces technologies détournent l'attention des problèmes actuels, et l'idée d'alternatives éthiques est discutée.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 3, 2025 • 4min
L'IA aujourd'hui épisode du 2025-02-03
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact des modèles de langage sur les organisations, les avancées de ChatGPT en mathématiques, les nouvelles directives sur le droit d'auteur pour les œuvres générées par l'IA, et bien plus encore. C’est parti !Commençons par l'analyse de l'IA générative par le politologue Henry Farrell. Selon lui, l'IA générative, notamment les grands modèles de langage, ne constitue pas une rupture mais une continuité technologique. Ces outils sont conçus pour fluidifier les organisations en renforçant la cohérence. Farrell identifie quatre grandes catégories d'utilisation : les micro-tâches, les cartes de connaissances, les moulins à prière, et la traduction. Ces applications permettent de gérer la complexité organisationnelle, remplaçant une grande partie de la pseudo-littérature produite par les entreprises.Passons maintenant à OpenAI, qui a récemment annoncé une nouvelle version de ChatGPT, le modèle "o1". Ce modèle a considérablement amélioré ses performances en mathématiques, passant de 13 % à 83 % à l'examen de qualification pour l'Olympiade Mathématique Internationale. Cette avancée est due à une technique appelée "raisonnement en chaîne", permettant à l'IA de décomposer les problèmes et de tester ses propres réponses. Cependant, il est crucial que le public continue de vérifier les faits, car des erreurs peuvent encore survenir.En ce qui concerne le droit d'auteur, l'Office américain a clarifié sa position : les œuvres générées uniquement par l'IA ne sont pas éligibles à la protection. Cependant, les créations humaines intégrant des éléments d'IA peuvent être protégées. L'Office souligne l'importance du contrôle humain dans le processus créatif, comparant cela à la méthode de peinture de Jackson Pollock. Cette clarification vise à combler les lacunes juridiques liées à l'IA.Jetons un œil sur Mistral Small 3, le dernier modèle du laboratoire français Mistral. Avec 24 milliards de paramètres, il est optimisé pour la latence et distribué sous licence Apache 2.0, permettant une utilisation commerciale libre. Mistral Small 3 se positionne comme une alternative rapide et efficace aux modèles plus volumineux, offrant une performance comparable tout en étant trois fois plus rapide.Experian, leader en détection de fraude, utilise l'IA pour différencier les clients légitimes des bots. Grâce aux analyses comportementales de NeuroID, Experian identifie les écarts par rapport au comportement humain typique, renforçant ainsi la protection de la vie privée. Les modèles de détection de fraude sont continuellement mis à jour pour s'adapter aux nouvelles techniques de fraude, équilibrant détection et minimisation des faux positifs.Enfin, parlons de Tülu 3 405B, une application de post-formation pour les modèles à poids ouverts. Avec 405 milliards de paramètres, Tülu 3 405B atteint des performances compétitives, surpassant des modèles de même taille sur de nombreux benchmarks. L'utilisation de l'apprentissage par renforcement avec récompenses vérifiables améliore significativement les performances en mathématiques, démontrant la scalabilité et l'efficacité de cette approche.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 2, 2025 • 3min
L'IA aujourd'hui épisode du 2025-02-02
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact des modèles de langage sur les organisations, les avancées de ChatGPT, les droits d'auteur pour les œuvres générées par l'IA, et bien plus encore. C’est parti !Commençons par l'analyse de l'IA générative par le politologue Henry Farrell. Selon lui, cette technologie ne constitue pas une rupture mais une continuité dans l'évolution technologique. Les grands modèles de langage, ou LLM, sont utilisés pour accomplir des micro-tâches, créer des cartes de connaissances, et automatiser des rituels organisationnels. Farrell identifie quatre grandes catégories d'utilisation : micro-tâches, cartes de connaissances, moulins à prière, et traduction. Ces outils permettent de gérer la complexité au sein des grandes organisations, améliorant ainsi la coordination des activités.Passons maintenant à OpenAI, qui a récemment annoncé un nouveau modèle de ChatGPT, nommé "o1". Ce modèle est nettement meilleur en mathématiques et en sciences que ses prédécesseurs. Un modèle antérieur n'avait obtenu que 13 % à l'examen de qualification pour l'Olympiade Mathématique Internationale, tandis que le nouveau modèle a porté ce score à 83 %. Cette amélioration est due à un processus appelé "calcul en temps de test", permettant au modèle de réfléchir à un problème de manière plus transparente.En ce qui concerne les droits d'auteur, l'Office américain a clarifié sa position sur les œuvres générées par l'IA. Les créations issues uniquement de l'IA ne sont pas éligibles à la protection par le droit d'auteur. Cependant, les œuvres créées par des humains intégrant des éléments générés par l'IA peuvent être protégées. L'Office souligne l'importance du contrôle humain dans le processus créatif, comparant cela à la méthode de peinture de Jackson Pollock.Jetons un œil à Mistral Small 3, le premier modèle de 2025 du laboratoire français Mistral. Ce modèle, optimisé pour réduire la latence, comporte 24 milliards de paramètres et est distribué sous la licence Apache 2.0. Il se positionne comme un concurrent sérieux face à des modèles plus volumineux, tout en étant plus rapide et efficace.Experian, leader dans la détection de fraude, utilise l'IA pour différencier les véritables clients des bots. Grâce aux analyses comportementales de NeuroID, Experian repère les écarts par rapport au comportement humain typique, aidant ainsi à identifier les risques sans recourir à des informations personnelles identifiables.Enfin, parlons de Tülu 3 405B, une avancée majeure dans les modèles de langage à grande échelle. Ce modèle utilise l'apprentissage par renforcement avec récompenses vérifiables, surpassant les performances de modèles tels que DeepSeek V3 et GPT-4o. Tülu 3 405B est disponible sur Google Cloud, permettant aux chercheurs de l'explorer davantage.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Feb 1, 2025 • 6min
L'IA aujourd'hui épisode du 2025-02-01
Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'évolution de l'IA générative dans les organisations, les avancées mathématiques de ChatGPT, les précisions sur le droit d'auteur pour les œuvres générées par l'IA, le nouveau modèle Mistral Small 3, les innovations d'Experian en matière de sécurité numérique, l'intégration des feuilles de calcul dans l'ère de l'IA, et les progrès des modèles de langage ouverts.Commençons avec le politologue Henry Farrell, qui estime que l'intelligence artificielle générative n'est pas une rupture, mais une continuité technologique. Selon lui, l'IA générative, notamment les grands modèles de langage ou LLM, fluidifie les organisations en renforçant la cohérence. Elle ne remplace pas l'analyse, mais aide à gérer la complexité en accomplissant des micro-tâches, en créant des cartes de connaissances, en automatisant des tâches routinières et en facilitant la traduction, au sens large du terme. Ainsi, l'IA générative pourrait remplacer une partie de la pseudo-littérature organisationnelle et améliorer la coordination des activités.Passons maintenant à OpenAI, qui a annoncé une nouvelle version de son modèle ChatGPT, nommée "o1". Ce modèle présente des améliorations notables en mathématiques et en raisonnement. Alors que les versions précédentes peinaient avec le raisonnement logique, "o1" a réussi à obtenir un score de 83% à l'examen de qualification pour l'Olympiade Mathématique Internationale, un concours prestigieux pour les lycéens. Niloofar Mireshghallah, chercheuse à l'Université de Washington, explique que cette avancée est due à la capacité du modèle à effectuer un "raisonnement en chaîne", similaire à une démonstration étape par étape en mathématiques. Cela permet au modèle de tester et corriger ses propres réponses, rendant le raisonnement plus transparent.En ce qui concerne le droit d'auteur, l'Office américain a clarifié sa position sur les œuvres générées par l'IA. Les créations issues uniquement de l'IA, basées sur des instructions textuelles, ne sont pas protégées par le droit d'auteur. Même si un utilisateur fournit des instructions détaillées, le résultat est considéré comme une interprétation de l'IA. Cependant, si un humain intègre des éléments générés par l'IA dans une œuvre, celle-ci peut être protégée dans son ensemble. L'Office insiste sur l'importance du contrôle humain dans le processus créatif pour déterminer l'éligibilité à la protection.Du côté des modèles open-source, le laboratoire français Mistral a lancé Mistral Small 3, un modèle optimisé pour la latence avec 24 milliards de paramètres, distribué sous licence Apache 2.0. Cette licence permet une utilisation commerciale sans contraintes supplémentaires. Mistral Small 3 se positionne comme un concurrent sérieux face à des modèles plus volumineux, offrant des performances comparables au Llama 3.3 70B tout en étant plus de trois fois plus rapide. Disponible en téléchargement pour un déploiement local, il offre un bon compromis entre performance et utilisation des ressources.En matière de sécurité numérique, Experian innove avec des solutions d'IA pour améliorer la vérification d'identité et la détection de fraude. En utilisant les analyses comportementales de NeuroID, Experian examine les habitudes de frappe, les mouvements de la souris et d'autres interactions pour différencier les vrais utilisateurs des bots. Sans recourir aux informations personnelles identifiables, cette approche renforce la confidentialité tout en s'adaptant continuellement aux nouvelles techniques de fraude. L'objectif est de détecter efficacement les bots tout en minimisant les perturbations pour les utilisateurs légitimes.Abordons maintenant l'intégration des feuilles de calcul dans l'ère de l'IA. Hjalmar Gislason, fondateur et PDG de Grid, travaille sur l'adaptation des feuilles de calcul traditionnelles aux technologies d'IA. L'idée est de rendre ces outils accessibles via des interfaces en langage naturel, des services web et des appels de fonctions. En utilisant des graphiques de dépendance et des métadonnées, les feuilles de calcul peuvent être enrichies, permettant des analyses plus avancées et une interaction utilisateur améliorée. L'utilisation de modèles de langage de grande taille ouvre également de nouvelles possibilités pour automatiser et optimiser les processus métier.Enfin, parlons des progrès des modèles de langage ouverts avec le lancement de Tülu 3 405B. Avec 405 milliards de paramètres, ce modèle surpasse les performances de modèles comme DeepSeek V3 et GPT-4o dans de nombreux benchmarks. Tülu 3 405B utilise l'apprentissage par renforcement avec récompenses vérifiables, ce qui lui permet d'exceller dans des tâches comme la résolution de problèmes mathématiques. Malgré les défis techniques liés à son échelle, l'équipe a réussi à optimiser le processus d'entraînement, rendant ce modèle accessible à la communauté. Le code et le modèle sont disponibles en ligne, encouragent les utilisateurs à explorer ses capacités.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Jan 31, 2025 • 7min
L'IA aujourd'hui épisode du 2025-01-31
Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI enquête sur DeepSeek, le réglage fin des grands modèles de langage devient plus accessible, le lancement de ChatGPT Gov pour les agences gouvernementales, les avancées de DeepSeek Janus-Pro face à DALL-E 3, et les outils pour travailler avec des modèles de langage sur Mac. C’est parti !OpenAI soupçonne que ses modèles d'IA ont été utilisés pour former ceux de DeepSeek, une entreprise chinoise d'intelligence artificielle. DeepSeek a récemment perturbé la Silicon Valley en lançant des modèles d'IA à moindre coût, concurrençant directement les offres phares d'OpenAI. OpenAI et Microsoft enquêtent sur une possible utilisation abusive de l'API d'OpenAI par DeepSeek, suspectant que l'entreprise ait intégré les modèles d'OpenAI dans les siens. Des chercheurs en sécurité de Microsoft ont détecté une exfiltration massive de données via des comptes développeurs d'OpenAI liés à DeepSeek. De plus, OpenAI a découvert que DeepSeek a utilisé la distillation, une technique permettant de former des modèles plus petits en extrayant des données de modèles plus grands et performants. Cette pratique, bien que courante, constitue ici une violation des conditions d'utilisation d'OpenAI, car elle sert à créer des modèles concurrents. Ironiquement, OpenAI a elle-même utilisé une grande partie du web sans consentement pour entraîner ses modèles. Face à cette situation, OpenAI engage des contre-mesures et collabore étroitement avec le gouvernement américain pour protéger sa propriété intellectuelle et empêcher les adversaires de s'approprier la technologie américaine.Passons maintenant au réglage fin des grands modèles de langage, qui devient plus accessible grâce à des outils low-code ou no-code. Ces outils permettent de télécharger vos données, de sélectionner un modèle de base et d'obtenir un modèle ajusté sans avoir à coder intensivement. Les LLM fonctionnent en deux étapes principales : l'entraînement préalable et le réglage fin. Lors de l'entraînement préalable, le modèle est exposé à d'énormes ensembles de données textuelles pour apprendre les structures du langage. Cependant, ces modèles restent généralistes. Le réglage fin intervient pour spécialiser le modèle sur une tâche précise en ajustant ses paramètres sur un jeu de données spécifique. Traditionnellement coûteux en calcul, le réglage fin est désormais optimisé grâce à des techniques comme LoRA et QLoRA. LoRA, par exemple, réduit le nombre de paramètres entraînables par 10 000 fois et la mémoire GPU requise par trois, tout en maintenant des performances élevées. Des outils comme Axolotl simplifient encore le processus, offrant des configurations prédéfinies et nécessitant un minimum de codage. Ainsi, il est possible de régler efficacement un LLM pour répondre aux besoins spécifiques de votre application, même avec des ressources limitées.Au chapitre des nouveautés, OpenAI a lancé ChatGPT Gov, une version spécialisée de ChatGPT destinée aux agences gouvernementales. Ces agences peuvent déployer ChatGPT Gov dans leur cloud Microsoft Azure commercial ou gouvernemental, offrant un meilleur contrôle sur la sécurité, la confidentialité et la conformité réglementaire. Aligné sur des normes strictes comme FedRAMP High, ChatGPT Gov propose des fonctionnalités similaires à ChatGPT Enterprise, telles que la sauvegarde et le partage de conversations dans un espace de travail sécurisé, le téléchargement de fichiers texte et image, et l'utilisation de GPT-4. Les employés peuvent également créer et distribuer des GPT personnalisés au sein de leur espace de travail. Plus de 90 000 utilisateurs dans plus de 3 500 agences gouvernementales aux États-Unis ont déjà échangé plus de 18 millions de messages sur ChatGPT pour améliorer leurs opérations quotidiennes. Par exemple, le laboratoire de recherche de l'Air Force l'utilise pour des tâches administratives et d'éducation à l'IA, tandis que le laboratoire national de Los Alamos facilite la recherche scientifique et l'innovation grâce à cet outil. Au niveau local, le bureau des traductions du Minnesota a amélioré ses services pour les communautés multilingues, obtenant des traductions plus rapides et précises, tout en réduisant les coûts. De même, la Pennsylvanie constate une réduction significative du temps consacré aux tâches routinières.En parlant de DeepSeek, leur modèle Janus-Pro est présenté comme un générateur d'images d'IA open source capable de surpasser DALL-E 3 d'OpenAI, tout en étant proposé à une fraction du prix. Sam Altman, figure influente de l'IA, a salué cette avancée et annoncé l'arrivée imminente de l'intelligence artificielle générale. Le modèle R1 de DeepSeek, sous licence MIT, offre des performances élevées à coût réduit, ce qui intensifie la concurrence dans le domaine. Nvidia, leader des technologies d'IA, ne voit cependant pas DeepSeek comme une menace immédiate. Cela intervient dans un contexte de restrictions d'exportation limitant la capacité de Nvidia à fournir ses puces à certains pays, afin d'empêcher le développement de supercalculateurs à des fins militaires.Enfin, Jeff Triplett partage ses expériences pour travailler avec des modèles de langage sur Mac. Il utilise principalement Ollama, un serveur capable de télécharger et d'exécuter des centaines de modèles d'IA, et son client graphique Ollamac, qui facilite la rédaction d'invites et la gestion de l'historique. Grâce à Tailscale, il accède à ses appareils Mac à distance, ce qui lui permet de prototyper à domicile tout en exécutant des modèles plus grands depuis son bureau. Jeff souligne que faire tourner des modèles localement est possible, mais le matériel grand public est souvent limité par la RAM et le GPU. Par exemple, un modèle de 8 milliards de paramètres nécessite environ 8 Go de RAM. Il recommande de consulter régulièrement la page des modèles d'Ollama et la chaîne YouTube de Matt Williams pour rester informé des évolutions. Pour gérer les bibliothèques Python, il utilise Pydantic AI, qu'il trouve plus efficace que d'autres options comme LangChain.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Jan 30, 2025 • 5min
L'IA aujourd'hui épisode du 2025-01-30
Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : Des avancées majeures avec Qwen2.5-Max et DeepSeek, les défis du lancement de LUCIE et l'impact potentiel de l'IA sur le revenu de base universel. C’est parti !Commençons avec la présentation de Qwen2.5-Max. Ce nouveau modèle d'intelligence artificielle à mélange d'experts (MoE) a été pré-entraîné sur plus de 20 trillions de tokens et post-entraîné grâce au Supervised Fine-Tuning et au Reinforcement Learning from Human Feedback. Disponible via Alibaba Cloud, Qwen2.5-Max surpasse DeepSeek V3 dans plusieurs benchmarks tels que Arena-Hard, LiveBench et LiveCodeBench, tout en offrant des performances compétitives sur MMLU-Pro. Les utilisateurs peuvent désormais interagir avec Qwen2.5-Max sur Qwen Chat ou intégrer son API, compatible avec celle d'OpenAI, dans leurs applications.Passons maintenant à DeepSeek, qui fait sensation dans le monde de l'intelligence artificielle. Cette startup chinoise a réussi à entraîner ses modèles d'IA à un coût réduit à seulement 1/30e du coût habituel, défiant ainsi les géants du secteur. Leur application est rapidement devenue virale, surpassant même ChatGPT dans les classements des magasins d'applications. DeepSeek a atteint cet exploit en optimisant le matériel existant plutôt qu'en s'appuyant sur des puces sophistiquées. Ils ont entraîné uniquement les parties essentielles de leurs modèles, réduisant le gaspillage de ressources. De plus, ils ont utilisé une technique innovante de compression pour réduire les coûts d'inférence et ont mis l'accent sur l'apprentissage par renforcement pour améliorer l'efficacité.Cette réussite a eu un impact significatif sur le marché américain. DeepSeek est devenue l'application la plus populaire sur l'App Store d'Apple aux États-Unis, dépassant les modèles d'OpenAI. Cette avancée a provoqué une chute de plus de 12 % des actions de Nvidia, soulevant des questions sur la domination potentielle des entreprises américaines comme OpenAI et Nvidia dans l'industrie de l'IA. Malgré les restrictions américaines sur l'exportation de puces avancées vers la Chine, DeepSeek a réussi à développer des modèles performants, remettant en question l'idée que la puissance matérielle est le principal moteur de l'innovation en IA.Cependant, tout ne se passe pas sans embûches dans le domaine de l'IA. Le lancement de LUCIE, un modèle de langage open source français, en est un exemple. Dévoilé le 22 janvier 2025 lors du Paris Open Source AI Summit, LUCIE est le fruit d'une collaboration entre Linagora et le consortium OpenLLM France. Malgré un entraînement sur un corpus de 3 000 milliards de tokens et une architecture ambitieuse inspirée de Llama 3.1, le lancement a été entaché de problèmes techniques et des résultats décevants. Les utilisateurs ont rencontré des temps d'attente prolongés et des erreurs flagrantes dans les réponses fournies par LUCIE. Cette situation souligne l'importance d'une communication transparente et d'une phase de test maîtrisée lors du déploiement de nouveaux modèles d'IA.Sur un autre plan, l'essor de l'intelligence artificielle relance le débat sur le revenu de base universel. L'idée que l'IA pourrait automatiser de nombreuses tâches humaines soulève des questions sur l'avenir du travail. Si l'IA venait à remplacer une grande partie des emplois actuels, le RBU pourrait devenir une nécessité pour couvrir les besoins de base de la population. L'IA pourrait même contribuer à financer ce RBU en générant une valeur économique supplémentaire grâce à l'automatisation et à l'efficacité. Cependant, cette vision s'accompagne de défis technologiques, comme la résolution des problèmes d'"hallucination" de l'IA, et sociopolitiques, tels que l'acceptation publique d'un tel système.Enfin, DeepSeek continue de bousculer l'industrie de l'IA en dévoilant des modèles toujours plus performants. Leur modèle phare, le R1, est réputé rivaliser avec l'équivalent o1 d'OpenAI. De plus, leur modèle multimodal Janus Pro surpasserait des solutions établies comme Stable Diffusion et DALL-E 3. Ces modèles sont désormais disponibles sur des plateformes telles qu'Azure AI Foundry de Microsoft et GitHub, permettant une adoption plus large. Cependant, des enquêtes sont en cours pour déterminer si DeepSeek a utilisé des ressources d'OpenAI dans le développement de ses modèles, ce qui pourrait entraîner des implications légales.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Jan 29, 2025 • 6min
L'IA aujourd'hui épisode du 2025-01-29
Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : les agents intelligents qui révolutionnent nos interactions en ligne, l’importance des données en temps réel pour les chatbots, et comment LLaMA de Meta démocratise la création de modèles de langage avancés. C’est parti !Les agents d'intelligence artificielle sont en train de transformer notre quotidien numérique. Contrairement aux applications traditionnelles qui suivent des instructions rigides, ces agents utilisent l'apprentissage automatique pour apprendre et s'adapter à de nouvelles situations. Imaginez un assistant capable de planifier vos vacances en fonction de vos préférences, de réserver un restaurant qui correspond à vos goûts culinaires, ou même de gérer vos achats en ligne en anticipant vos besoins.Ces agents intelligents s'appuient sur le traitement du langage naturel, une branche de l'IA qui permet aux machines de comprendre et de répondre au langage humain de manière fluide. Cela signifie que vous pouvez interagir avec eux comme vous le feriez avec une personne, sans avoir à utiliser des commandes spécifiques ou un jargon technique. L'expérience utilisateur en est grandement améliorée, rendant la technologie plus accessible à tous.Dans le contexte actuel, où la simplification de la vie quotidienne est recherchée, ces agents IA pourraient bien être la prochaine grande avancée technologique. Ils ont le potentiel de rendre les services en ligne plus personnalisés, en s'adaptant continuellement aux préférences et aux habitudes de chaque utilisateur. C'est une étape importante vers une technologie qui non seulement répond à nos besoins, mais anticipe et facilite nos interactions.Passons maintenant aux chatbots et à l'importance des données en temps réel. Les chatbots d'IA sont devenus incontournables pour l'engagement client, la récupération d'informations et l'automatisation des tâches. Cependant, leur efficacité dépend fortement de la qualité et de l'actualité des données qu'ils utilisent. Beaucoup de chatbots s'appuient sur des bases de connaissances statiques, ce qui peut limiter leur capacité à fournir des réponses précises dans des domaines en constante évolution.L'intégration de données structurées en temps réel offre plusieurs avantages majeurs. Premièrement, elle permet aux chatbots de fournir des réponses qui reflètent les informations les plus récentes, ce qui est crucial dans des domaines tels que les actualités, les mises à jour de produits ou les découvertes scientifiques. Deuxièmement, cela améliore l'engagement des utilisateurs. Des interactions dynamiques et contextuelles rendent les conversations plus pertinentes et significatives, renforçant la satisfaction et la confiance des utilisateurs.Des entreprises comme Bright Data proposent des jeux de données spécialement conçus pour alimenter les projets d'IA et les modèles de langage à grande échelle. Leur jeu de données pour l'IA offre plus de 5 milliards d'enregistrements, provenant de plus de 100 sources fiables, tous structurés, nettoyés et actualisés mensuellement. Cela garantit que les chatbots disposent d'une base de connaissances à jour et de haute qualité.Pour intégrer un tel jeu de données dans votre chatbot, plusieurs étapes sont nécessaires. D'abord, disposer des outils adéquats, comme une clé API et un environnement de développement adapté, par exemple en Python. Ensuite, il faut charger et traiter le jeu de données à l'aide de scripts qui gèrent l'intégration avec le modèle d'IA. Enfin, créer une interface utilisateur interactive pour permettre aux utilisateurs d'interagir facilement avec le chatbot via un navigateur web. En suivant ces étapes, vous pouvez améliorer significativement la précision et la pertinence des réponses fournies par votre chatbot.Terminons avec LLaMA de Meta, l'un des modèles de langage qui a attiré beaucoup d'attention. Si vous avez déjà pensé à créer votre propre modèle d'IA mais que la complexité vous a freiné, LLaMA pourrait être la solution idéale. Ce n'est pas simplement un modèle de langage, c'est un outil conçu pour aider les développeurs à comprendre comment ces modèles sont construits, optimisés et appliqués.Imaginez que vous dirigez une startup et que vous souhaitez développer un chatbot qui donne des conseils médicaux précis. Plutôt que de vous reposer sur des modèles génériques qui pourraient ne pas saisir les nuances du domaine médical, LLaMA vous permet de créer un modèle sur mesure, adapté à votre public et à vos besoins spécifiques.L'un des atouts majeurs de LLaMA est son architecture modulaire. Cela signifie que vous pouvez adapter le modèle en fonction de vos besoins sans avoir à tout reconstruire de zéro. Contrairement à l'idée reçue selon laquelle le développement d'un grand modèle de langage est coûteux et complexe, Meta a conçu LLaMA pour être accessible. Il démontre qu'il est possible de créer des modèles puissants sans disposer des ressources d'un géant de la technologie.En rendant la création de modèles de langage plus accessible, LLaMA encourage l'innovation et permet à un plus grand nombre de développeurs et d'entreprises de participer à l'évolution de l'IA. Cela pourrait conduire à une diversité accrue dans les applications de l'IA, avec des modèles spécialement conçus pour répondre à des besoins spécifiques dans différents secteurs.En conclusion, l'intelligence artificielle continue de progresser, rendant la technologie plus intelligente, plus personnalisée et plus accessible. Des agents intelligents qui facilitent nos tâches quotidiennes, aux chatbots enrichis par des données en temps réel, en passant par des modèles de langage adaptables comme LLaMA, ces innovations ouvrent de nouvelles perspectives passionnantes. Elles offrent des outils puissants pour améliorer notre interaction avec la technologie et, finalement, simplifier nos vies.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Jan 28, 2025 • 8min
L'IA aujourd'hui épisode du 2025-01-28
Bonjour et bienvenue dans L'IA Aujourd’hui, le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : nous aborderons l'importance de l'open source selon Simon Willison, les astuces anti-bots de la YouTubeuse f4mi, les révélations sur le fonctionnement de ChatGPT, les défis pour évaluer les nouveaux modèles d'IA, l'ingénierie des invites pour les développeurs, les préoccupations de sécurité soulevées par Microsoft, et les améliorations apportées à Canvas par OpenAI. C’est parti !Commençons avec Simon Willison, qui a partagé son point de vue sur l'importance de publier du code en open source. Après avoir travaillé pour une grande entreprise où il ne pouvait pas réutiliser son propre code, il a décidé de publier tout son travail en open source. Pour lui, c'est une façon de résoudre un problème une fois pour toutes et d'éviter de réinventer la roue à chaque nouvel emploi. En ajoutant une licence open source, de la documentation et des tests unitaires, il s'assure de pouvoir réutiliser et maintenir son code, quel que soit son futur employeur.Poursuivons avec la YouTubeuse f4mi, qui a découvert que ses vidéos étaient copiées par des bots pour créer des contenus spam générés par ChatGPT, avec des voix robotiques et des images répétitives. Pour contrer cela, elle a utilisé le format de sous-titres Advanced SubStation, qui permet de personnaliser les polices, les couleurs et le positionnement. En inondant les scrapers de texte invisible hors écran et en décomposant les sous-titres lisibles en lettres individuelles, elle a rendu ses vidéos illisibles pour les bots tout en restant compréhensibles pour les spectateurs humains. Ses tests ont montré que les sites de scraping d'IA interprétaient ses vidéos comme du texte technique du XIXᵉ siècle, perturbant ainsi leur fonctionnement.Passons maintenant aux révélations de Simon Willison sur le fonctionnement de ChatGPT. Il a partagé des informations sur le "prompt de l'opérateur", qui sert de guide détaillé pour le modèle. Ce prompt insiste sur la nécessité de demander une confirmation finale à l'utilisateur avant toute action ayant des effets externes, comme l'envoi de messages ou la gestion de comptes, afin d'éviter les actions non désirées. Le système est également conçu pour refuser les tâches potentiellement nuisibles, telles que celles liées à la violence ou à la fraude. De plus, il ne doit pas résoudre les CAPTCHA, ces tests utilisés pour différencier les humains des robots, pour prévenir les attaques de type "prompt injection". Concernant la sécurité des images, ChatGPT ne doit pas identifier les personnes sur les photos, même célèbres, afin de protéger leur identité. Il est intéressant de noter que, contrairement à d'autres outils d'OpenAI, le mécanisme d'appel d'outils JSON n'est pas utilisé ici, montrant une approche différente dans la gestion des fonctionnalités.En parlant de modèles d'IA, examinons les défis liés à leur évaluation. Chaque semaine, de nouveaux modèles apparaissent, promettant des améliorations ou des fonctionnalités inédites. Cependant, il est difficile de mesurer réellement leur efficacité. Les benchmarks ne révèlent pas toujours ce qu'un modèle peut accomplir de nouveau ou de mieux. Une approche consiste à les tester dans des flux de travail personnels pour observer s'ils apportent des résultats plus précis ou différents. Parfois, un modèle amélioré produit des résultats plus précis, mais pour certaines tâches, la notion de "meilleur" reste subjective. Par exemple, dans l'utilisation de différentes versions de Midjourney, la qualité des résultats peut varier sans qu'il y ait de réponse objectivement "meilleure". Dans des domaines comme le développement logiciel et le marketing, l'IA générative trouve un usage évident, car les erreurs y sont faciles à détecter. En revanche, pour des tâches où la qualité est binaire — correcte ou incorrecte — les modèles actuels ne sont pas toujours fiables, surtout si l'utilisateur n'est pas expert. Cela soulève des questions sur la capacité des modèles d'IA à évoluer vers une intelligence artificielle générale.Abordons maintenant l'ingénierie des invites, essentielle pour les développeurs. L'ingénierie des invites, ou "prompt engineering", consiste à créer des requêtes précises pour obtenir les meilleurs résultats d'une IA générative. C'est comme définir un objectif clair pour votre assistant IA afin qu'il sache exactement ce que vous attendez. Dans le développement logiciel, une invite bien structurée peut conduire à des résultats plus précis et pertinents, permettant de rationaliser les flux de travail, de gagner du temps et d'améliorer la productivité. Les assistants de codage IA comme GitHub Copilot, ChatGPT et Claude transforment notre façon de coder, devenant de véritables partenaires de programmation. Une bonne ingénierie des invites fait la différence entre une IA qui multiplie votre productivité et une source de dettes techniques. Elle améliore la précision, l'efficacité, la cohérence et favorise l'innovation. Les applications incluent la génération de code, la révision, l'assurance qualité, la documentation, le DevOps, le débogage, la conception d'architecture et la sécurité.Sur le thème de la sécurité, Microsoft a récemment admis que l'intelligence artificielle ne pourra jamais être totalement sécurisée. Les modèles d'IA amplifient les risques de sécurité existants et en créent de nouveaux. Des chercheurs ont testé plus de 100 produits pour arriver à cette conclusion, utilisant le "red-teaming", une méthode où une équipe simule les actions d'un adversaire pour identifier les vulnérabilités d'un système. Des attaques basées sur le gradient sont un exemple de technique utilisée pour compromettre les modèles d'IA, exploitant les vecteurs de gradient pour tromper le modèle. Un autre problème est la prolifération d'articles scientifiques falsifiés générés par des IA de type GPT sur des plateformes comme Google Scholar, menaçant l'intégrité de la recherche académique. De plus, un sceptique de Wall Street a exprimé des doutes sur la fiabilité de l'IA pour résoudre des problèmes complexes, soulignant que la technologie actuelle commet encore trop d'erreurs, limitant son efficacité dans des applications critiques.Enfin, OpenAI a amélioré la fonctionnalité Canvas de ChatGPT, la rendant plus polyvalente et facile à utiliser. Parmi les nouveautés, le support du nouveau modèle "o1", accessible via un sélecteur de modèles pour les abonnés Pro, Plus et Team. Une des améliorations les plus pratiques est la possibilité de rendre du code HTML et React directement dans Canvas, permettant aux utilisateurs de prévisualiser le code sans avoir à le télécharger ni l'exécuter. Pour les utilisateurs de Mac, Canvas est entièrement intégré à l'application de bureau ChatGPT, et OpenAI annonce que les utilisateurs Enterprise et Education pourront bientôt bénéficier de ces fonctionnalités. Lancé en octobre 2023, Canvas représente la première mise à jour significative de l'interface de ChatGPT depuis le lancement du chatbot. Le nouvel éditeur rend le travail avec le contenu généré par l'IA plus intuitif, en permettant par exemple de surligner des parties spécifiques du résultat pour les discuter directement avec ChatGPT, et inclut un émulateur Python intégré pour exécuter du code et voir immédiatement les résultats.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.


