
Intelligence Artificielle - Data Driven 101 - Le podcast IA & Data 100% en français
Aidez nous à améliorer le podcast en répondant à cette enquête rapide : https://form.typeform.com/to/n2lDjgQw
Merci par avance !
Sur Data Driven 101, on s’intéresse aux applications pratiques de l'Intelligence Artificielle et de la data dans toute leur diversité avec un objectif : démystifier ces concepts.
Dans ce podcast IA & Data (https://datadriven101.tech/) 100% en français, Marc Sanselme reçoit des professionnels de fonctions et d’horizons variés pour nous parler de leurs aventures, leurs succès, leurs échecs, leurs espoirs, leurs techniques, leurs astuces, leurs histoires et leurs convictions.
De la Business Intelligence à la Generative AI (LLM, RAG, Agents...) ou à la Computer Vision, toutes les thématiques liées à l'IA sont décortiquées épisode après épisode par Marc Sanselme et ses invités issus de la French tech et d'ailleurs.
Marc Sanselme est un spécialiste en Intelligence artificielle (https://scopeo.ai/marc-sanselme/) et dirige la société Scopeo, agence d'Intelligence Artificielle (https://scopeo.ai/).
Équipe : Clémence Reliat, Aïda Wali, Jean-Christophe Corvisier, Marc Sanselme
Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.
Latest episodes

Jun 4, 2023 • 25min
#22 : Alexandre Hannebelle ( Head of Data @ Inarix ) : La mesure de qualité grâce à l’IA
Alexandre Hannebelle, Head of Data chez Inarix est l’invité de l’épisode 22 de Data Driven 101. Il nous parle des défis liés à l'utilisation de l'apprentissage automatique pour l'analyse d'images agricoles mais aussi :
l’importance de rester proche de l’état de l’art
d’utiliser des solutions génériques pour commencer
la nécessité de prendre le temps de poser les choses proprement.
Mots clés
Etat de l'art: La situation actuelle de l'ensemble des connaissances et des techniques dans un domaine particulier.
Data set: Un ensemble de données, généralement structuré en tableaux, qui peut être utilisé pour l'analyse statistique ou l'apprentissage automatique.
Deep learning : Une technique d'apprentissage automatique qui permet aux machines de comprendre des données complexes en utilisant des réseaux de neurones artificiels.
DevOps: Une méthode de développement logiciel qui vise à raccourcir le cycle de développement et à améliorer la qualité des applications en intégrant étroitement les équipes de développement et d'exploitation.
Sprint: Une période de temps fixe, souvent deux semaines, pendant laquelle une équipe de développement de logiciels travaille sur un ensemble de tâches spécifiques.
Stack: Un ensemble de technologies logicielles utilisées pour réaliser une tâche particulière, souvent en combinaison avec d'autres technologies logicielles.
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

May 28, 2023 • 33min
#21 : Édouard d'Archimbaud (CTO @ Kili Technology) : L'annotation de données
Edouard d'Archimbaud ingénieur en machine learning et CTO fondateur de Kili Technology , est l’invité de l’épisode 21 de #DataDriven101. Il nous parle des difficultés liées à l'annotation de données pour le machine learning et explique pourquoi la qualité de la donnée est essentielle pour obtenir des modèles fiables.
Garbage in -> Garbage out !
Mots clés :
Dataset: un ensemble de données qui est utilisé pour entraîner, tester et évaluer des modèles de machine learning.
Métadonnées: des données qui décrivent les caractéristiques des données, telles que leur format, leur source, leur qualité et leur provenance.
Batch: un ensemble de données qui est traité en même temps, souvent divisé en lots plus petits pour faciliter l'annotation et le traitement.
Plateforme d'annotation: une plateforme logicielle conçue pour faciliter l'interaction entre les humains et les données, permettant de visualiser, de naviguer et d'annoter des données de manière efficace et précise.
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

May 21, 2023 • 30min
#20 : Coralie Betbeder-Déchelette (Data Lead @ Joko) : Data et Shopping
Coralie Betbeder-Déchelette, Data Lead chez Joko est l’invité de l’épisode 20 de #Datadriven101.
Elle nous parle de data model, de bilan carbone et de l'importance de la culture de l'entreprise en matière de données, et comment cela peut affecter l'impact de l'équipe data sur le reste de l'entreprise.
Mots clés :
Monitoring: l'observation et l'analyse régulière des performances d'un système ou d'un processus afin de détecter tout écart par rapport aux objectifs et de prendre des mesures correctives si nécessaire.
Taux de Churn: le taux de désabonnement d'un produit ou service. Il est calculé en divisant le nombre de clients ayant résilié leur abonnement par le nombre total de clients.
Data Warehouse: un système de stockage de données qui permet de regrouper des données provenant de diverses sources en un seul endroit afin de faciliter la gestion et l'analyse des données.
Data model : Modèle de données qui représente la structure des données d'un système.
SQL : acronyme de Structured Query Language, langage informatique utilisé pour communiquer avec les bases de données relationnelles. Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

May 14, 2023 • 35min
#19 : Victor Cluzel (Cour des comptes) : La data au service du contrôle des dépenses publiques
Victor Cluzel, administrateur de l'Insee détaché à la Cour des comptes, est l’invité de l’épisode 19 de Data Driven 101. Il nous parle du rôle de la data science à la Cour des comptes et des défis liés à l'utilisation des données dans ce contexte.
Mots clés :
Collégialité : Processus par lequel un groupe de personnes (généralement des magistrats) examine, valide ou modifie les rapports rédigés par les rapporteurs. Ce processus garantit que les rapports sont justes et précis avant d'être soumis aux administrations concernées.
Crawling : Technique utilisée pour naviguer automatiquement sur le web et récupérer des informations sur les sites web, leurs liens et leurs relations.
Clustering : Méthode d'analyse de données qui consiste à regrouper des objets similaires en fonction de certaines caractéristiques ou mesures de similarité
Computer vision : Il s'agit d'un domaine de l'IA qui se concentre sur l'acquisition, l'analyse et la compréhension d'images ou de vidéos pour permettre aux machines de traiter et d'interpréter visuellement le monde qui les entoure.
RGPD (Règlement Général sur la Protection des Données) : Le RGPD est un règlement de l'Union Européenne qui vise à renforcer la protection des données personnelles des citoyens européens
Data mining (extraction de données) : C'est le processus d'analyse de grands ensembles de données pour en extraire des informations cachées, des tendances ou des modèles
Big Data : Il s'agit d'ensembles de données si volumineux, variés et complexes qu'ils nécessitent des approches et des outils de traitement avancés pour être analysés et exploités.
Data Lake : vaste référentiel centralisé de données brutes provenant de diverses sources et stockées sous leur format natif.
Peer learning : ou apprentissage par les pairs en français, est une méthode d'enseignement et d'apprentissage dans laquelle les participants apprennent les uns des autres en partageant leurs connaissances, compétences et expériences.
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

May 7, 2023 • 41min
#18 : Victor Azria (Global Data Director @ JCDecaux) : Les panneaux d’affichages face à la data
Victor Azria , Global Data Director chez JCDecaux est l’invité de l’épisode 18 de Data driven 101.
Il nous parle de l'utilisation des données chez JCDecaux et nous explique comment la division data a été créée pour répondre aux défis posés par la transformation de l'écosystème des médias et l'arrivée d'acteurs émergents dans le domaine du marketing digital.
Mots clés
KPI (Key Performance Indicator) : Un indicateur clé de performance est une mesure quantifiable utilisée pour évaluer la réussite d'une entreprise ou d'un projet par rapport à ses objectifs.
DevOps : Une approche de développement logiciel qui intègre étroitement le développement et les opérations informatiques pour améliorer la collaboration et la communication.
Heatmap : Représentation graphique des données où les valeurs individuelles sont représentées par des couleurs, généralement utilisée pour visualiser des données complexes ou volumineuses.
Data marketplace : Plateforme où les fournisseurs de données peuvent vendre ou échanger des ensembles de données avec d'autres organisations ou individus.
Forecast (prévision) : Estimation ou prédiction de futurs événements ou tendances basée sur des données historiques ou des analyses statistiques.
Data Warehouse: un système centralisé et structuré de stockage et de gestion des données provenant de différentes sources.
Dashboard: un panneau de visualisation qui présente les indicateurs clés de performance (KPI) et d'autres informations utiles pour les utilisateurs.
Dataviz : abréviation de "data visualization", c'est la représentation visuelle des données pour faciliter leur compréhension et leur interprétation.
MOA (Maîtrise d'Ouvrage) : il s'agit de la partie prenante d'un projet qui définit les besoins, les objectifs et les exigences fonctionnelles, et qui assure le suivi et la validation du projet.
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Apr 16, 2023 • 45min
#17 : Alexandre Haag (Tesla, Audi et Ford) : La voiture autonome
Alexandre Haag est l’invité de l’épisode 17 de Data Driven 101.
Après 10 ans dans la robotique, il a travaillé 8 ans dans le monde de la conduite autonome, notamment chez Tesla & Argo.AI (Audi et Ford).
Aujourd'hui, il lance son projet FutuRail, visant à développer des trains autonomes pour offrir un meilleur service de transport ferroviaire et réduire les émissions de CO2.
Il nous parle de sa vision du monde de la voiture autonome, du travail dans une entreprise comme Tesla, des méthodes de travail d'Elon Musk et des différences USA/europe.
Mots clés
Loi de Moore : Prédiction selon laquelle le nombre de transistors sur un microprocesseur doublera environ tous les deux ans, augmentant ainsi la puissance de calcul. (définition de chatGPT)
Dataset : Ensemble de données structurées, généralement utilisé pour l'analyse, la modélisation ou la formation d'un algorithme.
Motion planning : Processus de détermination des mouvements et des actions nécessaires pour qu'un objet ou un robot atteigne un état ou une position spécifique.Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Apr 9, 2023 • 34min
#16 : Chloé Dupuy (Manager Analytics Retail @ Catalina) : Comprendre le client
Chloé Dupuy, Manager analytic retail chez Catalina est l'invitée de l’épisode 16 de Data Driven 101.
Elle nous explique comment l'entreprise Catalina utilise des algorithmes et du machine learning pour personnaliser les campagnes de promotion et analyser les comportements les clients.
Mots clés
KPI : KPI, ou indicateur clé de performance, est une mesure utilisée pour évaluer la réussite ou l'efficacité d'une organisation, d'un projet ou d'un processus dans l'atteinte de ses objectifs.
Data Viz (Data Visualization) : La visualisation de données, ou data viz, est une technique qui consiste à représenter des données sous forme graphique ou visuelle
Power BI : Power BI est un outil de Business Intelligence développé par Microsoft qui permet de transformer des données brutes en informations significatives et exploitables.
Stack logicielle : Ensemble des logiciels utilisés par une équipe.
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Apr 2, 2023 • 41min
#15 : Vincent Ottow (CTO @ SportsDynamics) : Data et sport analytics
Vincent Ottow, CTO de SportsDynamics, start-up de sport analytics est l’invité de l’épisode 15 de #DataDiven101.
Il nous parle de l’utilisation de la data pour aider les clubs de football à améliorer leurs performances.
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Mar 26, 2023 • 34min
#HS2 : Maxence Ernoult (chercheur @ Rain) : S’inspirer du vivant
Faire tourner chatGPT sur un téléphone, en local, sans serveur, sans partager ses données à personne et sans faire exploser son bilan carbone.
C'est la promesse de l'approche qui s'inspire du vivant pour construire des algorithmes sobres en calculs et en énergie.
Rencontre avec Maxence Ernoult , chercheur chez Rain, dans le deuxième épisode Hors Série spécial IA du podcast #Datadriven101.
Il nous parle de ses travaux dans le domaines de l'IA mais aussi de l'état de la recherche et des croyances existantes.
Mots clés
Substrat: un matériau sur lequel les circuits électroniques sont construits.
Synapse: un point de contact entre deux neurones ou entre un neurone et une cellule musculaire ou glandulaire, où les signaux sont transmis.
Rétropropagation (ou backpropagation) : une méthode d'apprentissage supervisée pour les réseaux de neurones, dans laquelle l'erreur est propagée de la sortie vers l'entrée.
Gradient: une mesure de la pente de la courbe d'une fonction à un point donné. Dans le contexte de l'apprentissage, il est utilisé pour ajuster les paramètres du modèle pour minimiser l'erreur.
Neuromorphique: une approche de l'informatique inspirée par le cerveau, dans laquelle les systèmes informatiques sont conçus pour imiter les neurones et les synapses biologiques.
Inférence : Tâche réalisée par l’algorithme comme par exemple prédiction, déduction, classification, estimation…
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Mar 19, 2023 • 26min
#14 : Alexandre Miny de Tornaco (Fondateur @ Data Bird) : La data pour tous
Alexandre Miny de Tornaco, fondateur de Data Bird, organisme de formation upskilling et formation continue dans la data pour le business, est l’invité de l’épisode 14 de Data Driven 101. Il nous parle notamment de :
👉La philosophie de continuer à apprendre car la technologie évolue rapidement.
👉L’évolution des mentalités en seulement 3 ans
👉L'importance de comprendre les enjeux éthiques et moraux de l'utilisation de la data.
Mot clés
SQL : SQL est un langage informatique normalisé servant à exploiter des bases de données relationnelles
Power BI : solution d'analyse de données de Microsoft.
Looker : Looker est une plateforme de Business Intelligence appartenant au Google Cloud qui permet une analyse avancée de toutes les données d'une entreprise
Data Studio : outil en ligne de conversion de données en rapports et tableaux de bord informatifs personnalisables
BigQuery : service web intégré à Google Cloud qui permet l'analyse interactive massive de grands ensembles de données en collaboration avec l'espace de stockage Google
Data warehouse : base de données relationnelle hébergée sur un serveur dans un Data Center ou dans le Cloud.
Une data clean room : environnement qui permet à plusieurs entreprises de partager des données de manière sécurisée et anonyme
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.