Hypercroissance

Ep.425 - Pourquoi même les créateurs de l’IA ne comprennent plus leurs modèles

May 22, 2025
Jonathan Léveillé, PDG d’Openmind Technologies et expert en intelligence artificielle, discute avec Antoine Gagné des défis cruciaux de l’interprétabilité de l’IA. Ils s'interrogent sur le fait que même les créateurs ne comprennent plus leurs modèles, révélant des risques préoccupants pour les entreprises. Léveillé souligne l’urgence d’une régulation de l’IA, la nécessité d'intégrer ces technologies tout en gardant le contrôle, et comment les dirigeants peuvent naviguer dans cette révolution technologique.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Mystère de l'interprétabilité en IA

  • L'interprétabilité en IA désigne la capacité à comprendre comment un modèle prend ses décisions, ce qui reste un mystère aujourd'hui.
  • Même les créateurs de modèles avancés comme Claude ou Sonnais ne saisissent pas totalement le fonctionnement interne des réseaux de neurones.
INSIGHT

IA et cerveau humain en parallèle

  • L'interprétabilité de l'IA est comparable à la difficulté qu'on a à comprendre le cerveau humain.
  • C'est un défi scientifique majeur car on ne peut voir clairement les mécanismes décisionnels internes.
INSIGHT

Course folle des géants de l'IA

  • Les grandes entreprises IA savent qu'elles ne contrôlent pas entièrement leurs modèles, mais poussent l'accélération coûte que coûte.
  • Elles consacrent des milliards à développer toujours plus rapidement malgré les risques.
Get the Snipd Podcast app to discover more snips from this episode
Get the app