

Ep.425 - Pourquoi même les créateurs de l’IA ne comprennent plus leurs modèles
May 22, 2025
Jonathan Léveillé, PDG d’Openmind Technologies et expert en intelligence artificielle, discute avec Antoine Gagné des défis cruciaux de l’interprétabilité de l’IA. Ils s'interrogent sur le fait que même les créateurs ne comprennent plus leurs modèles, révélant des risques préoccupants pour les entreprises. Léveillé souligne l’urgence d’une régulation de l’IA, la nécessité d'intégrer ces technologies tout en gardant le contrôle, et comment les dirigeants peuvent naviguer dans cette révolution technologique.
AI Snips
Chapters
Transcript
Episode notes
Mystère de l'interprétabilité en IA
- L'interprétabilité en IA désigne la capacité à comprendre comment un modèle prend ses décisions, ce qui reste un mystère aujourd'hui.
- Même les créateurs de modèles avancés comme Claude ou Sonnais ne saisissent pas totalement le fonctionnement interne des réseaux de neurones.
IA et cerveau humain en parallèle
- L'interprétabilité de l'IA est comparable à la difficulté qu'on a à comprendre le cerveau humain.
- C'est un défi scientifique majeur car on ne peut voir clairement les mécanismes décisionnels internes.
Course folle des géants de l'IA
- Les grandes entreprises IA savent qu'elles ne contrôlent pas entièrement leurs modèles, mais poussent l'accélération coûte que coûte.
- Elles consacrent des milliards à développer toujours plus rapidement malgré les risques.