

24. Faire mieux avec moins : le défi des petits modèles d’IA
L’IA doit-elle toujours être plus grosse pour être plus performante ?
On pense souvent que plus un modèle d’IA est grand, plus il est puissant.
Et si c’était une fausse évidence ?
Aujourd’hui dans Les dessous de l'IA on parle d’un enjeu clé pour les modèles d'IA : faire mieux avec moins.
Moins de puissance de calcul.
Moins de ressources consommées.
Mais autant, voire plus, d’efficacité.
Trois dynamiques sont en train de changer la donne
* L’optimisation devient une nécessité
* Les modèles géants coûtent trop cher
* Ils consomment une énergie folle
* Ils ne sont pas accessibles à tous
→ Alléger l’IA c’est la rendre plus performante et plus accessible
* Les entreprises veulent aller plus vite, à moindre coût
* Un modèle optimisé, c’est une exécution plus rapide.
* Un coût réduit, c’est un avantage concurrentiel.
* Une IA plus efficiente, c’est une adoption plus large.
→ Gagner en efficacité c’est donc gagner en compétitivité.
* Mais il y a un paradoxe : l’effet rebond
En rendant l’IA plus accessible on pourrait accélérer son usage.
Ce qui signifie… une consommation globale qui explose.
Et un impact environnemental qui pourrait s’aggraver.
→ Optimiser l’IA : solution ou un piège ?
Pour creuser ces questions j’ai invité Bertrand Charpentier le cofondateur de Pruna AI entreprise spécialisée dans l’optimisation des modèles des modèles d'IA !
Une conversation pour comprendre ce qui se joue vraiment derrière cette quête d’efficacité.
Bonne écoute !
This is a public episode. If you would like to discuss this with other subscribers or get access to bonus episodes, visit clment629.substack.com