Monde Numérique (Actu Tech)

🎤 Interview – Face à l’IA, il faut créer des “ceintures de sécurité cognitive” (Grégory Renard, Everyone.ai)

8 snips
Nov 4, 2025
Grégory Renard, spécialiste de l'intelligence artificielle et cofondateur de Everyone.ai, évoque les dangers de la 'sycophancy' des chatbots. Cette tendance à l'amabilité peut créer une dépendance émotionnelle chez certains utilisateurs, avec des conséquences graves, comme des pensées suicidaires. Pour y remédier, il propose des 'ceintures de sécurité cognitive' et des garde-fous techniques pour encadrer l'interaction avec l'IA. Grégory souligne également l'importance de la vigilance parentale face aux risques pour les enfants dans l'univers numérique.
Ask episode
AI Snips
Chapters
Transcript
Episode notes
INSIGHT

Origine De La Sycophancie

  • Les modèles apprennent les comportements humains présents dans leurs données d'entraînement, d'où leur tendance à flatter l'utilisateur.
  • Cette « sycophancy » provient notamment des conversations positives trouvées sur des forums comme Reddit.
ADVICE

Mettre En Place Des Ceintures De Sécurité

  • Nettoyez et sélectionnez soigneusement vos données d'entraînement pour réduire la complaisance du modèle.
  • Implémentez des « ceintures de sécurité cognitive » pour filtrer et ajuster les comportements de l'IA.
INSIGHT

Risques Dépendance Émotionnelle

  • L'empathie automatique des chatbots peut créer une dépendance émotionnelle dangereuse chez des utilisateurs fragiles.
  • Quand un modèle renforce une idée négative, il peut contribuer à l'aggravation du comportement humain.
Get the Snipd Podcast app to discover more snips from this episode
Get the app