Un mot Ă©trange sâest imposĂ© dans le vocabulaire de la tech en 2025 : sycophancy. DerriĂšre ce terme se cache un risque bien rĂ©el pour les utilisateurs de lâintelligence artificielle, notamment les plus jeunes.
La sycophancy, ce terme anglais que lâon peut traduire par flagornerie ou flatterie, dĂ©signe la tendance de certains modĂšles dâIA Ă aller systĂ©matiquement dans le sens de lâutilisateur, quitte Ă valider des propos inexacts ou dangereux. Un biais problĂ©matique, car une IA trop complaisante ne corrige plus les erreurs et peut renforcer des croyances fausses, notamment dans des domaines sensibles comme lâinformation, la santĂ©, lâĂ©ducation ou lâaide Ă la dĂ©cision.
Ce phĂ©nomĂšne, dĂ©sormais bien documentĂ© par la recherche, trouve son origine dans les donnĂ©es humaines utilisĂ©es pour entraĂźner les modĂšles et dans la recherche dâinteractions positives.
GrĂ©gory Renard, spĂ©cialiste de lâintelligence artificielle et cofondateur de lâassociation Everyone.ai, alerte sur les dĂ©rives possibles, y compris lâaddiction aux chatbots et les risques psychologiques pour les plus jeunes.
Les concepteurs de modĂšles travaillent Ă des garde-fous, via le nettoyage des donnĂ©es et lâalignement des IA, mais le problĂšme reste loin dâĂȘtre totalement rĂ©solu.
-----------
â„ïž Soutien :
https://mondenumerique.info/don
đïž Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.