

Les experts en IA avertissent : "L’IA pourrait détruire le monde !"
🗣️ La déclaration
💬 Discord du Centre pour la Sécurité de l’IA
✉️ Contacter vos représentants
💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal
🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon
———
AGIR POUR LA SÉCURITÉ DE L’IA
———
MES RECOMMANDATIONS
———
DESCRIPTION DE L’ÉPISODE
Charbel-Raphaël Segerie est ingénieur, chercheur et enseignant en intelligence artificielle. Il est expert IA auprès de l’OCDE et dirige le Centre pour la Sécurité de l’IA. Dans cet épisode, il explique pourquoi il a lancé un appel mondial à la mise en place de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA.
———
TIME CODE
0:00 Introduction
1:10 La déclaration et ses signataires
6:44 Pourquoi avoir écrit cette déclaration ?
11:33 Les progrès rapides de l’IA
18:37 Les plus gros risques de l’IA
25:44 Les comportements inquiétants des IA
34:55 Les risques d’extinction de l’IA
42:15 Combien de temps nous reste-il ?
47:07 Pourquoi 2026 ?
48:34 Que sont les lignes rouges ?
51:13 Pourquoi des lignes rouges ?
54:51 Les lignes rouges vs l’innovation
57:42 Les difficultés géopolitiques
59:05 Le risque des pays malveillants
1:01:41 Le défi de l’opérationnalisation
1:07:27 Quelles sont les prochaines étapes ?
1:10:33 Quelques anecdotes
1:13:38 Vivre en ayant conscience de ces risques
1:17:04 Que faire à titre individuel ?
1:19:42 Message à l’humanité
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.