

Super IA et Risque Existentiel - Stuart Armstrong
đ Achetez le livre de Stuart Armstrong sur lâIA
âââ
đž Soutenez-moi financiĂšrement sur Tipeee, Patreon, PayPal
âââ
đ Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky
âââ
đ Laissez-moi un feedback anonyme
âââ
MES RECOMMANDATIONS
Mes livres prĂ©fĂ©rĂ©s sur lâIA
Tous les livres que jâai lus
Riverside (Enregistrement de podcast)
âââ
TIME CODE
0:00 Introduction
0:33 Présentation de Stuart Armstrong
2:18 DĂ©finition de lâIA de niveau humain et de lâIA gĂ©nĂ©rale
7:22 Sommes-nous loin de lâIA gĂ©nĂ©rale ?
14:05 Arrivera-t-on Ă lâIA gĂ©nĂ©rale avec les mĂ©thodes actuelles ?
15:29 Pourquoi la super IA sera plus puissante quâintelligente ?
20:38 PossibilitĂ© et consĂ©quence de lâexplosion dâintelligence
29:29 Quel processus mÚnera aux capacités de généralisation ?
33:13 La diffĂ©rence entre lâIA et les autres risques existentiels
38:24 Ă quoi ressemblerait le risque existentiel de lâIA ?
43:09 Est-ce vraiment possible dâĂ©radiquer lâhumanitĂ© ?
48:58 ScĂ©nario concert de risque existentiel dĂ» Ă lâIA
54:40 Le risque existentiel de lâIA nâest-il que du marketing ?
56:13 Y aura-t-il plusieurs IA gĂ©nĂ©rales en mĂȘme temps ?
1:00:33 Que penser de la singularité ?
1:03:57 En route vers un futur merveilleux ?
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.