En el Podcast de hoy hablamos con Roman Yampolskiy, uno de los mayores referentes en seguridad de la inteligencia artificial y la persona que creó el concepto de AI safety. En esta conversación hablamos de por qué piensa que una superinteligencia podría convertirse en un riesgo para toda la humanidad y de lo difícil que sería controlar algo mucho más inteligente que nosotros. Roman explica cómo los laboratorios están atrapados en una carrera que nadie puede parar, por qué la IA está evolucionando tan rápido y qué hace que los modelos avanzados sean tan impredecibles. También vemos la diferencia entre herramientas y agentes, el impacto que esto puede tener en el empleo, los problemas de las black boxes y el riesgo de que estemos construyendo sistemas que no entendemos. Una charla directa y llena de ideas para entender realmente por qué Roman cree que no estamos preparados para lo que viene.