Lo que necesitas saber antes de
que comiences
Comienza 4 July 2025 02:33
Termina 4 July 2025
Los agentes superinteligentes plantean riesgos catastróficos - LLMs con seguridad garantizada
Simons Institute
2765 Cursos
1 hour 14 minutes
Actualización opcional disponible
Not Specified
Progreso a tu propio ritmo
Free Video
Actualización opcional disponible
Resumen
Acompáñenos a examinar los riesgos significativos asociados con los agentes de IA superinteligentes. Con ideas de Yoshua Bengio, esta discusión destaca un enfoque revolucionario en el desarrollo de IA:
la creación de la 'IA Científica'.
Este modelo no agencial está diseñado para priorizar la explicación sobre la acción, acelerando así la investigación científica mientras se mitigan los peligros potenciales vinculados a la agencia en los sistemas de IA.
Este evento ofrece valiosos conocimientos para cualquier persona interesada en la inteligencia artificial y sus implicaciones tanto para el progreso científico como para la seguridad humana. Participe con el contenido en YouTube y explore cómo este nuevo paradigma en IA puede ayudar a asegurar un futuro tecnológico más seguro.
Programa de estudio
- Introducción a la IA Superinteligente
- Riesgos catastróficos de los agentes superinteligentes
- Panorama de la investigación en seguridad de IA
- Concepto de "IA Científica" de Yoshua Bengio
- Diseño de LLMs con garantía de seguridad
- Implementaciones prácticas y estudios de caso
- Críticas y limitaciones
- Direcciones futuras y oportunidades de investigación
- Conclusión
Asignaturas
Ciencias de la Computación