Lo que necesitas saber antes de
que comiences
Comienza 6 July 2025 09:44
Termina 6 July 2025
Agentes superinteligentes plantean riesgos catastróficos: LLMs con garantía de seguridad
Simons Institute
2825 Cursos
1 hour 12 minutes
Actualización opcional disponible
Not Specified
Progreso a tu propio ritmo
Free Video
Actualización opcional disponible
Resumen
Explora los riesgos potencialmente catastróficos que presentan los agentes de IA superinteligentes con el experto Yoshua Bengio. En esta charla perspicaz, descubre alternativas innovadoras y más seguras como "Scientist AI", un enfoque centrado en explicar en lugar de actuar, con el objetivo de avanzar en el progreso científico mientras se mitigan los peligros asociados con entidades impulsadas por agencias.
Programa de estudio
- Introducción a la IA Superinteligente
- Comprendiendo los Riesgos Catastróficos
- Seguridad en el Diseño de IA
- Alternativas a los Agentes Superinteligentes
- Estudio de Caso: Propuestas de Yoshua Bengio
- Agencia y Acción en la IA
- Técnicas para LLMs con Seguridad Garantizada
- Aceleración del Progreso Científico con IA
- Direcciones Futuras en la Investigación de Seguridad en IA
- Conclusión
Asignaturas
Ciencias de la Computación