Lo que necesitas saber antes de
que comiences
Comienza 6 July 2025 09:34
Termina 6 July 2025
Entrenamiento Adversarial para la Robustez en Seguridad de los LLMs
Simons Institute
2825 Cursos
1 hour 1 minute
Actualización opcional disponible
Not Specified
Progreso a tu propio ritmo
Free Video
Actualización opcional disponible
Resumen
Descubra técnicas de vanguardia diseñadas para fortalecer la seguridad y la robustez de los Modelos de Lenguaje Grande (LLMs) involucrándose en métodos de entrenamiento adversarial. Liderada por el estimado investigador Gauthier Gidel de IVADO-Mila, esta sesión es imperdible para aquellos interesados en la intersección de la inteligencia artificial y las ciencias de la computación.
Mejore su comprensión y habilidades en robustez de seguridad de LLMs hoy.
Disponible a través de YouTube, este curso está categorizado bajo los Cursos de Inteligencia Artificial y Ciencias de la Computación, proporcionando valiosas ideas para estudiantes y profesionales que buscan profundizar su experiencia en medidas de seguridad de la IA.
Programa de estudio
- Introducción al entrenamiento adversarial
- Fundamentos de los Modelos de Lenguaje Grande (LLMs)
- Comprensión de los ataques adversariales
- Técnicas de entrenamiento adversarial
- Mejora de la robustez en seguridad en LLMs
- Implementación práctica del entrenamiento adversarial
- Estudios de casos y aplicaciones
- Desafíos y direcciones futuras
- Conclusiones y discusión
- Recursos adicionales
Asignaturas
Ciencias de la Computación