Lo que necesitas saber antes de
que comiences
Comienza 3 July 2025 04:32
Termina 3 July 2025
Seguridad de IA/ML: Comprendiendo los Prompts de Escape y las Ilusiones Adversariales en Grandes Modelos de Lenguaje
RSA Conference
2765 Cursos
47 minutes
Actualización opcional disponible
Not Specified
Progreso a tu propio ritmo
Free Video
Actualización opcional disponible
Resumen
Explora instrucciones de fuga (jailbreak) e ilusiones adversariales en sistemas de IA/ML a través de dos investigaciones de vanguardia presentadas en los trabajos de seguridad de USENIX por expertos de Cornell Tech y la Universidad de Washington.
Asignaturas
Ciencias de la Computación