What You Need to Know Before
You Start
Starts 7 June 2025 12:46
Ends 7 June 2025
00
days
00
hours
00
minutes
00
seconds
Seguridad de IA/ML: Comprendiendo los Prompts de Escape y las Ilusiones Adversariales en Grandes Modelos de Lenguaje
Explora instrucciones de fuga (jailbreak) e ilusiones adversariales en sistemas de IA/ML a través de dos investigaciones de vanguardia presentadas en los trabajos de seguridad de USENIX por expertos de Cornell Tech y la Universidad de Washington.
RSA Conference
via YouTube
RSA Conference
2544 Cursos
47 minutes
Optional upgrade avallable
Not Specified
Progress at your own speed
Free Video
Optional upgrade avallable
Resumen
Explora instrucciones de fuga (jailbreak) e ilusiones adversariales en sistemas de IA/ML a través de dos investigaciones de vanguardia presentadas en los trabajos de seguridad de USENIX por expertos de Cornell Tech y la Universidad de Washington.
Asignaturas
Ciencias de la Computación