What You Need to Know Before
You Start

Starts 7 June 2025 12:46

Ends 7 June 2025

00 days
00 hours
00 minutes
00 seconds
course image

Seguridad de IA/ML: Comprendiendo los Prompts de Escape y las Ilusiones Adversariales en Grandes Modelos de Lenguaje

Explora instrucciones de fuga (jailbreak) e ilusiones adversariales en sistemas de IA/ML a través de dos investigaciones de vanguardia presentadas en los trabajos de seguridad de USENIX por expertos de Cornell Tech y la Universidad de Washington.
RSA Conference via YouTube

RSA Conference

2544 Cursos


47 minutes

Optional upgrade avallable

Not Specified

Progress at your own speed

Free Video

Optional upgrade avallable

Resumen

Explora instrucciones de fuga (jailbreak) e ilusiones adversariales en sistemas de IA/ML a través de dos investigaciones de vanguardia presentadas en los trabajos de seguridad de USENIX por expertos de Cornell Tech y la Universidad de Washington.


Asignaturas

Ciencias de la Computación