Lo que necesitas saber antes de
que comiences

Comienza 3 July 2025 04:32

Termina 3 July 2025

00 Días
00 Horas
00 Minutos
00 Segundos
course image

Seguridad de IA/ML: Comprendiendo los Prompts de Escape y las Ilusiones Adversariales en Grandes Modelos de Lenguaje

Explora instrucciones de fuga (jailbreak) e ilusiones adversariales en sistemas de IA/ML a través de dos investigaciones de vanguardia presentadas en los trabajos de seguridad de USENIX por expertos de Cornell Tech y la Universidad de Washington.
RSA Conference via YouTube

RSA Conference

2765 Cursos


47 minutes

Actualización opcional disponible

Not Specified

Progreso a tu propio ritmo

Free Video

Actualización opcional disponible

Resumen

Explora instrucciones de fuga (jailbreak) e ilusiones adversariales en sistemas de IA/ML a través de dos investigaciones de vanguardia presentadas en los trabajos de seguridad de USENIX por expertos de Cornell Tech y la Universidad de Washington.


Asignaturas

Ciencias de la Computación