Ce que vous devez savoir avant
de commencer
Débute 2 July 2025 15:37
Se termine 2 July 2025
Sécurité IA/ML - Comprendre les incitations de jailbreak et les illusions adversariales dans les modèles de langage de grande taille
RSA Conference
2765 Cours
47 minutes
Mise à niveau optionnelle disponible
Not Specified
Progressez à votre rythme
Free Video
Mise à niveau optionnelle disponible
Aperçu
Explorez les prompts de jailbreak et les illusions adversariales dans les systèmes IA/ML à travers deux articles de recherche en sécurité de pointe présentés par des experts de Cornell Tech et de l'Université de Washington lors de la conférence USENIX.
Sujets
Informatique