Ce que vous devez savoir avant
de commencer

Débute 2 July 2025 15:37

Se termine 2 July 2025

00 Jours
00 Heures
00 Minutes
00 Secondes
course image

Sécurité IA/ML - Comprendre les incitations de jailbreak et les illusions adversariales dans les modèles de langage de grande taille

Explorez les prompts de jailbreak et les illusions adversariales dans les systèmes IA/ML à travers deux articles de recherche en sécurité de pointe présentés par des experts de Cornell Tech et de l'Université de Washington lors de la conférence USENIX.
RSA Conference via YouTube

RSA Conference

2765 Cours


47 minutes

Mise à niveau optionnelle disponible

Not Specified

Progressez à votre rythme

Free Video

Mise à niveau optionnelle disponible

Aperçu

Explorez les prompts de jailbreak et les illusions adversariales dans les systèmes IA/ML à travers deux articles de recherche en sécurité de pointe présentés par des experts de Cornell Tech et de l'Université de Washington lors de la conférence USENIX.


Sujets

Informatique