What You Need to Know Before
You Start
Starts 7 June 2025 12:44
Ends 7 June 2025
00
days
00
hours
00
minutes
00
seconds
Sécurité IA/ML - Comprendre les incitations de jailbreak et les illusions adversariales dans les modèles de langage de grande taille
Explorez les prompts de jailbreak et les illusions adversariales dans les systèmes IA/ML à travers deux articles de recherche en sécurité de pointe présentés par des experts de Cornell Tech et de l'Université de Washington lors de la conférence USENIX.
RSA Conference
via YouTube
RSA Conference
2544 Cours
47 minutes
Optional upgrade avallable
Not Specified
Progress at your own speed
Free Video
Optional upgrade avallable
Aperçu
Explorez les prompts de jailbreak et les illusions adversariales dans les systèmes IA/ML à travers deux articles de recherche en sécurité de pointe présentés par des experts de Cornell Tech et de l'Université de Washington lors de la conférence USENIX.
Sujets
Informatique