What You Need to Know Before
You Start

Starts 7 June 2025 12:44

Ends 7 June 2025

00 days
00 hours
00 minutes
00 seconds
course image

Sécurité IA/ML - Comprendre les incitations de jailbreak et les illusions adversariales dans les modèles de langage de grande taille

Explorez les prompts de jailbreak et les illusions adversariales dans les systèmes IA/ML à travers deux articles de recherche en sécurité de pointe présentés par des experts de Cornell Tech et de l'Université de Washington lors de la conférence USENIX.
RSA Conference via YouTube

RSA Conference

2544 Cours


47 minutes

Optional upgrade avallable

Not Specified

Progress at your own speed

Free Video

Optional upgrade avallable

Aperçu

Explorez les prompts de jailbreak et les illusions adversariales dans les systèmes IA/ML à travers deux articles de recherche en sécurité de pointe présentés par des experts de Cornell Tech et de l'Université de Washington lors de la conférence USENIX.


Sujets

Informatique