Ce que vous devez savoir avant
de commencer
Débute 6 July 2025 09:34
Se termine 6 July 2025
Entraînement Adversarial pour la Robustesse de Sécurité des LLMs
Simons Institute
2825 Cours
1 hour 1 minute
Mise à niveau optionnelle disponible
Not Specified
Progressez à votre rythme
Free Video
Mise à niveau optionnelle disponible
Aperçu
Découvrez les techniques de pointe conçues pour renforcer la sécurité et la robustesse des modèles de langage larges (LLMs) en engageant des méthodes d'entraînement adversarial. Dirigée par le chercheur estimé Gauthier Gidel d'IVADO-Mila, cette session est incontournable pour ceux qui s'intéressent à l'intersection de l'intelligence artificielle et de l'informatique.
Améliorez votre compréhension et vos compétences dans la robustesse de sécurité des LLMs dès aujourd'hui.
Disponible sur YouTube, ce cours est classé sous Cours d'Intelligence Artificielle et Informatique, fournissant des informations inestimables pour les apprenants et les professionnels cherchant à approfondir leur expertise dans les mesures de sécurité de l'IA.
Programme
- Introduction à l'entraînement adversarial
- Fondamentaux des grands modèles de langage (LLMs)
- Comprendre les attaques adversariales
- Techniques d'entraînement adversarial
- Améliorer la robustesse en matière de sécurité dans les LLMs
- Mise en œuvre pratique de l'entraînement adversarial
- Études de cas et applications
- Défis et orientations futures
- Conclusion et discussion
- Ressources supplémentaires
Sujets
Informatique