Ce que vous devez savoir avant
de commencer
Débute 4 July 2025 01:17
Se termine 4 July 2025
Hallucinations, manipulations incitatives et atténuation des risques : Mettre en place des garde-fous autour de vos applications alimentées par LLM.
All Things Open
2765 Cours
32 minutes
Mise à niveau optionnelle disponible
Not Specified
Progressez à votre rythme
Free Video
Mise à niveau optionnelle disponible
Aperçu
Explorez des techniques innovantes pour protéger vos applications propulsées par LLM contre des risques tels que les hallucinations et la manipulation de prompts. Cette session offre un aperçu des techniques efficaces de pré-traitement, des méthodes pour évaluer les sorties, et démontre comment les cadres open-source peuvent être utilisés dans des scénarios pratiques.
Idéal pour ceux qui s'intéressent à l'intelligence artificielle et à l'informatique, cet événement est hébergé par YouTube, rendant les informations de pointe facilement accessibles aux apprenants.
Programme
- Introduction aux risques des LLM
- Compréhension des manipulations de prompts
- Techniques de prétraitement
- Méthodes d'évaluation des sorties
- Mise en œuvre des garde-fous
- Cadres open-source pour les garde-fous des LLM
- Études de cas et applications réelles
- Atténuation des risques dans les environnements dynamiques
- Remarques de clôture
Sujets
Informatique