Ce que vous devez savoir avant
de commencer
Débute 4 July 2025 14:06
Se termine 4 July 2025
Hallucinations, manipulations de prompts, et atténuation des risques : mettre en place des garde-fous autour de vos applications alimentées par LLM.
All Things Open
2777 Cours
32 minutes
Mise à niveau optionnelle disponible
Not Specified
Progressez à votre rythme
Free Video
Mise à niveau optionnelle disponible
Aperçu
Rejoignez-nous pour explorer des stratégies efficaces visant à atténuer les risques associés aux grands modèles de langage (LLM). Plongez dans la mise en œuvre de garde-fous qui englobent des techniques de prétraitement conçues pour prévenir la manipulation des promptes, ainsi que des méthodes d'évaluation des résultats puissantes.
Ce cours dévoile des frameworks open-source appliqués dans des applications réelles, vous équipant des outils nécessaires pour naviguer et contrôler les défis potentiels des LLM. Parfait pour quiconque souhaite approfondir sa compréhension de l'intelligence artificielle et de l'informatique.
Programme
- Introduction aux modèles de langage de grande taille (LLM)
- Comprendre les hallucinations dans les LLM
- Manipulation des invites et ses implications
- Atténuation des risques dans les applications alimentées par LLM
- Techniques de prétraitement
- Évaluation et validation des sorties
- Conception et mise en œuvre de garde-fous
- Cadres open-source pour l'atténuation des risques
- Études de cas et applications réelles
- Tendances et développements futurs
- Conclusion
- Revue du cours et session Q&R
Sujets
Informatique