Aperçu
Ce cours décrit les défis auxquels la production de LLM est confrontée et un ensemble d'outils disponibles pour les résoudre. Le cours donne un aperçu des architectures de référence pour le développement, le déploiement et l'implémentation de LLM, en détaillant chaque étape de ce processus.
- Niveau du cours : Intermédiaire
- Durée : 90 minutes
Ce cours comprend des conférences, des exemples réels et des études de cas.
Dans ce cours, vous apprendrez :
- À différencier MLOPs et LLMOPs, et à définir les défis clés de l'implémentation des LLM.
- À choisir le LLM le plus approprié pour un cas d'utilisation donné.
- À comprendre comment évaluer les LLM, ainsi que la distinction entre évaluation et benchmarking.
- À définir les composants clés de la génération augmentée par récupération (RAG) et comment les gérer.
- À différencier le pré-entraînement continu et le réglage fin.
- À explorer les techniques de réglage fin disponibles sur AWS.
- À comprendre ce qu'il faut surveiller dans les LLM, et comment effectuer cette tâche sur AWS.
- À apprendre les meilleures pratiques en matière de conformité et de sécurité.
- À expliquer une architecture de référence pour LLMOps sur AWS.
Ce cours est destiné :
- Aux scientifiques de données et ingénieurs en apprentissage automatique souhaitant automatiser la construction et le déploiement de LLM.
- Aux architectes de solutions et ingénieurs DevOps souhaitant comprendre l'architecture globale des plateformes LLMOps.
Nous recommandons que les participants à ce cours aient :
- Complété le programme d'apprentissage en IA générative pour les développeurs (numérique).
- Un fond technique avec une expérience en programmation est préférable.
Module 1 : Introduction aux LLMOps
- Introduction aux LLMOps
- Rôles des LLMOps
- Défis de l'implémentation des LLM
Module 2 : Sélection de LLM
- Benchmarking des cas d'utilisation de LLM
- Prise de décisions basées sur les priorités
Module 3 : Évaluation des LLM
- Méthodes d'évaluation
- Répertoire des améliorations pour l'évaluation
- Cadre et métriques d'évaluation
- Cadre et métriques de benchmarking
Module 4 : Génération Augmentée par Récupération (RAG)
- Personnalisation de LLM
- Modèles d'embedding
- Bases de données vectorielles
- Workflow de RAG
- Techniques avancées de RAG
Module 5 : Réglage Fin du LLM
-
Programme
Enseigné par
Étiquettes