Ce que vous devez savoir avant
de commencer

Débute 5 July 2025 16:01

Se termine 5 July 2025

00 Jours
00 Heures
00 Minutes
00 Secondes
course image

AWS Flash - Operationalize Generative AI Applications (FMOps/LLMOps) (Simplified Chinese)

Ce cours décrit les défis auxquels la production de LLM est confrontée et un ensemble d'outils disponibles pour les résoudre. Le cours donne un aperçu des architectures de référence pour le développement, le déploiement et l'implémentation de LLM, en détaillant chaque étape de ce processus. Niveau du cours : Intermédiaire Durée : 90 min.
via AWS Skill Builder

479 Cours


Non spécifié

Mise à niveau optionnelle disponible

Tous les niveaux

Progressez à votre rythme

Free

Mise à niveau optionnelle disponible

Aperçu

Ce cours décrit les défis auxquels la production de LLM est confrontée et un ensemble d'outils disponibles pour les résoudre. Le cours donne un aperçu des architectures de référence pour le développement, le déploiement et l'implémentation de LLM, en détaillant chaque étape de ce processus.

  • Niveau du cours :

    Intermédiaire

  • Durée :

    90 minutes

Ce cours comprend des conférences, des exemples réels et des études de cas.

Dans ce cours, vous apprendrez :

  • À différencier MLOPs et LLMOPs, et à définir les défis clés de l'implémentation des LLM.
  • À choisir le LLM le plus approprié pour un cas d'utilisation donné.
  • À comprendre comment évaluer les LLM, ainsi que la distinction entre évaluation et benchmarking.
  • À définir les composants clés de la génération augmentée par récupération (RAG) et comment les gérer.
  • À différencier le pré-entraînement continu et le réglage fin.
  • À explorer les techniques de réglage fin disponibles sur AWS.
  • À comprendre ce qu'il faut surveiller dans les LLM, et comment effectuer cette tâche sur AWS.
  • À apprendre les meilleures pratiques en matière de conformité et de sécurité.
  • À expliquer une architecture de référence pour LLMOps sur AWS.

Ce cours est destiné :

  • Aux scientifiques de données et ingénieurs en apprentissage automatique souhaitant automatiser la construction et le déploiement de LLM.
  • Aux architectes de solutions et ingénieurs DevOps souhaitant comprendre l'architecture globale des plateformes LLMOps.

Nous recommandons que les participants à ce cours aient :

  • Complété le programme d'apprentissage en IA générative pour les développeurs (numérique).
  • Un fond technique avec une expérience en programmation est préférable.

Module 1 :

Introduction aux LLMOps

  • Introduction aux LLMOps
  • Rôles des LLMOps
  • Défis de l'implémentation des LLM

Module 2 :

Sélection de LLM

  • Benchmarking des cas d'utilisation de LLM
  • Prise de décisions basées sur les priorités

Module 3 :

Évaluation des LLM

  • Méthodes d'évaluation
  • Répertoire des améliorations pour l'évaluation
  • Cadre et métriques d'évaluation
  • Cadre et métriques de benchmarking

Module 4 :

Génération Augmentée par Récupération (RAG)

  • Personnalisation de LLM
  • Modèles d'embedding
  • Bases de données vectorielles
  • Workflow de RAG
  • Techniques avancées de RAG

Module 5 :

Réglage Fin du LLM


    Sujets