AWS Flash - Operationalize Generative AI Applications (FMOps/LLMOps) (Simplified Chinese)

via AWS Skill Builder

AWS Skill Builder

414 Cursos


course image

Resumen

Este curso aborda los desafíos de la producción de modelos de lenguaje extensos (LLM, por sus siglas en inglés) y un conjunto de herramientas disponibles para enfrentarlos. Se ofrece un resumen del desarrollo, despliegue e implementación de arquitecturas de referencia de LLM y se explora cada etapa del proceso.

  • Nivel del curso: Intermedio
  • Duración: 90 minutos

Contenido del curso

Este curso incluye presentaciones, ejemplos del mundo real y estudios de caso.

Objetivos del curso

En este curso, aprenderás:

  • Distinguir entre MLOps y LLMOps, definiendo los desafíos clave al implementar LLM
  • Cómo seleccionar el LLM más adecuado para un caso de uso determinado
  • Cómo evaluar LLM y la diferencia entre evaluaciones y pruebas de referencia
  • Definir los componentes clave de la Generación Aumentada por Recuperación (RAG) y cómo gestionarlos
  • Distinguir entre preentrenamiento continuo y ajuste fino
  • Técnicas de ajuste fino disponibles directamente en AWS
  • Qué monitorear en LLM y cómo hacerlo en AWS
  • Mejores prácticas de gobernanza y seguridad
  • Arquitectura de referencia de LLMOps sobre AWS

Audiencia del curso

Este curso está dirigido a:

  • Científicos de datos e ingenieros de aprendizaje automático interesados en automatizar la construcción y despliegue de LLM
  • Arquitectos de soluciones e ingenieros DevOps interesados en la arquitectura completa de una plataforma LLMOps

Prerequisitos

Recomendamos que los participantes de este curso cuenten con lo siguiente:

  • Completar el plan de estudio de IA generativa para desarrolladores (digital)
  • Fuerte experiencia técnica y habilidades de programación

Plan de estudios del curso

Módulo 1: Introducción a LLMOps

  • Introducción
  • Roles en LLMOps
  • Desafíos al implementar LLM

Módulo 2: Elección del LLM

  • Caso de estudio de uso de LLM
  • Toma de decisiones basadas en prioridades

Módulo 3: Evaluación de LLM

  • Métodos de evaluación
  • Directorios de evaluación
  • Marcos de referencia y métricas de evaluación
  • Marcos de pruebas de referencia y métricas

Módulo 4: Generación Aumentada por Recuperación (RAG)

  • Personalización de LLM
  • Modelos de incorporación
  • Bases de datos vectoriales
  • Flujos de trabajo de RAG
  • Técnicas avanzadas de RAG

Módulo 5: Ajuste fino de LLM

  • Preentrenamiento continuo y ajuste fino
  • Programa de estudio


    Enseñado por


    Etiquetas

    united states