Resumen
Este curso aborda los desafíos de la producción de modelos de lenguaje extensos (LLM, por sus siglas en inglés) y un conjunto de herramientas disponibles para enfrentarlos. Se ofrece un resumen del desarrollo, despliegue e implementación de arquitecturas de referencia de LLM y se explora cada etapa del proceso.
- Nivel del curso: Intermedio
- Duración: 90 minutos
Contenido del curso
Este curso incluye presentaciones, ejemplos del mundo real y estudios de caso.
Objetivos del curso
En este curso, aprenderás:
- Distinguir entre MLOps y LLMOps, definiendo los desafíos clave al implementar LLM
- Cómo seleccionar el LLM más adecuado para un caso de uso determinado
- Cómo evaluar LLM y la diferencia entre evaluaciones y pruebas de referencia
- Definir los componentes clave de la Generación Aumentada por Recuperación (RAG) y cómo gestionarlos
- Distinguir entre preentrenamiento continuo y ajuste fino
- Técnicas de ajuste fino disponibles directamente en AWS
- Qué monitorear en LLM y cómo hacerlo en AWS
- Mejores prácticas de gobernanza y seguridad
- Arquitectura de referencia de LLMOps sobre AWS
Audiencia del curso
Este curso está dirigido a:
- Científicos de datos e ingenieros de aprendizaje automático interesados en automatizar la construcción y despliegue de LLM
- Arquitectos de soluciones e ingenieros DevOps interesados en la arquitectura completa de una plataforma LLMOps
Prerequisitos
Recomendamos que los participantes de este curso cuenten con lo siguiente:
- Completar el plan de estudio de IA generativa para desarrolladores (digital)
- Fuerte experiencia técnica y habilidades de programación
Plan de estudios del curso
Módulo 1: Introducción a LLMOps
- Introducción
- Roles en LLMOps
- Desafíos al implementar LLM
Módulo 2: Elección del LLM
- Caso de estudio de uso de LLM
- Toma de decisiones basadas en prioridades
Módulo 3: Evaluación de LLM
- Métodos de evaluación
- Directorios de evaluación
- Marcos de referencia y métricas de evaluación
- Marcos de pruebas de referencia y métricas
Módulo 4: Generación Aumentada por Recuperación (RAG)
- Personalización de LLM
- Modelos de incorporación
- Bases de datos vectoriales
- Flujos de trabajo de RAG
- Técnicas avanzadas de RAG
Módulo 5: Ajuste fino de LLM
- Preentrenamiento continuo y ajuste fino