What You Need to Know Before
You Start
Starts 5 June 2025 09:01
Ends 5 June 2025

AWS Flash - Operationalize Generative AI Applications (FMOps/LLMOps) (Simplified Chinese)
479 Cursos
Not Specified
Optional upgrade avallable
All Levels
Progress at your own speed
Free
Optional upgrade avallable
Resumen
Este curso aborda los desafíos de la producción de modelos de lenguaje extensos (LLM, por sus siglas en inglés) y un conjunto de herramientas disponibles para enfrentarlos. Se ofrece un resumen del desarrollo, despliegue e implementación de arquitecturas de referencia de LLM y se explora cada etapa del proceso.
- Nivel del curso:
Intermedio
- Duración:
90 minutos
Contenido del curso
Este curso incluye presentaciones, ejemplos del mundo real y estudios de caso.
Objetivos del curso
En este curso, aprenderás:
- Distinguir entre MLOps y LLMOps, definiendo los desafíos clave al implementar LLM
- Cómo seleccionar el LLM más adecuado para un caso de uso determinado
- Cómo evaluar LLM y la diferencia entre evaluaciones y pruebas de referencia
- Definir los componentes clave de la Generación Aumentada por Recuperación (RAG) y cómo gestionarlos
- Distinguir entre preentrenamiento continuo y ajuste fino
- Técnicas de ajuste fino disponibles directamente en AWS
- Qué monitorear en LLM y cómo hacerlo en AWS
- Mejores prácticas de gobernanza y seguridad
- Arquitectura de referencia de LLMOps sobre AWS
Audiencia del curso
Este curso está dirigido a:
- Científicos de datos e ingenieros de aprendizaje automático interesados en automatizar la construcción y despliegue de LLM
- Arquitectos de soluciones e ingenieros DevOps interesados en la arquitectura completa de una plataforma LLMOps
Prerequisitos
Recomendamos que los participantes de este curso cuenten con lo siguiente:
- Completar el plan de estudio de IA generativa para desarrolladores (digital)
- Fuerte experiencia técnica y habilidades de programación
Plan de estudios del curso
Módulo 1:
Introducción a LLMOps
- Introducción
- Roles en LLMOps
- Desafíos al implementar LLM
Módulo 2:
Elección del LLM
- Caso de estudio de uso de LLM
- Toma de decisiones basadas en prioridades
Módulo 3:
Evaluación de LLM
- Métodos de evaluación
- Directorios de evaluación
- Marcos de referencia y métricas de evaluación
- Marcos de pruebas de referencia y métricas
Módulo 4:
Generación Aumentada por Recuperación (RAG)
- Personalización de LLM
- Modelos de incorporación
- Bases de datos vectoriales
- Flujos de trabajo de RAG
- Técnicas avanzadas de RAG
Módulo 5:
Ajuste fino de LLM
- Preentrenamiento continuo y ajuste fino