What You Need to Know Before
You Start

Starts 8 June 2025 14:20

Ends 8 June 2025

00 days
00 hours
00 minutes
00 seconds
course image

Autoalojamiento de LLMs: Guía del Arquitecto sobre Cuándo y Cómo

Descubra los factores clave para evaluar cuándo alojar LLMs localmente y aprenda las mejores prácticas para optimizar el despliegue en entornos empresariales, desde el ahorro de costos hasta consideraciones de seguridad.
InfoQ via YouTube

InfoQ

2544 Cursos


40 minutes

Optional upgrade avallable

Not Specified

Progress at your own speed

Free Video

Optional upgrade avallable

Resumen

Descubra los factores clave para evaluar cuándo alojar LLMs localmente y aprenda las mejores prácticas para optimizar el despliegue en entornos empresariales, desde el ahorro de costos hasta consideraciones de seguridad.

Programa de estudio

  • Introducción a los Modelos de Lenguaje Grandes (LLMs)
  • Visión general de los LLMs y sus aplicaciones
    Diferencias entre LLMs alojados en la nube y autoalojados
  • Evaluación de la Necesidad de Autoalojamiento
  • Evaluación de los requisitos empresariales
    Análisis del costo-beneficio del autoalojamiento frente a las soluciones en la nube
    Comprensión de los requisitos regulatorios y de cumplimiento
    Determinación de las necesidades de rendimiento y latencia
  • Arquitectura e Infraestructura para Autoalojamiento
  • Requisitos de hardware y especificaciones
    Configuraciones de red y consideraciones
    Estrategias de escalabilidad y equilibrio de carga
  • Mejores Prácticas de Implementación
  • Selección de los marcos y modelos de LLM adecuados
    Contenerización y orquestación con Docker y Kubernetes
    Garantizar alta disponibilidad y redundancia
  • Consideraciones de Seguridad para Autoalojamiento
  • Implementación de autenticación y autorización robustas
    Cifrado de datos y manejo seguro de datos
    Sistemas de monitoreo y detección de intrusiones
  • Optimización del Rendimiento y la Eficiencia
  • Ajuste fino y personalización de modelos para tareas específicas
    Asignación y gestión de recursos
    Estrategias para minimizar la latencia y maximizar el rendimiento
  • Gestión de Costos y Optimización de Recursos
  • Análisis de costos y presupuestación para el autoalojamiento
    Escalado de recursos y estrategias de ahorro de costos
    Herramientas para monitorear y optimizar el uso de recursos
  • Mantenimiento y Solución de Problemas
  • Actualizaciones regulares y gestión de parches
    Escenarios comunes de solución de problemas y soluciones
    Planes de respaldo y recuperación ante desastres
  • Estudios de Caso y Aplicaciones del Mundo Real
  • Análisis de implementaciones exitosas de LLMs autoalojados
    Lecciones aprendidas y mejores prácticas de líderes de la industria
  • Tendencias Futuras y Tecnologías Emergentes
  • Evolución de los LLMs y la infraestructura de autoalojamiento
    El papel de la computación en el borde y arquitecturas híbridas
  • Conclusión y Resumen
  • Puntos clave y reflexiones finales
    Recursos adicionales y lecturas complementarias
  • Taller Práctico (Opcional)
  • Laboratorio práctico para configurar una implementación de LLM autoalojada
    Sesión de preguntas y respuestas interactiva con expertos de la industria

Asignaturas

Ciencias de la Computación