What You Need to Know Before
You Start
Starts 3 June 2025 14:24
Ends 3 June 2025
00
days
00
hours
00
minutes
00
seconds
Escalar a 0 la Inferencia de Modelos de Lenguaje: Despliegue de Modelos Abiertos Rentable en GPUs Sin Servidor
Descubra cómo ejecutar Ollama en GPUs sin servidor que se escalan de manera eficiente, incluso reduciéndose a cero cuando están inactivas, para un despliegue económico de LLM abiertos con control total sobre los modelos y datos privados.
Devoxx
via YouTube
Devoxx
2416 Cursos
17 minutes
Optional upgrade avallable
Not Specified
Progress at your own speed
Free Video
Optional upgrade avallable
Resumen
Descubra cómo ejecutar Ollama en GPUs sin servidor que se escalan de manera eficiente, incluso reduciéndose a cero cuando están inactivas, para un despliegue económico de LLM abiertos con control total sobre los modelos y datos privados.
Programa de estudio
- **Introducción a la Computación sin Servidor con GPU**
- **Visión General de Ollama y Despliegue de LLM**
- **Configuración de un Entorno Sin Servidor**
- **Despliegue de LLMs en GPUs Sin Servidor**
- **Estrategias de Optimización de Costos**
- **Mantenimiento de la Privacidad del Modelo y los Datos**
- **Optimización del Rendimiento**
- **Solución de Problemas y Soporte**
- **Proyecto Final**
- **Conclusión del Curso y Direcciones Futuras**
¿Qué es la computación sin servidor?
Beneficios de las infraestructuras sin servidor para AI/ML
Comprensión del uso de GPU y escalado
¿Qué es Ollama?
Introducción a Modelos de Lenguaje de Gran Escala (LLMs)
Importancia de la privacidad del modelo y los datos
Selección de un proveedor de nube
Configuración de recursos de GPU sin servidor
Configuración de seguridad y permisos de acceso
Instalación y configuración de Ollama
Selección y preparación del modelo
Empaquetado y despliegue de un LLM
Escalado a cero: Entendiendo y aprovechando estrategias de reducción de escala
Monitoreo del uso y costos
Implementación de disparadores basados en el uso
Asegurando que los datos se mantengan privados y seguros
Métodos para encriptar comunicaciones
Consideraciones de cumplimiento de GDPR y otras normativas de privacidad
Técnicas para mejorar la velocidad de inferencia
Balance entre costo y rendimiento
Estudios de caso de soluciones de despliegue exitosas
Problemas comunes y soluciones
Acceso a recursos de comunidad y soporte
Preparación para el futuro y mantenimiento de sistemas
Desplegar un LLM de muestra usando GPUs sin servidor
Presentación y evaluación de la estrategia de despliegue
Resumen de conceptos clave
Tendencias emergentes en despliegue de IA
Oportunidades para aprendizaje y exploración adicional
Asignaturas
Ciencias de la Computación