Lo que necesitas saber antes de
que comiences
Comienza 27 June 2025 14:27
Termina 27 June 2025
Escalar a 0 la Inferencia de Modelos de Lenguaje: Despliegue de Modelos Abiertos Rentable en GPUs Sin Servidor
Devoxx
2765 Cursos
17 minutes
Actualización opcional disponible
Not Specified
Progreso a tu propio ritmo
Free Video
Actualización opcional disponible
Resumen
Descubra el enfoque innovador para desplegar modelos LLM en GPUs sin servidor que escalan eficientemente a cero durante la inactividad. Esta sesión lo guiará a través del proceso de ejecutar Ollama en estas infraestructuras avanzadas, permitiendo un despliegue rentable de LLM abiertos.
Obtenga control total sobre tanto los modelos como los datos privados, optimizando el rendimiento y el gasto.
Programa de estudio
- **Introducción a la Computación sin Servidor con GPU**
- **Visión General de Ollama y Despliegue de LLM**
- **Configuración de un Entorno Sin Servidor**
- **Despliegue de LLMs en GPUs Sin Servidor**
- **Estrategias de Optimización de Costos**
- **Mantenimiento de la Privacidad del Modelo y los Datos**
- **Optimización del Rendimiento**
- **Solución de Problemas y Soporte**
- **Proyecto Final**
- **Conclusión del Curso y Direcciones Futuras**
Asignaturas
Ciencias de la Computación