Ce que vous devez savoir avant
de commencer
Débute 27 June 2025 10:52
Se termine 27 June 2025
Mise à l'échelle à 0 de l'inférence LLM : Déploiement de modèle ouvert rentable sur des GPU sans serveur
Devoxx
2765 Cours
17 minutes
Mise à niveau optionnelle disponible
Not Specified
Progressez à votre rythme
Free Video
Mise à niveau optionnelle disponible
Aperçu
Découvrez l'approche innovante pour déployer des modèles LLM sur des GPU sans serveur qui s'ajustent efficacement à zéro en période d'inactivité. Cette session vous guidera à travers le processus d'exécution d'Ollama sur ces infrastructures avancées, permettant un déploiement économique des LLM ouverts.
Prenez le contrôle total des modèles et des données privées, en optimisant la performance et les dépenses.
Programme
- **Introduction à l'informatique GPU sans serveur**
- **Aperçu d'Ollama et du déploiement de LLM**
- **Mise en place d'un environnement sans serveur**
- **Déploiement de LLM sur des GPU sans serveur**
- **Stratégies d'optimisation des coûts**
- **Maintien de la confidentialité des modèles et des données**
- **Optimisation des performances**
- **Dépannage et support**
- **Projet de fin d'études**
- **Conclusion du cours et orientations futures**
Sujets
Informatique