What You Need to Know Before
You Start

Starts 3 June 2025 14:23

Ends 3 June 2025

00 days
00 hours
00 minutes
00 seconds
course image

Mise à l'échelle à 0 de l'inférence LLM : Déploiement de modèle ouvert rentable sur des GPU sans serveur

Découvrez comment exécuter Ollama sur des GPU sans serveur qui évoluent efficacement, y compris jusqu'à zéro lorsqu'ils sont inactifs, pour un déploiement LLM ouvert rentable avec un contrôle total sur les modèles et les données privées.
Devoxx via YouTube

Devoxx

2416 Cours


17 minutes

Optional upgrade avallable

Not Specified

Progress at your own speed

Free Video

Optional upgrade avallable

Aperçu

Découvrez comment exécuter Ollama sur des GPU sans serveur qui évoluent efficacement, y compris jusqu'à zéro lorsqu'ils sont inactifs, pour un déploiement LLM ouvert rentable avec un contrôle total sur les modèles et les données privées.

Programme

  • **Introduction à l'informatique GPU sans serveur**
  • Qu'est-ce que l'informatique sans serveur ?
    Avantages des infrastructures sans serveur pour l'IA/ML
    Comprendre l'utilisation et la mise à l'échelle des GPU
  • **Aperçu d'Ollama et du déploiement de LLM**
  • Qu'est-ce que Ollama ?
    Introduction aux grands modèles de langage (LLM)
    Importance de la confidentialité des modèles et des données
  • **Mise en place d'un environnement sans serveur**
  • Choisir un fournisseur de cloud
    Configurer des ressources GPU sans serveur
    Configurer la sécurité et les autorisations d'accès
  • **Déploiement de LLM sur des GPU sans serveur**
  • Installer et configurer Ollama
    Sélection et préparation du modèle
    Conditionnement et déploiement d'un LLM
  • **Stratégies d'optimisation des coûts**
  • Mise à l'échelle à zéro : comprendre et exploiter les stratégies de réduction
    Surveillance de l'utilisation et des coûts
    Mise en œuvre de déclencheurs basés sur l'utilisation
  • **Maintien de la confidentialité des modèles et des données**
  • Assurer la confidentialité et la sécurité des données
    Méthodes de chiffrement des communications
    Considérations de conformité à la RGPD et autres réglementations sur la confidentialité
  • **Optimisation des performances**
  • Techniques pour améliorer la vitesse d'inférence
    Équilibrer le coût et la performance
    Études de cas de solutions de déploiement réussies
  • **Dépannage et support**
  • Problèmes courants et solutions
    Accéder aux ressources communautaires et de support
    Anticiper le futur et maintenir les systèmes
  • **Projet de fin d'études**
  • Déployer un exemple de LLM en utilisant des GPU sans serveur
    Présentation et évaluation de la stratégie de déploiement
  • **Conclusion du cours et orientations futures**
  • Récapitulatif des concepts clés
    Tendances émergentes dans le déploiement de l'IA
    Opportunités d'apprentissage et d'exploration ultérieurs

Sujets

Informatique