What You Need to Know Before
You Start

Starts 5 June 2025 20:48

Ends 5 June 2025

00 days
00 hours
00 minutes
00 seconds
course image

Exploiter Ollama – Créez des LLM locaux avec Python

Maîtrisez Ollama et Python pour créer des applications LLM locales avec des projets pratiques tels que des systèmes RAG, des outils d'analyse de sentiments, et des interfaces activées par la voix pour des cas d'utilisation concrets.
Packt via Coursera

Packt

2015 Cours


6 hours 23 minutes

Optional upgrade avallable

Not Specified

Progress at your own speed

Free Online Course (Audit)

Optional upgrade avallable

Aperçu

Dans ce cours, vous apprendrez à créer des modèles de langue locaux en utilisant Ollama et Python. À la fin, vous serez équipé des outils nécessaires pour construire des applications basées sur LLM pour des cas d'utilisation réels.

Le cours introduit les fonctionnalités puissantes d'Ollama, l'installation et la configuration, suivies d'un guide pratique pour explorer et utiliser les modèles Ollama via Python. Vous aborderez des sujets tels que les API REST, la bibliothèque Python pour Ollama, et comment personnaliser et interagir efficacement avec les modèles.

Vous commencerez par configurer votre environnement de développement, suivi d'une introduction à Ollama, ses caractéristiques clés et les exigences système. Après avoir compris les bases, vous commencerez à travailler avec les commandes CLI d'Ollama et à explorer l'API REST pour interagir avec les modèles.

Le cours propose des exercices pratiques comme l'extraction et le test de modèles, leur personnalisation, et l'utilisation de divers points d'accès pour des tâches comme l'analyse des sentiments et la synthétisation. Le parcours se poursuit avec l'intégration de Python, en utilisant la bibliothèque Python Ollama pour construire des applications basées sur LLM.

Vous explorerez des fonctionnalités avancées comme le travail avec des modèles multimodaux, la création de modèles personnalisés, et l'utilisation de la fonction show pour diffuser des interactions de chat. Ensuite, vous développerez des applications complètes, telles qu'un catégoriseur de liste de courses et un système RAG, explorant les magasins vectoriels, les embeddings, et plus encore.

Ce cours est idéal pour ceux qui souhaitent créer des applications LLM avancées en utilisant Ollama et Python. Si vous avez un bagage en programmation Python et souhaitez créer des applications sophistiquées basées sur le langage, ce cours vous aidera à atteindre cet objectif.

Attendez-vous à une expérience d'apprentissage pratique avec l'opportunité de travailler sur plusieurs projets utilisant le cadre Ollama.

Programme

  • Introduction
  • Dans ce module, nous présenterons les objectifs du cours, résumerons les prérequis nécessaires pour réussir, et fournirons une démonstration engageante pour montrer les outils et concepts qui seront utilisés tout au long du cours.
  • Exploration en profondeur d'Ollama - Introduction à Ollama et Installation
  • Dans ce module, nous plongerons en profondeur dans Ollama, explorerons ses fonctionnalités et avantages, et vous guiderons à travers le processus d'installation pour utiliser Ollama et le modèle Llama3.2, en vous assurant d'être prêt pour une expérimentation pratique.
  • Commandes CLI d'Ollama et l'API REST - Pratique
  • Dans ce module, nous démontrerons comment utiliser les commandes CLI d'Ollama et l'API REST pour récupérer des modèles, générer des réponses, et les personnaliser pour différents cas d'utilisation, fournissant une expérience pratique concrète.
  • Ollama - Interfaces utilisateurs pour les modèles Ollama
  • Dans ce module, nous vous présenterons diverses interfaces utilisateurs pour interagir avec les modèles Ollama, incluant un regard détaillé sur l'application Msty et son utilisation comme outil frontend pour les systèmes RAG.
  • Bibliothèque Python Ollama - Utiliser Python pour interagir avec les modèles Ollama
  • Dans ce module, nous vous guiderons dans l'utilisation de la bibliothèque Python Ollama pour construire des applications LLM locales, interagir avec les modèles via Python, et explorer des techniques avancées comme la création de modèles personnalisés et le streaming.
  • Construction d'applications LLM avec les modèles Ollama
  • Dans ce module, nous vous aiderons à construire votre première application LLM en utilisant Ollama, vous guiderons dans le processus de construction et d'amélioration des systèmes RAG, et plongerons en profondeur dans les vectorstores et embeddings pour optimiser les applications LLM.
  • Appel de fonction de l'outil Ollama - Pratique
  • Dans ce module, nous vous apprendrons à utiliser l'appel de fonction au sein d'Ollama, configurer une application qui catégorise des éléments en utilisant des appels de fonction, et vous guiderons dans la création d'un produit final qui utilise ces fonctions.
  • Système RAG final avec Ollama et réponse vocale
  • Dans ce module, nous vous guiderons dans la création d'un système RAG final activé par la voix, intégrant l'API ElevenLabs pour résumer des documents et fournir des interactions basées sur la voix, se terminant par une application de réponse vocale pleinement fonctionnelle.
  • Conclusion
  • Dans ce module, nous passerons en revue les points clés du cours et offrirons des conseils sur la manière de continuer à apprendre et à appliquer les concepts que vous avez acquis tout au long du cours.

Enseigné par

Packt - Course Instructors


Sujets

Informatique