What You Need to Know Before
You Start

Starts 13 June 2025 09:23

Ends 13 June 2025

00 days
00 hours
00 minutes
00 seconds
course image

Développement d'IA avec Qwen 2.5 et Ollama : Construisez des applications IA localement

Créez des applications alimentées par l'IA localement en utilisant Qwen 2.5 et Ollama. Apprenez le Python, FastAPI et le développement d'IA dans le monde réel.
via Udemy

4113 Cours


1 hour 27 minutes

Optional upgrade avallable

Not Specified

Progress at your own speed

Paid Course

Optional upgrade avallable

Aperçu

Développez des applications alimentées par l'IA localement en utilisant Qwen 2.5 et Ollama. Apprenez Python, FastAPI et le développement de l'IA dans le monde réel.

Ce que vous apprendrez :

Configurez et exécutez Qwen 2.5 sur une machine locale en utilisant Ollama. Comprenez comment fonctionnent les grands modèles de langage (LLM).

Construisez des applications alimentées par l'IA en utilisant Python et FastAPI. Créez des API REST pour interagir avec les modèles d'IA localement.

Intégrez des modèles d'IA dans des applications web utilisant React.js. Optimisez et affinez les modèles d'IA pour de meilleures performances.

Implémentez des solutions d'IA locales sans dépendances cloud. Utilisez l'outil en ligne de commande Ollama et le SDK Python pour gérer les modèles d'IA.

Déployez des applications d'IA localement et sur des plateformes cloud. Explorez des cas d'utilisation de l'IA dans le monde réel au-delà des chatbots.

Êtes-vous prêt à construire des applications alimentées par l'IA localement sans dépendre des API basées sur le cloud ? Ce cours pratique vous apprendra à développer, optimiser et déployer des applications d'IA en utilisant Qwen 2.5 et Ollama, deux outils puissants pour exécuter des modèles de grands langages (LLM) sur votre machine locale.

Avec la montée en puissance des modèles d'IA open-source, les développeurs ont maintenant l'opportunité de créer des applications intelligentes qui traitent du texte, génèrent du contenu et automatisent des tâches, tout en gardant les données privées et sécurisées. Dans ce cours, vous apprendrez à installer, configurer et intégrer Qwen 2.5 avec Ollama, à construire des backends IA basés sur FastAPI et à développer des solutions d'IA dans le monde réel.

Pourquoi apprendre Qwen 2.5 et Ollama ? Qwen 2.5 est un puissant grand modèle de langage (LLM) développé par Alibaba Cloud, optimisé pour le traitement du langage naturel (NLP), la génération de texte, le raisonnement et l'assistance au code.

Contrairement aux modèles traditionnels basés sur le cloud comme GPT-4, Qwen 2.5 peut s'exécuter localement, ce qui le rend idéal pour des applications d'IA sensibles à la confidentialité. Ollama est un outil de gestion de modèles d'IA qui permet aux développeurs d'exécuter et de déployer des LLM localement avec une grande efficacité et une faible latence.

Avec Ollama, vous pouvez télécharger des modèles, les exécuter dans vos applications et les affiner pour des tâches spécifiques, le tout sans besoin de ressources cloud coûteuses. Ce cours est pratique et concret, conçu pour vous aider à appliquer l'IA dans des projets réels.

Que vous souhaitiez créer des interfaces de chat alimentées par l'IA, des résumeurs de documents, des assistants de code ou des outils d'automatisation intelligents, ce cours vous équipera des compétences nécessaires. Pourquoi suivre ce cours ? - Développement pratique de l'IA avec des projets réels - Aucune dépendance aux API cloud — gardez vos applications d'IA privées et sécurisées - Compétences pérennes pour travailler avec des LLM open-source - Déploiement d'IA rapide et efficace avec l'exécution locale d'Ollama À la fin de ce cours, vous aurez des applications alimentées par l'IA fonctionnant sur votre machine, une compréhension approfondie des LLM et les compétences pour développer des solutions d'IA futures.

Êtes-vous prêt à commencer à construire ?

Programme

  • Introduction au développement de l'IA avec Qwen 2.5 et Ollama
  • Aperçu de Qwen 2.5 et d'Ollama
    Objectifs du cours et résultats d'apprentissage
  • Configuration de votre environnement local
  • Installation locale de Qwen 2.5
    Configuration d'Ollama pour la gestion des modèles
    Introduction à Python et aux bibliothèques nécessaires
  • Comprendre les grands modèles de langage (LLM)
  • Fondamentaux des LLM
    Capacités et architecture de Qwen 2.5
    Comparaison des LLM locaux et basés sur le cloud
  • Créer des applications alimentées par l'IA avec Python
  • Programmation Python de base pour l'IA
    Introduction à FastAPI pour construire des backends
    Création d'API REST pour interagir avec les modèles d'IA
  • Développer des backends IA avec FastAPI
  • Mise en place de FastAPI
    Intégration de Qwen 2.5 avec FastAPI
    Développement et déploiement d'API alimentées par l'IA
  • Intégration du frontend avec React.js
  • Introduction à React.js
    Combinaison de React.js avec FastAPI pour des applications IA full-stack
    Construction d'interfaces web pour interagir avec les modèles d'IA
  • Optimisation et ajustement des modèles d'IA
  • Techniques d'optimisation des modèles
    Méthodes d'ajustement pour des tâches spécifiques
    Évaluation des performances des modèles et améliorations
  • Gestion des modèles d'IA localement avec Ollama
  • Utilisation du CLI d'Ollama
    Exploration du SDK Ollama pour Python
    Gestion du cycle de vie des modèles et contrôle de version
  • Déploiement des applications IA localement et sur le cloud
  • Stratégies de déploiement pour l'exécution locale
    Transition des plateformes locales au cloud
    Meilleures pratiques pour déployer des applications IA
  • Cas d'utilisation de l'IA dans le monde réel au-delà des chatbots
  • Exploration d'applications en PNL, génération de texte et automatisation
    Études de cas : Résumeurs de documents, assistants de code
    Considérations éthiques et confidentialité dans les applications IA
  • Conclusion du cours et orientations futures
  • Récapitulatif des concepts clés et des compétences
    Exploration des tendances futures dans l'IA et les LLM
    Prochaines étapes pour l'apprentissage et le développement continus

Enseigné par

Dr. Vivian Aranha


Sujets

Informatique