Ce que vous devez savoir avant
de commencer
Débute 6 July 2025 07:11
Se termine 6 July 2025
10 hours
Mise à niveau optionnelle disponible
Not Specified
Progressez à votre rythme
Paid Course
Mise à niveau optionnelle disponible
Aperçu
Feuille de route pour devenir ingénieur QA IA pour tester des LLM et des applications IA en utilisant DeepEval, RAGAs et HF Evaluate avec des LLM locaux Ce que vous apprendrez :
Comprendre l'objectif du test des LLM et des applications basées sur LLM Comprendre en détail DeepEval et RAGAs depuis les bases Comprendre les différents métriques et évaluations pour évaluer les LLM et les applications basées sur LLM en utilisant DeepEval et RAGAs Comprendre les concepts avancés de DeepEval et RAGAs Tester des applications basées sur RAG en utilisant DeepEval et RAGAs Tester des agents IA en utilisant DeepEval pour comprendre comment les appels d'outils peuvent être testés Tester des applications IA & LLM avec DeepEval, RAGAs et plus en utilisant Ollama et des Modèles de Langage de Grande Taille (LLMs) locaux Maîtriser les compétences essentielles pour tester et évaluer les applications IA, en particulier les Modèles de Langage de Grande Taille (LLMs). Ce cours pratique équipe les ingénieurs QA, AIQA, les développeurs, les scientifiques des données et les praticiens de l'IA avec des techniques de pointe pour évaluer les performances de l'IA, identifier les biais et assurer un développement d'application robuste.
Sujets abordés :
Section 1 :
Fondations du test d'application IA (Introduction au test de LLM, types d'application IA, métriques d'évaluation, bibliothèques d'évaluation LLM). Section 2 :
Déploiement de LLM local avec Ollama (Déploiement de LLM local, modèles IA, exécution de LLM localement, implémentation Ollama, GUI/CLI, configuration d'Ollama comme API).
Section 3 :
Configuration de l'environnement (Jupyter Notebook pour les tests, configuration de Confident AI). Section 4 :
Bases de DeepEval (Test traditionnel des LLM, premier code DeepEval pour la pertinence des réponses, la précision du contexte, évaluation dans Confident AI, test avec LLM local, compréhension des cas de test LLM et Goldens).
Section 5 :
Évaluation avancée de LLM (LangChain pour les LLM, évaluation de la pertinence des réponses, précision du contexte, détection des biais, critères personnalisés avec GEval, test avancé des biais). Section 6 :
Test RAG avec DeepEval (Introduction à RAG, compréhension des applications RAG, démo, création de GEval pour RAG, test de concision et de complétude).
Section 7 :
Test RAG avancé avec DeepEval (Création de multiples données de test, Goldens dans Confident AI, sortie réelle et contexte de récupération, cas de test LLM à partir de l'ensemble de données, exécution de l'évaluation pour RAG). Section 8 :
Test des agents IA et des appels d'outils (Comprendre les agents IA, travailler avec les agents, tester les agents avec et sans systèmes réels, tester avec plusieurs ensembles de données).
Section 9 :
Évaluation des LLM utilisant RAGAS (Introduction à RAGAS, rappel de contexte, sensibilité au bruit, MultiTurnSample, métriques à usage général pour les résumés et la nocivité). Section 10 :
Test d'applications RAG avec RAGAS (Introduction et configuration, création de récupérateurs et de magasins de vecteurs, ensemble de données MultiTurnSample pour RAG, évaluation RAG avec RAGAS).
Programme
- Section 1 : Fondements des tests d'application IA
- Section 2 : Déploiement local de LLM avec Ollama
- Section 3 : Configuration de l'environnement
- Section 4 : Bases de DeepEval
- Section 5 : Évaluation avancée de LLM
- Section 6 : Test RAG avec DeepEval
- Section 7 : Test RAG avancé avec DeepEval
- Section 8 : Essais des agents IA et des appels d'outil
- Section 9 : Évaluation des LLMs à l'aide de RAGAS
- Section 10 : Tester les applications RAG avec RAGAS
Enseigné par
Karthik KK
Sujets
Informatique