Fine-Tuning with Llama 3

via DataCamp

DataCamp

60 Cours


Aperçu

Débloquez le potentiel des modèles Llama avec notre cours approfondi sur l'ajustement fin à l'aide de TorchTune. Plongez dans des techniques avancées pour affiner les modèles pour des tâches sur mesure, y compris l'approche innovante de quantification.

Ce cours est une ressource complète pour préparer et appliquer efficacement les modèles Llama. Des exercices pratiques aux exemples concrets, vous acquerrez des connaissances expertes sur la configuration de diverses tâches d'ajustement fin.

Commencez votre parcours en maîtrisant la préparation des jeux de données, couvrant tout, du chargement et de la division à la sauvegarde de jeux de données de haute qualité en utilisant la bibliothèque Hugging Face Datasets. Assurez-vous que vos projets Llama disposent de la base de données robuste dont ils ont besoin.

Progressez vers l'exploration des flux de travail d'ajustement fin à la pointe avec des outils de premier plan tels que TorchTune et le SFTTrainer de Hugging Face. Vous apprendrez à organiser des recettes d'ajustement fin, à établir des arguments de formation, et à exploiter des méthodes efficaces comme LoRA (Adaptation de Basse-Rangée) et la quantification avec BitsAndBytes pour une gestion optimale des ressources.

En intégrant la gamme de techniques enseignées dans ce cours, personnalisez et améliorez les modèles Llama pour répondre efficacement aux besoins uniques de vos projets. Associez-vous à DataCamp et atteignez l'avant-garde de l'innovation en apprentissage automatique.

Programme


Enseigné par


Étiquettes