Fine-Tuning with Llama 3

via DataCamp

DataCamp

60 Cursos


Resumen

Desbloquee el potencial de los modelos Llama con nuestro curso exhaustivo sobre ajuste fino usando TorchTune. Sumérjase en técnicas avanzadas para refinar modelos para tareas específicas, incluyendo el enfoque innovador de la cuantización.

Este curso es un recurso integral para preparar y aplicar modelos Llama de manera efectiva. Con ejercicios prácticos y ejemplos prácticos, adquirirá conocimientos especializados sobre la configuración de diversas tareas de ajuste fino.

Comience su camino dominando la preparación de datasets, cubriendo todo, desde la carga y división hasta el guardado de datasets de alta calidad utilizando la biblioteca Hugging Face Datasets. Asegure que sus proyectos Llama tengan la sólida base de datos que necesitan.

Progrese explorando flujos de trabajo de ajuste fino de vanguardia con herramientas líderes como TorchTune y el SFTTrainer de Hugging Face. Aprenderá a organizar recetas de ajuste fino, establecer argumentos de entrenamiento, y aprovechar métodos eficientes como LoRA (Adaptación de Bajo Rango) y cuantización con BitsAndBytes para una gestión óptima de recursos.

Al integrar el conjunto de técnicas enseñadas en este curso, personalice y mejore los modelos Llama para satisfacer eficientemente las necesidades únicas de sus proyectos. Colabore con DataCamp y ascienda a la vanguardia de la innovación en aprendizaje automático.

Programa de estudio


Enseñado por


Etiquetas