Introducing Multimodal Llama 3.2

via Coursera

Coursera

1449 Cours


course image

Aperçu

Rejoignez le court cours 'Présentation de Multimodal Llama 3.2' et plongez dans les dernières innovations en IA présentées par Amit Sangani, Directeur Senior de l'Ingénierie des Partenaires IA chez Meta. Explorez les améliorations des modèles Llama 3.1 et 3.2, incluant l'appel d'outils personnalisé, la multimodalité et la Llama stack.

Les modèles Llama, allant de 1B à 405B de paramètres, sont essentiels pour la recherche et l'innovation en IA, permettant aux utilisateurs de télécharger, personnaliser et affiner des modèles pour développer de nouvelles applications.

Dans ce cours, acquérez des connaissances sur les nouvelles capacités visuelles de Llama 3.2, et apprenez à exploiter ces fonctionnalités ainsi que l'appel d'outils et la Llama Stack, une couche d'orchestration open-source.

  • Comprendre l'entraînement et les fonctionnalités des nouveaux modèles de la famille Llama.
  • Maîtriser le protocole multimodal pour des cas d'utilisation complexes en raisonnement d'images.
  • Explorer les rôles — système, utilisateur, assistant, ipython — et les formats de prompt dans les modèles Llama.
  • En apprendre plus sur le tokenizer tiktoken étendu avec 128k vocabulaire supportant sept langues non anglaises.
  • Découvrez comment solliciter Llama pour l'utilisation d'outils intégrés et personnalisés.
  • Familiarisez-vous avec l'API de Llama Stack pour personnaliser des modèles et construire des applications.

Commencez à créer des applications innovantes sur Llama et étendez votre expertise en IA.

Université: Étude Indépendante

Fournisseur: Coursera

Catégories: Cours de Vision par Ordinateur, Cours d'Ingénierie des Prompts, Cours d'Affinage

Programme


Enseigné par


Étiquettes