Introducing Multimodal Llama 3.2

via Coursera

Coursera

1449 Cursos


course image

Resumen

Únete al curso corto 'Introduciendo Llama Multimodal 3.2' y sumérgete en las últimas innovaciones en IA presentadas por Amit Sangani, Director Senior de Ingeniería de IA para Socios en Meta. Explora las mejoras en los modelos Llama 3.1 y 3.2, incluyendo llamadas a herramientas personalizadas, multimodalidad y la pila Llama.

Los modelos Llama, que abarcan de 1B a 405B parámetros, son esenciales para la investigación e innovación en IA, permitiendo a los usuarios descargar, personalizar y ajustar finamente los modelos para desarrollar nuevas aplicaciones.

En este curso, obtén conocimientos sobre las nuevas capacidades de visión de Llama 3.2 y aprende a aprovechar estas características junto con las llamadas a herramientas y Llama Stack, una capa de orquestación de código abierto.

  • Comprende el entrenamiento y las características de los nuevos modelos en la familia Llama.
  • Domina el prompting multimodal para casos de uso complejos de razonamiento de imágenes.
  • Explora los roles—sistema, usuario, asistente, ipython—y los formatos de prompts en los modelos Llama.
  • Conoce el tokenizer tiktoken expandido con un vocabulario de 128k que soporta siete idiomas no ingleses.
  • Descubre cómo solicitar a Llama el uso de herramientas incorporadas y personalizadas.
  • Familiarízate con la API de Llama Stack para personalizar modelos y construir aplicaciones.

Comienza a construir aplicaciones innovadoras en Llama y expande tu experiencia en IA.

Universidad: Estudio Independiente

Proveedor: Coursera

Categorías: Cursos de Visión por Computadora, Cursos de Ingeniería de Prompts, Cursos de Ajuste Fino

Programa de estudio


Enseñado por


Etiquetas