Resumen
Únete al curso corto 'Introduciendo Llama Multimodal 3.2' y sumérgete en las últimas innovaciones en IA presentadas por Amit Sangani, Director Senior de Ingeniería de IA para Socios en Meta. Explora las mejoras en los modelos Llama 3.1 y 3.2, incluyendo llamadas a herramientas personalizadas, multimodalidad y la pila Llama.
Los modelos Llama, que abarcan de 1B a 405B parámetros, son esenciales para la investigación e innovación en IA, permitiendo a los usuarios descargar, personalizar y ajustar finamente los modelos para desarrollar nuevas aplicaciones.
En este curso, obtén conocimientos sobre las nuevas capacidades de visión de Llama 3.2 y aprende a aprovechar estas características junto con las llamadas a herramientas y Llama Stack, una capa de orquestación de código abierto.
- Comprende el entrenamiento y las características de los nuevos modelos en la familia Llama.
- Domina el prompting multimodal para casos de uso complejos de razonamiento de imágenes.
- Explora los roles—sistema, usuario, asistente, ipython—y los formatos de prompts en los modelos Llama.
- Conoce el tokenizer tiktoken expandido con un vocabulario de 128k que soporta siete idiomas no ingleses.
- Descubre cómo solicitar a Llama el uso de herramientas incorporadas y personalizadas.
- Familiarízate con la API de Llama Stack para personalizar modelos y construir aplicaciones.
Comienza a construir aplicaciones innovadoras en Llama y expande tu experiencia en IA.
Universidad: Estudio Independiente
Proveedor: Coursera
Categorías: Cursos de Visión por Computadora, Cursos de Ingeniería de Prompts, Cursos de Ajuste Fino
Programa de estudio
Enseñado por
Etiquetas