Evaluating Large Language Model Outputs: A Practical Guide

via Coursera

Coursera

1276 Cursos


course image

Resumen

Evaluating Large Language Model Outputs: A Practical Guide

Este curso aborda la evaluación de Modelos de Lenguaje Grandes (LLMs), comenzando con métodos de evaluación fundamentales, explorando técnicas avanzadas con herramientas de Vertex AI como Métricas Automáticas y AutoSxS, y previendo la evolución de la evaluación de IA generativa.

Ideal para Product Managers de IA que buscan optimizar aplicaciones de LLM, Científicos de Datos interesados en técnicas avanzadas de evaluación de modelos de IA, Éticos de IA y Políticos enfocados en el despliegue responsable de la IA, e Investigadores Académicos que estudian el impacto de la IA generativa en diversos dominios.

Se recomienda tener una comprensión básica de inteligencia artificial, conceptos de aprendizaje automático y familiaridad con el procesamiento de lenguaje natural (NLP). La experiencia previa con Google Cloud Vertex AI es beneficiosa pero no es requerida. Se cubren aplicaciones prácticas, integrando el juicio humano con métodos automáticos, y se prepara a los estudiantes para futuras tendencias en la evaluación de IA a través de varios medios, incluyendo texto, imágenes y audio. Este enfoque integral asegura que esté equipado para evaluar efectivamente los LLM, mejorando estrategias de negocio e innovación.

Universidad:
Proveedor: Coursera
Categorías:

Programa de estudio


Enseñado por


Etiquetas

Encontrado en