Lo que necesitas saber antes de
que comiences

Comienza 4 July 2025 13:19

Termina 4 July 2025

00 Días
00 Horas
00 Minutos
00 Segundos
course image

Cómo evaluar a los agentes de IA - Parte 2

Profundice en las complejidades de evaluar agentes de IA con nuestro curso integral, 'Cómo Evaluar Agentes de IA - Parte 2.' Esta sesión se centra en técnicas de evaluación modernas que son fundamentales para evaluar la efectividad de los agentes de IA. Explorará conceptos como LLM-como-juez, métodos de evaluación basados en código y la imp.
Data Science Dojo via YouTube

Data Science Dojo

2777 Cursos


50 minutes

Actualización opcional disponible

Not Specified

Progreso a tu propio ritmo

Free Video

Actualización opcional disponible

Resumen

Profundice en las complejidades de evaluar agentes de IA con nuestro curso integral, 'Cómo Evaluar Agentes de IA - Parte 2.' Esta sesión se centra en técnicas de evaluación modernas que son fundamentales para evaluar la efectividad de los agentes de IA. Explorará conceptos como LLM-como-juez, métodos de evaluación basados en código y la importancia de la retroalimentación humana.

El curso presenta demostraciones prácticas utilizando Arize Phoenix, ilustrando cómo estas técnicas pueden aplicarse en escenarios del mundo real para lograr evaluaciones precisas de las capacidades de IA.

Ideal para aquellos interesados en Ciencias de la Computación e Inteligencia Artificial, esta sesión se lleva a cabo en YouTube, asegurando un aprendizaje accesible para todos. ¡Únase a nosotros para mejorar sus habilidades en evaluación de IA hoy mismo!

Programa de estudio

  • Introducción a la Evaluación de Agentes de IA
  • Panorama de los agentes de IA y sus funciones
    Importancia de la evaluación en el desarrollo de IA
  • Panorama de Técnicas de Evaluación Moderna
  • Clasificación de técnicas de evaluación
    Elección del método de evaluación adecuado
  • Evaluación con LLM como Juez
  • Explicación de LLM como juez
    Ventajas y limitaciones
    Demostración práctica usando Arize Phoenix
  • Métodos de Evaluación Basados en Código
  • Marcos de prueba automatizados
    Métricas de rendimiento y benchmarking
    Estudios de caso basados en código
  • Mecanismos de Retroalimentación Humana
  • Recolección de retroalimentación cualitativa
    Diseño de estudios de usuarios para IA
    Integración de la retroalimentación humana en la mejora de agentes
  • Sesiones Prácticas con Arize Phoenix
  • Introducción a la plataforma Arize Phoenix
    Ejercicios prácticos: Configuración de evaluaciones
    Análisis de resultados y generación de insights
  • Estudios de Caso y Aplicaciones en el Mundo Real
  • Revisión de evaluaciones exitosas de agentes de IA
    Lecciones aprendidas de proyectos del mundo real
  • Tendencias Futuras en la Evaluación de Agentes de IA
  • Técnicas y tecnologías emergentes
    Predicción de desafíos y oportunidades en la evaluación
  • Conclusión y Conclusiones
  • Resumen de técnicas clave aprendidas
    Estrategias para la mejora continua de la evaluación

Asignaturas

Ciencias de la Computación