Lo que necesitas saber antes de
que comiences

Comienza 4 July 2025 10:24

Termina 4 July 2025

00 Días
00 Horas
00 Minutos
00 Segundos
course image

Proyección del Rendimiento de Inferencia de LLM

Adéntrate en las complejidades de la inferencia de IA con MESA, una herramienta sofisticada creada para proyectar y analizar el rendimiento de modelos de lenguaje de gran envergadura (LLMs) en una variedad de hardware y arquitecturas de modelos. Este recurso de evaluación ofrece desgloses detallados de procesos operacionales y análisis en pr.
Open Compute Project via YouTube

Open Compute Project

2765 Cursos


15 minutes

Actualización opcional disponible

Not Specified

Progreso a tu propio ritmo

Free Video

Actualización opcional disponible

Resumen

Adéntrate en las complejidades de la inferencia de IA con MESA, una herramienta sofisticada creada para proyectar y analizar el rendimiento de modelos de lenguaje de gran envergadura (LLMs) en una variedad de hardware y arquitecturas de modelos. Este recurso de evaluación ofrece desgloses detallados de procesos operacionales y análisis en profundidad de la longitud del contexto.

Únete a nosotros para mejorar tu comprensión de cómo estos sistemas de IA funcionan y escalan en diferentes entornos computacionales, traído a ti por YouTube. Ideal para entusiastas y profesionales interesados en inteligencia artificial y ciencias de la computación.

Programa de estudio

  • Introducción al Rendimiento de Inferencia de Modelos de Lenguaje de Gran Escala
  • Visión general de los modelos de lenguaje de gran escala (LLMs)
    Importancia de la proyección de rendimiento para aplicaciones de LLM
  • Introducción a MESA
  • ¿Qué es MESA?
    Características y capacidades de MESA
  • Configuración de MESA
  • Instalación y configuración
    Preparación del entorno para el análisis de inferencia
  • Evaluación del Rendimiento de LLM
  • Métricas clave para la evaluación del rendimiento
    Comparación de diferentes arquitecturas de LLM
  • Consideraciones de Hardware
  • Visión general de las opciones de hardware para la inferencia de LLM
    Análisis del rendimiento entre CPUs, GPUs y TPUs
  • Desglose de Operaciones
  • Comprensión de las operaciones del modelo
    Desglose de procesos de inferencia en MESA
  • Análisis de Longitud de Contexto
  • Impacto de la longitud del contexto en el rendimiento de inferencia
    Técnicas para optimizar la longitud del contexto en LLMs
  • Estudios de Caso
  • Ejemplos del mundo real utilizando MESA para la evaluación del rendimiento
    Lecciones aprendidas de diferentes estudios de caso
  • Tendencias Futuras en la Inferencia de LLM
  • Tecnologías emergentes y su impacto en la inferencia
    Predicciones sobre la futura dirección del análisis de rendimiento de LLM
  • Conclusión
  • Resumen de los aprendizajes clave
    Próximos pasos en la exploración y aplicación de MESA para la proyección de rendimiento

Asignaturas

Ciencias de la Computación