Ce que vous devez savoir avant
de commencer

Débute 4 July 2025 13:35

Se termine 4 July 2025

00 Jours
00 Heures
00 Minutes
00 Secondes
course image

Projection de performance d'inférence LLM

Plongez dans les complexités de l'inférence IA avec MESA, un outil sophistiqué créé pour projeter et analyser la performance des grands modèles de langage (LLM) à travers une gamme d'architectures matérielles et de modèles. Cette ressource d'évaluation offre des décompositions détaillées des processus opérationnels et des analyses approfondie.
Open Compute Project via YouTube

Open Compute Project

2777 Cours


15 minutes

Mise à niveau optionnelle disponible

Not Specified

Progressez à votre rythme

Free Video

Mise à niveau optionnelle disponible

Aperçu

Plongez dans les complexités de l'inférence IA avec MESA, un outil sophistiqué créé pour projeter et analyser la performance des grands modèles de langage (LLM) à travers une gamme d'architectures matérielles et de modèles. Cette ressource d'évaluation offre des décompositions détaillées des processus opérationnels et des analyses approfondies de la longueur du contexte.

Rejoignez-nous pour améliorer votre compréhension du fonctionnement et de l'évolution de ces systèmes IA dans différents environnements de calcul, proposé par YouTube. Idéal pour les passionnés et les professionnels intéressés par l'intelligence artificielle et l'informatique.

Programme

  • Introduction à la performance d'inférence des LLM
  • Aperçu des grands modèles de langage (LLM)
    Importance de la projection de performance pour les applications LLM
  • Introduction à MESA
  • Qu'est-ce que MESA ?
    Fonctionnalités et capacités de MESA
  • Configuration de MESA
  • Installation et configuration
    Préparation de l'environnement pour l'analyse d'inférence
  • Évaluation de la performance des LLM
  • Principaux indicateurs pour l'évaluation de la performance
    Comparaison des différentes architectures de LLM
  • Considérations matérielles
  • Aperçu des options matérielles pour l'inférence des LLM
    Analyse de la performance à travers les CPUs, GPUs et TPUs
  • Décompositions des opérations
  • Comprendre les opérations du modèle
    Décomposer les processus d'inférence dans MESA
  • Analyse de la longueur de contexte
  • Impact de la longueur de contexte sur la performance d'inférence
    Techniques pour optimiser la longueur de contexte dans les LLM
  • Études de cas
  • Exemples concrets d'utilisation de MESA pour l'évaluation de la performance
    Leçons tirées de différentes études de cas
  • Tendances futures dans l'inférence des LLM
  • Technologies émergentes et leur impact sur l'inférence
    Prédictions pour l'avenir de l'analyse de performance des LLM
  • Conclusion
  • Résumé des enseignements clés
    Prochaines étapes pour explorer et appliquer MESA à la projection de performance

Sujets

Informatique