Distillation structurée d'agents pour grands modèles de langage

via YouTube

YouTube

2338 Cours


course image

Aperçu

Découvrez comment la distillation d'agent structuré (SAD) améliore les performances des grands modèles de langage avant la quantification, présentée par des chercheurs du MIT, de Harvard, de CMU et d'autres institutions.

Programme


Enseigné par


Étiquettes