Evaluating Large Language Model Outputs: A Practical Guide

via Coursera

Coursera

1276 Cours


course image

Aperçu

Évaluer les Résultats des Modèles de Langage de Grande Taille : Un Guide Pratique

Ce cours aborde l'évaluation des Modèles de Langage de Grande Taille (LLMs), en commençant par les méthodes d'évaluation fondamentales, en explorant des techniques avancées avec les outils de Vertex AI tels que les Métriques Automatiques et AutoSxS, et en prévoyant l'évolution de l'évaluation de l'IA générative.

Idéal pour les Chefs de Produit AI cherchant à optimiser les applications LLM, les Data Scientists intéressés par des techniques avancées d'évaluation des modèles AI, les Éthiciens en IA et les Décideurs Politiques axés sur le déploiement responsable de l'IA, et les Chercheurs Académiques étudiant l'impact de l'IA générative dans divers domaines.

Une compréhension de base de l'intelligence artificielle, des concepts d'apprentissage automatique, et une familiarité avec le traitement du langage naturel (NLP) sont recommandées. Une expérience préalable avec Google Cloud Vertex AI est bénéfique mais non requise. Il couvre les applications pratiques, intégrant le jugement humain avec des méthodes automatiques, et prépare les apprenants aux tendances futures de l'évaluation de l'IA à travers divers médias, y compris le texte, les images et l'audio. Cette approche complète vous assure d'être équipé pour évaluer efficacement les LLM, améliorant les stratégies d'affaires et l'innovation.

Université :
Fournisseur : Coursera
Catégories :

Programme


Enseigné par


Étiquettes

Trouvé dans