Ce que vous devez savoir avant
de commencer

Débute 4 July 2025 14:33

Se termine 4 July 2025

00 Jours
00 Heures
00 Minutes
00 Secondes
course image

Mesures pour les capacités et les dangers

Rejoignez-nous pour explorer des cadres complets pour mesurer les vastes capacités de l'IA et les risques potentiels, avec un accent particulier sur les méthodes d'évaluation de la sécurité adaptées aux grands modèles de langage. Découvrez des insights critiques au sein des paysages de l'intelligence artificielle et de l'informatique grâce à c.
Simons Institute via YouTube

Simons Institute

2777 Cours


59 minutes

Mise à niveau optionnelle disponible

Not Specified

Progressez à votre rythme

Free Video

Mise à niveau optionnelle disponible

Aperçu

Rejoignez-nous pour explorer des cadres complets pour mesurer les vastes capacités de l'IA et les risques potentiels, avec un accent particulier sur les méthodes d'évaluation de la sécurité adaptées aux grands modèles de langage. Découvrez des insights critiques au sein des paysages de l'intelligence artificielle et de l'informatique grâce à ce cours dirigé par des experts disponible sur YouTube.

Programme

  • Introduction aux Capacités et Dangers de l'IA
  • Aperçu des systèmes d'IA et de leurs applications
    Importance d'évaluer les capacités et dangers de l'IA
    Terminologie et concepts clés
  • Cadres de Mesure des Capacités de l'IA
  • Définitions des capacités de l'IA
    Méthodes pour évaluer les performances de l'IA
    Comparaisons entre les capacités humaines et celles de l'IA
  • Indicateurs pour l'Évaluation des Modèles d'IA
  • Indicateurs quantitatifs et qualitatifs
    Étalonnage des modèles d'IA
    Exemples concrets de mesure de la performance de l'IA
  • Évaluation de la Sécurité dans les Systèmes d'IA
  • Comprendre la sécurité de l'IA et l'évaluation des risques
    Principes clés de l'évaluation de la sécurité de l'IA
    Études de cas sur les incidents liés à la sécurité de l'IA
  • Méthodologies d'Évaluation pour les Grands Modèles de Langage (LLM)
  • Aperçu des LLM et de leurs caractéristiques uniques
    Défis communs de sécurité avec les LLM
    Outils et techniques pour évaluer la sécurité des LLM
  • Dangers Potentiels Associés aux Grands Modèles de Langage
  • Identifier les préoccupations éthiques et sécuritaires
    Analyse des biais, de la désinformation et des usages malveillants
    Stratégies pour atténuer les risques
  • Protocoles de Test de Sécurité et de Fiabilité
  • Cadres de test pour les systèmes d'IA
    Tests et simulations basés sur des scénarios
    Surveillance continue et boucles de rétroaction
  • Recherche Actuelle et Perspectives Futures
  • Tendances émergentes dans la mesure des capacités de l'IA
    Avancées dans les méthodologies d'évaluation des dangers
    Défis ouverts et opportunités de recherche en sécurité de l'IA
  • Projet de Fin de Parcours
  • Application pratique des cadres de mesure
    Conception d'un plan d'évaluation de la sécurité pour un système d'IA donné
    Présentations et retour d'expérience entre pairs
  • Conclusion du Cours et Ressources Complémentaires
  • Résumé des principaux apprentissages
    Lectures recommandées et ressources pour l'étude continue

Sujets

Informatique