Ce que vous devez savoir avant
de commencer
Débute 3 July 2025 12:59
Se termine 3 July 2025
Prévenir la toxicité et les biais inconscients grâce aux modèles de langage large et d'apprentissage profond.
OpenInfra Foundation
2765 Cours
40 minutes
Mise à niveau optionnelle disponible
Not Specified
Progressez à votre rythme
Free Video
Mise à niveau optionnelle disponible
Aperçu
Découvrez comment les grands modèles de langage et les transformateurs BERT peuvent détecter et prévenir les biais inconscients dans les systèmes d'IA, atteignant une précision de 98,7 % à travers diverses sources de données et contextes culturels.
Programme
- Introduction au Biais et à la Toxicité de l'IA
- Modèles de Langage de Grande Taille : Fondamentaux
- Détection des Biais avec l'IA
- Techniques pour Atténuer les Biais de l'IA
- Modèles de Langage de Grande Taille en Pratique
- Évaluation et Mesure de la Performance des Modèles
- Études de Cas
- Considérations Éthiques et Meilleures Pratiques
- Atelier Pratique
- Conclusion et Perspectives d'Avenir
Sujets
Science des données