Ce que vous devez savoir avant
de commencer

Débute 1 July 2025 15:35

Se termine 1 July 2025

00 Jours
00 Heures
00 Minutes
00 Secondes
course image

30 règles d'or pour la performance en apprentissage profond

Découvrez 30 directives essentielles pour optimiser les modèles d'apprentissage profond, améliorer les performances et obtenir de meilleurs résultats dans les projets d'IA et d'apprentissage automatique.
EuroPython Conference via YouTube

EuroPython Conference

2765 Cours


40 minutes

Mise à niveau optionnelle disponible

Not Specified

Progressez à votre rythme

Conference Talk

Mise à niveau optionnelle disponible

Aperçu

Découvrez 30 directives essentielles pour optimiser les modèles d'apprentissage profond, améliorer les performances et obtenir de meilleurs résultats dans les projets d'IA et d'apprentissage automatique.

Programme

  • Introduction aux performances de l'apprentissage profond
  • Aperçu de l'apprentissage profond et de ses défis de performance
    Importance de l'optimisation dans les projets d'IA
  • Gestion et prétraitement des données
  • Règle 1 : Techniques de normalisation des données
    Règle 2 : Augmentation efficace des données
    Règle 3 : Gestion des ensembles de données déséquilibrés
  • Architecture du modèle
  • Règle 4 : Choisir la bonne taille de modèle
    Règle 5 : Explorer différents types de couches
    Règle 6 : Équilibrer profondeur et largeur dans les réseaux
  • Stratégies d'entraînement
  • Règle 7 : Sélection des taux d'apprentissage appropriés
    Règle 8 : Utilisation de planificateurs de taux d'apprentissage
    Règle 9 : Emploi du mécanisme d'arrêt anticipé
  • Techniques de régularisation
  • Règle 10 : Comprendre le dropout
    Règle 11 : Mise en œuvre de la régularisation L1 et L2
    Règle 12 : Avantages de la normalisation par lots
  • Algorithmes d'optimisation
  • Règle 13 : Aperçu des algorithmes d'optimisation
    Règle 14 : Moment et gradient accéléré de Nesterov
    Règle 15 : Adaptation à Adam et ses variantes
  • Évaluation et métriques
  • Règle 16 : Choisir les bonnes métriques d'évaluation
    Règle 17 : Éviter le surapprentissage grâce à la validation croisée
  • Réglage des hyperparamètres
  • Règle 18 : Méthodes pour le réglage des hyperparamètres
    Règle 19 : Recherche par grille vs recherche aléatoire
    Règle 20 : Optimisation bayésienne
  • Efficacité computationnelle
  • Règle 21 : Utilisation efficace des GPU et TPU
    Règle 22 : Entraînement en précision mixte
    Règle 23 : Élagage et quantification du modèle
  • Gestion des grands ensembles de données
  • Règle 24 : Stratégies pour l'entraînement distribué
    Règle 25 : Parallélisme des données vs parallélisme des modèles
  • Apprentissage et ajustement par transfert
  • Règle 26 : Tirer parti des modèles pré-entraînés
    Règle 27 : Stratégies de fine-tuning pour des tâches spécifiques
  • Surveillance et débogage
  • Règle 28 : Outils pour surveiller l'entraînement
    Règle 29 : Techniques de débogage pour les modèles d'apprentissage profond
  • Déploiement du modèle
  • Règle 30 : Préparation des modèles pour les environnements de production
  • Conclusion et tendances futures
  • Résumé des 30 règles d'or
    Tendances émergentes dans la performance de l'apprentissage profond
  • Ressources supplémentaires
  • Livres et articles recommandés
    Outils en ligne et bibliothèques

Sujets

Conférences