Ce que vous devez savoir avant
de commencer
Débute 4 July 2025 14:16
Se termine 4 July 2025
Évaluation du risque que des agents avancés d'apprentissage par renforcement provoquent l'extinction de l'humanité.
Simons Institute
2777 Cours
58 minutes
Mise à niveau optionnelle disponible
Not Specified
Progressez à votre rythme
Free Video
Mise à niveau optionnelle disponible
Aperçu
Rejoignez-nous pour une session enrichissante où Michael Cohen de l'UC Berkeley examine les dangers potentiels que pourraient entraîner les agents d'apprentissage par renforcement avancé pour l'existence humaine. Cette exploration approfondie cherche à comprendre comment ces technologies d'IA pourraient par inadvertance entraîner des résultats catastrophiques, y compris le risque d'extinction humaine.
Engagez-vous avec des perspectives d'experts et élargissez votre compréhension des implications dans les domaines de l'Intelligence Artificielle et de l'Informatique.
Programme
- Introduction à l'apprentissage par renforcement
- Systèmes avancés d'apprentissage par renforcement
- Risques théoriques de l'AGI (Intelligence Artificielle Générale)
- Évaluation des risques catastrophiques
- Aperçus de Michael Cohen sur le risque de l'AR
- Stratégies d'atténuation
- Études de cas
- Projet de cours
- Conclusion
- Lectures et ressources recommandées
Sujets
Informatique