Ce que vous devez savoir avant
de commencer
Débute 6 July 2025 09:45
Se termine 6 July 2025
Les agents superintelligents représentent des risques catastrophiques - LLM à sécurité garantie
Simons Institute
2825 Cours
1 hour 12 minutes
Mise à niveau optionnelle disponible
Not Specified
Progressez à votre rythme
Free Video
Mise à niveau optionnelle disponible
Aperçu
Explorez les risques potentiellement catastrophiques posés par les agents IA superintelligents avec l'expert Yoshua Bengio. Dans cette discussion perspicace, découvrez des alternatives innovantes et plus sûres comme "Scientist AI", une approche axée sur l'explication plutôt que sur l'action, visant à faire progresser le progrès scientifique tout en atténuant les dangers associés aux entités dirigées par l'agence.
Programme
- Introduction à l'IA superintelligente
- Comprendre les risques catastrophiques
- Sécurité dans la conception de l'IA
- Alternatives aux agents superintelligents
- Étude de cas : Propositions de Yoshua Bengio
- Agentivité et action dans l'IA
- Techniques pour les MLLs à sécurité garantie
- Accélération du progrès scientifique avec l'IA
- Orientations futures dans la recherche sur la sécurité de l'IA
- Conclusion
Sujets
Informatique