Ce que vous devez savoir avant
de commencer
Débute 4 July 2025 02:33
Se termine 4 July 2025
Les agents superintelligents posent des risques catastrophiques - LLMs garantis sûrs
Simons Institute
2765 Cours
1 hour 14 minutes
Mise à niveau optionnelle disponible
Not Specified
Progressez à votre rythme
Free Video
Mise à niveau optionnelle disponible
Aperçu
Rejoignez-nous pour examiner les risques significatifs associés aux agents d'IA superintelligents. Avec les perspectives de Yoshua Bengio, cette discussion met en lumière une approche révolutionnaire du développement de l'IA :
la création de l'IA « Scientifique ».
Ce modèle non agentique est conçu pour privilégier l'explication à l'action, accélérant ainsi la recherche scientifique tout en atténuant les dangers potentiels liés à l'agence dans les systèmes d'IA.
Cet événement offre des perspectives précieuses pour toute personne intéressée par l'intelligence artificielle et ses implications à la fois pour le progrès scientifique et la sécurité humaine. Engagez-vous avec le contenu sur YouTube et explorez comment ce nouveau paradigme en IA peut aider à garantir un avenir technologique plus sûr.
Programme
- Introduction à l'IA superintelligente
- Risques catastrophiques des agents superintelligents
- Aperçu de la recherche sur la sécurité de l'IA
- Concept "IA scientifique" de Yoshua Bengio
- Conception de LLM garantis sûrs
- Implémentations pratiques et études de cas
- Critiques et limites
- Directions futures et opportunités de recherche
- Conclusion
Sujets
Informatique