Ce que vous devez savoir avant
de commencer

Débute 30 June 2025 11:03

Se termine 30 June 2025

00 Jours
00 Heures
00 Minutes
00 Secondes
course image

Compromettre les LLM - L'avènement des logiciels malveillants IA

Rejoignez-nous pour une exploration approfondie des risques de sécurité associés à l'intégration de l'IA dans divers secteurs. Cette session, intitulée "Compromettre les LLMs - L'avènement des logiciels malveillants IA," explore les spécificités des injections de prompts et la menace croissante des logiciels malveillants potentiels au sein de.
Black Hat via YouTube

Black Hat

2765 Cours


36 minutes

Mise à niveau optionnelle disponible

Not Specified

Progressez à votre rythme

Conference Talk

Mise à niveau optionnelle disponible

Aperçu

Rejoignez-nous pour une exploration approfondie des risques de sécurité associés à l'intégration de l'IA dans divers secteurs. Cette session, intitulée "Compromettre les LLMs - L'avènement des logiciels malveillants IA," explore les spécificités des injections de prompts et la menace croissante des logiciels malveillants potentiels au sein des modèles de langage.

Alors que l'IA devient plus répandue, comprendre ces défis devient impératif pour le développement et le déploiement d'assistants IA sûrs.

Présentée via YouTube, cette conférence est une ressource essentielle pour les professionnels et les passionnés du domaine de l'intelligence artificielle, offrant des perspectives critiques sur les défis futurs et les conséquences graves pouvant résulter des vulnérabilités des systèmes IA. Ne manquez pas cette opportunité d'acquérir une compréhension plus profonde du paysage en constante évolution de la sécurité IA.

Programme

  • Introduction à l'IA et aux modèles de langage
  • Aperçu des systèmes d'IA et de leur intégration
    Introduction aux grands modèles de langage (LLMs)
  • Compréhension des risques de sécurité de l'IA
  • Définition et importance de la sécurité de l'IA
    Vulnérabilités courantes des systèmes d'IA
  • Attaques par injection de prompt
  • Qu'est-ce qu'une injection de prompt ?
    Exemples concrets d'injection de prompt dans les LLMs
    Techniques pour détecter et atténuer les attaques par injection de prompt
  • Malware potentiel dans l'IA
  • Définition et caractéristiques des malwares d'IA
    Comment les malwares d'IA peuvent être créés et déployés
    Études de cas de malwares potentiels pilotés par l'IA
  • Défis futurs en matière de sécurité de l'IA
  • L'IA et l'évolution des menaces en cybersécurité
    Le rôle de l'IA dans la sécurisation des systèmes par rapport aux attaques
    Tendances à venir et défis anticipés
  • Conséquences pour les assistants IA
  • Impact sur les individus et les entreprises
    Lignes directrices pour développer des assistants IA sécurisés
    Considérations éthiques en matière de sécurité de l'IA
  • Stratégies pour atténuer les risques de sécurité de l'IA
  • Meilleures pratiques en matière de sécurité de l'IA
    Questions réglementaires et de conformité
    Importance de la surveillance continue et de l'adaptation
  • Conclusion
  • Résumé des leçons clés
    Perspectives d'avenir pour l'IA et la sécurité
  • Ressources supplémentaires
  • Lectures recommandées
    Outils et technologies pertinents pour la sécurité de l'IA
    Sujets de recherche et initiatives en cours

Sujets

Conférences