Lo que necesitas saber antes de
que comiences

Comienza 6 July 2025 09:34

Termina 6 July 2025

00 Días
00 Horas
00 Minutos
00 Segundos
course image

Entrenamiento Adversarial para la Robustez en Seguridad de los LLMs

Descubra técnicas de vanguardia diseñadas para fortalecer la seguridad y la robustez de los Modelos de Lenguaje Grande (LLMs) involucrándose en métodos de entrenamiento adversarial. Liderada por el estimado investigador Gauthier Gidel de IVADO-Mila, esta sesión es imperdible para aquellos interesados en la intersección de la inteligencia arti.
Simons Institute via YouTube

Simons Institute

2825 Cursos


1 hour 1 minute

Actualización opcional disponible

Not Specified

Progreso a tu propio ritmo

Free Video

Actualización opcional disponible

Resumen

Descubra técnicas de vanguardia diseñadas para fortalecer la seguridad y la robustez de los Modelos de Lenguaje Grande (LLMs) involucrándose en métodos de entrenamiento adversarial. Liderada por el estimado investigador Gauthier Gidel de IVADO-Mila, esta sesión es imperdible para aquellos interesados en la intersección de la inteligencia artificial y las ciencias de la computación.

Mejore su comprensión y habilidades en robustez de seguridad de LLMs hoy.

Disponible a través de YouTube, este curso está categorizado bajo los Cursos de Inteligencia Artificial y Ciencias de la Computación, proporcionando valiosas ideas para estudiantes y profesionales que buscan profundizar su experiencia en medidas de seguridad de la IA.

Programa de estudio

  • Introducción al entrenamiento adversarial
  • Definición e importancia del entrenamiento adversarial
    Visión general de la robustez en seguridad de los Modelos de Lenguaje Grande (LLMs)
    Introducción al investigador Gauthier Gidel y IVADO-Mila
  • Fundamentos de los Modelos de Lenguaje Grande (LLMs)
  • Arquitectura y funcionamiento de los LLMs
    Limitaciones y vulnerabilidades de los LLMs
  • Comprensión de los ataques adversariales
  • Tipos de ataques adversariales en LLMs
    Estudios de casos de ataques adversariales en LLMs
  • Técnicas de entrenamiento adversarial
  • Métodos básicos de entrenamiento adversarial
    Técnicas avanzadas para el entrenamiento adversarial de LLMs
  • Mejora de la robustez en seguridad en LLMs
  • Estrategias para mejorar la robustez de los modelos
    Métricas para evaluar la robustez
  • Implementación práctica del entrenamiento adversarial
  • Configuración de experimentos para el entrenamiento adversarial
    Herramientas y bibliotecas para implementar el entrenamiento adversarial
  • Estudios de casos y aplicaciones
  • Aplicaciones en el mundo real de los LLMs entrenados adversarialmente
    Análisis de estudios de casos que demuestran la mejora en la robustez
  • Desafíos y direcciones futuras
  • Desafíos actuales en el entrenamiento adversarial para LLMs
    Direcciones futuras de investigación y oportunidades
  • Conclusiones y discusión
  • Conclusiones clave del curso
    Sesión abierta de preguntas y respuestas
  • Recursos adicionales
  • Lecturas recomendadas y recursos para una mayor exploración

Asignaturas

Ciencias de la Computación