What You Need to Know Before
You Start

Starts 7 June 2025 12:46

Ends 7 June 2025

00 days
00 hours
00 minutes
00 seconds
course image

Mediciones para Capacidades y Peligros

Explore marcos de medición integrales para las capacidades de IA y los peligros potenciales, centrándose en metodologías de evaluación de seguridad para modelos de lenguaje grandes.
Simons Institute via YouTube

Simons Institute

2544 Cursos


59 minutes

Optional upgrade avallable

Not Specified

Progress at your own speed

Free Video

Optional upgrade avallable

Resumen

Explore marcos de medición integrales para las capacidades de IA y los peligros potenciales, centrándose en metodologías de evaluación de seguridad para modelos de lenguaje grandes.

Programa de estudio

  • Introducción a las Capacidades y Peligros de la IA
  • Panorama de los sistemas de IA y sus aplicaciones
    Importancia de evaluar las capacidades y peligros de la IA
    Terminología y conceptos clave
  • Marcos de Medición para las Capacidades de la IA
  • Definiciones de capacidades de la IA
    Métodos para evaluar el rendimiento de la IA
    Comparaciones entre las capacidades humanas y las de la IA
  • Métricas para Evaluar Modelos de IA
  • Métricas cuantitativas y cualitativas
    Evaluación comparativa de modelos de IA
    Ejemplos reales de medición del rendimiento de IA
  • Evaluación de la Seguridad en Sistemas de IA
  • Comprensión de la seguridad y evaluación de riesgos en IA
    Principios clave de la evaluación de seguridad de la IA
    Estudios de casos sobre incidentes de seguridad en IA
  • Metodologías de Evaluación para los Grandes Modelos de Lenguaje (LLMs)
  • Panorama de los LLMs y sus características únicas
    Desafíos comunes de seguridad con los LLMs
    Herramientas y técnicas para evaluar la seguridad de los LLMs
  • Peligros Potenciales Asociados con los Grandes Modelos de Lenguaje
  • Identificación de preocupaciones éticas y de seguridad
    Análisis de sesgo, desinformación y uso malintencionado
    Estrategias para mitigar riesgos
  • Protocolos de Pruebas de Seguridad y Fiabilidad
  • Marcos de pruebas para sistemas de IA
    Pruebas basadas en escenarios y simulación
    Monitoreo continuo y bucles de retroalimentación
  • Investigación Actual y Direcciones Futuras
  • Tendencias emergentes en la medición de capacidades de la IA
    Avances en metodologías de evaluación de peligros
    Desafíos abiertos y oportunidades de investigación en seguridad de la IA
  • Proyecto Final
  • Aplicación práctica de marcos de medición
    Diseño de un plan de evaluación de seguridad para un sistema de IA dado
    Presentaciones y retroalimentación de compañeros
  • Conclusión del Curso y Recursos Adicionales
  • Resumen de los aprendizajes clave
    Lecturas recomendadas y recursos para estudio continuo

Asignaturas

Ciencias de la Computación