Lo que necesitas saber antes de
que comiences

Comienza 4 July 2025 14:40

Termina 4 July 2025

00 Días
00 Horas
00 Minutos
00 Segundos
course image

Mediciones para Capacidades y Peligros

Únete a nosotros para explorar marcos exhaustivos que miden las vastas capacidades de la IA y los posibles riesgos, con un énfasis especial en los métodos de evaluación de seguridad diseñados para modelos de lenguaje grandes. Descubre conocimientos críticos en los paisajes de inteligencia artificial e informática a través de este curso dirigid.
Simons Institute via YouTube

Simons Institute

2777 Cursos


59 minutes

Actualización opcional disponible

Not Specified

Progreso a tu propio ritmo

Free Video

Actualización opcional disponible

Resumen

Únete a nosotros para explorar marcos exhaustivos que miden las vastas capacidades de la IA y los posibles riesgos, con un énfasis especial en los métodos de evaluación de seguridad diseñados para modelos de lenguaje grandes. Descubre conocimientos críticos en los paisajes de inteligencia artificial e informática a través de este curso dirigido por expertos disponible en YouTube.

Programa de estudio

  • Introducción a las Capacidades y Peligros de la IA
  • Panorama de los sistemas de IA y sus aplicaciones
    Importancia de evaluar las capacidades y peligros de la IA
    Terminología y conceptos clave
  • Marcos de Medición para las Capacidades de la IA
  • Definiciones de capacidades de la IA
    Métodos para evaluar el rendimiento de la IA
    Comparaciones entre las capacidades humanas y las de la IA
  • Métricas para Evaluar Modelos de IA
  • Métricas cuantitativas y cualitativas
    Evaluación comparativa de modelos de IA
    Ejemplos reales de medición del rendimiento de IA
  • Evaluación de la Seguridad en Sistemas de IA
  • Comprensión de la seguridad y evaluación de riesgos en IA
    Principios clave de la evaluación de seguridad de la IA
    Estudios de casos sobre incidentes de seguridad en IA
  • Metodologías de Evaluación para los Grandes Modelos de Lenguaje (LLMs)
  • Panorama de los LLMs y sus características únicas
    Desafíos comunes de seguridad con los LLMs
    Herramientas y técnicas para evaluar la seguridad de los LLMs
  • Peligros Potenciales Asociados con los Grandes Modelos de Lenguaje
  • Identificación de preocupaciones éticas y de seguridad
    Análisis de sesgo, desinformación y uso malintencionado
    Estrategias para mitigar riesgos
  • Protocolos de Pruebas de Seguridad y Fiabilidad
  • Marcos de pruebas para sistemas de IA
    Pruebas basadas en escenarios y simulación
    Monitoreo continuo y bucles de retroalimentación
  • Investigación Actual y Direcciones Futuras
  • Tendencias emergentes en la medición de capacidades de la IA
    Avances en metodologías de evaluación de peligros
    Desafíos abiertos y oportunidades de investigación en seguridad de la IA
  • Proyecto Final
  • Aplicación práctica de marcos de medición
    Diseño de un plan de evaluación de seguridad para un sistema de IA dado
    Presentaciones y retroalimentación de compañeros
  • Conclusión del Curso y Recursos Adicionales
  • Resumen de los aprendizajes clave
    Lecturas recomendadas y recursos para estudio continuo

Asignaturas

Ciencias de la Computación