Lo que necesitas saber antes de
que comiences

Comienza 4 July 2025 10:44

Termina 4 July 2025

00 Días
00 Horas
00 Minutos
00 Segundos
course image

Alucinaciones, manipulaciones de indicaciones y mitigación de riesgos: poniendo barreras de protección a sus aplicaciones impulsadas por LLM.

Únete a nosotros para explorar estrategias efectivas para mitigar los riesgos asociados con los modelos de lenguaje de gran escala (LLM). Sumérgete en la implementación de medidas de protección que incluyen técnicas de preprocesamiento diseñadas para prevenir la manipulación de instrucciones, junto con potentes métodos de evaluación de salida.
All Things Open via YouTube

All Things Open

2765 Cursos


32 minutes

Actualización opcional disponible

Not Specified

Progreso a tu propio ritmo

Free Video

Actualización opcional disponible

Resumen

Únete a nosotros para explorar estrategias efectivas para mitigar los riesgos asociados con los modelos de lenguaje de gran escala (LLM). Sumérgete en la implementación de medidas de protección que incluyen técnicas de preprocesamiento diseñadas para prevenir la manipulación de instrucciones, junto con potentes métodos de evaluación de salidas.

Este curso revela marcos de código abierto aplicados en aplicaciones del mundo real, equipándote con las herramientas necesarias para navegar y controlar los potenciales desafíos de los LLM. Perfecto para cualquier persona interesada en avanzar en su comprensión de la inteligencia artificial y las ciencias de la computación.

Programa de estudio

  • Introducción a los Modelos de Lenguaje Extensos (LLMs)
  • Descripción general de las capacidades y aplicaciones de los LLM
    Riesgos comunes y desafíos asociados con los LLM
  • Comprendiendo las Alucinaciones en los LLM
  • Definición y ejemplos de alucinaciones
    Circunstancias que conducen a las alucinaciones del modelo
  • Manipulación de Prompts y Sus Implicaciones
  • Cómo los inputs de prompts afectan los outputs de los LLM
    Tácticas utilizadas para la manipulación de prompts
  • Mitigación de Riesgos en Aplicaciones Impulsadas por LLM
  • Importancia de implementar medidas de protección
    Estrategias clave para la mitigación de riesgos
  • Técnicas de Pre-procesamiento
  • Saneamiento y validación de inputs
    Técnicas para prevenir y detectar la manipulación de prompts
  • Evaluación y Validación de Outputs
  • Métodos para evaluar los outputs de los LLM
    Estrategias para asegurar la fiabilidad y relevancia de los outputs
  • Diseño e Implementación de Medidas de Protección
  • Medidas de protección algorítmicas para garantizar seguridad y cumplimiento
    Políticas de uso y supervisión humana
  • Marcos de Código Abierto para la Mitigación de Riesgos
  • Descripción general de herramientas y marcos disponibles
    Demostración de la integración de marcos en aplicaciones
  • Estudios de Caso y Aplicaciones del Mundo Real
  • Ejemplos exitosos de medidas de protección en acción
    Lecciones aprendidas de implementaciones en el mundo real
  • Tendencias y Desarrollos Futuros
  • Enfoques innovadores en la gestión de riesgos de LLM
    Tecnologías emergentes y su potencial impacto en la seguridad de los LLM
  • Conclusión
  • Resumen de estrategias clave para proteger aplicaciones LLM
    Recomendaciones para la evaluación y gestión de riesgos continuos
  • Revisión del Curso y Sesión de Preguntas y Respuestas

Asignaturas

Ciencias de la Computación