What You Need to Know Before
You Start

Starts 7 June 2025 06:12

Ends 7 June 2025

00 days
00 hours
00 minutes
00 seconds
course image

Alucinaciones, manipulaciones de indicaciones y mitigación de riesgos: poniendo barreras de protección a sus aplicaciones impulsadas por LLM.

Descubra estrategias para mitigar los riesgos de los LLM mediante barreras de seguridad, incluyendo técnicas de preprocesamiento contra la manipulación de indicaciones, métodos de evaluación de resultados y marcos de código abierto demostrados en aplicaciones reales.
All Things Open via YouTube

All Things Open

2484 Cursos


32 minutes

Optional upgrade avallable

Not Specified

Progress at your own speed

Free Video

Optional upgrade avallable

Resumen

Descubra estrategias para mitigar los riesgos de los LLM mediante barreras de seguridad, incluyendo técnicas de preprocesamiento contra la manipulación de indicaciones, métodos de evaluación de resultados y marcos de código abierto demostrados en aplicaciones reales.

Programa de estudio

  • Introducción a los Modelos de Lenguaje Extensos (LLMs)
  • Descripción general de las capacidades y aplicaciones de los LLM
    Riesgos comunes y desafíos asociados con los LLM
  • Comprendiendo las Alucinaciones en los LLM
  • Definición y ejemplos de alucinaciones
    Circunstancias que conducen a las alucinaciones del modelo
  • Manipulación de Prompts y Sus Implicaciones
  • Cómo los inputs de prompts afectan los outputs de los LLM
    Tácticas utilizadas para la manipulación de prompts
  • Mitigación de Riesgos en Aplicaciones Impulsadas por LLM
  • Importancia de implementar medidas de protección
    Estrategias clave para la mitigación de riesgos
  • Técnicas de Pre-procesamiento
  • Saneamiento y validación de inputs
    Técnicas para prevenir y detectar la manipulación de prompts
  • Evaluación y Validación de Outputs
  • Métodos para evaluar los outputs de los LLM
    Estrategias para asegurar la fiabilidad y relevancia de los outputs
  • Diseño e Implementación de Medidas de Protección
  • Medidas de protección algorítmicas para garantizar seguridad y cumplimiento
    Políticas de uso y supervisión humana
  • Marcos de Código Abierto para la Mitigación de Riesgos
  • Descripción general de herramientas y marcos disponibles
    Demostración de la integración de marcos en aplicaciones
  • Estudios de Caso y Aplicaciones del Mundo Real
  • Ejemplos exitosos de medidas de protección en acción
    Lecciones aprendidas de implementaciones en el mundo real
  • Tendencias y Desarrollos Futuros
  • Enfoques innovadores en la gestión de riesgos de LLM
    Tecnologías emergentes y su potencial impacto en la seguridad de los LLM
  • Conclusión
  • Resumen de estrategias clave para proteger aplicaciones LLM
    Recomendaciones para la evaluación y gestión de riesgos continuos
  • Revisión del Curso y Sesión de Preguntas y Respuestas

Asignaturas

Ciencias de la Computación