What You Need to Know Before
You Start
Starts 8 June 2025 08:48
Ends 8 June 2025
Alucinaciones, Manipulaciones de Indicaciones y Mitigación de Riesgos: Poniendo Límites a sus Aplicaciones Impulsadas por Modelos de Lenguaje de Gran Escala (LLM)
All Things Open
2544 Cursos
32 minutes
Optional upgrade avallable
Not Specified
Progress at your own speed
Free Video
Optional upgrade avallable
Resumen
Descubra estrategias efectivas para mitigar los riesgos de LLM a través de barreras de protección, incluyendo técnicas de preprocesamiento contra la manipulación de indicaciones, métodos de evaluación de resultados y marcos de código abierto demostrados en aplicaciones del mundo real.
Programa de estudio
- Introducción a los Riesgos de LLM
- Comprensión de las Manipulaciones de Instrucciones
- Técnicas de Preprocesamiento
- Métodos de Evaluación de Salidas
- Implementación de Elementos de Seguridad
- Marcos de Código Abierto para Elementos de Seguridad en LLM
- Estudios de Caso y Aplicaciones del Mundo Real
- Mitigación de Riesgos en Entornos Dinámicos
- Observaciones Finales
Asignaturas
Ciencias de la Computación