What You Need to Know Before
You Start
Starts 7 June 2025 06:12
Ends 7 June 2025
Alucinaciones, manipulaciones de indicaciones y mitigación de riesgos: poniendo barreras de protección a sus aplicaciones impulsadas por LLM.
All Things Open
2484 Cursos
32 minutes
Optional upgrade avallable
Not Specified
Progress at your own speed
Free Video
Optional upgrade avallable
Resumen
Descubra estrategias para mitigar los riesgos de los LLM mediante barreras de seguridad, incluyendo técnicas de preprocesamiento contra la manipulación de indicaciones, métodos de evaluación de resultados y marcos de código abierto demostrados en aplicaciones reales.
Programa de estudio
- Introducción a los Modelos de Lenguaje Extensos (LLMs)
- Comprendiendo las Alucinaciones en los LLM
- Manipulación de Prompts y Sus Implicaciones
- Mitigación de Riesgos en Aplicaciones Impulsadas por LLM
- Técnicas de Pre-procesamiento
- Evaluación y Validación de Outputs
- Diseño e Implementación de Medidas de Protección
- Marcos de Código Abierto para la Mitigación de Riesgos
- Estudios de Caso y Aplicaciones del Mundo Real
- Tendencias y Desarrollos Futuros
- Conclusión
- Revisión del Curso y Sesión de Preguntas y Respuestas
Asignaturas
Ciencias de la Computación