Lo que necesitas saber antes de
que comiences
Comienza 4 July 2025 10:44
Termina 4 July 2025
Alucinaciones, manipulaciones de indicaciones y mitigación de riesgos: poniendo barreras de protección a sus aplicaciones impulsadas por LLM.
All Things Open
2765 Cursos
32 minutes
Actualización opcional disponible
Not Specified
Progreso a tu propio ritmo
Free Video
Actualización opcional disponible
Resumen
Únete a nosotros para explorar estrategias efectivas para mitigar los riesgos asociados con los modelos de lenguaje de gran escala (LLM). Sumérgete en la implementación de medidas de protección que incluyen técnicas de preprocesamiento diseñadas para prevenir la manipulación de instrucciones, junto con potentes métodos de evaluación de salidas.
Este curso revela marcos de código abierto aplicados en aplicaciones del mundo real, equipándote con las herramientas necesarias para navegar y controlar los potenciales desafíos de los LLM. Perfecto para cualquier persona interesada en avanzar en su comprensión de la inteligencia artificial y las ciencias de la computación.
Programa de estudio
- Introducción a los Modelos de Lenguaje Extensos (LLMs)
- Comprendiendo las Alucinaciones en los LLM
- Manipulación de Prompts y Sus Implicaciones
- Mitigación de Riesgos en Aplicaciones Impulsadas por LLM
- Técnicas de Pre-procesamiento
- Evaluación y Validación de Outputs
- Diseño e Implementación de Medidas de Protección
- Marcos de Código Abierto para la Mitigación de Riesgos
- Estudios de Caso y Aplicaciones del Mundo Real
- Tendencias y Desarrollos Futuros
- Conclusión
- Revisión del Curso y Sesión de Preguntas y Respuestas
Asignaturas
Ciencias de la Computación