Lo que necesitas saber antes de
que comiences
Comienza 4 July 2025 01:17
Termina 4 July 2025
Alucinaciones, Manipulaciones de Indicaciones y Mitigación de Riesgos: Poniendo Límites a sus Aplicaciones Impulsadas por Modelos de Lenguaje de Gran Escala (LLM)
All Things Open
2765 Cursos
32 minutes
Actualización opcional disponible
Not Specified
Progreso a tu propio ritmo
Free Video
Actualización opcional disponible
Resumen
Explora técnicas innovadoras para proteger tus aplicaciones impulsadas por LLM de riesgos como alucinaciones y manipulación de indicaciones. Esta sesión ofrece ideas sobre técnicas efectivas de pre-procesamiento, métodos para evaluar salidas, y demuestra cómo los marcos de código abierto pueden ser utilizados en escenarios prácticos.
Ideal para aquellos interesados en inteligencia artificial y ciencias de la computación, este evento es organizado por YouTube, haciendo que la información de vanguardia sea fácilmente accesible para los estudiantes.
Programa de estudio
- Introducción a los Riesgos de LLM
- Comprensión de las Manipulaciones de Instrucciones
- Técnicas de Preprocesamiento
- Métodos de Evaluación de Salidas
- Implementación de Elementos de Seguridad
- Marcos de Código Abierto para Elementos de Seguridad en LLM
- Estudios de Caso y Aplicaciones del Mundo Real
- Mitigación de Riesgos en Entornos Dinámicos
- Observaciones Finales
Asignaturas
Ciencias de la Computación