Resumen
Este curso introduce a los estudiantes en la inteligencia artificial generativa y cómo implementar casos de uso comunes de IA utilizando Snowflake. El curso comienza con una introducción a conceptos importantes, la configuración del entorno del estudiante y la construcción de una aplicación simple.
Luego, se aprende a usar las funciones de Cortex LLM para realizar muchas tareas comunes de IA, y finaliza aprendiendo cómo ajustar modelos de base para realizar tareas específicas. Este curso es para cualquier persona que quiera mejorar sus habilidades en IA, pero está especialmente diseñado para científicos de datos, ingenieros de ML/IA y profesionales de análisis de datos.
Para tener éxito en este curso, deberías tener conocimientos previos en Python, GenAI y LLMs.
Programa de estudio
- Introducción a GenAI en Snowflake
En este módulo, se le presentarán conceptos importantes de la inteligencia artificial generativa y las capacidades de Snowflake para implementarlos. Configurará su entorno para comenzar a implementar casos de uso de IA con Snowflake. También construirá una aplicación de IA simple para analizar datos de texto no estructurado de transcripciones de llamadas, incluyendo: cargar un conjunto de datos desde un bucket de AWS S3 en una tabla de Snowflake; solicitando a modelos fundacionales que resuman transcripciones en formato json; y construyendo una interfaz de usuario de Streamlit para la aplicación.
- Funciones basadas en LLM de Snowflake Cortex
En este módulo aprenderá a usar funciones LLM de Cortex para realizar muchas tareas de IA, incluyendo: cómo implementar casos de uso comunes de IA generativa como resumen, traducción, análisis de sentimiento y clasificación de texto con las funciones específicas de tareas de Cortex; cómo implementar otros casos de uso de IA generativa utilizando la familia de modelos Llama, Mistral y Anthropic con ingeniería de prompts y la función COMPLETE de Cortex; cómo seleccionar un LLM para su caso de uso, incluyendo cuándo seleccionar modelos más grandes o más pequeños dentro de una familia de modelos; cómo usar las funciones de ayuda de Cortex para estimar el conteo y costo de tokens; y cómo probar sus llamadas a LLM para posibles errores sin incurrir en el costo de inferencia asociado.
- Personalizar respuestas de LLM con Fine-Tuning de Cortex
En este módulo aprenderá a ajustar finamente un LLM para permitir un mejor rendimiento para su caso de uso. Comprenderá cómo destilar las capacidades de un modelo grande en uno más pequeño. También aprenderá: cómo el Fine-Tuning de Parámetros Eficientes (PEFT) puede reducir los requisitos de datos de entrenamiento y reducir costos; cómo generar datos de entrenamiento y dividirlos en conjuntos de datos de entrenamiento y evaluación; cómo ajustar finamente un modelo fundacional, Mistral-7b, para aprender a responder en un estilo específico utilizando la función FINETUNE de Cortex y el estudio de inteligencia artificial/machine learning sin código de Snowflake; probar su modelo afinado utilizando la función COMPLETE de Cortex; cómo construir y compartir una aplicación de IA simple en Python para su modelo afinado usando Streamlit.
Enseñado por
Snowflake Northstar
Asignaturas
Negocios