What You Need to Know Before
You Start

Starts 5 June 2025 20:48

Ends 5 June 2025

00 days
00 hours
00 minutes
00 seconds
course image

Aprovechando Ollama: Crear LLMs Locales con Python

Domina Ollama y Python para construir aplicaciones LLM locales con proyectos prácticos como sistemas RAG, herramientas de análisis de sentimiento e interfaces habilitadas por voz para casos de uso del mundo real.
Packt via Coursera

Packt

2015 Cursos


6 hours 23 minutes

Optional upgrade avallable

Not Specified

Progress at your own speed

Free Online Course (Audit)

Optional upgrade avallable

Resumen

En este curso, aprenderás a crear modelos de lenguaje local usando Ollama y Python. Al finalizar, estarás equipado con las herramientas para construir aplicaciones basadas en modelos de lenguaje grande (LLM) para casos de uso en el mundo real.

El curso presenta las potentes características de Ollama, su instalación y configuración, seguido de una guía práctica para explorar y utilizar modelos de Ollama a través de Python. Profundizarás en temas como las APIs REST, la biblioteca de Python para Ollama y cómo personalizar e interactuar eficazmente con los modelos.

Comenzarás configurando tu entorno de desarrollo, seguido de una introducción a Ollama, sus características clave y requisitos del sistema. Después de comprender los fundamentos, comenzarás a trabajar con comandos CLI de Ollama y explorarás la API REST para interactuar con modelos.

El curso proporciona ejercicios prácticos como descargar y probar modelos, personalizarlos y usar diversos puntos finales para tareas como análisis de sentimiento y resumen. El viaje continúa mientras te adentras en la integración con Python, utilizando la biblioteca de Python de Ollama para construir aplicaciones basadas en LLM.

Explorarás funciones avanzadas como trabajar con modelos multimodales, crear modelos personalizados y usar la función show para transmitir interacciones de chat. Luego, desarrollarás aplicaciones completas, como un categorizador de listas de compras y un sistema RAG, explorando tiendas de vectores, embeddings y más.

Este curso es ideal para quienes buscan construir aplicaciones avanzadas de LLM usando Ollama y Python. Si tienes experiencia en programación en Python y deseas crear aplicaciones sofisticadas basadas en lenguaje, este curso te ayudará a alcanzar ese objetivo.

Espera una experiencia de aprendizaje práctica con la oportunidad de trabajar en varios proyectos utilizando el marco de Ollama.

Programa de estudio

  • Introducción
  • En este módulo, presentaremos los objetivos del curso, delinearemos los prerrequisitos necesarios para triunfar y proporcionaremos una demostración atractiva para mostrar las herramientas y conceptos que se usarán a lo largo del curso.
  • Ollama en Profundidad - Introducción a Ollama y Configuración
  • En este módulo, profundizaremos en Ollama, exploraremos sus características y ventajas, y te guiaremos a través del proceso de configuración para usar Ollama y el modelo Llama3.2, asegurándonos de que estés listo para la experimentación práctica.
  • Comandos CLI de Ollama y la API REST - Práctico
  • En este módulo, demostraremos cómo usar los comandos CLI de Ollama y la API REST para extraer modelos, generar respuestas y personalizarlas para diferentes casos de uso, proporcionando experiencia práctica.
  • Ollama - Interfaces de Usuario para Modelos Ollama
  • En este módulo, te presentaremos varias interfaces de usuario para interactuar con los modelos Ollama, incluyendo un examen detallado de la aplicación Msty y su uso como herramienta de frontend para sistemas RAG.
  • Biblioteca Python de Ollama - Usar Python para Interactuar con Modelos Ollama
  • En este módulo, te guiaremos en el uso de la biblioteca Python de Ollama para construir aplicaciones LLM locales, interactuar con modelos a través de Python y explorar técnicas avanzadas como la creación de modelos personalizados y la transmisión.
  • Construcción de Aplicaciones LLM con Modelos Ollama
  • En este módulo, te ayudaremos a construir tu primera aplicación LLM usando Ollama, te guiaremos a través del proceso de construir y mejorar sistemas RAG, y profundizaremos en vectorstores y embeddings para optimizar aplicaciones LLM.
  • Llamado a Función de Herramienta Ollama - Práctico
  • En este módulo, te enseñaremos cómo utilizar el llamado a función dentro de Ollama, configurando una aplicación que categoriza elementos usando llamadas a funciones, y te guiaremos en la creación de un producto final que utilice estas funciones.
  • Sistema RAG Final con Ollama y Respuesta de Voz
  • En este módulo, te guiaremos en la creación de un sistema RAG habilitado para voz final, integrando la API de ElevenLabs para resumir documentos y proporcionar interacciones basadas en voz, culminando en una aplicación de respuesta de voz completamente funcional.
  • Conclusión
  • En este módulo, revisaremos los puntos clave del curso y ofreceremos consejos sobre cómo continuar aprendiendo y aplicando los conceptos adquiridos a lo largo del curso.

Enseñado por

Packt - Course Instructors


Asignaturas

Ciencias de la Computación