What You Need to Know Before
You Start

Starts 14 June 2025 03:44

Ends 14 June 2025

00 days
00 hours
00 minutes
00 seconds
course image

Desarrollo de IA con Qwen 2.5 y Ollama: Crea aplicaciones de IA localmente

Desarrolla aplicaciones impulsadas por IA localmente utilizando Qwen 2.5 y Ollama. Aprende Python, FastAPI y desarrollo de IA en el mundo real.
via Udemy

4113 Cursos


1 hour 27 minutes

Optional upgrade avallable

Not Specified

Progress at your own speed

Paid Course

Optional upgrade avallable

Resumen

Construye aplicaciones potenciadas por IA localmente usando Qwen 2.5 y Ollama. Aprende Python, FastAPI y desarrollo de IA en el mundo real.

Lo que aprenderás:

Configurar y ejecutar Qwen 2.5 en una máquina local usando Ollama. Comprender cómo funcionan los modelos de lenguaje grande (LLMs).

Construir aplicaciones potenciadas por IA usando Python y FastAPI. Crear APIs REST para interactuar con modelos de IA localmente.

Integrar modelos de IA en aplicaciones web usando React.js. Optimizar y afinar modelos de IA para un mejor rendimiento.

Implementar soluciones de IA locales sin dependencias de la nube. Usar el CLI de Ollama y el SDK de Python para gestionar modelos de IA.

Desplegar aplicaciones de IA localmente y en plataformas en la nube. Explorar casos de uso de IA en el mundo real más allá de los chatbots.

¿Estás listo para construir aplicaciones potenciadas por IA localmente sin depender de APIs basadas en la nube? Este curso práctico te enseñará cómo desarrollar, optimizar y desplegar aplicaciones de IA usando Qwen 2.5 y Ollama, dos herramientas poderosas para ejecutar grandes modelos de lenguaje (LLMs) en tu máquina local.

Con el auge de los modelos de IA de código abierto, los desarrolladores ahora tienen la oportunidad de crear aplicaciones inteligentes que procesen texto, generen contenido y automaticen tareas, todo mientras mantienen los datos privados y seguros. En este curso, aprenderás cómo instalar, configurar e integrar Qwen 2.5 con Ollama, construir backends de IA basados en FastAPI y desarrollar soluciones de IA reales.

¿Por qué aprender Qwen 2.5 y Ollama? Qwen 2.5 es un potente modelo de lenguaje grande (LLM) desarrollado por Alibaba Cloud, optimizado para procesamiento de lenguaje natural (NLP), generación de texto, razonamiento y asistencia de código.

A diferencia de los modelos tradicionales basados en la nube como GPT-4, Qwen 2.5 puede ejecutarse localmente, haciéndolo ideal para aplicaciones de IA sensibles a la privacidad. Ollama es una herramienta de gestión de modelos de IA que permite a los desarrolladores ejecutar y desplegar LLMs localmente con alta eficiencia y baja latencia.

Con Ollama, puedes descargar modelos, ejecutarlos en tus aplicaciones y afinarlos para tareas específicas, todo sin la necesidad de costosos recursos en la nube. Este curso es práctico y orientado a la aplicación, diseñado para ayudarte a aplicar IA en proyectos reales.

Ya sea que quieras construir interfaces de chat potenciadas por IA, resumidores de documentos, asistentes de código o herramientas de automatización inteligentes, este curso te equipará con las habilidades necesarias. ¿Por qué tomar este curso? - Desarrollo práctico de IA con proyectos del mundo real - Sin dependencia de APIs en la nube:

mantén tus aplicaciones de IA privadas y seguras - Habilidades a prueba de futuro para trabajar con LLMs de código abierto - Despliegue de IA rápido y eficiente con la ejecución local de Ollama Al final de este curso, tendrás aplicaciones potenciadas por IA ejecutándose en tu máquina, una profunda comprensión de los LLMs y las habilidades para desarrollar soluciones de IA futuras.

¿Estás listo para empezar a construir?

Programa de estudio

  • Introducción al Desarrollo de IA con Qwen 2.5 y Ollama
  • Descripción general de Qwen 2.5 y Ollama
    Objetivos del curso y resultados de aprendizaje
  • Configuración de su Entorno Local
  • Instalación local de Qwen 2.5
    Configuración de Ollama para la gestión de modelos
    Introducción a Python y bibliotecas necesarias
  • Entendiendo los Modelos de Lenguaje Grande (LLMs)
  • Fundamentos de los LLMs
    Capacidades y arquitectura de Qwen 2.5
    Comparación entre LLMs locales y basados en la nube
  • Construyendo Aplicaciones Impulsadas por IA con Python
  • Programación básica de Python para IA
    Introducción a FastAPI para construir backends
    Creación de APIs REST para interactuar con modelos de IA
  • Desarrollo de Backends de IA con FastAPI
  • Configuración de FastAPI
    Integración de Qwen 2.5 con FastAPI
    Desarrollo y despliegue de APIs impulsadas por IA
  • Integración Frontend con React.js
  • Introducción a React.js
    Combinación de React.js con FastAPI para aplicaciones de IA full-stack
    Construcción de interfaces web para interactuar con modelos de IA
  • Optimización y Ajuste de Modelos de IA
  • Técnicas para la optimización de modelos
    Métodos de ajuste para tareas específicas
    Evaluación del rendimiento del modelo y mejoras
  • Gestión de Modelos de IA Localmente con Ollama
  • Uso del CLI de Ollama
    Exploración del SDK de Ollama para Python
    Gestión del ciclo de vida del modelo y control de versiones
  • Despliegue de Aplicaciones de IA Localmente y en la Nube
  • Estrategias de despliegue para ejecución local
    Transición de plataformas locales a la nube
    Mejores prácticas para el despliegue de aplicaciones de IA
  • Casos de Uso de IA en el Mundo Real Más Allá de los Chatbots
  • Exploración de aplicaciones en PLN, generación de texto y automatización
    Estudios de caso: Resumidores de documentos, asistentes de código
    Consideraciones éticas y de privacidad en aplicaciones de IA
  • Cierre del Curso y Direcciones Futuras
  • Resumen de conceptos clave y habilidades
    Exploración de futuras tendencias en IA y LLMs
    Próximos pasos para el aprendizaje y desarrollo continuo

Enseñado por

Dr. Vivian Aranha


Asignaturas

Ciencias de la Computación