What You Need to Know Before
You Start
Starts 14 June 2025 03:44
Ends 14 June 2025
1 hour 27 minutes
Optional upgrade avallable
Not Specified
Progress at your own speed
Paid Course
Optional upgrade avallable
Resumen
Construye aplicaciones potenciadas por IA localmente usando Qwen 2.5 y Ollama. Aprende Python, FastAPI y desarrollo de IA en el mundo real.
Lo que aprenderás:
Configurar y ejecutar Qwen 2.5 en una máquina local usando Ollama. Comprender cómo funcionan los modelos de lenguaje grande (LLMs).
Construir aplicaciones potenciadas por IA usando Python y FastAPI. Crear APIs REST para interactuar con modelos de IA localmente.
Integrar modelos de IA en aplicaciones web usando React.js. Optimizar y afinar modelos de IA para un mejor rendimiento.
Implementar soluciones de IA locales sin dependencias de la nube. Usar el CLI de Ollama y el SDK de Python para gestionar modelos de IA.
Desplegar aplicaciones de IA localmente y en plataformas en la nube. Explorar casos de uso de IA en el mundo real más allá de los chatbots.
¿Estás listo para construir aplicaciones potenciadas por IA localmente sin depender de APIs basadas en la nube? Este curso práctico te enseñará cómo desarrollar, optimizar y desplegar aplicaciones de IA usando Qwen 2.5 y Ollama, dos herramientas poderosas para ejecutar grandes modelos de lenguaje (LLMs) en tu máquina local.
Con el auge de los modelos de IA de código abierto, los desarrolladores ahora tienen la oportunidad de crear aplicaciones inteligentes que procesen texto, generen contenido y automaticen tareas, todo mientras mantienen los datos privados y seguros. En este curso, aprenderás cómo instalar, configurar e integrar Qwen 2.5 con Ollama, construir backends de IA basados en FastAPI y desarrollar soluciones de IA reales.
¿Por qué aprender Qwen 2.5 y Ollama? Qwen 2.5 es un potente modelo de lenguaje grande (LLM) desarrollado por Alibaba Cloud, optimizado para procesamiento de lenguaje natural (NLP), generación de texto, razonamiento y asistencia de código.
A diferencia de los modelos tradicionales basados en la nube como GPT-4, Qwen 2.5 puede ejecutarse localmente, haciéndolo ideal para aplicaciones de IA sensibles a la privacidad. Ollama es una herramienta de gestión de modelos de IA que permite a los desarrolladores ejecutar y desplegar LLMs localmente con alta eficiencia y baja latencia.
Con Ollama, puedes descargar modelos, ejecutarlos en tus aplicaciones y afinarlos para tareas específicas, todo sin la necesidad de costosos recursos en la nube. Este curso es práctico y orientado a la aplicación, diseñado para ayudarte a aplicar IA en proyectos reales.
Ya sea que quieras construir interfaces de chat potenciadas por IA, resumidores de documentos, asistentes de código o herramientas de automatización inteligentes, este curso te equipará con las habilidades necesarias. ¿Por qué tomar este curso? - Desarrollo práctico de IA con proyectos del mundo real - Sin dependencia de APIs en la nube:
mantén tus aplicaciones de IA privadas y seguras - Habilidades a prueba de futuro para trabajar con LLMs de código abierto - Despliegue de IA rápido y eficiente con la ejecución local de Ollama Al final de este curso, tendrás aplicaciones potenciadas por IA ejecutándose en tu máquina, una profunda comprensión de los LLMs y las habilidades para desarrollar soluciones de IA futuras.
¿Estás listo para empezar a construir?
Programa de estudio
- Introducción al Desarrollo de IA con Qwen 2.5 y Ollama
- Configuración de su Entorno Local
- Entendiendo los Modelos de Lenguaje Grande (LLMs)
- Construyendo Aplicaciones Impulsadas por IA con Python
- Desarrollo de Backends de IA con FastAPI
- Integración Frontend con React.js
- Optimización y Ajuste de Modelos de IA
- Gestión de Modelos de IA Localmente con Ollama
- Despliegue de Aplicaciones de IA Localmente y en la Nube
- Casos de Uso de IA en el Mundo Real Más Allá de los Chatbots
- Cierre del Curso y Direcciones Futuras
Enseñado por
Dr. Vivian Aranha
Asignaturas
Ciencias de la Computación