DeepSeek-R1 es un modelo de inteligencia artificial desarrollado por la empresa china DeepSeek. Este modelo ha sorprendido a la industria tecnológica por su capacidad para realizar tareas de razonamiento, matemáticas y programación, alcanzando un rendimiento comparable al de modelos avanzados como el OpenAI-o1.
Lo que ha hecho a DeepSeek más interesante es cómo ha logrado su eficiencia en términos de costos y recursos computacionales.
Ha sido desarrollado con una inversión significativamente menor y utilizando menos potencia de cómputo en comparación con otros gigante como ChatGPT, de OpenAI o Gemini, de Google.
Pero, ¿qué es lo más relevante de DeepSeek-R1?
DeepSeek-R1 ha sido lanzado como software de código abierto bajo la licencia MIT, lo que permite su uso y adaptación por parte de la comunidad global.
Este desarrollo ha generado reacciones diversas en la industria tecnológica. Algunos expertos elogian la transparencia y eficiencia de DeepSeek-R1, mientras que otros expresan preocupaciones sobre la seguridad y privacidad, especialmente debido a su origen chino.
¿Tú qué opinas sobre esto?
En resumen, DeepSeek-R1 representa un avance significativo en el campo de la inteligencia artificial, destacándose por su rendimiento, eficiencia y enfoque de código abierto.
Pero pruébalo por tí mismo. Aquí te dejamos los pasos para instalarlo en tu entorno local.
Este tutorial está pensado para Linux, específiciamente, Ubuntu. Sin embargo, si tienes Windows 10 u 11, puedes instalarlo en WSL2.
Por eso la opción de Docker, que facilita mucho la instalación, y lo hace menos dependiente del host o Sistema Operativo de tu computador.
1. Ejecuta Ollama en un contenedor de Docker
- Descarga y ejecuta el contenedor de Ollama:
- Ejecuta el siguiente comando para iniciar Ollama en un contenedor de Docker:
docker run -d --name ollama -p 11434:11434 ollama/ollama:latest
- Esto hará lo siguiente:
- Descargará la imagen oficial de Ollama desde Docker Hub.
- Creará un contenedor llamado ollama.
- Expondrá el puerto 11434 para que otros servicios (como Open Web UI) puedan conectarse.
- Ejecuta el siguiente comando para iniciar Ollama en un contenedor de Docker:
- Verifica que Ollama esté corriendo:
- Ejecuta:
docker ps
- Deberías ver el contenedor ollama en la lista con el estado Up.
- Ejecuta:
- Descarga el modelo DeepSeek-R1:
- Accede al contenedor de Ollama:
docker exec -it ollama ollama run deepseek-r1:1.5b
- Esto descargará el modelo y te permitirá interactuar con él desde la terminal.
- Accede al contenedor de Ollama:
2. Configura Open Web UI para conectarse a Ollama en Docker
Ahora que Ollama está corriendo en un contenedor, debes configurar Open Web UI para que se conecte a él.
- Detén y elimina el contenedor existente de Open Web UI (si ya lo tienes):
docker stop open-webui docker rm open-webui
- Obtén la IP del contenedor de Ollama:
- Para que Open Web UI se conecte a Ollama, necesitas la IP del contenedor ollama.
- Ejecuta:
docker inspect -f '{{range .NetworkSettings.Networks}}{{.IPAddress}}{{end}}' ollama
- Esto devolverá una IP como 170.x.x.x.
- Vuelve a ejecutar Open Web UI con la IP de Ollama:
- Usa la IP que obtuviste en el paso anterior para configurar OLLAMA_BASE_URL:
docker run -d -p 8080:8080 \ -v open-webui:/app/backend/data \ -e OLLAMA_BASE_URL=http://170.x.x.x:11434 \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:main
- Reemplaza 170.x.x.x con la IP que obtuviste.
- Usa la IP que obtuviste en el paso anterior para configurar OLLAMA_BASE_URL:
3. Verifica la conexión entre Open Web UI y Ollama
- Revisa los logs de Open Web UI:
- Ejecuta:
docker logs open-webui
- Busca mensajes como Connected to Ollama o Syncing models.
- Ejecuta:
- Accede a la interfaz web:
- Visita http://localhost:8080 en tu navegador.
- Si todo está configurado correctamente, deberías ver la interfaz de Open Web UI y poder seleccionar el modelo deepseek-r1:1.5b.
4. Solución alternativa: Usar Docker Compose
Si prefieres una solución más estructurada, puedes usar docker-compose para gestionar tanto Ollama como Open Web UI en un solo archivo de configuración.
- Crea un archivo docker-compose.yml:
version: '3' services: ollama: image: ollama/ollama:latest container_name: ollama ports: - "11434:11434" volumes: - ollama_data:/root/.ollama
environment:
- OLLAMA-HOST=0.0.0.0 restart: always open-webui: image: ghcr.io/open-webui/open-webui:main container_name: open-webui ports: - "8080:8080" volumes: - open-webui:/app/backend/data environment: - OLLAMA_BASE_URL=http://ollama:11434 depends_on: - ollama restart: always volumes: ollama_data: open-webui: - Ejecuta Docker Compose:
docker-compose up -d
- Accede a la interfaz web:
- Visita http://localhost:8080 en tu navegador.
5. Resolución de problemas
Si encuentras problemas, sigue estos pasos:
- Verifica que Ollama esté corriendo:
- Ejecuta:
docker logs ollama
- Busca mensajes de error o advertencias.
- Ejecuta:
- Verifica que Open Web UI esté conectado a Ollama:
- Revisa los logs de Open Web UI:
docker logs open-webui
- Busca mensajes como Connection error o Syncing models.
- Revisa los logs de Open Web UI:
- Prueba la conexión desde un contenedor temporal:
- Ejecuta un contenedor temporal para verificar que Ollama esté accesible:
docker run --rm -it busybox
- Dentro del contenedor, ejecuta:
wget http://<IP-SERVER-OLLAMA>:11434
- Si obtienes una respuesta, la conexión está funcionando.
- Ejecuta un contenedor temporal para verificar que Ollama esté accesible:
El camino está abierto. Tenemos un modelo super robusto a mano para innovar en nuestras empresas.
¿Qué ideas se te ocurren para sacar el mayor provecho de esta tecnología?
Te leemos en los comentarios.
Guía rápida para instalar DeepSeek local con Docker