DeepSeek-R1 y Ollama: Cómo instalar inteligencia artificial localmente en tu ordenador

Elena Digital López

El avance de la inteligencia artificial (IA) ha permitido que herramientas cada vez más potentes estén al alcance de los usuarios. Sin embargo, la mayoría de los modelos avanzados dependen de servidores en la nube, lo que implica costos recurrentes, latencia y la exposición de datos personales a terceros. En este contexto, DeepSeek-R1, un modelo open-source de IA optimizado para tareas de razonamiento complejo, surge como una alternativa atractiva para quienes buscan ejecutar modelos de IA de forma privada y sin conexión a Internet.

Este artículo explica cómo instalar DeepSeek-R1 en cualquier ordenador utilizando Ollama, una plataforma que facilita la ejecución de modelos de lenguaje en entornos locales. Con esta configuración, cualquier usuario podrá aprovechar el potencial de la inteligencia artificial sin necesidad de depender de la nube.


DeepSeek-R1: IA avanzada sin conexión a servidores externos

DeepSeek-R1 es un modelo de IA diseñado para tareas que requieren alto nivel de razonamiento, como resolución de problemas matemáticos, análisis de código y lógica avanzada. Su principal ventaja radica en que puede ejecutarse completamente en local, evitando el envío de datos a servidores externos y reduciendo los costos asociados al uso de plataformas comerciales de IA.

A diferencia de otros modelos entrenados exclusivamente con supervisión humana, DeepSeek-R1 utiliza aprendizaje por refuerzo (RLHF, Reinforcement Learning with Human Feedback). Esto le permite mejorar su capacidad de resolución de problemas mediante prueba y error, optimizando su desempeño sin depender únicamente de grandes conjuntos de datos etiquetados.

Principales ventajas de DeepSeek-R1

  1. Privacidad y seguridad: No requiere conexión a Internet para funcionar, lo que garantiza que los datos del usuario no sean enviados a terceros.
  2. Optimización de recursos: Existen versiones de diferentes tamaños que permiten su ejecución incluso en ordenadores con hardware limitado.
  3. Código abierto y personalizable: Puede integrarse con otros proyectos, adaptarse a necesidades específicas y combinarse con diferentes herramientas.
  4. Ahorro de costos: No implica gastos recurrentes como sucede con los modelos comerciales basados en la nube.

Para utilizar DeepSeek-R1 en un ordenador personal, es necesario contar con una herramienta que permita ejecutarlo de manera sencilla. Ahí es donde entra Ollama.


Ollama: La clave para ejecutar DeepSeek-R1 en tu ordenador

Ollama es una plataforma que facilita la instalación y gestión de modelos de lenguaje en entornos locales. Funciona en Windows, macOS y GNU/Linux y permite ejecutar modelos de IA de manera similar a cómo se ejecutan programas en una terminal de comandos.

Principales características de Ollama

  • Soporte para múltiples modelos de IA: Además de DeepSeek-R1, Ollama permite ejecutar otros modelos de código abierto como LLaMA 2, Mistral o Phi-2.
  • Interfaz minimalista: Se gestiona desde la terminal del sistema, simplificando su uso y evitando la necesidad de interfaces gráficas pesadas.
  • Compatibilidad con GPU y CPU: Aunque se recomienda una GPU para mejorar el rendimiento, Ollama puede ejecutar modelos en CPU si el hardware lo permite.
  • Modo completamente offline: No requiere conexión a Internet una vez descargados los modelos.

Para facilitar aún más su uso, Ollama es compatible con Open WebUI, una interfaz gráfica que permite interactuar con los modelos de IA desde un navegador web, ofreciendo una experiencia más amigable para los usuarios que prefieren evitar la terminal.


Instalación de DeepSeek-R1 con Ollama

A continuación, se explica el proceso paso a paso para instalar y ejecutar DeepSeek-R1 en local.

1. Instalar Ollama en tu sistema operativo

El primer paso es descargar e instalar Ollama desde su GitHub o página oficial (ollama.com).

Para instalarlo en Windows y macOS, basta con descargar el instalador desde la web y seguir las instrucciones en pantalla. En GNU/Linux, el proceso se realiza mediante la terminal con el siguiente comando:

curl -fsSL https://ollama.com/install.sh | sh

2. Descargar el modelo DeepSeek-R1

Una vez que Ollama esté instalado, se debe descargar el modelo de IA. Para ello, se abre la terminal y se ejecuta:

ollama pull deepseek-r1:8b

Este comando descarga la versión de 8.000 millones de parámetros (8B), que ofrece un buen equilibrio entre rendimiento y requisitos de hardware. Existen versiones más ligeras o más avanzadas, dependiendo de la capacidad del sistema:

  • 1.5B parámetros (~1,1 GB): ollama pull deepseek-r1:1.5b
  • 7B parámetros (~4,7 GB): ollama pull deepseek-r1
  • 70B parámetros (requiere +24GB VRAM): ollama pull deepseek-r1:70b
  • 671B parámetros (para hardware extremo, +300GB VRAM): ollama pull deepseek-r1:671b

3. Ejecutar DeepSeek-R1

Tras la descarga, se puede iniciar el modelo con el siguiente comando:

ollama run deepseek-r1:8b

Esto abrirá una terminal interactiva donde el usuario podrá escribir preguntas o problemas y recibir respuestas generadas por la IA. Para salir del modelo, se usa el comando:

/bye

4. Configuración avanzada y Open WebUI

Para quienes prefieren una interfaz gráfica en lugar de la terminal, se recomienda instalar Open WebUI, que permite gestionar los modelos de Ollama desde un navegador web.

El proceso de instalación varía según el sistema operativo, pero en GNU/Linux puede realizarse con:

docker run -d --name openwebui -p 3000:3000 -v openwebui-data:/app/data ghcr.io/open-webui/open-webui:latest

Esto habilitará una interfaz accesible desde http://localhost:3000, donde se pueden probar los modelos de IA de manera más intuitiva.


Hardware recomendado para DeepSeek-R1

Para una mejor experiencia, se recomienda contar con una GPU compatible, aunque Ollama también puede ejecutarse en CPU. A continuación, se muestra una lista de tarjetas gráficas compatibles:

NVIDIA

  • Series RTX 40xx: 4090, 4080, 4070 Ti, 4070, 4060 Ti, 4060.
  • Series RTX 30xx: 3090 Ti, 3090, 3080 Ti, 3080, 3070 Ti, 3070.
  • Series RTX 20xx: 2080 Ti, 2080, 2070, 2060.
  • TITAN RTX, A100, H100.

AMD (ROCm)

  • Radeon RX: 7900 XTX, 7800 XT, 7700 XT, 7600.
  • Radeon PRO: W7900, W7800.
  • Instinct: MI300X, MI250.

Apple Silicon (Metal)

  • MacBook con M1, M2 o M3.

Si no se dispone de una GPU compatible, se puede ejecutar en CPU, aunque el rendimiento será considerablemente menor.


Conclusión: IA potente sin depender de la nube

La posibilidad de instalar y ejecutar DeepSeek-R1 en local representa un gran avance para quienes buscan privacidad, ahorro de costos y control total sobre sus modelos de inteligencia artificial. Gracias a herramientas como Ollama, este proceso se ha simplificado, permitiendo que cualquier usuario, sin importar su nivel técnico, pueda aprovechar modelos avanzados de IA sin necesidad de depender de servidores en la nube.

Este enfoque descentralizado y open-source es clave en el futuro de la IA, ofreciendo alternativas flexibles y seguras para investigadores, desarrolladores y entusiastas que buscan explorar todo el potencial del aprendizaje automático de manera privada y accesible.

vía: Noticias Inteligencia Artificial

Scroll al inicio