Una de las creencias más extendidas sobre la IA es que necesitas una GPU potente o pagar por APIs costosas para usarla. En 2026, puedes correr modelos capaces directamente en tu laptop usando Ollama, una herramienta open source que simplifica la instalación y gestión de modelos locales. ## Qué es Ollama y cómo funciona Ollama es una aplicación que corre en Mac, Windows y Linux y actúa como servidor local para modelos de lenguaje. Expone una API compatible con OpenAI en localhost:11434, lo que significa que cualquier herramienta que se conecte a OpenAI puede apuntar a tus modelos locales sin modificaciones. La instalación toma menos de 5 minutos: descarga el instalador desde ollama.com, ejecuta tu primer modelo con "ollama run llama3.2" y ya tienes un modelo funcionando localmente. ## Modelos recomendados por caso de uso **Llama 3.2 (3B o 8B)**: El modelo más versátil para uso general. La versión 3B corre en cualquier laptop con 8GB de RAM. La versión 8B requiere 16GB pero ofrece calidad notablemente superior para escritura, código y análisis. **Phi-4 (14B)**: El modelo de Microsoft destacó en benchmarks de razonamiento matemático y lógico. Requiere 16GB de RAM pero es excepcionalmente bueno para problemas que requieren razonamiento paso a paso. **Gemma 3 (12B)**: El modelo de Google compite directamente con Llama 3.1 en calidad general y tiene excelente soporte para español e instrucciones en múltiples idiomas. **DeepSeek R1 (7B o 14B)**: Especialmente potente para código y razonamiento técnico. La versión 7B es sorprendentemente capaz para su tamaño. ## Requisitos de hardware reales Para modelos de 3-8B parámetros: cualquier laptop con 8GB de RAM funciona, aunque más lento. Para modelos de 13-14B: necesitas 16GB de RAM para que sea usable. En un Mac M2 con 16GB, Llama 3.2 8B responde a velocidades de lectura humana. ## Casos de uso ideales para modelos locales Privacidad total (ningún dato sale de tu máquina), trabajo sin internet, procesamiento de documentos confidenciales, experimentación sin costo por token y desarrollo de aplicaciones que usarán modelos locales en producción.