Agente de IA local sin Docker.
Aplicación de escritorio que simplemente funciona.
Ejecuta Llama 3, Mistral, DeepSeek o cualquier modelo de Ollama como un agente de IA de escritorio completo. Sin Docker. Sin terminal. Sin configuración. Doble clic y estás ejecutando un LLM local en minutos.
El problema de Docker
Cada semana en r/LocalLLaMA alguien publica: “Intenté configurar [herramienta de IA local], renuncié después de 4 horas.” Errores de Docker Compose. Conflictos de versión de Python. Configuración de WSL2. Fallos de enlace de puerto. Desajustes de controlador CUDA. La mayoría de proyectos de IA local están construidos por desarrolladores para desarrolladores.
La barrera no es el modelo - Ollama hizo descargar y ejecutar LLM locales trivialmente fácil. La barrera es todo después: construir una interfaz útil, conectarla a tus archivos y correos, hacer que recuerde contexto y ejecutarla como un agente persistente en lugar de una sesión de chat. Eso es lo que Skales resuelve.
Lo que Skales te da además de Ollama
Ollama ejecuta el modelo. Skales lo envuelve en un agente real con memoria, herramientas e interfaz utilizable.
Instalación de doble clic
Descarga el instalador. Doble clic. Eso es todo. Sin Homebrew, sin pip, sin npm, sin Docker Compose, sin WSL2, sin entorno de Python, sin reenvío de puertos. Skales se instala como cualquier otra aplicación de escritorio.
Integración de Ollama integrada
Instala Ollama por separado (también un instalador de doble clic), extrae cualquier modelo que desees - Llama 3, Mistral, Phi-3, DeepSeek, Gemma, Qwen - y conéctalo a Skales en la configuración. Toma menos de 5 minutos en total.
Se ejecuta en tu hardware
Toda la inferencia ocurre en tu CPU o GPU. Sin llamadas a API en la nube, sin latencia de un servidor remoto, sin costos de API. Trae tu propio hardware - Mac de serie M, PC Windows moderno con una GPU decente o incluso solo CPU.
Completamente capaz sin conexión
Una vez descargados los modelos, Skales con Ollama funciona con cero conexión a Internet. Sin marcación a casa, sin telemetría a menos que optes por ello, sin controles de actualización obligatorios. Funciona en modo avión, en una red local o completamente aislado.
Tus datos nunca dejan tu máquina
Ningún prompt se envía a OpenAI, Anthropic o a ningún proveedor en la nube cuando se usa Ollama. Tus conversaciones, documentos y contexto permanecen en ~/.skales-data en tu propio disco. Lee el código fuente en GitHub para verificar.
API en la nube como respaldo
¿Quieres la velocidad de GPT-4 o Claude para tareas pesadas? Agrega una clave API y Skales cambia sin problemas. Usa Ollama para tareas cotidianas, nube para trabajos ocasionales complejos. Tú eliges por conversación.
De cero a agente de IA local en 5 minutos
Instala Ollama
Descarga desde ollama.com. Doble clic. Listo. Ollama se ejecuta como un servidor local en el puerto 11434. No se requiere configuración.
Extrae un modelo
Abre una terminal (solo una vez): ollama pull llama3.2 u ollama pull mistral o lo que quieras. Ollama maneja la descarga.
Instala Skales
Descarga el instalador de Skales desde esta página. Doble clic. Sigue el asistente de configuración de 30 segundos.
Conecta Ollama en configuración
Abre Configuración de Skales → Modelo → selecciona Ollama → elige tu modelo. Skales detecta Ollama automáticamente si se ejecuta.
Comienza a usar tu agente de IA local
Pregúntale cualquier cosa. Tiene memoria, herramientas, entrada de voz y contexto persistente. Todo se ejecuta en tu hardware. Cero llamadas en la nube.
Funciona con cualquier modelo de Ollama
Si Ollama lo soporta, Skales lo soporta. Los nuevos modelos aparecen automáticamente.
“He probado 12 configuraciones de IA local. Esta es la primera que realmente uso todos los días.”
Gratis para uso personal. Windows y macOS. Sin cuenta requerida.
Véase también: IA sin conexión · Privacidad & GDPR · IA para desarrolladores · Descargar