Cas d'usage : IA locale

Agent IA locale sans Docker.
Application de bureau qui fonctionne simplement.

Exécutez Llama 3, Mistral, DeepSeek ou n'importe quel modèle Ollama en tant qu'agent de bureau complet. Pas de Docker. Pas de terminal. Pas de configuration. Double-clic et vous exécutez un LLM local en quelques minutes.

Le problème Docker

Chaque semaine sur r/LocalLLaMA quelqu'un publie : "J'ai essayé de mettre en place [outil IA local], j'ai abandonné après 4 heures." Erreurs Docker Compose. Conflits de version Python. Configuration WSL2. Échecs de liaison de port. Désadaptations de pilote CUDA. La plupart des projets d'IA locaux sont construits par des développeurs pour les développeurs.

La barrière n'est pas le modèle - Ollama a rendu le téléchargement et l'exécution des LLM locaux trivialement faciles. La barrière est tout ce qui vient après : construire une interface utile, la connecter à vos fichiers et e-mails, lui faire se souvenir du contexte, et l'exécuter en tant qu'agent persistant plutôt qu'une session de chat. C'est ce que Skales résout.

Ce que Skales vous donne au-dessus d'Ollama

Ollama exécute le modèle. Skales l'enveloppe dans un agent réel avec mémoire, outils et une interface utilisable.

Installation double-clic

Téléchargez l'installeur. Double-clic. C'est tout. Pas de Homebrew, pas de pip, pas de npm, pas de Docker Compose, pas de WSL2, pas d'environnement Python, pas de redirection de port. Skales s'installe comme n'importe quelle autre application de bureau.

Intégration Ollama intégrée

Installez Ollama séparément (aussi une installation double-clic), tirez n'importe quel modèle que vous voulez - Llama 3, Mistral, Phi-3, DeepSeek, Gemma, Qwen - et connectez-le à Skales dans les paramètres. Prend moins de 5 minutes au total.

S'exécute sur votre matériel

Toute l'inférence se produit sur votre CPU ou GPU. Aucun appel API cloud, aucune latence d'un serveur distant, aucun coût API. Apportez votre propre matériel - Mac M-series, PC Windows moderne avec un bon GPU, ou même CPU uniquement.

Complètement capable hors ligne

Une fois les modèles téléchargés, Skales avec Ollama fonctionne avec zéro connexion Internet. Pas de phone-home, pas de télémétrie sauf si vous l'acceptez, pas de vérifications de mise à jour obligatoires. Fonctionne en mode avion, sur un réseau local, ou cloisonné.

Vos données ne quittent jamais votre machine

Aucune invite n'est envoyée à OpenAI, Anthropic ou à n'importe quel fournisseur cloud lors de l'utilisation d'Ollama. Vos conversations, documents et contexte restent dans ~/.skales-data sur votre propre disque. Lisez le code source sur GitHub pour vérifier.

API cloud comme secours

Voulez la vitesse de GPT-4 ou Claude pour les tâches lourdes ? Ajoutez une clé API et Skales bascule de manière transparente. Utilisez Ollama pour les tâches quotidiennes, cloud pour le travail complexe occasionnel. Vous choisissez par conversation.

Gratuit pour usage personnel. Windows et macOS. Aucun compte requis.