Anwendungsfall: Lokale KI

Lokaler KI-Agent ohne Docker.
Desktop-App, die einfach funktioniert.

Führe Llama 3, Mistral, DeepSeek oder jedes Ollama-Modell als vollständigen Desktop KI-Agent aus. Kein Docker. Kein Terminal. Keine Konfiguration. Doppelklick und du führst ein lokales LLM in Minuten aus.

Das Docker-Problem

Jede Woche auf r/LocalLLaMA postet jemand: “Versuchte [lokales KI-Tool] aufzusetzen, gab nach 4 Stunden auf.” Docker Compose-Fehler. Python-Versionskonflikte. WSL2-Konfiguration. Port-Bindungsfehler. CUDA-Treiber-Mismatches. Die meisten lokalen KI-Projekte sind von Entwicklern für Entwickler gebaut.

Das Hindernis ist nicht das Modell - Ollama machte das Herunterladen und Ausführen lokaler LLMs trivial einfach. Das Hindernis ist alles danach: eine nützliche Schnittstelle bauen, sie mit deinen Dateien und E-Mails verbinden, Kontext merken lassen und sie als persistenten Agent anstelle einer Chat-Sitzung ausführen. Das ist, was Skales löst.

Was Skales dir zusätzlich zu Ollama gibt

Ollama führt das Modell aus. Skales wickelt es in einen echten Agent mit Speicher, Tools und nutzbarer Schnittstelle.

Doppelklick-Installation

Lade den Installer herunter. Doppelklick. Das war's. Kein Homebrew, kein pip, kein npm, kein Docker Compose, kein WSL2, keine Python-Umgebung, keine Port-Weiterleitung. Skales installiert sich wie jede andere Desktop-App.

Ollama-Integration eingebaut

Installiere Ollama separat (auch ein Doppelklick-Installer), ziehe jedes Modell, das du möchtest - Llama 3, Mistral, Phi-3, DeepSeek, Gemma, Qwen - und verbinde es mit Skales in den Einstellungen. Dauert unter 5 Minuten insgesamt.

Läuft auf deiner Hardware

Alle Schlussfolgerungen finden auf deiner CPU oder GPU statt. Keine Cloud-API-Calls, keine Latenz von einem Remote-Server, keine API-Kosten. Bring deine eigene Hardware - M-Series Mac, moderner Windows-PC mit anständiger GPU oder sogar nur CPU.

Vollständig offline nutzbar

Sobald Modelle heruntergeladen sind, funktioniert Skales mit Ollama mit null Internetverbindung. Kein Phone-Home, keine Telemetrie es sei denn du möchtest, keine obligatorischen Update-Checks. Funktioniert im Flugzeugmodus, in lokalen Netzwerken oder vollständig abgekapselt.

Deine Daten verlassen deinen Rechner nie

Kein Prompt wird zu OpenAI, Anthropic oder einen Cloud-Provider gesendet, wenn Ollama verwendet wird. Deine Gespräche, Dokumente und Kontext bleiben in ~/.skales-data auf deiner Festplatte. Lies den Quellcode auf GitHub zur Verifizierung.

Cloud-API als Fallback

Möchtest du die Geschwindigkeit von GPT-4 oder Claude für schwere Aufgaben? Füge einen API-Schlüssel hinzu und Skales wechselt nahtlos. Nutze Ollama für alltägliche Aufgaben, Cloud für gelegentliche komplexe Jobs. Du wählst pro Gespräch.

Von null zu lokalem KI-Agent in 5 Minuten

1

Installiere Ollama

Lade von ollama.com herunter. Doppelklick. Fertig. Ollama läuft als lokaler Server auf Port 11434. Keine Konfiguration erforderlich.

2

Ziehe ein Modell

Öffne ein Terminal (nur einmal): ollama pull llama3.2 oder ollama pull mistral oder was du möchtest. Ollama bearbeitet den Download.

3

Installiere Skales

Lade den Skales-Installer von dieser Seite herunter. Doppelklick. Folge dem 30-sekündigen Setup-Assistenten.

4

Verbinde Ollama in Einstellungen

Öffne Skales Einstellungen → Modell → wähle Ollama → wähle dein Modell. Skales erkennt Ollama automatisch, wenn es läuft.

5

Starte die Nutzung deines lokalen KI-Agenten

Frag es alles. Es hat Speicher, Tools, Sprach-Input und persistenten Kontext. All läuft auf deiner Hardware. Null Cloud-Calls.

Funktioniert mit jedem Ollama-Modell

Llama 3.2
Llama 3.1
Mistral
Mistral Nemo
DeepSeek R1
Phi-4
Gemma 3
Qwen 2.5
Command R
Orca Mini
Vicuna
Jede GGUF

Wenn Ollama es unterstützt, unterstützt Skales es. Neue Modelle erscheinen automatisch.

“Ich habe 12 lokale KI-Setups versucht. Das ist das erste, das ich wirklich täglich nutze.”

Kostenlos für persönliche Nutzung. Windows und macOS. Kein Konto erforderlich.