使用案例:本地 AI
无 Docker 的本地 AI 代理。
即装即用的桌面应用。
作为完整的桌面 AI 代理运行 Llama 3、Mistral、DeepSeek 或任何 Ollama 模型。无 Docker。无终端。无配置。双击,您在几分钟内运行本地 LLM。
Skales 在 Ollama 之上给您什么
Ollama 运行模型。Skales 将其包装在具有内存、工具和可用界面的真实代理中。
双击安装
下载安装程序。双击。完成。无 Homebrew、无 pip、无 npm、无 Docker Compose、无 WSL2、无 Python 环境、无端口转发。Skales 像任何其他桌面应用程序一样安装。
内置 Ollama 集成
单独安装 Ollama(也是双击安装程序),拉动您想要的任何模型 - Llama 3、Mistral、Phi-3、DeepSeek、Gemma、Qwen - 并在设置中将其连接到 Skales。总共不到 5 分钟。
在您的硬件上运行
所有推理都在您的 CPU 或 GPU 上发生。无云 API 调用、无来自远程服务器的延迟、无 API 成本。带上您自己的硬件 - M 系列 Mac、现代 Windows PC 有不错的 GPU 或仅 CPU。
完全离线能力
一旦模型被下载,带有 Ollama 的 Skales 就可以在零网络连接下工作。无电话主页、无遥测,除非您选择加入、无强制更新检查。在飞行模式、本地网络或气隙中工作。
您的数据永远不会离开您的机器
使用 Ollama 时,没有提示被发送到 OpenAI、Anthropic 或任何云提供商。您的对话、文档和上下文停留在您自己磁盘上的 ~/.skales-data 中。在 GitHub 上阅读源代码以验证。
云 API 作为备用
想要 GPT-4 或 Claude 的速度用于繁重的任务?添加 API 密钥,Skales 无缝切换。为日常任务使用 Ollama,为偶尔的复杂工作使用云。您每次对话选择。