对比

Skales 与 Docker AI 代理。
双击 vs 容器地狱。

您不应该需要配置 WSL2、编写编写文件或花一天时间排查 GPU 直通来运行本地 AI 代理。Skales 像任何其他应用程序一样安装。相同的 Ollama 支持。零 Docker。

这是给谁的

如果您花时间在 r/LocalLLaMA 和 r/selfhosted 上,您知道这个模式:一个有趣的 AI 代理项目、一个 Docker 编写文件、三小时的 WSL2 配置,最后放弃,因为 GPU 直通对您的设置不起作用。

Skales 正是为了这种情况而存在的。它提供相同的本地 AI 代理能力 - Ollama 集成、本地模型支持、私有处理、自定义工作流程 - 而无需任何容器基础设施。如果您可以安装 Discord,您可以安装 Skales。

并排对比

对设置和操作体验进行直接比较。

安装时间

Skales

下载标准安装程序。双击。完成。Skales 在任何 Windows 或 macOS 机器上在 2 分钟内运行。无前置条件、无环境设置、无终端命令。

Docker AI 代理

安装 Docker Desktop。在 Windows 上配置 WSL2(需要 Hyper-V、BIOS 设置)。拉动代理容器。配置环境变量。编写编写文件。排查容器无法找到 GPU 的原因。这个过程通常需要几个小时。

系统要求

Skales

标准 Windows 10/11 或 macOS 机器,具有 8GB RAM。Skales 不需要启用虚拟化、Hyper-V 或任何特定 BIOS 设置。它在您已经拥有的硬件上运行。

Docker AI 代理

Docker on Windows 需要 WSL2,这需要 BIOS 虚拟化和 Hyper-V 启用。这会与其他虚拟化软件(VMware、VirtualBox)冲突,并在许多公司机器上默认禁用。

Ollama 集成

Skales

Skales 立即连接到 Ollama。单独安装 Ollama(也是双击安装程序),然后将其指向它。无容器需要 Ollama - 它本身以本地方式处理模型提供。

Docker AI 代理

在 Docker 中运行 Ollama 添加了一个具有 GPU 直通配置要求的容器层。Ollama 实际上建议在 Docker 中本地运行它,而不是在 Docker 中,因为容器层增加了不必要的复杂性。

维护开销

Skales

更新通过标准应用程序更新流到达。无容器要重建、无图像版本跟踪、无编写文件更新。Skales 会自己维护。

Docker AI 代理

基于容器的代理需要持续维护:拉动更新的图像、管理容器状态、监视资源使用情况、处理容器崩溃并保持编写配置与新功能标志一致。

首次有用输出的时间

Skales

安装 Skales(2 分钟),安装 Ollama(3 分钟),拉动模型(下载时间不同)。从开始起 10 分钟内,您拥有一个工作的本地 AI 代理。在快速连接上,更接近 5 分钟。

Docker AI 代理

对于熟悉 Docker 的开发人员,设置需要 30-90 分钟的工作代理堆栈。对于非开发人员或那些不熟悉 Docker 的人,排查网络问题、GPU 直通和容器权限通常会将其扩展到半天练习。

资源效率

Skales

Skales 是本机桌面应用程序。它使用操作系统本机 API 并快速启动。打开应用程序之前不运行 Docker 守护程序在后台消耗 RAM 和 CPU。

Docker AI 代理

Windows 和 macOS 上的 Docker Desktop 在启用 Docker 时始终在后台运行 Linux VM。即使您不使用任何容器,此 VM 也保留内存,减少可用于其他任务的 RAM。

本地 AI。无 Docker。在 10 分钟内运行。

免费供个人使用。Windows 和 macOS。无 Docker、无 WSL、无容器。