如果你想在 Windows 上尽量低门槛地跑 Hermes Agent,一个比较顺手的路径是:
- 宿主系统继续用 Windows
- 在
WSL里跑Ubuntu - 用
Ollama提供本地模型 - 让
Hermes Agent直接连接本地 Ollama 接口
这样做的好处是环境相对干净,命令大多按 Linux 方式执行,同时又不需要单独准备一台 Linux 机器。
整体流程
这套部署可以拆成 5 步:
- 启用
WSL并安装Ubuntu - 在 Ubuntu 里补齐 Python、Node.js、Git 等运行环境
- 安装
Ollama并拉取本地模型 - 安装
Hermes Agent,再接入Telegram
如果你只想先把 Hermes Agent 跑起来,其实做到第 4 步就已经接近完成了。
1. 安装 WSL 和 Ubuntu
在管理员权限的 PowerShell 里执行:
|
|
安装完成后重启电脑,然后继续安装 Ubuntu:
|
|
之后打开 Windows Terminal,切到 Ubuntu 环境,后续命令基本都在这里执行。
2. 更新 Ubuntu,并安装基础环境
先更新系统:
|
|
然后安装 Python、解压工具、Node.js 和 Git。
安装 Python
|
|
安装 zstd
|
|
安装 Node.js
|
|
安装 Git
|
|
安装完成后可以顺手检查一下:
|
|
3. 安装 Ollama,并拉取 Gemma 4
安装 Ollama:
|
|
如果你打算给 Hermes Agent 配一个本地模型,可以直接从 Gemma 4 开始。
例如:
|
|
如果机器资源更弱,也可以试:
|
|
更大的版本还有:
|
|
对大多数 Windows + WSL 的普通机器来说,gemma4:e4b 通常是一个更实际的起点。
4. 安装并配置 Hermes Agent
安装命令:
|
|
安装完成后,给它指定 Ollama 的本地接口:
|
|
模型名填你本地实际在用的那个,例如:
|
|
如果安装脚本要求刷新 shell,可以执行:
|
|
Hermes Agent 常用命令
平时最常用的是下面几个:
启动
|
|
重新进入配置
|
|
配置聊天平台网关
|
|
更新
|
|
接入 Telegram 的基础步骤
如果你要让 Hermes Agent 通过 Telegram 收发消息,核心还是先跑一遍:
|
|
然后准备 Telegram 侧需要的两个东西:
- 用
BotFather创建机器人 - 用
@userinfobot获取你的User ID
拿到这些基础信息后,再按 Hermes Agent 的网关配置继续填入即可。
这一套方案适合什么人
这套方式比较适合下面几类用户:
- 平时主力系统就是 Windows
- 不想单独折腾完整 Linux 主机
- 想先把本地 Agent 跑通,再慢慢扩展聊天平台接入
- 希望优先用本地模型,不依赖云端 API
如果你只是想本地体验一个 Agent,而不是一开始就做复杂生产部署,这条路线已经足够实用。
需要注意的几个点
WSL本质上还是一层兼容环境,极端场景下稳定性未必和原生 Linux 完全一样- 大模型能不能跑得顺,最终还是取决于你的内存、显存和 CPU / GPU 条件
gemma4:e4b虽然是比较现实的起点,但具体体验还是要看机器配置- Hermes Agent 的聊天平台接入属于“能力扩展”,先把本地模型链路跑通,再加 Telegram,会更稳
结论
如果你想在 Windows 上尽量简单地本地部署 Hermes Agent,比较顺的顺序就是:
WSL -> Ubuntu -> Ollama -> Gemma 4 -> Hermes Agent -> Telegram
先把本地模型跑通,再做网关接入,成功率会高很多。
对大多数用户来说,这比一上来就堆很多组件更容易排错,也更适合后续继续扩展。