Windows 用 WSL + Ollama 本地部署 Hermes Agent,并接入 Telegram

整理一套适合 Windows 用户的 Hermes Agent 本地部署流程:先装 WSL 和 Ubuntu,再装 Ollama、Gemma 4,并完成 Hermes Agent 与 Telegram 的基础接入。

如果你想在 Windows 上尽量低门槛地跑 Hermes Agent,一个比较顺手的路径是:

  • 宿主系统继续用 Windows
  • WSL 里跑 Ubuntu
  • Ollama 提供本地模型
  • Hermes Agent 直接连接本地 Ollama 接口

这样做的好处是环境相对干净,命令大多按 Linux 方式执行,同时又不需要单独准备一台 Linux 机器。

整体流程

这套部署可以拆成 5 步:

  1. 启用 WSL 并安装 Ubuntu
  2. 在 Ubuntu 里补齐 Python、Node.js、Git 等运行环境
  3. 安装 Ollama 并拉取本地模型
  4. 安装 Hermes Agent,再接入 Telegram

如果你只想先把 Hermes Agent 跑起来,其实做到第 4 步就已经接近完成了。

1. 安装 WSL 和 Ubuntu

在管理员权限的 PowerShell 里执行:

1
wsl --install

安装完成后重启电脑,然后继续安装 Ubuntu:

1
wsl --install -d Ubuntu

之后打开 Windows Terminal,切到 Ubuntu 环境,后续命令基本都在这里执行。

2. 更新 Ubuntu,并安装基础环境

先更新系统:

1
2
sudo apt update
sudo apt upgrade -y

然后安装 Python、解压工具、Node.js 和 Git。

安装 Python

1
sudo apt install python3-pip python3-venv -y

安装 zstd

1
sudo apt install -y zstd

安装 Node.js

1
2
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs

安装 Git

1
2
sudo apt update
sudo apt install -y git

安装完成后可以顺手检查一下:

1
2
3
node -v
npm -v
git --version

3. 安装 Ollama,并拉取 Gemma 4

安装 Ollama:

1
curl -fsSL https://ollama.com/install.sh | sh

如果你打算给 Hermes Agent 配一个本地模型,可以直接从 Gemma 4 开始。

例如:

1
ollama run gemma4:e4b

如果机器资源更弱,也可以试:

1
ollama run gemma4:e2b

更大的版本还有:

1
2
ollama run gemma4:26b
ollama run gemma4:31b

对大多数 Windows + WSL 的普通机器来说,gemma4:e4b 通常是一个更实际的起点。

4. 安装并配置 Hermes Agent

安装命令:

1
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash

安装完成后,给它指定 Ollama 的本地接口:

1
http://127.0.0.1:11434

模型名填你本地实际在用的那个,例如:

1
gemma4:e4b

如果安装脚本要求刷新 shell,可以执行:

1
source ~/.bashrc

Hermes Agent 常用命令

平时最常用的是下面几个:

启动

1
hermes

重新进入配置

1
hermes setup

配置聊天平台网关

1
hermes setup gateway

更新

1
hermes update

接入 Telegram 的基础步骤

如果你要让 Hermes Agent 通过 Telegram 收发消息,核心还是先跑一遍:

1
hermes setup gateway

然后准备 Telegram 侧需要的两个东西:

  • BotFather 创建机器人
  • @userinfobot 获取你的 User ID

拿到这些基础信息后,再按 Hermes Agent 的网关配置继续填入即可。

这一套方案适合什么人

这套方式比较适合下面几类用户:

  • 平时主力系统就是 Windows
  • 不想单独折腾完整 Linux 主机
  • 想先把本地 Agent 跑通,再慢慢扩展聊天平台接入
  • 希望优先用本地模型,不依赖云端 API

如果你只是想本地体验一个 Agent,而不是一开始就做复杂生产部署,这条路线已经足够实用。

需要注意的几个点

  • WSL 本质上还是一层兼容环境,极端场景下稳定性未必和原生 Linux 完全一样
  • 大模型能不能跑得顺,最终还是取决于你的内存、显存和 CPU / GPU 条件
  • gemma4:e4b 虽然是比较现实的起点,但具体体验还是要看机器配置
  • Hermes Agent 的聊天平台接入属于“能力扩展”,先把本地模型链路跑通,再加 Telegram,会更稳

结论

如果你想在 Windows 上尽量简单地本地部署 Hermes Agent,比较顺的顺序就是:

WSL -> Ubuntu -> Ollama -> Gemma 4 -> Hermes Agent -> Telegram

先把本地模型跑通,再做网关接入,成功率会高很多。
对大多数用户来说,这比一上来就堆很多组件更容易排错,也更适合后续继续扩展。

记录并分享
使用 Hugo 构建
主题 StackJimmy 设计