集成
Hermes Agent 可连接外部系统,用于 AI 推理、工具服务器、IDE 工作流、程序化接入等场景。这些集成扩展了 Hermes 的能力边界和运行方式。
AI 大模型提供商(provider)与路由
Hermes 开箱即用支持多个 AI 推理大模型提供商(provider)。你可以使用 hermes model 进行交互式配置,也可以直接在 config.yaml 中设置。
- AI Providers — OpenRouter、Anthropic、OpenAI、Google,以及任何 OpenAI 兼容端点。Hermes 会按大模型提供商(provider)自动检测视觉、流式输出、工具调用等能力。
- Provider Routing — 精细控制由哪些底层大模型提供商(provider)处理你的 OpenRouter 请求。可通过排序、白名单、黑名单和显式优先级来平衡成本、速度与质量。
- Fallback Providers — 当主模型出错时,自动切换到备用 LLM 大模型提供商(provider)。同时支持主模型回退,以及视觉、压缩、网页提取等辅助任务的独立回退。
工具服务器(MCP)
- MCP Servers — 通过 Model Context Protocol 将 Hermes 连接到外部工具服务器。无需编写原生 Hermes 工具,就能接入 GitHub、数据库、文件系统、浏览器栈、内部 API 等能力。支持
stdio和 SSE 传输、按服务器筛选工具,以及基于能力的资源/提示注册。
Web 搜索后端
web_search 与 web_extract 工具支持四种后端大模型提供商(provider),可通过 config.yaml 或 hermes tools 配置:
| Backend | Env Var | Search | Extract | Crawl |
|---|---|---|---|---|
| Firecrawl (default) | FIRECRAWL_API_KEY | ✔ | ✔ | ✔ |
| Parallel | PARALLEL_API_KEY | ✔ | ✔ | — |
| Tavily | TAVILY_API_KEY | ✔ | ✔ | ✔ |
| Exa | EXA_API_KEY | ✔ | ✔ | — |
快速配置示例:
web:
backend: firecrawl # firecrawl | parallel | tavily | exa
如果没有设置 web.backend,系统会根据当前可用的 API Key 自动检测后端。也支持通过 FIRECRAWL_API_URL 使用自托管 Firecrawl。
浏览器自动化
Hermes 内置完整的浏览器自动化能力,可用于访问网站、填写表单和提取信息,并支持多种后端:
- Browserbase — 托管云浏览器,带反机器人能力、验证码求解和住宅代理
- Browser Use — 另一种云浏览器大模型提供商(provider)
- Local Chrome via CDP — 使用
/browser connect连接到你正在运行的 Chrome 实例 - Local Chromium — 通过
agent-browserCLI 启动本地无头浏览器
配置与使用方式请参阅 Browser Automation。
语音与 TTS 大模型提供商(provider)
所有消息平台都支持文本转语音和语音转文本:
| Provider | Quality | Cost | API Key |
|---|---|---|---|
| Edge TTS (default) | Good | Free | None needed |
| ElevenLabs | Excellent | Paid | ELEVENLABS_API_KEY |
| OpenAI TTS | Good | Paid | VOICE_TOOLS_OPENAI_KEY |
| MiniMax | Good | Paid | MINIMAX_API_KEY |
| NeuTTS | Good | Free | None needed |
语音转文本支持三个大模型提供商(provider):本地 Whisper(免费、设备端运行)、Groq(高速云端)和 OpenAI Whisper API。Telegram、Discord、WhatsApp 等消息平台都支持语音消息转写。详情见 Voice & TTS 与 Voice Mode。
IDE 与编辑器集成
- IDE Integration (ACP) — 在 VS Code、Zed、JetBrains 等兼容 ACP 的编辑器中使用 Hermes Agent。Hermes 以 ACP 服务器形式运行,可在编辑器里渲染聊天消息、工具活动、文件 diff 和终端命令。
程序化接入
- API Server — 将 Hermes 暴露为兼容 OpenAI 的 HTTP 端点。任何支持 OpenAI 格式的前端,如 Open WebUI、LobeChat、LibreChat、NextChat、ChatBox,都可以把 Hermes 当作带完整工具集的后端使用。
记忆与个性化
- Built-in Memory — 通过
MEMORY.md与USER.md提供持久、可维护的内建记忆。代理会维护有界的个人笔记和用户画像数据,并跨会话保留。 - Memory Providers — 接入外部记忆后端,实现更深层的个性化。目前支持七种大模型提供商(provider):Honcho(辩证推理)、OpenViking(分层检索)、Mem0(云端抽取)、Hindsight(知识图谱)、Holographic(本地 SQLite)、RetainDB(混合检索)和 ByteRover(基于 CLI)。
消息平台
Hermes 可作为网关机器人运行在 15+ 个消息平台上,全部通过同一个 gateway 子系统配置:
- Telegram, Discord, Slack, WhatsApp, Signal, Matrix, Mattermost, Email, SMS, DingTalk, Feishu/Lark, WeCom, WeCom Callback, Weixin, BlueBubbles, QQ Bot, Home Assistant, Webhooks
可参阅 Messaging Gateway overview 获取平台对比表和设置指南。
家居自动化
- Home Assistant — 通过四个专用工具(
ha_list_entities、ha_get_state、ha_list_services、ha_call_service)控制智能家居设备。配置HASS_TOKEN后,Home Assistant 工具集会自动启用。
插件
- Plugin System — 无需修改核心代码,即可通过自定义工具、生命周期钩子和 CLI 命令扩展 Hermes。插件可从
~/.hermes/plugins/、项目本地.hermes/plugins/以及 pip 安装的 entry points 中发现。 - Build a Plugin — 使用工具、钩子和 CLI 命令构建 Hermes 插件的分步指南。
训练与评估
- RL Training — 从代理会话生成轨迹数据,用于强化学习和模型微调。支持 Atropos 环境以及可自定义的奖励函数。
- Batch Processing — 并行处理数百条提示,生成结构化的 ShareGPT 格式轨迹数据,用于训练数据构建或评估。