OpenClaw vs Hermes Agent:构建永不遗忘的 AI 助手之争

6 分钟阅读

用过 AI 编程助手的人大概都有过这种体验:花了一下午时间教会 Claude Code 或 Codex 你代码库的脾性——命名规范、部署流程、没人写过文档的遗留数据库 schema。结果一关会话,这些上下文全没了。

下一次还得从头教起。这种「上下文丢失-重复解释」的循环,已经成为 AI 辅助开发最顽固的痛点之一。两个开源项目正在从截然不同的方向试图解决这个问题。

如果你管理过基础设施,可能会觉得这套叙事很眼熟。把会话型 AI 工具想象成无状态的容器,每次重启都会被清空——快速、可丢弃、无记忆。而给它加上持久卷、长驻进程和能随时间自我改进的学习循环之后,会发生什么?这就是 OpenClaw 和 Hermes Agent 所代表的早期转变——它们正把 AI 助手从一个绑定会话的工具推向持久化的 Agent 运行时。

永驻 Agent 是一个全新的软件品类

我认为 AI Agent 领域正在分化成两个「物种」,大多数开发者还没注意到。

物种一活在终端、IDE 或浏览器标签里。用时打开,不用关闭。Claude Code、Codex、Cursor 在单次会话内很强大,但跨会话的上下文传递能力有限。开发者们只能靠手动 workaround:写 CLAUDE.md 文件、维护 memory 目录、搭建各种基于 markdown 的「大脑」系统。曾有开发者在 26 天内累计做了 59 次上下文压缩,最后干脆自己从头写了一套持久化层。

物种二则永久驻留在你的基础设施上。它在你睡觉时运行,在你通勤时通过 Telegram 联系你,能记住上个月学到的东西,会随时间推移变得更强。OpenClaw 和 Hermes Agent 是这第二物种最典型的代表,但两者对于「永久 Agent 应该如何工作」有着完全不同的哲学。

当然,这不是非此即彼的二选一。会话型工具已经在陆续加入持久化能力——Claude Code 有了跨会话写盘的 auto-memory,Cursor 维持着工作区级别的上下文。但 OpenClaw 和 Hermes Agent 的架构野心远超这些「在会话工具上打补丁」式的功能迭代。它们从设计之初就是为了持续运行、随时间学习、跨消息平台触达用户而构建的。

OpenClaw:生态为王

OpenClaw 诞生于 2025 年底,最初是奥地利开发者 Peter Steinberger 的一个周末项目,原名 Clawdbot。它迅速成为 GitHub 增长最快的开源项目之一,截至 2026 年 4 月初已斩获超过 345,000 颗星。2026 年 2 月,Steinberger 宣布加入 OpenAI,同时 OpenClaw 将迁移至一个独立基金会运营。

这种增长并非偶然。OpenClaw 解决了一个开发者群体苦等已久的实际问题——它提供了一个能连接到你已经在用的消息应用的自托管 AI Agent。支持 WhatsApp、Telegram、Slack、Discord、Signal 等超过 50 种集成;兼容所有主流模型提供商——Anthropic、OpenAI、Google,以及通过 Ollama 接入的本地模型。

生态快速扩张,涌现出 ClawHub 公共技能市场(数千个社区构建的 skills)、多个托管服务提供商,以及 macOS 和 iOS 配套应用。

可以把 OpenClaw 想象成 AI Agent 领域的 Android——有规模、有第三方生态,同时也伴随着这种比较所暗示的碎片化问题。而且正如早期 Android 的情况,安全故事并不乐观。

爆发式增长背后的供应链危机

项目爆炸式增长后数周,一场有组织的供应链攻击浮出水面。Koi Security 对当时 ClawHub 上全部 2,857 个 skills 进行了审计,发现 341 个恶意条目,其中 335 个可追溯至同一个攻击活动(被命名为 ClawHavoc)。SecurityScorecard 报告称互联网上公开暴露了数以万计的 OpenClaw 实例。CVE-2026-25253(CVSS 8.8)涉及不安全的自动 WebSocket 连接行为,可能导致认证令牌泄露,形成多起一键接管事件的基础。

Microsoft 建议将运行时视为「可能受到不可信输入影响」的环境,不推荐在标准个人或企业工作站上运行。Cisco 则直接了当地称个人 AI Agent(如 OpenClaw)「是一个安全噩梦」。

ClawHub 市场的运作模式很像早期的 npm——发布一个 skill 只需要一个注册满一周的 GitHub 账号即可,无需自动化静态分析、无代码审查、无签名要求。OpenClaw 随后与 VirusTotal 建立了合作,对上传的 skills 进行扫描,并增加了面向运营者的安全指南,但信任模型仍处于完善过程中。

模型无关的灵活性

OpenClaw 采用模型无关架构,这也是其核心优势之一。用户可以自由切换不同的模型提供商,甚至在同一会话中混用不同模型。这种灵活性意味着组织不会被单一供应商绑定,同时也使得在同一基础设施上实验和比较不同模型成为可能。

但这种开放性也带来了复杂度。没有统一的行为标准意味着某个 skill 在一个模型配置下运行良好,换一个模型可能表现迥异。这对追求一致性的企业来说是一个不可忽视的挑战。

Hermes Agent:专注持续学习

与 OpenClaw 的生态扩张思路不同,Hermes Agent 来自 Nous Research,其核心哲学是让 Agent 真正从每次交互中学习,而不是仅仅连接更多平台。

Hermes Agent 的设计目标是成为一个能够随着时间推移越来越了解你、你的代码库、你的偏好和工作流程的伴侣 Agent。它不仅仅是响应命令,而是主动记忆、主动推理、主动建议——这些能力都建立在持久化的记忆层之上。

记忆架构的深度差异

Hermes Agent 的记忆系统不仅仅是简单的键值存储。它实现了一个分层记忆架构,包括:

  • 瞬时记忆:当前会话中的活跃上下文
  • 情景记忆:跨会话保留的重要交互片段
  • 长期记忆:关于用户偏好、项目结构和领域知识的持久化知识

这种分层设计使得 Hermes Agent 能够在不同时间尺度上保持上下文连贯性。当你在一个新会话中询问「我们上次讨论的那个性能问题后来怎么解决的」,Hermes Agent 能够从情景记忆中检索并给出回答。

不同的安全模型

Hermes Agent 采取了与 OpenClaw 不同的安全立场。由于其专注于深度学习和持久记忆,Hermes Agent 在数据保留和隐私方面面临不同的挑战——记忆越持久,可能泄露的敏感信息就越多。其安全模型更侧重于对记忆的访问控制和选择性遗忘机制。

技术架构对比

graph TB subgraph OpenClaw OCA[用户] --> OCE[生态集成层] OCE --> OCM[50+ 消息平台] OCE --> OCP[模型无关路由] OCP --> OCL[ClawHub Skills 市场] end subgraph Hermes Agent HMA[用户] --> HML[分层记忆架构] HML --> HM1[瞬时记忆] HML --> HM2[情景记忆] HML --> HM3[长期记忆] HM2 --> HMC[持续学习引擎] HMC --> HM3 end OCP -.->|模型切换灵活| HMC HML -.->|深度学习| OCP

两者在架构上的根本差异:

维度OpenClawHermes Agent
核心定位消息驱动的永驻 Agent持续学习的记忆型 Agent
记忆方式通过外部工具/文件内置分层记忆架构
生态策略广泛集成,平台众多深度绑定,专注学习
安全模型运行时隔离+供应链审查记忆访问控制+隐私保护
适用场景需要跨平台触达的个人助手需要长期上下文理解的项目

两种哲学,一个方向

OpenClaw 和 Hermes Agent 代表了通向「永驻 AI 助手」这一新范式的两条不同路径。

OpenClaw 押注的是广度——尽可能多地触达用户,连接更多平台和模型,让开发者在他们已经使用的工具中与 AI 协作。它的风险在于生态膨胀带来的安全和管理复杂性。

Hermes Agent 押注的是深度——让 AI 真正理解并记住用户的工作方式和项目上下文,随时间变得更加智能。它的挑战在于记忆系统的复杂性和隐私边界。

对于普通开发者而言,这两种思路并非互斥。OpenClaw 可能更适合那些需要在多个平台间保持连贯工作流的重度消息用户;Hermes Agent 则更适合那些希望 AI 能够深入理解代码库、形成长期项目理解的开发者。

无论选择哪条路,有一个趋势是确定的:AI 助手正在从「用时打开、不用关闭」的工具,向「永驻运行、持续学习」的伴侣转变。这场竞赛才刚开始。

参考资料