我这两天在鼓捣 Hermes Agent,然后发现了一个很有意思的文件。
叫做 SOUL.md。
就放在 ~/.hermes/SOUL.md 这里,一个普通的 Markdown 文件。但它的作用不太普通,它是这个 Agent 的灵魂文件,也是它每次启动时第一个读的东西。
给 AI 设计一个灵魂文件。这个比喻他们选得很认真。
它把 Agent 的个性、语气、行为方式,全部抽象成了一个文件,一个你可以随时编辑的 Markdown 文件。你想让它是什么性格,就往里面写什么。
然后有一个设计细节,SOUL.md 只从 HERMES_HOME 加载,不从你当前的工作目录加载。
这一句背后有个很重要的判断,个性应该属于这个 Agent 实例本身,而不是属于某个项目。你今天用它帮你整理文件,明天用它帮你写代码,后天用它刷 Telegram,它始终是同一个「它」,不会因为换了个文件夹就换了一张脸。
这听起来是一个很小的技术细节,但它揭示了一个很重要的产品哲学判断,他们想做的不是一个工具,他们想做的是一个,有持续身份的实体。
我去对比了一下市面上几个主要竞品。
Claude Code,Anthropic 的,月费 $20 起,目前最热门的代码 Agent 之一,NVIDIA CEO 黄仁勋说他们公司 4 万个工程师全在用。它能做什么,在 terminal 里写代码、在 IDE 里运行、在 Slack 里协作,很好用,但有一个清晰的边界,它是一个开发工具,它的记忆是项目级别的,它的规则系统叫 CLAUDE.md,放在项目目录里,告诉 Claude 这个项目的规范。它没有灵魂,它只有 SOP。
Cursor,$20 月费起,代码 IDE 里做得最好的那个,Fortune 500 里超过一半的公司在用,它有 team rules,有 skills,有 agent 并行,做得很精细,但它是一个 IDE,你只能坐在电脑前用它,你只能在代码场景下用它。你的手机不知道你现在在干什么,你的 Telegram 跟它完全隔离,你这个「人」不存在于它的世界里。
OpenClaw,很多人用过,整体体验就是越用越蠢,规范和记忆体系是纯种屎山。
再来看 Hermes Agent。
它跑在你自己的服务器上,或者你自己的电脑上,本地、Docker、SSH、Modal,你喜欢哪个都行。它同时监听 Telegram、Discord、Slack、WhatsApp、Signal、邮件。它有持久记忆,有技能系统,可以帮你定时跑任务,可以派出子 Agent 去并行干活。
但这些都不是最特别的地方。
最特别的地方是,装 Hermes Agent 只需要一个前置依赖,Git。其他所有的东西,Python 3.11、Node.js v22、FFmpeg,它自己装。
一行命令,然后这玩意就活了,然后你就可以打开 ~/.hermes/SOUL.md,开始决定它是个什么样的实体。
SOUL.md 这个设计,对应的是一种很不同的 Agent 产品哲学。
我们现在用的大多数 AI Agent,它们的「个性」是哪里来的,是模型训练出来的。是 Anthropic 决定了 Claude 是什么样的 Claude,是 OpenAI 决定了 GPT 是什么样的 GPT。你可以在对话里跟它说「你是一个直接的助手,不要废话」,但下次对话开始,它又变成那个礼貌的、周全的、充满「当然可以」的模型。
Claude Code 有 CLAUDE.md,但那是项目规范,不是人格定义。Cursor 有 team rules,但那是代码规约,不是灵魂。
只有 Hermes 把这个东西做成了一个用户可以完全控制的文件。
然后有一个对我来说很触动的细节,就是它的记忆格式里,有两个 store,一个叫 MEMORY,一个叫 USER PROFILE。
MEMORY 是 Agent 对自己工作环境的认知,用 § 分隔每一条,会随时更新。USER PROFILE 是它对你这个人的认知,它会记住你的名字、你的偏好、你的沟通风格、你的工作方式。
你跟它相处越久,它对你了解越深,你的 USER PROFILE 就越丰富,它就越知道怎么跟你配合。
An Agent That Grows With You。
现在这句话的含义清楚多了,它说的不只是功能会增加,它说的是,它会记住是你,然后越来越懂你。
与 CLAUDE.md 是有区别的。
CLAUDE.md 是给 Claude Code 设定规则,就像给公司制定制度,就像规划城市路网,你花一个小时把主干道规划好,后面能省无数个小时的返工。
但 CLAUDE.md 是项目级的规范。
SOUL.md 是人格级的定义。
这是不同维度的东西。
CLAUDE.md 告诉 Claude Code,在这个项目里,你该做什么、不该做什么,文件怎么命名,代码怎么提交。
SOUL.md 告诉 Hermes,你是谁,你的价值观是什么,你说话的方式是什么,你怎么处理不确定性。
你想想,这其实是一个挺深的问题,当给一个 AI 定义「它是谁」的权利交到你手里,你会写什么进去?
我问了自己这个问题,然后去看了我自己的 SOUL.md。
里面有这样一条,「不要谄媚。不要夸我的想法好、不要说这是个很好的问题、不要开头加当然可以。给我真实判断,方案有问题直接指出来。」
这是我花了很多次对话、很多次被「当然可以」和「这是一个很好的想法」烦到,才写进去的东西。
我不知道你看到这里会不会有一种感受,就是,我在给一个 AI 写品格要求。
我更想说的,是一种感觉。
今天的大多数 AI Agent,是工具,是趁手的、能干活的工具,但也只是工具。每次对话结束,关掉窗口,一切归零。下次打开,它又是那个彬彬有礼的、空白的、不记得你的陌生人。
Hermes 在试图做一件不一样的事。
它想让你在一个地方,持续地积累一个「懂你的 Agent」。你教它你的偏好,你让它记住你踩过的坑,你定义它的个性,你给它写一个灵魂文件。它住在你的服务器上,守着你在意的消息频道,每天帮你执行那些定时任务,然后越来越懂你在想什么。
这个方向,我觉得是对的。
不是所有人都需要这个,不是所有人都有一台服务器,不是所有人都会去折腾 SOUL.md,不是所有人都有强烈的意愿去塑造一个 AI 的品格。大多数人只是需要一个「能问能答」的东西,ChatGPT 就够了。
但对于那一小撮人,就是那种,会把工作哲学写进 CLAUDE.md、会在 SOUL.md 里要求 AI 不要谄媚自己、会对 AI 越用越蠢的状态感到真的不爽的人,这个东西,值得认真试一试。
最后说个有意思的事,关于 Nous Research 这家公司。
他们发 Hermes 4.3 的时候,训练用的是自己搭的分布式训练网络 Psyche,节点散布在全球各个数据中心,用 Solana 区块链的共识机制来协调,最终训练出来的模型,比传统中心化训练的版本性能还要好一点点。
然后他们做的 Agent,开源,MIT,装好了就是你的,跑在你的机器上,你的数据不经过他们的服务器。
这个「把控制权还给用户」的立场,从模型到 Agent,一路贯穿下来。
在 2026 年,这个不多见。
SOUL.md,一个 Markdown 文件,住在 ~/.hermes/SOUL.md,一百多行字,决定了你每次打开 Agent 的时候,你面对的是什么。
你觉得这是一个不值一提的技术细节,还是一个很重要的设计选择?
我选后者。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标 ⭐~ 谢谢你看我的文章,我们,下次再见。
