粉丝4.3万获赞22.1万

大家好, hermes agent 都用上了吗?觉得怎么样呢?那今天来分享一下我最近使用的十个技巧,比较适配新手。 那第一个就是我们去安装 hermes 的 时候,只要执行这一条命令就行了,但是呢, windows 用户一定要特别注意啊,必须得安装这个 wcl 这个环境,那其实安装也非常方便啊,只要打开你的这个 pro shell, 那输入这个 install 命令就可以了。安装完之后输入这个 wc 要启动,然后再去执行这条命令,那么就 ok 了。那第二个就配置这个主模型啊,那么在 hermes 里面是其实是有主模型和辅助模型的,那我们怎么去配置这个主模型呢?那配置也是非常简单,只要执行 hermes, 然后 model 模型,那么你就可以选择,那第一个是它自己自家这个订阅,第二个是 open rotter, open rotter 非常建议大家使用,这个 open rotter 里面其实有非常多免费的模型,然后的话你就可以等它出来,就是它会先加载一些。就是啊,模型 我们可以拉到最下面啊,就是你可能这个模型不在这里的,你可以拉到最下面,然后对话输入模型的名称啊,输入模型名称点确定, ok, 这样的话你的模型就变成这个应用达这个模型呢,因为我之前已经输入过密钥了,所以他没有提示我输入密钥,比如说我们再看一下他是不是变了, ok, 你 看这个名字是不变了,我问一下, ok 啊,它这个模型是这个,那我们在设置模型的时候有一个小小的问题,比如说我们如果说设置的模型需要输入这个 key, 但是这个 key 其实在它这个终端输入里面我们是看不到的,经常我们复制过去之后看不到这个字母出来, 那你不知道,你可能又复制,导致可能这个命要输错了,那怎么办呢? 那么在这个 hermes 这个啊,目录里面有一个环境的这个配置的文件叫这个点 e n v, 那 么在这个文件里面是保存了所有你配的这个模型的密钥。所如如果说你这个模型调不通,那么你建议你去这个文件里面看一下你的密钥是不是配置的,对不对?那第三个就是啊,配置这个辅助模型,那为什么它会有辅助模型呢? 因为它设置了不同的任务模块啊,比如说这个第一个任务模块叫啊试图就是说啊,你如果发了这个截图啊,给这个 homeys 发了截图,不管你是通过什么聊天工具发了截图的话,如果你专门给它适配了模型,它就会调用这个专门的模型, 那比如说这个外部网页的搜索也是一样的,那么他这边有八个任务都可以去配置不同的模型啊,那这里就会有一个这样的事情呢,就是可能像有一些他是高频的,但是我们不需要那么好的模型去处理,比如说像搜索网页,其实这是这是一个可能是一个 m c p 的 活, 并不需要你这个模型有多厉害,那么你就可以选用一个便宜的模型,那比如说像这种啊,比如说这种记忆类的啊,他要去 总结记忆的,那非常重要,因为记忆和这个技能的这个深层非常依赖于这个模型的能力,不然的话他的这个效果就很差,那么这种时候你就可以去选一个比较好的模型, 还有说这种搜索类的,那么都是比较好的模型,选好一点的模型,所以你可以去根据这个去配置不同的模型,那么你也可以不配置啊,如果不配置的话都会使用默认模型,也就是你配置的那个默认模型,那如果你想配置的话,你可以这么来配置,只要进入对话,然后你告诉他是哪一个任务,比如说请你 这个压缩的啊,辅助模型, 你复制给它就行,就首先你得知道自己这个模型已经配置好了,在我们前面这一步,他这边啊,看到没有,他把 auto 能换成这个,就是我们的这个模型。 第四个就是写好这个 sword, md 啊,就是这个是个灵魂的文件,那这个文件是写什么字呢?就是定义你这个后面字的这个风格 应该写什么呢?比如说你这个性格说话的方式啊,做事的风格,价值观和边界,所以呢这个是非常适合你去定义好,这样的话你的这个后面字就比较有人味了,那么格式你可以这样按这种格式啊,比如说你是谁,你怎么说话,你做事的风格是什么样子的?你遇到问题优先怎么处理 啊?比如说举个例子啊,比如说你现在要做一个这种研究型的 ai 助手,你就把后面字定义成这种助手,那么你可以按这种方式去让它给你去对话,那么你也可以让 ai 去帮你走。比如说你跟后面字已经对话了一段时间了,那么你就可以让它根据我们的对话技术风格 让它去重新设置啊,你的这个灵魂文件,或者说你自己知道叫 so d m d, 那 么直接叫 so d m d, 或者重新设置我的灵魂,它是能识别出来 啊,你这个设置灵魂就是去修改这个 so md, 它会去根据你的对话就去总结你要求的这种风格,因为你跟它对话,你会不断去纠正它的问题嘛,那么它就知道你喜欢什么样的风格啊,就是这个样子,所以这个文件是非常适合大家在刚开始使用时去定义的。去定义好的, 那第五个就要搞懂这个 home md, 这个就是定义了 home md, 这个就是定义了 home md, 就是他是怎么跟你说话,是定义他那 user 点 m d 是 他对你的了解,就是你是用的人,他对你的长期观察,会把这些你的画像,你的习惯,你的偏好,然后落入,然后总结到这个文件里面,所以这个是会被被动形容的,那么你自己也可以去编辑啊。 那 memory md 就是 通过我们长期的对话,他会把这个一些事情总结,就针对事情来总结到这个 md memory md 里面,然后呢,每一次对话都会把这个文件的内容注入到上下文里面去,这样的话他就会记住啊,你曾经喜欢这个,喜欢那个,喜欢,喜欢做什么?喜欢这个事的流程是什么样子的, 那 skill 就 更具体了,就是他对你的对话进行总结之后,发现有些事情是可以啊用流程固化下来的,那么他就他就会固化到这个 skill 的 文这个文件夹里面去形成技能,那么这你的方法就可以被附用,流程就可以被附用了, 那么这种你也可以自己去安装,那么后面字也是可以被动去创建去啊,进行一个修改的。 那 state db 呢?就是你跟它的所有的对话记录全部都保存在这里面,那其实最重要的是这个所有的 md 啊,是去定义你这个 home 字是什么样的人格,那这个文件是我们主动要去维护的,那其他的文件都是 home 字可以自动去处理的,可以不用管。 那第六个就是我们配置这个聊天通道,那么也是非常简单,那我们配置这个聊天通道也是非常简单,只要执行这个 homeis getway setup 就 可以了,那进来之后我们可以看到它支持非常多这样的聊天的通道, 然后的话这边也是飞书钉钉还有企业微信,然后这边的话是可以去配置的,比如说配置这个飞书的话,你可以进来,进来之后,比如说我这边已经配置过了,那我就让他重写。 那这句话是要输入这个 app id, 那 么你如果之前用过 open core 对 接过飞书,那么你肯定创建了很多这样的飞书的应用啊,比如说我们打开这个飞书的应用,就可以看到这样的 app id, 那 我们只要复制过去啊,输进去,然后再把这个密钥 再输过去, 然后再选择飞书啊,我们用的是国内版飞书, 然后就确定,然后不管,那这样就配置好了,那这边的话他有一个这样的一个配对的这个命令,配对的这个码 你可以选择选择之后你你如果说是第一次的话,他是会啊,你跟他对话的话会输,会生成一个这样的配对的密钥啊,你输进去就行了, 那这样就配置就完成了,你就可以去对话了,然后你可以选择,然后让它重启。它目前的话支持基本上主流的这个聊天工具啊,而且飞书的话它支持的这个维度能力的维度都是非常全的,所以说还是比较推荐使用飞书。 那第七个就是我们可以使用这个 homeis doctor 这个功能啊,去做一个全面的检查,看一下我们到底配置上有什么问题,我们可以输入这个,然后它就会去 如果没有问题的他就会打勾,如果有有问题他就会打叉,然后告诉你这个哪一个是啊?有什么具体的问题,那比如说这有个警告,这个有一个 browse 插件没有装好, 就是如果你这边遇到什么问题,你可以先执行这个,然后让他去看一下,检查一下有没有什么问题。那第八个就是 ui, 就 说它本身是有一个这样 ui 的 管理界面,那官方没有做啊,但是社区已经做了一个非常不错的这个 ui 的 界面啊, 然后的话你可以把这个项目 clone 下来,然后去执行这个,然后就可以启动一个这样的 ui 的 这个,呃, homeys 的 这个 ui 的 管理界面,那这边是我启动之后啊,我们可以看到你可以配置很多东西,比如说对话,然后的话配置这个任务, 还有这个搜索这个技能。然后的话这边是啊,一个就是四二点 m d 的 配置,比如说我这个配置就是这样子的,那么你可以直接修改, 然后这边的话是这样的,文件就基本上管理的东西都有,然后这边可以选择模型,所以说是不错的。你如果说不太习惯用终端命令行 t u i 这种方式来管理的话, 你可以把它下载下来,然后部署一下。那第九个是如果你想把 open core 的 东西迁移过来,你可以执行这个命令,执行这个命令的话,可以把 open core 的 一些技能啊,一些记忆啊,这些东西都都带过来,比如说像这个 点 open 空的所有的文件,他都会转移到这边去啊,你可以选择 yes 呢,他就会把它全部转过去了,非常方便的迁移啊。那第十个就是怎么去安装记呢?那么第一种方式就自己去创建,那通过聊天的方式创建,我相信大家这个都已经非常熟悉了。那第二个是在社区里面搜索,那么 homeys 也有自己的这个技能的社区啊,然后它这边也是有非常多这样技能的,大概有四呃,四百多个吧,六百多个,现在已经六百多个了。然后我们可以打开这个技能列表,里面是有这个 build in, 就 说明是它本身就自带了这个技能,那么不是这个标记的,那你就需要去安装了。那安装方式也非常简单, 那只要把链接发送给他,在对话框里面告诉他,让他去安装这个技能就可以了。你也可以去安装 opencircle 里面这个技能啊,也是一样的,复制链接发给他,他就会自动去安装。还有 github 的 技能也是这么安装的, 那这样有了技能之后,那你就能够去用很多这样的,做很多这样的事情了,那么以上十个呢,是我自己总结的一些这些经验啊,希望能够帮助到你,能够更快更好地去使用这个 hems agent。

hermes 这个 agent 都说比 openclaw 强了不少,但国内怎么用一直是问题。小米这次出手相当于给你搭了个桥,给你免费试两周的机会。下面我教大家如何操作。准备工作,首先你得在电脑上安装 hermes agent 这个软件,去 get up 异形命令安装。第一步,升级,打开终端,电脑里的小黑框, 输入 hermes update, 它会自动更新到最新版本,进入配置。继续在终端输入 hermes model, 终端会让你选一个服务商,按提示选 news portal, 然后复制屏幕上显示的网址,在浏览器打开。第三步,白嫖免费套餐打开的网页会让你选订阅方案,认准 free 免费那个选项,点 subscribe, 虽然写要绑卡,但实测国内信用卡也能绑,别被吓到。 第四步,授权确认网页会跳出一个验证码,看看和终端显示的是否一样,一样的话点 i approve 就 通过了。选香蜜蜜,某杠 v 二 pro 搞定,想体验的赶紧!


如果你还在折腾龙虾,还没学会,可以先停一下了。最近有个叫 hermes 的 新项目,一上线就杀疯了,狂揽六万星标。他能接各家厂商的模型,随便切,具备自学习循环, 越用越懂。你做过一次的活,还可以自动沉淀为 skill。 我 朋友为了装它,甚至在海鲜市场花了四十九,结果装完了,自己都不知道怎么配。其实自己学会安装并不难,别被那些复杂的代码吓到了。 今天全部交给你。开始之前看看你需要准备什么,只需要一样东西, git 终端输入 git version, 能看到版本号就行。其他的 python, node 全都不用管。安装脚本自动帮你搞定。先讲 windows 怎么装,右键 windows 图标选中端管理员, 打开 power shell, 点开 hermes 的 官方文档,复制安装命令,粘贴进去,回车,然后等着全部绿色打勾就装好了。 mac 也不复杂, command 加空格, so terminal, 打开终端,同样去官方文档,复制安装命令,粘贴回车,等它跑完,输入 source, 重载 shell, 然后输入 hermes, 看到欢迎界面就成功了。安装脚本帮你装了一堆东西,简单了解一下。 python 和 node 是 运行环境, 没这俩跑不起来。 ripgrab 做搜索, ffmpeg 处理音视频,你不用管,知道有就行。装好了,问题来了, hermes 需要一个 ai 模型才能干活, open router, 两百多个模型随便选,有试用额度,但注册稍微麻烦。欧拉玛本地免费跑,不需要联网。新手选这个就对了。第三种,自定义 api, 接任何兼容接口,适合进阶玩家。选好方案,进配置,向导选 quick setup, 新手直接回车,然后选提供商,我们选欧拉玛配置自动保存,输入 hermes 就 能用了。选了欧拉玛还需要几步配置,先去欧拉玛官网下载安装 模型,大概十二个 g, 注意硬盘空间。输入 hermes model, 选自定义 open ai 兼容 ul 照屏幕填就行。 api key 直接跳过 模型,选 gptos 二十 b 免费的上下文十二万八千 token 够用了。输入 her miss chat 杠 q 你 好,能收到回复就全搞定了。一般用户跳过这段想手动装的,接着看 git clone 克隆项目 cd 记目录 peep install 装依赖 python, 简莓 miss 启动,适合想改原码的人。装好之后记几个常用命令, her miss model 和 tools 切模型管工具 her miss update 更新, set up, 重新配置 her miss doctor, 诊断问题, 用过龙虾的话, claw migrate 一 键迁移。最后讲几个容易踩的坑, her miss 提示找不到命令 source, 波浪线 bashc 重载 shell 就 好。 samsung 构建失败,改成 pp install 简易引号,点引号最小,安装报四零一,错误 检查 api key 或者固定 provider, 上下文不够换十二万八以上的模型。到这 hermes 安装全讲完了,一行命令,装好,选欧拉玛免费跑,就这么简单。我是曲奇,一个 ai 练习生,让我们一起记录 ai 时代的个人进化。

不是吧,你还在用你的 openclaw 呢?和妹子了解一下啊? nice! 有 一个 ai agent, 你 用它的次数越多,它就越聪明,不是因为模型升级了,是因为它在自动给自己写技能。这个东西叫 hermes agent, 今年二月开源的。它不是一个聊天机器人,而是一套完整的 agent 框架,核心逻辑是四步循环,观察、规划、执行、学习, 每完成大概十五个任务,他就自动评估自己,把有效的做法提炼成技能文件存下来,下次直接调用,速度提升百分之四十。 hermes 的 存在完全弥补了之前 open class 时常失忆且越用越笨的缺点, 并且在 openclaw 被 anselpik 封杀了以后,从 openclaw 转为哈密斯的用户越来越多了。哈密斯仅用了两个月的时间就在 github 上面掌握四万个 star, 那 这么全面的一个 agent 到底该怎么安装呢?跟小凯一起来看看吧。我们首先复制官网上的这段安装代码,让它自动下载需要的内容。 这里值得注意的有两点,第一,哈密斯暂时只支持 mac 和 linux 系统, windows 系统的观众老爷需要先下载 wsl 二才可以安装。第二点就是屏幕上显示的 mac 安装的时候会出现权限问题,这个时候不懂技术的观众老爷可以求助 cloud code, 或者跟着小卡一起来更改一下权限,就可以继续安装了。 安装好后,我们输入 hermes desktop, 按照他给出的设置步骤来一步步完成就好了。这里可以注意到, hermes 是 允许导入之前各位观众老爷电脑上的 open cloud 配置的, 也就是可以一键迁移,不需要重新配置,非常方便,剩下的选项各位观众老爷就按自己的喜好来就可以了,然后到这一步配置就完成了。后续想要跟哈密斯对话,只需要在终端里面打入哈密斯就会激活对话框了,然后就可以和哈密斯开始一起干活了。 这里的操作就很简单了,各位观众老爷用自然语言对话就好了,和其他 a i a 证特一模一样。好啦,就是这么简单,快去试试吧!

听说爱马仕也出 agent 了,而且还要跟 open core 正面硬刚?你别误会啊,我说的这个爱马仕不是卖包的那个,是最近 ai 圈的当红榨汁机 hermes agent, 它是 news research 做的一款会自己净化的 ai agent 系统, 上线 qq 号没多久就直接冲到了四万多, stars 这两天的趋势榜还拿到了第一名。今天这条视频呢,我分两部分给你讲。第一部分呢,我帮你讲明白它是何方神圣。第二部分呢,我带你把这个 agent 装到你的电脑上。我们先来搞清楚一件事情, 现在都在说它能够代替 open core, 是 真的吗?那它到底厉害在哪里呢?我们说你现在用的这些 ai, 不 管是 touchp t, jama 的 豆包,还是 dipshit, 它们都有一个共同点,就是你给他指令,他 帮你做了,做完呢,这一轮就结束了,下一次再来。本质上呢,是从头开始,但 hermes 不是 这个逻辑,他每次帮你做完一件事,他不会直接就停了,他会复盘一下刚才这件事我是怎么做到的,哪里做得好,哪 哪里还需要改进。然后他会把这一整套做法整理成一个 skill, 下次再遇到同类的事情的时候,他不会从零开始,而是直接调用这个 skill 来做。而且不止这样,如果你中间改了他的结果,或者呢,他发现有更好的方式,他会把这套 skill 再点。 别带一个版本,你用久了就会发现一件事情,它不是在重复干活,它是在不断的进化,这就是它最核心的地方,内循环学习系统,也就是 build learning loop。 那 这个时候你再看 open crawl, 它们的差别就出来了, open crawl 更像一个你自己搭出来的系统,你可以往里面装工具,接平台,然后 通过配置让它变成你想要的样子。但这里有个前提啊,这些 skills 基本都要你自己去弄,要么你自己写,要么你用别人做好的。换句话说,你是在一点点把它训练出来,所以我们才说养龙 虾嘛。 the hermes 是 反过来的,他很多的能力是你用着用着他就自己学习出来了。但说句实话,我们真没必要二选一,他们各自的侧重点不一样, open call 负责把能力搭起来,把系统接好, m s 负责在后方呢,慢慢把这件事情越做越顺,你如果把它们组合起来用,可能才是更好的选择。好了,讲到这里,如果你已经有点感觉了,那我们直接来点实在的, 把它装到你的电脑上。那在安装前,我们先看一下它的官网,还蛮好看的,很最终幻想的感觉。我们再看一下它给哈的爵乐现在是多少星了哇,现在已经差不多五万星了,真的升的很快啊。 我们再看一下它官方的指导文档。那这边就介绍一下这款 agent building learning roof, 就是 那个内置循环学习系统,它一个很便宜的几十块的 vbs 就 能够装上了。然后这边有一些指导是怎么装的, 六十秒就能够搞定,我们来试一下。那我们现在来到官方的安装命令行这边,无论是 linux、 mac 还是 windows, 只要用这一条命令行就行了。 是值得注意的是,如果你是 windows, 你 记得在 wsl 这个环境下去安装,那我复制了以后呢?打开我的终端,然后直接在终端上粘贴这一行那一行,然后直接回车, 你就可以等待它安装了。 ok, 它已经开始安装了,它验证到我是 mac 系统。然后呢,现在在查找这个 uv package, 就是他会看一下我电脑中有没有他需要的依赖环境,没有的话呢,就会帮我安装。他已经在安装的过程中了,在这个过程中呢,他会不断检查我的依赖,然后帮我安装。你看打了勾的就是已经安装好的,那这些箭头呢?就是正在 check in, 再查一下,然后等一下帮我安装, 只需要耐心的等待就行了。他现在又安装了其他东西,反正你不用理他,也不用看懂他,他会自动帮你搞定的,然后他继续在安装当中。很快啊,就是刚刚卡了一下网络,调整了一下, 现在快了很多了。那官方说的六十秒到底是怎么个六十秒法呢?然后他在一步步的安装,后面就快很多了。第一次安装呢,他肯定要有很多的依赖需要去部署一下的, 如果你后面需要重新安装或者怎么样,他可能就快很多了。好了,在这一步我们看到就是他的室内环境已经准备好了,然后呢,他就安装了所有的依赖,这些依赖包已经 ok 了。现在安装的是 noj s 的 依赖,那其实他这个 hermes agent 还蛮多东西要安装的。 no j s 的 全部依赖安装完以后,他现在帮我安装的是这个自动化的浏览器引擎,那我们会看到它这个浏览器的安装是失败,但没关系,它不会影响它的核心呢,我们现在已经进入了下一步了, 那我们来到这一步呢,其实证明你的 amis agent 呢已经安装成功了,现在呢只是一些配置的引导。那这里他其实说的就是他看到我的电脑当中呢,已经有 open call 了,问我要不要呢,导入一些 open call 的 配置,他现在问我就是你要不要看一下可以导入什么?那我就看一下吧, 那我们浏览一下到底它可以导入什么? what import, 就是 这些 so 啊, memory 啊,这些 and 文件,还有你装的这些 skills 就 可以导入,然后这个会跳过的就是这些可能是它不兼容或者我没有的东西,它就会跳过,然后它就说就是,呃, 这些设置它不会说一比一的。来到这个 hermes 的 这个环境,我觉得我并不需要这些配置,我想搞一个新的来玩一下,那我直接用 no 吧,然后来到这个界面,他就问我要不要快速的安装,我觉得快速的安装就 ok 了, 直接就选择第一个,然后回车。那来到这个界面,他是让你选择哪个 ai 的 供应商。那我今天看到了一个新闻呐,就是说小米呢,已经接入了 hermes agent, 就 可以免费用两周,那怎么使用呢?就是通过这个 newspot 就 可以了。那我们回到这个终端,这里看到了第一个就是了,确定一下,那来到这个界面就是你可以通过这些跟他就是进行对话,这个界面就是选择你跟他的通信工具。我看一下有没有飞书, 微信都有,居然没有飞速,那我先不搞了,我先回到上一步, ok, 来到这一步,我直接按 y 通过终端来跟它兑换一下。噔噔,我们已经安装成功了,这个界面真的挺帅的。 hermes agent, welcome to hermes agent。 可以在这边输入你的一些命令。那我在这里输入你是谁?那我发现他就说我还没有配置,就是那个 ai 的 供应商。那我刚刚不是配置了小米那个免费的吗?那经过我的测试发现一个问题,这个免费呢?其实它不是真的免费的, 所以说小米官方说能够限免两周,然后我确实在这个 model 收到的小米确实是零元的,但有一个问题,你要添加这个 api key, 它会显示一句话,意思就是说必须先买它这个订阅, 然后才能够使用免费。就是小米它本身确实是免费两周,但你得订阅它这个 news portal, 然后才能够使用小米,所以就是不免费。用它干嘛呢? 我们用自己的 api key 就 好了。那解决方法也很简单,那我们输入这个 mini, 然后进入这个模型的选择,我们 箭头选一下,更多更多,这边有很多的供应商,我选择我有的 mini max, 然后来到这边复制一下,粘贴上来,按回车 api key c, 然后继续按回车,我们现在就选择它的模型,选个二点七就好了。 好,我们现在重新进入 hermes, ok, 来到这个界面,看到是 minnesus 二点七,我们问一下他,你是谁? 那我发现我刚刚选择的这个 minnesus 的 国际版本,所以就搞不定。那记得要选这个 china 的 版本。然后呢?就是粘贴,粘贴以后,他这边其实那个密钥是看不到的,但其实已经粘贴了, 回车就好了,他已经 safe, 就是 说已经 ok 了,然后直接再回车, ok, 然后我再选择这个二点七,现在就已经选择成功了,我再进入这个 hermes, ok, 我 们再来测试一下, 这次应该就有反应了, ok, 他 已经回复我了,他说我是 croco。 真的 假的?他已经产生幻觉了,会不会就是因为 mini max 叉?就是这个二点七?有 一些真牛的事情我也不知道,但我不知道为什么他会回复我,他说 gopro, 这个还是蛮惊讶的,不管他了,我派一些任务给他了,搜索今天五条热门的 ai 新闻给我, 正在进行当中,就他会自己去解决,反正如果遇到什么问题,我给他已经找到了。根据 google news 的 搜索结果,今天是十号的 热门的新闻,你看他是帮我找到了,还蛮好的。那今天的测试就到这里了,其实你每次要安装这种新的 ai agent, 你 都需要去折腾一下的,这个很正常。 那我后面进行更深入的测试以后再给大家汇报吧,今天就到此为止。那通过我刚刚演示的安装方法,我想你也很容易把它装到你的电脑上,赶紧玩起来吧。 最后我想讲一个很多人关心的问题,就是你到底要不要装 hermes agent 呢?我先给你一个很实在的答案,并不是所有人都需要装新的 agent 的。 如果你现在已经在用 open core, 并且还用的挺顺手的,那你真的没必要因为它火就去换这个,因为这些工具本质是在帮你的工作降本增效。既然你现在用这套东西已经能把你手头上的工作处理的很好了,那你再去换一个新的,其实没有多大的意义。 很多人现在有个问题啊,就是看到新的 ai 就 焦虑,觉得不学就落后了。但 ai 这个发展的速度,你越追反而越容易乱,你今天学这个,明天学那个,到最后什么都没有沉淀下来,这才是最大的问题。 所以我反而更建议你把你手上现在用的这个工具玩到极致,等你哪一天真的遇到瓶颈了,才考虑换其他的。所以你记住一句话就够了,不是你学了多少 ai, 而是你有没有真正玩 全明白 ai。 只要用好一个 ai, 你 已经超越了百分之九十九的人了。 ok, 以上就是今天的所有分享,你有安装 helmes agent 吗?把你的使用感受打在评论区,我们下期再见!

是不用养虾了,直接养马吧。这个爱马仕真的是太强了,搞了四台 max 六的做本地大模型的部署嘛,四个机器人,四个 a 剑客,四个本地大模型,后期我会搞这个五零九零去做这个本地大模型,这些本地大模型本身算力是有限的啊,所以说他对于 a 剑客的平台 最关重要。在这个 open kala 下面,比如说我问他的知识库有啥,我这个本地模型就在疯狂的运转,但是也可以看到他这个思考的过程是非常的慢的。 因为什么?因为这个 open color 太重了,它的上下文吞吐默认情况下就有两万到三万左右,加上我装的各种企业管理的 skill, 它就变得更加的慢。我运营短视频呐,因为我是个做短视频的公司嘛,可以看到它的一个表格,我的知识库非常的全, 它输出的格式虽然说比这个爱马仕看得更牛逼,它架不住啊,我有这么多 a 型的同时,开始工作的时候,它的这个性能就会非常的差,而且经常去锻炼, 所以说我这段时间用这个纤维,三点五 a 三 b 刚好跑在这个六十四 gb 现存的这个甜点位,他基本上跑企业的绝大多数运营效果明显是这个爱马仕比他更强。看一下我真实的这个指示库,特别多的东西, 然后这么多东西我用爱马仕去找,平均它的速度比这个 open 科洛要快一半左右,可以看到这个信息,它的整理速度 是非常的快的,虽然说现在看着没有什么外观界面哪一个终端在跑,但是他可以直接对接微信呐,企业微信呐、背书啊,各种平台,所以说用起来丝滑度跟 oppo kod 没有任何影响,他可以支持无限记忆。 就是 oppo kod 经常我们在用的时候就忘事,今天你跟他说这个,明天他又忘了。比如说你现在帮我把这个合同改了之后,但第二天他不知道你改了这个合同,那这个操作空间,我觉得这个 a 镜头就非常的不好用。但是你用了爱马仕之后,你只要今天跟他对接完,比如说我现在按这个键把它退出他的聊天, 发现没退出聊天的瞬间,其实刚刚他他操作了,他把现在目前我们聊天的这个所有东西直接下到数据库存到我本地了。那就说下次我问这个合同,他可以直接找到,然后对比现在的这个差异化, 如果有差异化他会告诉我没有差异化他直接给你出结果。所以说这就是现在 a 镜头的一个集合,我觉得这个东西一定以后比这个 oppo 壳会更火,现在他的绝大部分我已经转移过来了,用起来非常的方便。

最近 ermis agent 很 火,火到已经有人开始卖袋装服务了。但普通人真正需要搞清楚的不是他有多火,而是他到底和 openclaw 差在哪儿, 以及你到底有没有必要再装一个 agent, 还是只是在追一个新的热词。所以今天这期我不吹概念,直接把它拆成一个新手也能照着走的完整安装指南。我们就只讲三件事,它是什么,它和 open cut 的 区别,以及怎样用 ws 二二最稳的把它装起来。 hermes agent 本质上不是一个聊天 app, 而是一个常驻运行、会自己积累经验的 agent。 它最特别的点不是会调工具,而是会在执行任务后沉淀技能,把成功过的方法总结成可附用的工作流。所以你可以把它理解成一个带学习循环的个人智能体,而不只是一个能回消息的 ai 机器人。 如果你已经用过 open call, 那 最直观的区别不是功能菜单,而是学习方式。 open call 更像消息中加个人工作台, hermes 则更强调把经验沉淀成技能,让他以后越来越像你的做事助手。 说白了, openclaw 解决的是连接和调用, hermes 更往前走一步开始解决。记住和成长, 不是每个人都需要再装一个 hermes, 关键看你想解决的是连接问题还是长期复用问题。如果你只是想把消息工具和模型接起来,现有 openclaw 够用。但如果你想要技能沉淀、迁移和长期自动化, hermes 才真正有意义。 所以别把它当成必须换代,而是把它当成一个更偏长期复利的 a 振的选项。如果你是 windows 新手,最稳的路线不是折腾原生环境,而是先把 ws 二跑通。 先在管理员 power shell 里执行 wsl install, 进到 linux 环境后再跑官方安装脚本,这样依赖和命令链路最稳定。对新手来说,安装主线就记住两个阶段,先把 wsl 二装好,再在 linux 里装 hermes, 别一上来就被环境问题绕晕。 装完 hermes 之后,别急着先折腾花活,先把模型迁移和诊断这三件事走通。 你可以先跑 hermes setup 走向导,再用 hermes cloud migrate 导入 opencloud 的 关键配置,最后再用 hermes doctor 做一次诊断。把这几步走通,你就不只是装好了,而是真正能用起来了。 hermes 真正有价值的,不是让你多一个聊天窗口,而是让重复工作开始自动积累方法。像每日简报、网站监控、自动研究、长期知识整理这类本来就需要反复执行的活,正适合教给它慢慢学会。 所以你装它不是为了今天多省一分钟,而是为了把以后反复做的事,交给一个越用越顺手的 agent 去接管。 hermes agent 不是 人人都必须装,但如果你已经开始认真搭自己的 agent 工作流,它确实值得研究。 尤其是已经用过 openclaw 的 人,更应该把它当成一次判断题,看看你要的是消息中书,还是一个会持续沉淀技能的系统。而对新手来说,别怕,先按 wsl 这条最稳的路线装起来,真正跑通一次,你自然就知道它值不值。

ok, 朋友们,那最近有个新的 agent 叫做 hermes agent, 在 外网非常的火热,他说你的第一个爱马仕,何必是爱马仕,那么他被人叫做小龙虾的进化版本, 那他跟小龙虾有什么区别呢?今天这个视频我就会讲清楚 hermes agent, 并且会手把手的带你从安装到设置,然后再到使用。那么这次我会使用这个谷歌最新的开源大模型 java, 然后我会把它部署在本地,并且会教会你,然后接入到 hermes 来使用,这样就可以实现 fork 自由。 那我们首先先来讲讲 hermeshermes, 它跟小龙虾的第一个区别就是它能够自我进化,自我学习,会自动生成 skill, 就是 不需要我们去手动创建这个工作流,那么只要你用的越久,它就可以越来越懂你,用起来越来越顺手。那么它具体是怎么实现这个自我进化的呢?这里有两个数字,一个是五,一个是十五。那么首先我们来说一下这个五, 那 hermes 在 完成一个复杂的任务,通常指的是它要进行五次以上的工具调用,它就会自动地把整个工作流沉淀成一个 md 技能文件,之后它下次再遇到类似的任务的时候,它就会直接加载这个 skill, 跳过摸索阶段。 那么如果它在执行过程中发现有更好的方法,它也会自动更新 skill 文件,那么上述这个过程是使用一个叫做 skill manager 的 工具来完成的。 那十五次是什么意思?也就是说他每进行十五次的工具调用,系统会自动停下来回顾刚才发生了什么,找出哪里失败了,然后立即更新自己,这个就是他的闭环自省功能,也就是他越用越强的秘密。所以说五次就是他什么时候记,什么时候创建自己的技能,十五次就是他什么时候反思。这两个是不同的处罚机制, 这就跟我们传统的 skill 编写方式是很不一样的,因为我们知道无论是小龙虾,或者说是 cloud code 或者说 code, 他 们的 skill 都是由人工来编写的,或者说从这个 cloud hub 这种 市场上面下载下来的,他们没有自我生成,也没有自我迭代。那很多人使用小龙虾的时候,还有一个问题,就是觉得他特别笨,比如说今天说的事情,明天就忘了,然后他告诉你我一定会记住,结果第二天他又忘了,那原因就是因为小龙虾的记忆系统不够完善,他只是简单的压缩了上下文。所以说我们会看到很多团队也在做 agent memory 这件事情就是想解决持久化记忆的问题,让 agent 能够永远记住你的信息, 比如说密木林,比如说国内盛大网络的 evermind 等等等等。那 hermes 和 openclaw 它的记忆系统之间有什么区别呢?其实最大的区别就是它们在容量管理上面是完全不一样的。那我们来看一下 hermes 的 三层记忆系统。那第一层叫做绘画记忆, 也就是实时的大拇指的上下文窗口,比如说一百二十八 k, 二百五十六 k, 那 它在绘画结束的时候就会消失,跟我们正常在聊天框使用豆包 deepsea 是 一样的。 那第二层叫做持久化记忆,那这层有两个文件,分别是 memory md 和 user md, 顾名思义和小龙虾的作用是一样的, user md 呢,就是用来收集用户的画像和偏好的,那 memory md 则是用来长期记忆和经验沉淀的。 但是在小龙虾里面,这两个文件的容量默认是两万个字符,那么超出之后它就靠上下文压缩,把旧的对话内容给压短。但是问题就是说压缩之后会导致信息丢失或者变形。 而 hermes 的 memory dmd 里面只有两千两百个字母, user dmd 里面只有一千三百七十五个字母,它的容量是小下的十分之一,那它为什么要设计的这么短呢?其实这是一个团队的设计哲学,就说团队他故意把容量做的非常小,迫使这个 agent 主动去提炼,去重合。并 不够用了的话,那就必须先整理旧的才能添加新的,那容量满了的话,不是压缩,而是主动侧展。那 creation 也是刚才说的主动侧展,和我们之前说的压缩 compression 有 什么区别呢?压缩是把所有的东西硬塞进去,然后变短,变紧凑,但是内容它会变形,会丢失,会失帧。而侧展它是主动的去筛选, 判断什么重要,什么不重要,什么可以合并,什么该删除掉。那么 hermes 他 走的就是这条路线,所以说虽然他的记忆非常的小,但是他每一句话都是有用的。那 hermes 的 记忆系统第三层就是全量历史解锁,他会把所有的历史对话放在 s q l lite 数据库里面,如果说他需要查找历史数据的时候,他就会使用关键词查找匹配,然后 找到这个片段之后再使用大模型整理材料,最后返回给我们,而不是说跟小龙虾一样使用向量解锁。那我们先说说关键词查找匹配,那这个就很简单,就类似我们的 ctrl 加 f 搜索什么关键字,它就匹配什么。 那在 hermes 里面,它就会根据关键字去搜索相关的段落,然后让大模型去整体的理解这段话什么意思,理解完之后再返回一段材料给到你。 那我们举个例子,比如说现在我给这个 agent 说,之前上周我们讨论过一个三个月的学习计划,来提高我的这个英语口语和表达能力,你去帮我找找那个计划具体是怎么样的,然后再给我说一下,那他就会执行下面这几个操作。首先他会去搜索关键词学习计划,三个月提升英语表达,然后找到这些文本片段之后,大模型会整体的理解上下文,然后再返回一段摘要给到我们。 那什么是向量解锁呢?向量解锁它就是把文字转换成数字,我们知道计算机它存储的是零一系列,对吧?它是存储不了文字的,所以说在存储的过程中, 它会把文字转换成像量,那向量解锁就是通过比较数字间的距离来找相似的内容。比如说现在有句话叫做猫在沙发上睡觉,转换成像量可能就是零点八二、零点一五、零点三三。 那还有另外一句话,就说一只猫咪握在沙发上转换成向量,可能就变成了零点八一、零点一六、零点三四。虽然说这两句话的字是不一样的,但是它们的语义是非常类似,都是猫在沙发上,对吧?那所以说它们在向量空间上面的距离是十分接近的,那 ai 就 能够理解它们是同一个东西。 向量接收的好处就是能够理解语义,但代价是需要你额外的向向量数据库来存在,向量存储成本会更高,并且还需要一个迭代模型。 那我们还知道养小龙虾呀,是一个非常烧 token 的 事情,因为它真的太耗钱了,那 hermes 就 能很好的解决这个问题。那为什么养小龙虾非常的浪费?这个 token 就是 在于这个系统提示词的加载方式。那首先我们说一下什么是系统提示词, 我们知道当我们和 agent 对 话的时候, agent 收到的并不仅仅是你的问题,而是系统提示词加上记文件,加上当前的对话,就等于 agent 看到的完整上下文。 那系统提示词里面包含了什么呢?比如说 agent 是 谁?他应该怎么工作,记住什么信息,也就是我们理解的 so 点 md, user 点 md, 正题题点 md 这些文件。那对于小龙虾来说,他每次会画会重新加载这些上下文,然后对话开始的时候,他读去所有的记忆文件,然后拼接之后注入上下文。那么 lama 在 处理上下文的时候,他会把之前遇到的内容缓存起来,然后来加速处理这个缓存,命中 token 的 价格是最便宜的,那如果说上下文内容在一直改变,对吧?那我们前面的缓存就会失效, 因为缓存是按照顺序来存取的,你前面如果变了,后面存的再多的缓存都没用了,接下来全部从头来过,它不是增量改变的,而是全部推倒重来。 而且还有个现象就是我们知道现在市面上很多中转站,对吧?那你会看到很多这种垃圾中转站为什么都可以用的这么快?原因之一就是因为它不让你去命中缓存,全部给你用最贵的消耗方式。那我们看 hermes 它是怎么做的? hermes 它完全不一样,它会在绘画开始的时候执行一个操作,叫做 frozen snapshot 冻结快照,他会把当前所有的记忆文件等等等等上下文全部读起之后锁定,然后注入到上下文里面去。那在绘画进行的过程中呢?如果说这些文件被修改了,他直接不管, 他继续使用锁定的版本,等这次绘画结束之后,他才会把这个修改写入文件,然后在下一个绘画开始的时候,他会读取最新的版本。那这样做有什么好处呢?首先第一点,最显而易见的就是可以保持前缀的缓存命中性能更好,并且更节约前。第二点,他可以避免 a 键在绘画中途修改记忆导致人格飘逸的问题。 那什么是人格漂移问题呢?打个比方,就像现在我们正在写一篇论文,那假如说我们现在写第一章,并且已经把所有的参考论文文献全部找好了,那我们在写的过程中,我们就一边看一边写,对吧?那现在这时候有个人跑过来跟你说,参考文献更新了,你需要加一篇新的,然后再删除一篇旧的, 那你是不是想把这个给红出去?因为你论文写到一半,参考文献给我改了,那这不是捣乱吗?所以说如果说你修改的话,你的逻辑就已经不值价了,这个论证链条就会受到影响。那 herb 的 说法就是你不用管,你就用旧的参考文献来完成第一章的章节,然后在进入第二章之前,你再去拿最新版本的参考文献。这样的好处就是第一章的论证逻辑是稳定一致的,不会因为中途文献的增加修改而改变。 那上面我说的这几点呢?就是 hermes 和小龙虾的最主要的差别。那简单来说,小龙虾就像是一本人工维护的笔记本,你说什么,然后就记什么,满了之后我们就压缩。但是 hermes 呢?它更像是一个自动整理的一个档案系统, 它自己会判断价值不够了,会主动合并,并且会把做过的事情变成一个可以用的技能,这也是它为什么越用越聪明的原因。现在我们就开始安装设置这个 hermes, 然后本地部署 java 这个大模型,并且把两者打通。 那现在我们来安装欧拉玛。欧拉玛是什么东西呢?简单来说,欧拉玛它是一个本地的大圆模型运行器,我们知道所有的大圆模型,它可能参数不同,启动方式不同,那是不是很不方便我们去使用,因为他们没有一个统一的标准。那欧拉玛就做了一件事情,他把常见的这些模型全部包装成了统一的重格,使得我们去很方便的调用切换,所以说它是一个统一的包装层。 那如何安装欧拉曼呢?也非常简单,我们只需要打开他的官网,那么来到他的首页,我们点击 download, ok, 那 可以看到这里,他让我们选择三个系统,我们选择我们的 micros, enix 和 windows, 那 这里我是 micros, 那 我就选择 micros。 那 大家如果是 windows, 我 们就点一下, 然后把这个命令复制终端里面去运行就好了。那,那如果说你发现你在终端运行这个命令是失败的,那我们也可以选择下载它的这个 app 形式,那这里我就选择在终端安装,那我复制这条命令, 打开 terminal, 然后粘贴上去,然后回车。那大家注意,如果说你使用终端安装的话,你最好把你的这个魔法开成 t u n 全剧模式, ok, 那 安装好了之后,它就是这样一个界面,那现在我们来继续安装 java for, 然后把它部署到我们的本地上面。那很简单,我们点击这个 models, 然后这里我们就选择我们的贾玛 four, 然后点进来之后,我们可以看到它这里给了模型的好几个版本,一二币、一四币、二十六币、三十一币和三十一币 cloud。 ok, 那 现在你可能会问,那我怎么知道我该下载哪一个模型呢?那这里给大家推荐一个网站,叫做 what models。 打开这个网站呢,我们只用在这里选择我们的这个 gpu 是 什么, 比如说你是英伟达的,你是 amd 的, 或者你是苹果的,好吧,选择你的 gpu, 这里有五零七零,五零六零,然后比如说你是英伟达的 四零九零,你就可以看到你能跑的很好的模型有哪些,对吧?然后你一直往下拉,基本上可以升了很多模型了,那就是说你跑的有点吃力的啊,这个就是你完全跑不了的, 所以说大家可以根据自己这个显卡的配置去选择,那我们回来安装,那我在这里的话就选择安装这个一四 b 的 版本就好了,然后因为一二 b 确实太蠢了,二十六 b 的 话,我目前这个笔记本是有点吃力,所以说我选择这个一四 b 的 版本就好了。 那安装这个模型非常简单,我们把它的名字复制一下,然后我们打开终端,我们输入欧拉玛库,然后粘贴它的模型名字,然后回车等等,等待它安装就好了。 ok, 那 可以看到现在我们就安装好了,那我们输入欧拉玛 list, 就 会看到我们现在本地安装了哪些模型。 可以看到我们这里本地安装了一个 java 一 四 b 的 版本,然后这个 size 的 话是九点六。那现在我们来测试一下 java 的 多模态信息处理能力,我们可以看到我给了他一张图片和一段文字,可以看到他思考了三十一秒时间, 那现在我们看看他在处理开放问题的时候表现怎么样。现在我给了他一个问题,现在 ai 什么都会做了,那我们普通人应该怎么做?普通人该怎么才能保证自己不会被 ai 淘汰?给我详细分析一下, 可以看到他思考了四十五秒钟时间,然后生成了这么长的回答,并且说的还是挺有道理的。那现在我们来安装一下 hermes agent, 那 安装也非常简单,我们打开它官网,然后复制一下这个命令, 我们打开终端粘贴回车,等待它安装就好了。可以看到他先会看我们一些必要的包有没有,没有的话就给你安装,有的话就直接跳过, ok, 那 现在我们看到他已经把所有的依赖全部安装完成了,然后的话他开始了这个安装向导,然后他检测到了我们已经安装到了 open class 小 龙虾,然后他开始问说你是否想看看有没有什么可以导入的?那我们选择 yes, ok, 那 现在我们看到他在问我们要不要把 open class 的 这个配置牵引过来,然后他给出了一个预览界面, 那如果说你觉得你的这个小龙虾调教的非常好,你可以直接把它牵引过来,那这里我有了演示,我就直接选择 no, 不 牵引过来。 然后现在我们来到了配置界面,那这里我们直接选择快速配置就好,然后这里它就让我们选择你要使用哪个大模型呢?那我们可以看到你可以使用 gemine, 可以 使用 srappik, 可以 使用 openend codex, 可以 使用千万,对吧?可以使用 gitopilot, 也可以使用 hackbase 上面自己下载的这个大模型。 那刚才因为我们已经在本地上面部署了 java for, 所以 说这里我们选择 modividers, 然后进来之后我们可以观察到它多出了更多选项,比如说有智普的,有 kimi 的, 有 mini max 的, 有 kilo, 有 open code 的 等等等等。 那因为我们要选择本地部署大模型,所以说这里我们选择 custom endpoint 就 好,那在这里我们填写我们的 base url, 默认就是这个,大家记住就好,然后复制粘贴,然后这里他们选择填写这个 a j i key, 那 我们直接跳过就好,然后这里他们填写模型的名称,那我们就用填写刚才下载好的模型名称就好了。那这里是加码 four, 那 是 e c b 的 版本,这里他们选择上下文的长度,那我们直接回车默认检测就好。然后现在他们选择是否要进入聊天平台,那我们选择设置就好。 大家可以选择我们要接触聊天平台,比如说飞书,微信, telegraph, discord 都可以,那这里我们选一个菜单,那我们选微信,然后我们回车。先第一步它让我们设置我们的 telegraph, 那 我们只用找到这个 boat father, 创建一个新的 boat, 然后把 token 复制过来就好。 然后这里咱们选择谁能给这个 bug 发消息,那这里大家一定要好好选择,因为说如果你什么都不捡的话,那他就会默认所有人都给他发消息,并且他会回复。那这里我们只用填写我们自己的 user id, 如何获取你的 user id 呢?大家关注这个 bug, 然后给他发一条消息,他就会把你的信息返回过来。这里上我们选择是否要把我们的 user id 作为默认频道,那我们选择 yes, 然后现在他开始让我们选择登录微信了,那我们选择 yes, 把这个链接复制浏览器打开,扫描二维码登录 这里他让我们配置谁可以给这个 boss 发消息就私发消息。那第一个选项就是手动批准,第二个选项就是允许所有的私发消息,第三个选项就是只允许白名单,第四个选项就是谁都不能给我发,那我选择第一个选项就好。 然后这里他让我们配置谁可以建立群聊,然后发消息,他怎么处理群里面的消息?那有三个选项,第一个就是不允许群聊,第二个是允许所有的群聊,第三个就是只允许白名单里面的群聊,那选推荐选项就好, 然后这里他们选择是否要把我们的微信平台作为默认屏,那我们选择 yes, 现在我们已经全部配置好了,然后他问我们是否需要重启网关,那我们选择 yes。 现在配置完成后,他问我们是否需要立即启动,那我们选择 yes, 那 现在我们来接入微信使用,那我们可以看到因为它需要手动授权,所以说那我们在终端运行下这个命令就好。 ok, 那 这里显示已经授权成功了,我们再给他发消息试一下,我们可以看到它这里显示对方正在输入中给出了回复,那我们可以成功使用了。那刚才我们是使用本地部署的模型,那大家如果想切换和云端的话,那也非常简单,我们只用在终端输入这行命令。 hermes model, 然后在这里大家就可以自由切换了。那如果说这里找不到你想要的模型,那大家就可以自由切换了。 那在这里我选择 mini max china, 然后配置一下我们的 api key, 那 接下来配置我们的 base layer, 我 们把它复制过来,然后粘贴。那大家注意一个点,就说如果这里你不是点 com 结尾,而是点 i o 结尾,那就是配置到海外去了,所以说要保证你是点 com 结尾。 然后大家选择自己想要的模型,那我就选择二点七,那现在我们来测试一下。那如果说我们想要启动终端的聊天界面也很简单,我们输入 hermes chat, 我们给他打个招呼, 可以看到我们已经成功替换好的模型。朋友们,那这就是本期视频的全部内容,我是 jerry, 我 们下次再见。

第一步,打开代码仓库,复制安装命令。第二步,打开终端,执行命令。第三步,执行 hermes set up 设置 第一个选项,不用管,直接 no。 第四步,设计模型,包含主流的模型,我用的 mini max, 二点七的 coldplay, 折腾这种就用便宜的模型就好。配置很简单,选择模型,设置秘钥。第五步,设置聊天软件演示设置 w x 使用提供链接访问,扫码授权一直下一步用推荐的设置,每个都 yes wechat 折腾了很久不能操作本机电脑,目前可能是有问题,等后面再试吧。其他软件已跑通,这是最终企业网站演示效果,个人觉得比 open code 好 配置,益于新手操作。

openclaw, 对 不起,我怕 hermes 误会!最近 ai agent 圈子里发生了一件大事, github 上一个叫 hermes agent 的 开源项目,两个月时间狂揽六万星,平均每天新增几千个关注, 直接冲上 github 川定第一名。更夸张的是,很多原本用 openclaw 的 开发者都在悄悄地迁移到 hermes。 今天就来聊聊 hermes agent 到底是什么?为什么这么多人开始移情别恋? hermes agent 是 什么? 先说结论, hermes agent 是 一个会自我进化的 ai 智能体,是一个会自己变聪明的 ai 助手。从你使用 hermes 的 那一刻开始,它就会开始自动写入记忆,自动提炼 skill, 自动优化工作流。简单来说,你用的时间越久,它对你的理解越深,工作越高效。 不是你在训练他,而是他在训练自己。 hermes agent 是 news research 在 二零二六年二月发布的开源 ai agent 框架。 hermes agent 的 核心特点用官方的话说叫 the agent that grows with you。 一个和你一起成长的智能体。这个项目被社区认为是 openclaw 上线以来第一个真正意义上的竞争对手。那 hermes agent 和 openclaw 具体有哪些区别? 这里我总结了四个方面的区别。区别一,龙虾是网关, hermes 是 引擎。 open cloud 的 核心是一个 gateway, 它通过一个强大的系统来协调多个智能体,通过复杂的编排来完成任务。 你可以把它理解成一个指挥官,它告诉每个 agent 该做什么,然后把结果整合起来。这种设计的好处是灵活、强大、可扩展。你可以接入多个平台,可以运行多个 assistant, 可以 处理复杂的多 agent 协助任务。但是它有一个问题,每次任务都是从零开始。 openclock 没有原生的技能学习层, 你让它做一百次同样的任务,它还是会用同样的方式处理,不会变得更快更好。它有工具,有指令,但是它不会积累经验。 hermes agent 的 核心则是 agent 自身的执行循环,它不是通过外部系统来增强能力,而是把能力内化到 agent 的 本身。工具调用、记忆、交互、执行模式都是 agent 自己的能力,不是外部系统赋予的。 这种设计的核心优势是 agent 会学习、会进化、会适应。区别二, hermes 是 会自己写技能的 agent。 这是 hermes 最有意思的地方,当他完成一个复杂任务后,通常涉及五次以上。工具调用会把整个过程沉淀成一份结构化的技能文档,存成 markdown 文件,下次遇到类似任务,直接加载这份技能,不用从头解决。 更关键的是,这些技能在使用过程中会自我迭代。如果 agent 在 执行技能时发现了更好的方法,它会自动更新技能文档。 openclaw 也有技能系统,但主要依赖人工编辑和社区贡献的技能市场。 clawhab hermes 这边等于把写技能这件事也交给了 agent 的 自己。区别三,记忆体系的差异。 两者都声称有跨绘画记忆能力,但实现方式不同。 hermes 用 sq lite 数据库配合全书解锁,把所有历史对话存下来,需要时通过搜索加摘要召回。他把记忆分成两层,一层是常驻的关键信息,写在 memory 点 md 里,每次对话都带上。 另一层是全量历史解锁。 open cloud 的 记忆则是工作区里的 markdown 文件,走的是文件及记忆的路线,通过语义解锁工具来查找, 在上下文压缩前会执行一次静默记忆写入,防止压缩丢信息。简单说, hermes 更像是给 agent 装了一个搜索引擎式的大脑, openclaw 更像是给他一个笔记本。 区别四,安全思路也不一样。 hermes 搞了一套五层纵深防御、用户授权、危险命令审批、容器隔离、屏距过滤、上下文注入扫描、 默认对高风险操作,比如执行终端命令、写文件要人工审批,超时未批准就自动拒绝。 openclaw 这边则更强调信任模型和配置审计,它提供了 openclaw security audit 命令, 可以一键扫描网关配置的安全隐患。但 openclaw 在 安全方面的历史记录不太好看,今年二月被曝出多个高危漏洞,十三点五万个实例暴露在公网上, 技能市场也有超过三百个恶意技能被发现。这也是为什么很多安全意识强的开发者从 opencloud 迁移到 hermes 的 重要原因。那 hermes 就 完美无缺了吗?当然不是,它的生态还很年轻,社区技能库远不如 opencloud 丰富, 如果你需要大量现成的工具集成, opencloud 仍然是更好的选择。另外, hermes 的 学习循环需要时间积累,前期体验可能不如 opencloud 那 么开箱即用。但关键在于, hermes 代表了一个新的方向, ai agent 不 应该只是工具的集合体,而应该是一个会成长的数字伙伴。 open club 的 哲学是我给你足够多的工具,你自己组合。 hermes 的 哲学是 我跟你一起工作,从经验中学习,变成你的专属助手。这两种哲学,哪一种更符合未来市场?正在给出答案。好了,本期的分享就到这里,我们下期见。


大家好,今天讲一个很多 mac 用户关心的话题,怎么在 mac 本地跑 ai agent 并使用本地六大模型。然后先说一下结论,我最终选择的是 o m l x 加千万三点五九 b 的 一个模型,然后我的配置是 m 二 pro 三十二 b 的 一个内存,目前来说的话还是可以使用。 整体上来说的话啊,千万这个模型比较适合在麦克上跑,中间踩了不少坑。我先来说一下啊,为什么其他的我不太推荐?首先我来说一下欧拉玛,这个其实是目前最流行的本地模型工具,但是我放弃了。 第一个问题是协议不太兼容,首先我们 hms 协进的需要 open a 一个标准协议,但是欧拉玛的话需要 let l l m 做一个中转,中转的时候还得注意我们的工具调用需要单独开一个非流式的一个经用才能正常的调用函数, windows 的 用户可以参考一下,这个是整体的架构,然后这个流程的话是能够完全跑通的。第二个来说一下 lm studio, 这个其实也是 mac 原声的一个工具,也挺好的。但是它发现我发现它没有 so endpoint, 赫默斯无法调用,只能本地自己用,无法作为服务来跑,并且它的内存占用是很高的。 说完刚才那些踩坑的经验,来说说我为什么选择 o m l x 以及 o m l x 对 mac 的 一个底层优化。很多人觉得用 mac 跑 a 帧的会很卡,其实问题是出在 prefix feel 这个东西啊,每次 ai 回复都要重新计算你的系统提示词, 系统提示词不短,它有工具描述, m c p 配置大概加起来有二十 k token, 传统框架每次都靠 cpu 重新计算,等半天才能出第一个字 o m l x。 怎么解决呢?其实是靠的四项核心技术,第一个前缀缓存,第二个分页式共享 k v, 第三个冷热分层,第四个高泵发调度。最后总结一下, mac 用户如果也想在本地跑 agent 以及大模型的话,建议使用欧美 mlx 这套方案。以上是 github 的 一个链接,大致现在的话只有一万个 star, 感谢大家的观看。

如果你还在折腾 openclaw, 先停一下。最近 github 上有个叫 hermes agent 的 项目彻底杀疯了,不到两个月狂揽五点二万颗星,甚至引发了抛弃龙虾换爱马仕的迁移潮,它是第一个真正意义上越用越像你的自进化 ai。 今天我们就来拆解一下这个引爆全网的赛博分身神器,到底凭什么取代 openclaw 的 王者地位。 过去的 agent 患有严重的赛博失忆症,你今天花了一个小时教会他怎么处理你的表格,明天重开一个对话,他又是一脸懵。像 open cloud 这类框架,他的记忆是静态的,本质上是把你写进配置文件的信息拿去读。 而 hermes 的 记忆是动态的,他会在跨绘画中主动理解你的偏好。用传统 agent, 你 是在用工具。用 hermes, 你 是在养助手。 hermes agent 的 口号是, the agent that grows with you。 与你共同成长的 agent, 它最大的创新点就是自生长 skill 闭环。 传统的 agent 是 你给他写好规则,他去执行。而 hermes 是 在干活的过程中自己总结经验,当他帮你解决了一个复杂的问题,它会自动把这个过程提炼成一个 skill, 甚至还会自己给自己打补丁优化。这是一个能自我进化的赛博学徒。 记这么多东西,消耗的 token 岂不是要爆炸?这就要说到 hermes 的 四层记忆架构了,他没有把聊天记录一股脑塞给模型,而是像人类大脑一样分层,每次对话只加载最核心的偏好,历史记录存在本地,需要时才去解锁 技能文件,平时只看个名字,用到了才读全书。他甚至会暗中观察你的工作习惯,默默在后台给你建个画像, 这才是真正的懂你。很多人觉得 agent 能调用的工具越多越好,但 hermes 的 设计哲学恰恰相反,它极其克制。虽然它内置了几十种工具,但它绝对不会把这些工具全开着让大模型去拆,而是采用 two set 按需激活机制。 这种克制的调用机制极大降低了 ai 的 选择困难症,不仅速度更快,还从根本上减少了 ai 的 幻觉。 那么,老牌王者 openclaw 和新晋顶流 hermes 到底怎么选?龙虾是一个灵活的通用工具箱,靠多 agent 协同,适合做一次性任务或明确的工作流。而 hermes 是 一个单一 agent 的 深度循环,适合长期深度的项目执行。 现在的流行玩法是用龙虾做手脚去执行杂活,用 hermes 做大脑来沉淀经验,两者配合简直无敌。 那么, hermes 适合哪些人?如果你是自媒体创作者,他能潜移默化地学会你的写作风格和排版偏好。 如果你是运维工程师,凌晨爬起来修好的 bug, 他 会自动写成运维 skill, 下次直接调用。如果你是数据分析师,你的数据清洗以及分析套路,他用一次就学会,这已经不是在用工具了,这是在打造你个人的数字大脑。 别小看这个开源项目,这个背后拿了七千万美元融资的团队有着更大的野心。他们做 hermes 的 真正目的是打通一条数据闭环。你平时用 ai 攒下的技能,都会变成极佳的训练数据, 他们想让每一个普通人的电脑都成为未来训练更强大开源模型的节点,打破科技巨头的算力垄断。 最后我想说,我们正在经历从工具思维到伙伴思维的范式转变。传统的 ai 就 像一把锤子换一把没区别,但 hermes 揭示了 ai 的 未来,它应该是一种可以长期积累的数字资产, 谁能在时间里攒下更多的专属技能和记忆,谁就能享受到 ai 效率的指数级复利。

最近有款新的 a 型的火速圈了,叫 hermes, 相信关注 ai 资讯的应该都已经知道了,甚至已经部署好开始利用了,对不对?那我们没有部署好 hermes 的 不用慌,今天我给你们带来全网最简单、最好用、最容易的部署教学,保证没有手你也会,要是看完搞不定你来找我, 那在教育之前的话,先给大家打个定心记。我知道你们现在心里在想什么,哎,我 open color 都还没跑通呢,现在又冒出来一个 hermes, 这个 ai 圈的更新 ai 速度好像也太快了一点哦,感觉都跟不上了。不要这么想兄弟。首先 hermes 也是一个 ac 的, 诚恳的来说,它会不会比 open color 好 用?现在也不好说, 它的核心特点什么自主学习、闭环、持久、分身记忆、 open color 它现在装了 skill, 不是 也有这些特点吗?所以我觉得你即使不装这个什么 hermes, 倒也问题不大, 但是装了有什么好处呢?这个就是我要跟大家介绍的一个模式, open color 当工头, hermes 当工人,让 ai 去管理 ai, 打造一个工作流的效率进化。说的简单一点,即使你现在只有一台电脑,那你最起码也可以有两个超级 ai 助理,难道不好吗? 现在这是一个我已经不锁好的界面啊,一个 open color, 一个 hermes, 那 就让某个二十分钟前,在我刚准备装 hermes 的 时候,我灵光乍现了一下,我为什么要自己动手啊?我已经不是有一个全能的 ai 助理了吗?我们得利用起来。 那么一开始呢, open 哥是拒绝安装 hermes 的 理由非常扯淡。这个就是一个很经典问题,也就是我在前几期视频中跟大家提到的 ai 幻觉引发欺骗效应,不过不要紧,我现在已经有了拿捏他的手段, later, ok, 他 现在已经开始给我安装了。如果你的 open 哥也会存在这种情况,你可以来找我,我给你一个一招制服他的办法,然后接下来操作,我们只需要买杯咖啡刷抖音就可以了 啊,对,有一个操作是要我们自己动手,就是配置一个 apikey, 然后把这个秘钥给我们的 openkey。 你 直接啊复制下来,然后发给我们的 openkey 就 可以了啊,就在这个聊天界面里,这个还是也很容易的。 ok, 那 我们现在到这一步为止,我们的 homebrew 就 已经安装好了啊。有时候我真的是不理解,网上那么多教程,然后弄的乱七八糟的,直接让 homebrew 装不就好了,搞那么复杂干嘛啊我,兄弟们,我们不需要搞那么复杂的, 然后我刚我也试一下,他只能在终端里面聊天啊,这个看着我不是蛮舒服。 他的回信息速度呢,是感觉用的同样都是 mini max 的 密钥。嗯,但是好像比那个 open color 回信息速度要稍微快一些。然后别的话呢,倒也还没感觉出来啊,反正如果大家想去试一试的话,我马上去安装一个吧。

它这里是让你再确认一遍,要不要把它所有的内容都导入进来。好,那么现在它就已经是一个正常运行的状态了。 今天详细的教大家如何安装部署 hermes agent。 那 首先我们先了解一下 hermes 是 什么,就是它跟小龙虾有什么区别? 我们就用他自己做的这个演示动画来大概过一下。我用下来感觉他跟小龙虾最大的区别其实就是稳定,就是他比小龙虾要稳定很多,这个非常非常重要。在我看来一个工具最重要的就是稳定 可靠,那我平时给他布置任何长任务,他都没有崩溃过,没有中断过,这一点很重要啊。 呃,小龙虾的话,之前做那种长任务经常会停掉,要么就卡住,反正就会出一些问题。这几天我用 hermes 用下来,感觉非常的稳定可靠。而且他现在这个版本最新版本要比我刚开始安装他的时候好太多了, 就进步非常非常大。最开始我安装他的时候呢,他的权限很小,就是让他做什么东西他都需要申请权限,很麻烦。那现在的话很接近小龙虾了,这个可能是他在底层设计上出于安全方面的考量, 其他的他跟小龙虾没什么区别,最大的区别也就是他的记忆系统自我学习的能力,就是每次他完成一个长任务,他就会写成一个 skill。 那你现在看到的这个演示动画就是他做的,这是第五版,就修改了五次,我认为效果也还行,效果也不错。另外就是他这个创始人团队啊,这是一个做开源模型的团队,他们发布过一系列 hermes 模型,开源模型。 好,那么接下来就教大家如何在本地部署,如果你们自己在安装的过程中遇到什么问题,可以在评论区留言,我看到就会解答一下。首先我们打开这个项目的开源地址,或者打开他的官网也可以, 然后找到这个下载的命令复制下来。他目前不支持 windows 系统啊,如果你是 windows 系统的话,你需要装一个紫系统,然后打开终端 粘贴进去,按回车,然后等几分钟,他会自行下载,下载好以后会进入交互界面。 ok, 这里他是识别到了我电脑上安装了小龙虾,然后他问我要不要先导入, 这里我们可以选择导入,也可以选择不导入。我先演示一下不导入,如果要导入的话,你就输入 yes 就是 y, 如果不导入你就输入 n, 那 么我们先输入 n, 这里我们就可以选择快速设置啊,没必要完整的全设置,因为你只要快速设置能让他先跑通就可以了,后面需要什么配置,只需要和他说,他自己就会去配置。好。好,这里我们选择要接入的模型, 比方说我用 mini max, 你在粘贴 a p i k 的 时候,它不会显示出来啊。然后这里按回车, 好让我们选择模型。你如果定的是极速套餐,你就可以选这个 high speed 的, 这里是要接入通讯软件,选择不接入,后面再去配置, 这里输入 y 就 可以了。 然后再输入 hermes, 这里就可以进行交流了。 先跟他打个招呼, 好,我们看到它这里已经回复了,但是因为这个字体的颜色呀,看不清,那么我们就可以给它换成高对比度的,清晰一点的输入 skin 空格 model。 好, 这里我们已经换了,刚才我以为没换成功,这里已经能看清了。那么你如果要接入飞书的话, 你就去飞书创建一个频道,然后把 id 和密码发给他就可以了。好,下面演示一下如何一键导入小龙虾相关的配置啊。我们输入 permiss 空格 set up, 然后这里我们选择 yes, 它这里是让你再确认一遍要不要把它所有的内容都导入进来,然后会带来一些兼容性的问题,但是它自己会判断会弄好,我们选择 yes, 然后再次进入配置项。 ok, 那 么现在呢,他就已经拿到了你所有的 opencloud 的 相关配置,然后我们测试一下, 你看啊,他现在已经知道了,我叫戴哥,这个就说明他已经拿到了之前小龙虾里面的记忆文件。好,那么现在他就已经是一个正常运行的状态了。但是这个软件它目前没有 web ui 啊,就是浏览器里面没有控制台, 只有在终端里面运行。还有如果给他接入通讯软件的话,在通讯软件上面与他交流, 配置起来还是很简单的啊,要比小龙虾要简单很多。后续如果你还需要再让他去配置,其他的都可以和他讲,他自己就能去完成。好,这期教程就到这里。

今天我将跟着大家一起本地步数加码四,接入 open core, 彻底告别托肯焦虑,接下来跟着我操作。 这里我们先进入 elama 的 官方网站,进入官方网站过后,我们直接点右上角的 download 下载,我们这里是 windows 系统,选择下载 for windows, 点击这里, 这里就等它下载好。下载好之后,我们这里就直接双击运行,这是它的安装界面,我们直接点安装这里,等它默认安装好。 好了,这里 elama 就 安装好了。然后我们到这个地方 elama 的 官方网站,选择 models, 这个地方选择 command 四, 然后这里我们选择我们的模型,这个模型的选择我们根据我们的显卡显存大小来选择。我们这边看一下我们的显存是多少, 这里看到我使用的是四零七零的显卡,显存是十二 g b 的 显存,十二 g b 的 显存的情况下,我们可以选择这个九点六 g 的 模型,这个一四 b, 这个我们直接点进去,选择一四 b。 点击进去过后,我们直接复制这条命令,然后运行一个 cmd 窗口, 直接粘贴这里,它就会欧拉玛会自动地给我们安装这个模型。呃,这里等的时间是比较长的, 这里模型已经下载下来,并且运行起来了,我们向它发送一条消息,试一下你是谁, 反应还是可以的,这就跟了我们信息回答了。好了,在这里过后呢,我们就可以把这个窗口关闭掉, 关闭掉过后,在 lama 这个地方我们去选择这个模型,在这个位置也就可以和它进行通话了。 比如我们问他一句,你可以帮我做些什么, 他已经帮我回答了,在这里呢,我们因为我们是在本地虚拟机上安装的,所以而且我们为了方便以后可以在其他计算机上也可以调用,我们在这地方设置这个位置 点,这个位置点设置这个允许在网络上运行,把它开起来点了就可以了。 好了,我们下一步就开始配在 open core 上配置啊,在这里我们进入虚拟机之后,我已经执行了 npm i, 刚接 open core 全曲,安装 open core 的, 我们这里可以执行一下 mini, 看下我们安装的版本。 openclock 杠 v 是 安装的最新版本二零二六点四点五版本,然后我们执行 openclock on, 在 这里我们进行一个调试,这个地方我们 yes, 这里选择快速,这个地方它是让我们选择大模型,呃,大模型它这里有,我们选择本地的这个位置点确定 这里我们直接就选择本地的,不要选云,上面是带云端的,就选择本地模型。 这地方让我们选择模型,我们选择这个,这就是我们刚刚这个就是我们刚刚下载好的模型,就是 直接回车。等一下, 这里让我们选择通讯工具,我们这直接跳过,暂时不管这个,直接跳过。 呃, scale, 我 们这边也选择否先进行最简单的安装 网关,我们就直接重启, 选择 open ray web ui 好 了,我们看一下 open core 运行起来了没有。 open core getaway style sta 好了,已经运营起来了,我们进去看一下, 这边需要 token, 我 去看一下 token 是 多少,关于 token 的 话就是我们,我现在是在虚拟机里面安装的, 我要重新打开看一下,在虚拟机里面安装,我们就直接去通过这条 mini 访问我们的虚拟机, wsl 的 虚拟机访问,然后无斑图选择 home 目录,选择我们的用户, 然后这里选择点 opencloud 这个文件夹,然后这一个 opencloud json 让我们看一下,到 git 里面去,这个地方就是我们的 talking, 复制粘贴下来到这个地方,点连接好了,我们尝试给他发一条消息,你是谁? 在主位置这个地方,我们可以看到这地方是我的模型。 我再问他一条消息,你现在使用的是什么模型? 看这里已经是我当前运行的模型 工具,在这里我们就可以看到了,我们现在整个 open call 来使用的是我们本地模型,就不需要去购买 token 了。好,今天内容就这么多,谢谢大家。

好了,今天给大家介绍的是一个可以自己净化的 ai, 然后它只它比那个攻克漏更更强的地方是内置了更多的技能,然后它可以不断地自己学习,自己循环,然后这个这个安装方面就直接执行这一行命令,然然就可以自己安装。 然,然后安装完这个之后还有一个好用的工具是他的格式化界面,就是这个项目, 然后这个项目的话,这个格式化界面的话,可以在安装完这个机门之后,直接让他自己去安装的格式化界面最熊,然后看一下安装的过程, 我们就给他发送一条命令,告诉他这个正是可塑的机面狼,他就会自己下载下载并安装嗷嗷安顿成功, 安顿成龙之后,他可以可以直接自己打开避孕器,查看能给页面长什么样子。 好啦,我们现在给他发了一个一个任务,就是去创建一个 sas 系统,哟吼, 这这个就是他充电的 sas, 然后停停解闷啊,我看小雨还不错吧,快点啊。