hello, 大家好呀,我是即刻模导师。上节课我们讲完了 hermes 的 核心概念,今天我们开始教你手把手安装 hermes agent。 话不多说,我们开始吧。 安装之前我们确认一下系统配置,这是安装 hermes 的 系统要求, hermes 要求不算高,大多数电脑都能满足。课间里面包含了 windows、 mac os、 linux 的 安装教程。本次我是以 windows 时安装 harmony 进行演示。这里要特别提醒一下 windows 用户, harmony agent 不 支持原声 windows, 你 不能直接在 cmd 或者 power shell 里跑它,你需要装一个 wsl, 就是 windows 上的 linux 子系统。好了,这次我们是真的开始了。首先 windows 用户打开 power shell 执行命令,你也可以直接使用 windows 自带的终端,这个无所谓。 然后输入这个命令 wsl install, 这个命令执行完成,系统会自动给你装上 wun2。 二十二点零四,装完之后一定要重启电脑。 重启完成,我们使用命令 wsl 杠杠 version 查看是否安装成功。看到 wsl 已经安装成功,我们再使用命令 wsl 杠 l 杠 v 查看 wun2 系统是否安装成功。 这里报错了,原因是 linux 系统安装失败,我们需要进行手动安装,我们可以通过执行 wsl list online 这个命令,查看所有可以安装的 linux 系统, 再通过执行 wsl install 加上 wboot 的 版本名称进行安装。 这里可能是因为我的网络原因,系统下载的实在是太慢了,所以我这里换了一个安装方式,在官网上下载 wsl 格式的乌崩特系统,搜索乌崩特二十二点零四系统,进入官网找到 wsl image, 点击右边的 pcwsl image, 下载完成后直接双击安装就可以了。安装完成,按照提示输入密码, 在吹里面验证一下,看到 wubongtwo 系统已经安装成功。使用 wsl 命令进入 wubongtwo 系统, 使用 sudaapiti update 更新包,并使用 atp install git 下载 git 软件。后面我们需要通过 git 命令来下载 harmas 的 原文件, 到此为止,我们的环境就全部安装完了。接下来就是使用这个命令安装 hermes agent。 安装完成,开始进行初步配置,我们选择 quick setup 快 速配置 hermes, 我 们先随便选择一个模型,但是不配置,后面使用英伟达免费的 minimax 二点七模型进行配置, 消息渠道也默认选择第一个 telegram 也先不配置,后面再进行配置。 看到这个界面,我们的 hermes 就 安装成功了。接下来就是获取英伟达的 key。 首先打开浏览器访问 build, 点 nvidia, 点 comixplorer discover, 这个网址呢?用你的 nvi d i a 账号登录,没有的话注册一个,有些地区可能需要手机验证,按提示来就好。 登录之后找到 api keys 区域,点击创建,输入 key 的 名称,并且选择过期时间, 点击创建 key, 创建好了之后立刻复制你的 key 格式是 nypi 开头的一串字母,记住这个 key 只显示这一次,复制好了之后妥善保存,不要告诉别人 key 有 了。现在我们来告诉 harmass, 用这个 key 使用 wsl 进入乌帮徒系统,并分别复制下面五条命令到命令行中, 最后使用 harmass config 来验证一下配置有没有生效。使用命令 harmass 进入 agent, 输入对话,验证是否成功。 看到 hermes 返回内容,我们的 hermes agent 就 初步搭建成功了。初步搭建 hermes 的 教程就结束了。有需要安装资料或者有任何疑问可以留言或者私信我,我是即刻模导师,我们下次代码见,拜拜。
粉丝8066获赞2.2万

大家好,我是科技小白,前两天我更新了一期 hermes agent 的 安装教程,之后有不少小伙伴私信留言说在微软应用商店安装 wsl 时,总是卡在进度条,半天不动,特别折磨人。 所以今天我直接给大家带来 hermes agent 一 键安装包和完整使用教程,不用再担心网络问题,也不用折腾各种繁琐设置,全程跟着操作,三分钟就能完成安装和配置。首先下载我们的 hermes 离线安装包,可以在粉丝群置顶链接领取。 输入解压密码,抖音,关注新乡科技小白,等待解压完毕。进入到解压好的目录复制文件夹路径, 打开管理员模式 power shell, 注意一定是管理员模式,这里输入 cd 空格,粘贴复制的目录,点击回车,然后再运行两条命令,这是为了解锁 pse 脚本,这两条命令可以在评论区复制, 然后再运行 nstyle ps 一, 这里输入密码我已关注新乡科技小白这里需要开启两个 windows 系统设置, 设置完后需要重启,这里输入 y, 点击回车,电脑会自动重启,重启完毕后重复之前的操作,这次会直接进入到安装页面,这里耐心等待即可,过程不会超过三分钟, 这里输入 y 回车,删除安装时候生成的临时文件,到这里就已经安装完毕了,现在做 hermes agent 基础配置。 再次打开 power shell, 输入 hermes setup, 进入到 hermes 的 配置导航,这里选第一个快速配置,这里是选择需要接入的大模型厂商,第一页基本上都是国外的大模型,选倒数第二项 moral providers, 第二页基本上都是国内的厂商,常见的智普、 mini max、 kimi、 阿里百链等都有。一键接入, 这里拿智普举例,输入 api k, api k 需要通过智普后台进行获取,这里注意粘贴到命令行是不显示的,一定不要重复粘贴。点击回车,配置 url 智普的 coding plan 套餐和计费 api 地址是不一样的, 购买 coding plan 套餐的用户如果没有修改地址,对话时会扣除智普余额而不走 coding plan 套餐。配置好 u r l 之后就开始选择模型, coding plan 套餐可以使用 g l m 五点一或者 g l m 五 turbo, 这两个模型对于 hermes 和 open cloud 等智能体均有优化 能力,差不多有 cloud ops 四点六的百分之九十。这里配置通讯终端,直接点击回车,选择你想配置的通讯软件, 国内的通讯软件现在也支持直接接入。这里拿 wechat 的 举例,选择到 wechat, 点击回车,输入 y, 再点击回车,这里会生成一个链接。点击 curl 加鼠标左键,可以直接打开链接 生成的二维码,直接拿手机扫描即可。这里选择第二项,不进行校验,第二个直接默认回车即可。 如果你的 wechat 绑定过机器人,这里输入 y 重新绑定。恭喜你,到这里你的 hermes agent 就 已经配置完成了,你就可以和你的 hermes 私人助理进行对话了,但是还不能回复你 wechat 的 消息, 这时候需要再次打开 power shell 窗口,输入 hermes gateway, 这样你的 hermes 就 可以接收 wechat 的 消息了。现在你的 hermes 私人智能助理已经完全部署完毕了。做视频不易,希望大家关注、点赞、收藏,有其他需求也欢迎在评论区留言,你的关注是更新的动力!

大家好, hermes agent 都用上了吗?觉得怎么样呢?那今天来分享一下我最近使用的十个技巧,比较适配新手。 那第一个就是我们去安装 hermes 的 时候,只要执行这一条命令就行了,但是呢, windows 用户一定要特别注意啊,必须得安装这个 wcl 这个环境,那其实安装也非常方便啊,只要打开你的这个 pro shell, 那输入这个 install 命令就可以了。安装完之后输入这个 wc 要启动,然后再去执行这条命令,那么就 ok 了。那第二个就配置这个主模型啊,那么在 hermes 里面是其实是有主模型和辅助模型的,那我们怎么去配置这个主模型呢?那配置也是非常简单,只要执行 hermes, 然后 model 模型,那么你就可以选择,那第一个是它自己自家这个订阅,第二个是 open rotter, open rotter 非常建议大家使用,这个 open rotter 里面其实有非常多免费的模型,然后的话你就可以等它出来,就是它会先加载一些。就是啊,模型 我们可以拉到最下面啊,就是你可能这个模型不在这里的,你可以拉到最下面,然后对话输入模型的名称啊,输入模型名称点确定, ok, 这样的话你的模型就变成这个应用达这个模型呢,因为我之前已经输入过密钥了,所以他没有提示我输入密钥,比如说我们再看一下他是不是变了, ok, 你 看这个名字是不变了,我问一下, ok 啊,它这个模型是这个,那我们在设置模型的时候有一个小小的问题,比如说我们如果说设置的模型需要输入这个 key, 但是这个 key 其实在它这个终端输入里面我们是看不到的,经常我们复制过去之后看不到这个字母出来, 那你不知道,你可能又复制,导致可能这个命要输错了,那怎么办呢? 那么在这个 hermes 这个啊,目录里面有一个环境的这个配置的文件叫这个点 e n v, 那 么在这个文件里面是保存了所有你配的这个模型的密钥。所如如果说你这个模型调不通,那么你建议你去这个文件里面看一下你的密钥是不是配置的,对不对?那第三个就是啊,配置这个辅助模型,那为什么它会有辅助模型呢? 因为它设置了不同的任务模块啊,比如说这个第一个任务模块叫啊试图就是说啊,你如果发了这个截图啊,给这个 homeys 发了截图,不管你是通过什么聊天工具发了截图的话,如果你专门给它适配了模型,它就会调用这个专门的模型, 那比如说这个外部网页的搜索也是一样的,那么他这边有八个任务都可以去配置不同的模型啊,那这里就会有一个这样的事情呢,就是可能像有一些他是高频的,但是我们不需要那么好的模型去处理,比如说像搜索网页,其实这是这是一个可能是一个 m c p 的 活, 并不需要你这个模型有多厉害,那么你就可以选用一个便宜的模型,那比如说像这种啊,比如说这种记忆类的啊,他要去 总结记忆的,那非常重要,因为记忆和这个技能的这个深层非常依赖于这个模型的能力,不然的话他的这个效果就很差,那么这种时候你就可以去选一个比较好的模型, 还有说这种搜索类的,那么都是比较好的模型,选好一点的模型,所以你可以去根据这个去配置不同的模型,那么你也可以不配置啊,如果不配置的话都会使用默认模型,也就是你配置的那个默认模型,那如果你想配置的话,你可以这么来配置,只要进入对话,然后你告诉他是哪一个任务,比如说请你 这个压缩的啊,辅助模型, 你复制给它就行,就首先你得知道自己这个模型已经配置好了,在我们前面这一步,他这边啊,看到没有,他把 auto 能换成这个,就是我们的这个模型。 第四个就是写好这个 sword, md 啊,就是这个是个灵魂的文件,那这个文件是写什么字呢?就是定义你这个后面字的这个风格 应该写什么呢?比如说你这个性格说话的方式啊,做事的风格,价值观和边界,所以呢这个是非常适合你去定义好,这样的话你的这个后面字就比较有人味了,那么格式你可以这样按这种格式啊,比如说你是谁,你怎么说话,你做事的风格是什么样子的?你遇到问题优先怎么处理 啊?比如说举个例子啊,比如说你现在要做一个这种研究型的 ai 助手,你就把后面字定义成这种助手,那么你可以按这种方式去让它给你去对话,那么你也可以让 ai 去帮你走。比如说你跟后面字已经对话了一段时间了,那么你就可以让它根据我们的对话技术风格 让它去重新设置啊,你的这个灵魂文件,或者说你自己知道叫 so d m d, 那 么直接叫 so d m d, 或者重新设置我的灵魂,它是能识别出来 啊,你这个设置灵魂就是去修改这个 so md, 它会去根据你的对话就去总结你要求的这种风格,因为你跟它对话,你会不断去纠正它的问题嘛,那么它就知道你喜欢什么样的风格啊,就是这个样子,所以这个文件是非常适合大家在刚开始使用时去定义的。去定义好的, 那第五个就要搞懂这个 home md, 这个就是定义了 home md, 这个就是定义了 home md, 就是他是怎么跟你说话,是定义他那 user 点 m d 是 他对你的了解,就是你是用的人,他对你的长期观察,会把这些你的画像,你的习惯,你的偏好,然后落入,然后总结到这个文件里面,所以这个是会被被动形容的,那么你自己也可以去编辑啊。 那 memory md 就是 通过我们长期的对话,他会把这个一些事情总结,就针对事情来总结到这个 md memory md 里面,然后呢,每一次对话都会把这个文件的内容注入到上下文里面去,这样的话他就会记住啊,你曾经喜欢这个,喜欢那个,喜欢,喜欢做什么?喜欢这个事的流程是什么样子的, 那 skill 就 更具体了,就是他对你的对话进行总结之后,发现有些事情是可以啊用流程固化下来的,那么他就他就会固化到这个 skill 的 文这个文件夹里面去形成技能,那么这你的方法就可以被附用,流程就可以被附用了, 那么这种你也可以自己去安装,那么后面字也是可以被动去创建去啊,进行一个修改的。 那 state db 呢?就是你跟它的所有的对话记录全部都保存在这里面,那其实最重要的是这个所有的 md 啊,是去定义你这个 home 字是什么样的人格,那这个文件是我们主动要去维护的,那其他的文件都是 home 字可以自动去处理的,可以不用管。 那第六个就是我们配置这个聊天通道,那么也是非常简单,那我们配置这个聊天通道也是非常简单,只要执行这个 homeis getway setup 就 可以了,那进来之后我们可以看到它支持非常多这样的聊天的通道, 然后的话这边也是飞书钉钉还有企业微信,然后这边的话是可以去配置的,比如说配置这个飞书的话,你可以进来,进来之后,比如说我这边已经配置过了,那我就让他重写。 那这句话是要输入这个 app id, 那 么你如果之前用过 open core 对 接过飞书,那么你肯定创建了很多这样的飞书的应用啊,比如说我们打开这个飞书的应用,就可以看到这样的 app id, 那 我们只要复制过去啊,输进去,然后再把这个密钥 再输过去, 然后再选择飞书啊,我们用的是国内版飞书, 然后就确定,然后不管,那这样就配置好了,那这边的话他有一个这样的一个配对的这个命令,配对的这个码 你可以选择选择之后你你如果说是第一次的话,他是会啊,你跟他对话的话会输,会生成一个这样的配对的密钥啊,你输进去就行了, 那这样就配置就完成了,你就可以去对话了,然后你可以选择,然后让它重启。它目前的话支持基本上主流的这个聊天工具啊,而且飞书的话它支持的这个维度能力的维度都是非常全的,所以说还是比较推荐使用飞书。 那第七个就是我们可以使用这个 homeis doctor 这个功能啊,去做一个全面的检查,看一下我们到底配置上有什么问题,我们可以输入这个,然后它就会去 如果没有问题的他就会打勾,如果有有问题他就会打叉,然后告诉你这个哪一个是啊?有什么具体的问题,那比如说这有个警告,这个有一个 browse 插件没有装好, 就是如果你这边遇到什么问题,你可以先执行这个,然后让他去看一下,检查一下有没有什么问题。那第八个就是 ui, 就 说它本身是有一个这样 ui 的 管理界面,那官方没有做啊,但是社区已经做了一个非常不错的这个 ui 的 界面啊, 然后的话你可以把这个项目 clone 下来,然后去执行这个,然后就可以启动一个这样的 ui 的 这个,呃, homeys 的 这个 ui 的 管理界面,那这边是我启动之后啊,我们可以看到你可以配置很多东西,比如说对话,然后的话配置这个任务, 还有这个搜索这个技能。然后的话这边是啊,一个就是四二点 m d 的 配置,比如说我这个配置就是这样子的,那么你可以直接修改, 然后这边的话是这样的,文件就基本上管理的东西都有,然后这边可以选择模型,所以说是不错的。你如果说不太习惯用终端命令行 t u i 这种方式来管理的话, 你可以把它下载下来,然后部署一下。那第九个是如果你想把 open core 的 东西迁移过来,你可以执行这个命令,执行这个命令的话,可以把 open core 的 一些技能啊,一些记忆啊,这些东西都都带过来,比如说像这个 点 open 空的所有的文件,他都会转移到这边去啊,你可以选择 yes 呢,他就会把它全部转过去了,非常方便的迁移啊。那第十个就是怎么去安装记呢?那么第一种方式就自己去创建,那通过聊天的方式创建,我相信大家这个都已经非常熟悉了。那第二个是在社区里面搜索,那么 homeys 也有自己的这个技能的社区啊,然后它这边也是有非常多这样技能的,大概有四呃,四百多个吧,六百多个,现在已经六百多个了。然后我们可以打开这个技能列表,里面是有这个 build in, 就 说明是它本身就自带了这个技能,那么不是这个标记的,那你就需要去安装了。那安装方式也非常简单, 那只要把链接发送给他,在对话框里面告诉他,让他去安装这个技能就可以了。你也可以去安装 opencircle 里面这个技能啊,也是一样的,复制链接发给他,他就会自动去安装。还有 github 的 技能也是这么安装的, 那这样有了技能之后,那你就能够去用很多这样的,做很多这样的事情了,那么以上十个呢,是我自己总结的一些这些经验啊,希望能够帮助到你,能够更快更好地去使用这个 hems agent。

最近 ermis agent 很 火,火到已经有人开始卖袋装服务了。但普通人真正需要搞清楚的不是他有多火,而是他到底和 openclaw 差在哪儿, 以及你到底有没有必要再装一个 agent, 还是只是在追一个新的热词。所以今天这期我不吹概念,直接把它拆成一个新手也能照着走的完整安装指南。我们就只讲三件事,它是什么,它和 open cut 的 区别,以及怎样用 ws 二二最稳的把它装起来。 hermes agent 本质上不是一个聊天 app, 而是一个常驻运行、会自己积累经验的 agent。 它最特别的点不是会调工具,而是会在执行任务后沉淀技能,把成功过的方法总结成可附用的工作流。所以你可以把它理解成一个带学习循环的个人智能体,而不只是一个能回消息的 ai 机器人。 如果你已经用过 open call, 那 最直观的区别不是功能菜单,而是学习方式。 open call 更像消息中加个人工作台, hermes 则更强调把经验沉淀成技能,让他以后越来越像你的做事助手。 说白了, openclaw 解决的是连接和调用, hermes 更往前走一步开始解决。记住和成长, 不是每个人都需要再装一个 hermes, 关键看你想解决的是连接问题还是长期复用问题。如果你只是想把消息工具和模型接起来,现有 openclaw 够用。但如果你想要技能沉淀、迁移和长期自动化, hermes 才真正有意义。 所以别把它当成必须换代,而是把它当成一个更偏长期复利的 a 振的选项。如果你是 windows 新手,最稳的路线不是折腾原生环境,而是先把 ws 二跑通。 先在管理员 power shell 里执行 wsl install, 进到 linux 环境后再跑官方安装脚本,这样依赖和命令链路最稳定。对新手来说,安装主线就记住两个阶段,先把 wsl 二装好,再在 linux 里装 hermes, 别一上来就被环境问题绕晕。 装完 hermes 之后,别急着先折腾花活,先把模型迁移和诊断这三件事走通。 你可以先跑 hermes setup 走向导,再用 hermes cloud migrate 导入 opencloud 的 关键配置,最后再用 hermes doctor 做一次诊断。把这几步走通,你就不只是装好了,而是真正能用起来了。 hermes 真正有价值的,不是让你多一个聊天窗口,而是让重复工作开始自动积累方法。像每日简报、网站监控、自动研究、长期知识整理这类本来就需要反复执行的活,正适合教给它慢慢学会。 所以你装它不是为了今天多省一分钟,而是为了把以后反复做的事,交给一个越用越顺手的 agent 去接管。 hermes agent 不是 人人都必须装,但如果你已经开始认真搭自己的 agent 工作流,它确实值得研究。 尤其是已经用过 openclaw 的 人,更应该把它当成一次判断题,看看你要的是消息中书,还是一个会持续沉淀技能的系统。而对新手来说,别怕,先按 wsl 这条最稳的路线装起来,真正跑通一次,你自然就知道它值不值。

大家好,我是麦东,前面几期我们重点讲了 emulus 的 多平台安装,这一期我们继续来讲一下怎么快速把 emulus 接近飞书。网上 emulus 对 接飞书的方式有很多,今天我给大家带来的是一种比较简单的方式, 只需要两三分钟时间,你就可以快速将 emulus 接近飞书。下面我们就正式开始本期的视频教程。首先我们摁 ctrl 加 c, 退出当前 emulus 的 对话界面,在命令行中输入 emulus getaway setup, 按下回车,进入 amazon 的 消息网关配置界面,在这里我们选择飞书按下回车。飞书配置有两种方式,第一种,通过扫码的方式创建一个飞书机器人。 第二种,如果你的飞书机器人已经创建好了,也可以手动进行配置。这边我强烈推荐大家使用第一种方式,因为我们手动创建的机器人,你还需要给机器人分配多种权限,机器人才能够在飞书里拥有对话的能力。 而我们通过第一种方式自动创建的机器人,在机器人创建的时候就会自动把所有权限都开好,就不用你后续再去操心权限了,我们直接选择第一个按下回车。 看到这边有些朋友会好奇,前面不是选择了扫码创建机器人吗?二维码哪里去了?当前没有二维码的原因是因为我们本地没有安装这个 q r code 的 这个依赖,但是也没有关系,我们可以直接复制上面的这个链接,打开我们本地的浏览器, 在浏览器中输入该链接访问,可以看到也是直接打开了创建 emulus engine 飞出机器人的界面,这边我们只需要输入机器人的名称,点击创建即可。 名称输入完成,点击创建机器人很快就创建好了,我们接着回到 emulus 的 配置界面, 接下来我们需要选择飞书这边的授权方式,这边有三种方式,如果这个飞书机器人只是你自己用,或者你不想把机器人完全开放给所有人,建议你选择第一项,也就是私信配对审批模式。 这个模式的好处是别人第一次给机器人发私信的时候,不会直接拿到这个机器人的使用权限,而是先收到一个配对码,他需要将这个配对码发给你,你再手动执行批准命令,这个用户后面才能正式使用机器人。第二种方式是直接开放所有私信, 第三种方式则是需要手动去维护用户的白名单。相比较而言,第一种方式会更加安全一些,也会更加省事一点, 所以我这边建议大家直接选择第一个,按下回车。接下来则是配置飞猪机器人,是否可以在群聊里面回复消息?如果你想将你的机器人拉入群聊,并且希望别人艾特他的时候能够得到回复,那么你直接选择第一个就可以了。 至于第二个则是禁用所有的群聊,我们选择第一个按下回车。第三步配置 home 后台 id。 这个的意思就是当你在 ems 里面设置了一些定时任务或者是通知的时候, 你希望他将这些消息发送给谁?这边我们可以先不做配置,等会儿我们可以直接在飞出上通过机器人对话的方式完成配置,直接按回车即可。 好了,配置完成,默认会选中 down, 我 们直接按下回车。到了这一步需要注意,如果你是在 windows 上通过 wsl 安装的 ems, 或者是直接在 linux 服务器上安装的 ems, 到了这一步会提醒你是否需要将网关安装成一个 system 的 服务,我们直接选择 y 就 可以了, 接下来会让你选择 get 位如何在后台运行,这边我建议大家,如果你是在 windows 上通过 w s r 安装的 ems, 那 么直接选择第一个就可以了。如果你是在 linux 服务器上安装的 ems, 那 么直接选择第二个就可以了。 安装完成后,我们启动服务, ok, 消息网关启动完成了,我们打开飞出,在开发者小助手里面找到你创建的应用,点击打开应用,接下来可以给 ems 发送第一条消息, 这个时候 ems 提醒我们需要进行配对,我们直接复制配对命令,打开控制台,输入命令,按下回车即可。好,接下来我们再次回到飞书, 再次给 ems 发送命令,可以看到这时候它已经有回复了。大家还记得我们刚刚在控制台里面配置飞书的时候,有一部 home 键的 id 没有配置,这个时候我们就可以直接在飞书里面发送杠 set home 配置 home 键的 id。 好了,配置完成了,接下来我们就可以正常去跟 emulus 进行对话了。 如果你想将你的 emulus 拉进群聊,在群聊里面跟他沟通也非常简单,选中群聊,在群名称的旁边有一个小机器人的图标,点击查看机器人列表,点击添加机器人,选择你配置好的机器人,点击添加即可。下面我们就可以在群里面艾特机器人跟他进行对话了。 好了,可以看到也成功收到回复了。到这边为止,我们 amazos 就 已经成功完成了跟飞书的对接了,本期视频到这边也就结束了。工具会变,但方法更重要,我是麦冬,下条继续。

不是吧,你还在用你的 openclaw 呢?和妹子了解一下啊? nice! 有 一个 ai agent, 你 用它的次数越多,它就越聪明,不是因为模型升级了,是因为它在自动给自己写技能。这个东西叫 hermes agent, 今年二月开源的。它不是一个聊天机器人,而是一套完整的 agent 框架,核心逻辑是四步循环,观察、规划、执行、学习, 每完成大概十五个任务,他就自动评估自己,把有效的做法提炼成技能文件存下来,下次直接调用,速度提升百分之四十。 hermes 的 存在完全弥补了之前 open class 时常失忆且越用越笨的缺点, 并且在 openclaw 被 anselpik 封杀了以后,从 openclaw 转为哈密斯的用户越来越多了。哈密斯仅用了两个月的时间就在 github 上面掌握四万个 star, 那 这么全面的一个 agent 到底该怎么安装呢?跟小凯一起来看看吧。我们首先复制官网上的这段安装代码,让它自动下载需要的内容。 这里值得注意的有两点,第一,哈密斯暂时只支持 mac 和 linux 系统, windows 系统的观众老爷需要先下载 wsl 二才可以安装。第二点就是屏幕上显示的 mac 安装的时候会出现权限问题,这个时候不懂技术的观众老爷可以求助 cloud code, 或者跟着小卡一起来更改一下权限,就可以继续安装了。 安装好后,我们输入 hermes desktop, 按照他给出的设置步骤来一步步完成就好了。这里可以注意到, hermes 是 允许导入之前各位观众老爷电脑上的 open cloud 配置的, 也就是可以一键迁移,不需要重新配置,非常方便,剩下的选项各位观众老爷就按自己的喜好来就可以了,然后到这一步配置就完成了。后续想要跟哈密斯对话,只需要在终端里面打入哈密斯就会激活对话框了,然后就可以和哈密斯开始一起干活了。 这里的操作就很简单了,各位观众老爷用自然语言对话就好了,和其他 a i a 证特一模一样。好啦,就是这么简单,快去试试吧!

大家好,我是麦东。最近 emulus engine 在 github 上非常火,很多人拿它和 openclaw 做对比,甚至有人说 emulus engine 已经可以完全替代 openclaw 了。 这两天我也下载安装了 emulus engine, 自己深度体验了一下。先说结论,第一点, emulus engine 整体确实比较清亮,响应速度也比较快,用户的直观体验会比较好。第二点,也是我觉得最核心的一点,就是它的自我净化能力, 当你让他去处理一些比较复杂的任务,如果这个任务完成了,他会自动把这次已经跑通的任务过程分装成 skill, 后面再遇到类似的任务的时候就可以直接服用, 整个过程是完全自动的,不需要你做任何操作。这个点我自己实测下来还是挺惊艳的。第三点,他的执行过程是比较透明的,你能比较清楚的看到他是怎么思考怎么工作的,这点我自己也比较喜欢, 因为很多时候不怕 engine 工作慢,怕的是你根本不知道它现在卡在什么地方。当然, emulus engine 作为一个新项目,它现在也有很明显的短板。 和 open color 相比,它在模型接入平台支持这些地方性阶段还是有很大的差距的。比如它现在就不支持接入国内常用的飞书解微信。 另外,在安装这块, emulus engine 目前只支持在 linux 和 macos 上直接安装,如果你想装在 windows 上,那就要通过 str 来部署, 不能直接原声装在 windows 里。还有一点, amazon 是 纯命令行运行的,没有 u i 界面,所以如果你本身不太习惯命令行,或者你更喜欢那种可直观一点的使用方式,那前期可能会有一点适应成本。再往后还有一个差异,就是在多 a 键的协助这块儿, urmars engine 和 openglar 的 差异其实还挺大的。 openglar 原生就支持更复杂的团队调度和角色分工,而 urmars engine 的 核心更像是单体自动化的 engine。 如果你想搭一个固定角色的团队,那通常就需要同时运行多个完全隔离的 urmars engine。 不 过它也提供了 profiles 这套机制,可以用来跑多个互相隔离的 engine。 这个点如果大家感兴趣,我后面也可以单独再出一期视频来讲。 所以如果你问我 airspace engine 现在是不是已经可以无缝替代 openclaw, 我 自己的判断是还没有。它确实有很亮眼的地方,尤其是自动沉淀 skill、 自我净化这个点。但如果你已经深度依赖 openclaw, 并且围绕它搭了一整套工作流,那你现在想直接无缝切过去其实还是比较困难的。 好了,前面先把结论讲清楚了,接下来我们就来带大家一起从安装到配置再到使用实际体验一下 amazon。 首先是部署,我们参考官方文档,复制安装命令,打开终端,粘贴命令,按下回车即可。 amazon 已经开始自动安装了, 安装时间受网络因素影响,不太固定,大家耐心等待即可。 好了, emirates engine 已经部署好了,部署好了之后,它会检测你当前系统里面有没有安装 openclaw。 如果安装了,它可以直接导入一部分 openclaw 相关的内容。这里提示我们是否需要看一下哪些可以被导入的,我们直接选择 yes, 可以看到这边有一个物理 import, 这里面的内容就是即将从 openclaw 导入 emersonant 里面的内容。我们可以看到导入内容包含 openclaw 的 sword 点 m d, daily memory memory 点 m d, user 点 m d 以及一些 skills。 接下来我们同样输入 y, 按下回车即可。好, openclaw 相关的配置已经成功导入到 emersonant 了,下面我们就开始进行 emersonant 的 一些触手化配置。 我们选择第一个 quick setup, 也就是快速配置。首先第一步选择模型,可以看到首页默认都是国外的一些模型厂商,我们选择 more providers。 在 这边我们可以看到国内的一些厂商了,比如智普, kimi, mini max 等等。如果你当前就是使用的这些厂商的模型,那么你直接选择就可以了。如果你所使用的模型厂商不在这里面也没关系,我们选择 custom endpoint 自定义就可以了。 应用模型只要是兼容 open ai 格式的都可以的,国内模型厂商提供的透根不烂,基本都是可以满足需求的。 我们只需要去它对应的控制台里面拿到 url 以及 api key 就 可以了。 url 输入完成之后,按下回车继续出 api key。 api key 输入完成之后,它会自动检测当前模型,并且询问你是否使用该模型。 我们输入 y 按回车即可。接下来还会让你输入上下文的长度,这边大家也根据自己模型实际支持的最长上下文,以及你日常的使用情况去自定义就可以了。这里我输入二十万 按下回车。接下来我们还可以配置一些即时通讯平台去连接 emirates engine, 我 们可以看一下当前支持哪些平台,可以看到基本上都是一些国外的通讯平台,当然这里面还有个微信,但是我去查了一下,微信官方并没有直接声明支持 emirates engine。 我 们按下 esc, 退出当前配置好,基础配置已经完成了,接下来我们启动 emirates, 在 emulus 启动的过程中,我们可以看到很多的异常信息,不过我实测下来,大家可以直接忽略这个报错。手动输入 emulus, 按下回车, 可以看到已经进入到了 emulus engine 的 对话界面了。接下来我们向它发起一个非常基础的问题,你是谁? 好了,可以看到已经得到响应了,但是从它的响应结果来看,之前从 opengl 迁移过来的配置文件似乎丢失了一部分。 因为我在 opencloud 里给我的 agent 设置的角色是我家的一只小猫咪糖糖,这边它并没有把角色信息成功地带入进来,这个大家在使用的时候需要去注意一下。接下来我们向它发起第一个任务,搜索 emulus agent, 并且总结搜索到的第一个网页。 我们可以看到 amazon 已经开始尝试多个搜索引擎去进行解锁了。你在当前它所输出的日记信息里面,也可以清晰地看到它在干什么,这个也是我之前讲的,它的执行过程是比较透明的,我们能够比较清楚地知道它现在在干什么 好了,可以看到解锁结果已经出来了。这边有一点需要跟大家提一下, amazon 呢,是内置的一个无头浏览器的,你可以看到当前的网页解锁任务,它完全是在后台静默运行的,下面我们再让它执行一次解锁任务。解锁 openclock。 大家有没有发现,再次让它执行解锁任务的时候,它的解锁路径就比之前短了很多了。下面我们再次重复让它进行解锁任务。 大家有没有看到神奇的事情发生了,在我们多次让 emerson 重复进行任务的时候,它自动根据我们当前的这个重复任务创建了这个 skill。 在 skill 创建之后,整体的执行路径变得更短了。这个就是我们在前面提到的 emerson 最让我惊艳的一个点。 当你让他去执行一些复杂任务,或者是多次重复让他执行某类任务的时候,他就会在后台自动将这些任务沉淀为 skill, 下次调用的时候就会更加的快速,更加的准确,也就是我们所讲的自我净化。 好了,本期视频到这边也要结束了。整体体验下来, emerson 确实是一个非常值得尝试的工具, 但如果说他现在已经可以完全替代 open class, 我 觉得这个结论还太早了。毫无疑问,他是一个非常值得关注的新选择,只是性阶段还不太适合直接无缝切过去。本期视频到这边就结束了,工具会变,但方法更重要,我是麦冬,下条继续。

如果你还在折腾龙虾,还没学会,可以先停一下了。最近有个叫 hermes 的 新项目,一上线就杀疯了,狂揽六万星标。他能接各家厂商的模型,随便切,具备自学习循环, 越用越懂。你做过一次的活,还可以自动沉淀为 skill。 我 朋友为了装它,甚至在海鲜市场花了四十九,结果装完了,自己都不知道怎么配。其实自己学会安装并不难,别被那些复杂的代码吓到了。 今天全部交给你。开始之前看看你需要准备什么,只需要一样东西, git 终端输入 git version, 能看到版本号就行。其他的 python, node 全都不用管。安装脚本自动帮你搞定。先讲 windows 怎么装,右键 windows 图标选中端管理员, 打开 power shell, 点开 hermes 的 官方文档,复制安装命令,粘贴进去,回车,然后等着全部绿色打勾就装好了。 mac 也不复杂, command 加空格, so terminal, 打开终端,同样去官方文档,复制安装命令,粘贴回车,等它跑完,输入 source, 重载 shell, 然后输入 hermes, 看到欢迎界面就成功了。安装脚本帮你装了一堆东西,简单了解一下。 python 和 node 是 运行环境, 没这俩跑不起来。 ripgrab 做搜索, ffmpeg 处理音视频,你不用管,知道有就行。装好了,问题来了, hermes 需要一个 ai 模型才能干活, open router, 两百多个模型随便选,有试用额度,但注册稍微麻烦。欧拉玛本地免费跑,不需要联网。新手选这个就对了。第三种,自定义 api, 接任何兼容接口,适合进阶玩家。选好方案,进配置,向导选 quick setup, 新手直接回车,然后选提供商,我们选欧拉玛配置自动保存,输入 hermes 就 能用了。选了欧拉玛还需要几步配置,先去欧拉玛官网下载安装 模型,大概十二个 g, 注意硬盘空间。输入 hermes model, 选自定义 open ai 兼容 ul 照屏幕填就行。 api key 直接跳过 模型,选 gptos 二十 b 免费的上下文十二万八千 token 够用了。输入 her miss chat 杠 q 你 好,能收到回复就全搞定了。一般用户跳过这段想手动装的,接着看 git clone 克隆项目 cd 记目录 peep install 装依赖 python, 简莓 miss 启动,适合想改原码的人。装好之后记几个常用命令, her miss model 和 tools 切模型管工具 her miss update 更新, set up, 重新配置 her miss doctor, 诊断问题, 用过龙虾的话, claw migrate 一 键迁移。最后讲几个容易踩的坑, her miss 提示找不到命令 source, 波浪线 bashc 重载 shell 就 好。 samsung 构建失败,改成 pp install 简易引号,点引号最小,安装报四零一,错误 检查 api key 或者固定 provider, 上下文不够换十二万八以上的模型。到这 hermes 安装全讲完了,一行命令,装好,选欧拉玛免费跑,就这么简单。我是曲奇,一个 ai 练习生,让我们一起记录 ai 时代的个人进化。

它这里是让你再确认一遍,要不要把它所有的内容都导入进来。好,那么现在它就已经是一个正常运行的状态了。 今天详细的教大家如何安装部署 hermes agent。 那 首先我们先了解一下 hermes 是 什么,就是它跟小龙虾有什么区别? 我们就用他自己做的这个演示动画来大概过一下。我用下来感觉他跟小龙虾最大的区别其实就是稳定,就是他比小龙虾要稳定很多,这个非常非常重要。在我看来一个工具最重要的就是稳定 可靠,那我平时给他布置任何长任务,他都没有崩溃过,没有中断过,这一点很重要啊。 呃,小龙虾的话,之前做那种长任务经常会停掉,要么就卡住,反正就会出一些问题。这几天我用 hermes 用下来,感觉非常的稳定可靠。而且他现在这个版本最新版本要比我刚开始安装他的时候好太多了, 就进步非常非常大。最开始我安装他的时候呢,他的权限很小,就是让他做什么东西他都需要申请权限,很麻烦。那现在的话很接近小龙虾了,这个可能是他在底层设计上出于安全方面的考量, 其他的他跟小龙虾没什么区别,最大的区别也就是他的记忆系统自我学习的能力,就是每次他完成一个长任务,他就会写成一个 skill。 那你现在看到的这个演示动画就是他做的,这是第五版,就修改了五次,我认为效果也还行,效果也不错。另外就是他这个创始人团队啊,这是一个做开源模型的团队,他们发布过一系列 hermes 模型,开源模型。 好,那么接下来就教大家如何在本地部署,如果你们自己在安装的过程中遇到什么问题,可以在评论区留言,我看到就会解答一下。首先我们打开这个项目的开源地址,或者打开他的官网也可以, 然后找到这个下载的命令复制下来。他目前不支持 windows 系统啊,如果你是 windows 系统的话,你需要装一个紫系统,然后打开终端 粘贴进去,按回车,然后等几分钟,他会自行下载,下载好以后会进入交互界面。 ok, 这里他是识别到了我电脑上安装了小龙虾,然后他问我要不要先导入, 这里我们可以选择导入,也可以选择不导入。我先演示一下不导入,如果要导入的话,你就输入 yes 就是 y, 如果不导入你就输入 n, 那 么我们先输入 n, 这里我们就可以选择快速设置啊,没必要完整的全设置,因为你只要快速设置能让他先跑通就可以了,后面需要什么配置,只需要和他说,他自己就会去配置。好。好,这里我们选择要接入的模型, 比方说我用 mini max, 你在粘贴 a p i k 的 时候,它不会显示出来啊。然后这里按回车, 好让我们选择模型。你如果定的是极速套餐,你就可以选这个 high speed 的, 这里是要接入通讯软件,选择不接入,后面再去配置, 这里输入 y 就 可以了。 然后再输入 hermes, 这里就可以进行交流了。 先跟他打个招呼, 好,我们看到它这里已经回复了,但是因为这个字体的颜色呀,看不清,那么我们就可以给它换成高对比度的,清晰一点的输入 skin 空格 model。 好, 这里我们已经换了,刚才我以为没换成功,这里已经能看清了。那么你如果要接入飞书的话, 你就去飞书创建一个频道,然后把 id 和密码发给他就可以了。好,下面演示一下如何一键导入小龙虾相关的配置啊。我们输入 permiss 空格 set up, 然后这里我们选择 yes, 它这里是让你再确认一遍要不要把它所有的内容都导入进来,然后会带来一些兼容性的问题,但是它自己会判断会弄好,我们选择 yes, 然后再次进入配置项。 ok, 那 么现在呢,他就已经拿到了你所有的 opencloud 的 相关配置,然后我们测试一下, 你看啊,他现在已经知道了,我叫戴哥,这个就说明他已经拿到了之前小龙虾里面的记忆文件。好,那么现在他就已经是一个正常运行的状态了。但是这个软件它目前没有 web ui 啊,就是浏览器里面没有控制台, 只有在终端里面运行。还有如果给他接入通讯软件的话,在通讯软件上面与他交流, 配置起来还是很简单的啊,要比小龙虾要简单很多。后续如果你还需要再让他去配置,其他的都可以和他讲,他自己就能去完成。好,这期教程就到这里。

ok, 朋友们,那最近有个新的 agent 叫做 hermes agent, 在 外网非常的火热,他说你的第一个爱马仕,何必是爱马仕,那么他被人叫做小龙虾的进化版本, 那他跟小龙虾有什么区别呢?今天这个视频我就会讲清楚 hermes agent, 并且会手把手的带你从安装到设置,然后再到使用。那么这次我会使用这个谷歌最新的开源大模型 java, 然后我会把它部署在本地,并且会教会你,然后接入到 hermes 来使用,这样就可以实现 fork 自由。 那我们首先先来讲讲 hermeshermes, 它跟小龙虾的第一个区别就是它能够自我进化,自我学习,会自动生成 skill, 就是 不需要我们去手动创建这个工作流,那么只要你用的越久,它就可以越来越懂你,用起来越来越顺手。那么它具体是怎么实现这个自我进化的呢?这里有两个数字,一个是五,一个是十五。那么首先我们来说一下这个五, 那 hermes 在 完成一个复杂的任务,通常指的是它要进行五次以上的工具调用,它就会自动地把整个工作流沉淀成一个 md 技能文件,之后它下次再遇到类似的任务的时候,它就会直接加载这个 skill, 跳过摸索阶段。 那么如果它在执行过程中发现有更好的方法,它也会自动更新 skill 文件,那么上述这个过程是使用一个叫做 skill manager 的 工具来完成的。 那十五次是什么意思?也就是说他每进行十五次的工具调用,系统会自动停下来回顾刚才发生了什么,找出哪里失败了,然后立即更新自己,这个就是他的闭环自省功能,也就是他越用越强的秘密。所以说五次就是他什么时候记,什么时候创建自己的技能,十五次就是他什么时候反思。这两个是不同的处罚机制, 这就跟我们传统的 skill 编写方式是很不一样的,因为我们知道无论是小龙虾,或者说是 cloud code 或者说 code, 他 们的 skill 都是由人工来编写的,或者说从这个 cloud hub 这种 市场上面下载下来的,他们没有自我生成,也没有自我迭代。那很多人使用小龙虾的时候,还有一个问题,就是觉得他特别笨,比如说今天说的事情,明天就忘了,然后他告诉你我一定会记住,结果第二天他又忘了,那原因就是因为小龙虾的记忆系统不够完善,他只是简单的压缩了上下文。所以说我们会看到很多团队也在做 agent memory 这件事情就是想解决持久化记忆的问题,让 agent 能够永远记住你的信息, 比如说密木林,比如说国内盛大网络的 evermind 等等等等。那 hermes 和 openclaw 它的记忆系统之间有什么区别呢?其实最大的区别就是它们在容量管理上面是完全不一样的。那我们来看一下 hermes 的 三层记忆系统。那第一层叫做绘画记忆, 也就是实时的大拇指的上下文窗口,比如说一百二十八 k, 二百五十六 k, 那 它在绘画结束的时候就会消失,跟我们正常在聊天框使用豆包 deepsea 是 一样的。 那第二层叫做持久化记忆,那这层有两个文件,分别是 memory md 和 user md, 顾名思义和小龙虾的作用是一样的, user md 呢,就是用来收集用户的画像和偏好的,那 memory md 则是用来长期记忆和经验沉淀的。 但是在小龙虾里面,这两个文件的容量默认是两万个字符,那么超出之后它就靠上下文压缩,把旧的对话内容给压短。但是问题就是说压缩之后会导致信息丢失或者变形。 而 hermes 的 memory dmd 里面只有两千两百个字母, user dmd 里面只有一千三百七十五个字母,它的容量是小下的十分之一,那它为什么要设计的这么短呢?其实这是一个团队的设计哲学,就说团队他故意把容量做的非常小,迫使这个 agent 主动去提炼,去重合。并 不够用了的话,那就必须先整理旧的才能添加新的,那容量满了的话,不是压缩,而是主动侧展。那 creation 也是刚才说的主动侧展,和我们之前说的压缩 compression 有 什么区别呢?压缩是把所有的东西硬塞进去,然后变短,变紧凑,但是内容它会变形,会丢失,会失帧。而侧展它是主动的去筛选, 判断什么重要,什么不重要,什么可以合并,什么该删除掉。那么 hermes 他 走的就是这条路线,所以说虽然他的记忆非常的小,但是他每一句话都是有用的。那 hermes 的 记忆系统第三层就是全量历史解锁,他会把所有的历史对话放在 s q l lite 数据库里面,如果说他需要查找历史数据的时候,他就会使用关键词查找匹配,然后 找到这个片段之后再使用大模型整理材料,最后返回给我们,而不是说跟小龙虾一样使用向量解锁。那我们先说说关键词查找匹配,那这个就很简单,就类似我们的 ctrl 加 f 搜索什么关键字,它就匹配什么。 那在 hermes 里面,它就会根据关键字去搜索相关的段落,然后让大模型去整体的理解这段话什么意思,理解完之后再返回一段材料给到你。 那我们举个例子,比如说现在我给这个 agent 说,之前上周我们讨论过一个三个月的学习计划,来提高我的这个英语口语和表达能力,你去帮我找找那个计划具体是怎么样的,然后再给我说一下,那他就会执行下面这几个操作。首先他会去搜索关键词学习计划,三个月提升英语表达,然后找到这些文本片段之后,大模型会整体的理解上下文,然后再返回一段摘要给到我们。 那什么是向量解锁呢?向量解锁它就是把文字转换成数字,我们知道计算机它存储的是零一系列,对吧?它是存储不了文字的,所以说在存储的过程中, 它会把文字转换成像量,那向量解锁就是通过比较数字间的距离来找相似的内容。比如说现在有句话叫做猫在沙发上睡觉,转换成像量可能就是零点八二、零点一五、零点三三。 那还有另外一句话,就说一只猫咪握在沙发上转换成向量,可能就变成了零点八一、零点一六、零点三四。虽然说这两句话的字是不一样的,但是它们的语义是非常类似,都是猫在沙发上,对吧?那所以说它们在向量空间上面的距离是十分接近的,那 ai 就 能够理解它们是同一个东西。 向量接收的好处就是能够理解语义,但代价是需要你额外的向向量数据库来存在,向量存储成本会更高,并且还需要一个迭代模型。 那我们还知道养小龙虾呀,是一个非常烧 token 的 事情,因为它真的太耗钱了,那 hermes 就 能很好的解决这个问题。那为什么养小龙虾非常的浪费?这个 token 就是 在于这个系统提示词的加载方式。那首先我们说一下什么是系统提示词, 我们知道当我们和 agent 对 话的时候, agent 收到的并不仅仅是你的问题,而是系统提示词加上记文件,加上当前的对话,就等于 agent 看到的完整上下文。 那系统提示词里面包含了什么呢?比如说 agent 是 谁?他应该怎么工作,记住什么信息,也就是我们理解的 so 点 md, user 点 md, 正题题点 md 这些文件。那对于小龙虾来说,他每次会画会重新加载这些上下文,然后对话开始的时候,他读去所有的记忆文件,然后拼接之后注入上下文。那么 lama 在 处理上下文的时候,他会把之前遇到的内容缓存起来,然后来加速处理这个缓存,命中 token 的 价格是最便宜的,那如果说上下文内容在一直改变,对吧?那我们前面的缓存就会失效, 因为缓存是按照顺序来存取的,你前面如果变了,后面存的再多的缓存都没用了,接下来全部从头来过,它不是增量改变的,而是全部推倒重来。 而且还有个现象就是我们知道现在市面上很多中转站,对吧?那你会看到很多这种垃圾中转站为什么都可以用的这么快?原因之一就是因为它不让你去命中缓存,全部给你用最贵的消耗方式。那我们看 hermes 它是怎么做的? hermes 它完全不一样,它会在绘画开始的时候执行一个操作,叫做 frozen snapshot 冻结快照,他会把当前所有的记忆文件等等等等上下文全部读起之后锁定,然后注入到上下文里面去。那在绘画进行的过程中呢?如果说这些文件被修改了,他直接不管, 他继续使用锁定的版本,等这次绘画结束之后,他才会把这个修改写入文件,然后在下一个绘画开始的时候,他会读取最新的版本。那这样做有什么好处呢?首先第一点,最显而易见的就是可以保持前缀的缓存命中性能更好,并且更节约前。第二点,他可以避免 a 键在绘画中途修改记忆导致人格飘逸的问题。 那什么是人格漂移问题呢?打个比方,就像现在我们正在写一篇论文,那假如说我们现在写第一章,并且已经把所有的参考论文文献全部找好了,那我们在写的过程中,我们就一边看一边写,对吧?那现在这时候有个人跑过来跟你说,参考文献更新了,你需要加一篇新的,然后再删除一篇旧的, 那你是不是想把这个给红出去?因为你论文写到一半,参考文献给我改了,那这不是捣乱吗?所以说如果说你修改的话,你的逻辑就已经不值价了,这个论证链条就会受到影响。那 herb 的 说法就是你不用管,你就用旧的参考文献来完成第一章的章节,然后在进入第二章之前,你再去拿最新版本的参考文献。这样的好处就是第一章的论证逻辑是稳定一致的,不会因为中途文献的增加修改而改变。 那上面我说的这几点呢?就是 hermes 和小龙虾的最主要的差别。那简单来说,小龙虾就像是一本人工维护的笔记本,你说什么,然后就记什么,满了之后我们就压缩。但是 hermes 呢?它更像是一个自动整理的一个档案系统, 它自己会判断价值不够了,会主动合并,并且会把做过的事情变成一个可以用的技能,这也是它为什么越用越聪明的原因。现在我们就开始安装设置这个 hermes, 然后本地部署 java 这个大模型,并且把两者打通。 那现在我们来安装欧拉玛。欧拉玛是什么东西呢?简单来说,欧拉玛它是一个本地的大圆模型运行器,我们知道所有的大圆模型,它可能参数不同,启动方式不同,那是不是很不方便我们去使用,因为他们没有一个统一的标准。那欧拉玛就做了一件事情,他把常见的这些模型全部包装成了统一的重格,使得我们去很方便的调用切换,所以说它是一个统一的包装层。 那如何安装欧拉曼呢?也非常简单,我们只需要打开他的官网,那么来到他的首页,我们点击 download, ok, 那 可以看到这里,他让我们选择三个系统,我们选择我们的 micros, enix 和 windows, 那 这里我是 micros, 那 我就选择 micros。 那 大家如果是 windows, 我 们就点一下, 然后把这个命令复制终端里面去运行就好了。那,那如果说你发现你在终端运行这个命令是失败的,那我们也可以选择下载它的这个 app 形式,那这里我就选择在终端安装,那我复制这条命令, 打开 terminal, 然后粘贴上去,然后回车。那大家注意,如果说你使用终端安装的话,你最好把你的这个魔法开成 t u n 全剧模式, ok, 那 安装好了之后,它就是这样一个界面,那现在我们来继续安装 java for, 然后把它部署到我们的本地上面。那很简单,我们点击这个 models, 然后这里我们就选择我们的贾玛 four, 然后点进来之后,我们可以看到它这里给了模型的好几个版本,一二币、一四币、二十六币、三十一币和三十一币 cloud。 ok, 那 现在你可能会问,那我怎么知道我该下载哪一个模型呢?那这里给大家推荐一个网站,叫做 what models。 打开这个网站呢,我们只用在这里选择我们的这个 gpu 是 什么, 比如说你是英伟达的,你是 amd 的, 或者你是苹果的,好吧,选择你的 gpu, 这里有五零七零,五零六零,然后比如说你是英伟达的 四零九零,你就可以看到你能跑的很好的模型有哪些,对吧?然后你一直往下拉,基本上可以升了很多模型了,那就是说你跑的有点吃力的啊,这个就是你完全跑不了的, 所以说大家可以根据自己这个显卡的配置去选择,那我们回来安装,那我在这里的话就选择安装这个一四 b 的 版本就好了,然后因为一二 b 确实太蠢了,二十六 b 的 话,我目前这个笔记本是有点吃力,所以说我选择这个一四 b 的 版本就好了。 那安装这个模型非常简单,我们把它的名字复制一下,然后我们打开终端,我们输入欧拉玛库,然后粘贴它的模型名字,然后回车等等,等待它安装就好了。 ok, 那 可以看到现在我们就安装好了,那我们输入欧拉玛 list, 就 会看到我们现在本地安装了哪些模型。 可以看到我们这里本地安装了一个 java 一 四 b 的 版本,然后这个 size 的 话是九点六。那现在我们来测试一下 java 的 多模态信息处理能力,我们可以看到我给了他一张图片和一段文字,可以看到他思考了三十一秒时间, 那现在我们看看他在处理开放问题的时候表现怎么样。现在我给了他一个问题,现在 ai 什么都会做了,那我们普通人应该怎么做?普通人该怎么才能保证自己不会被 ai 淘汰?给我详细分析一下, 可以看到他思考了四十五秒钟时间,然后生成了这么长的回答,并且说的还是挺有道理的。那现在我们来安装一下 hermes agent, 那 安装也非常简单,我们打开它官网,然后复制一下这个命令, 我们打开终端粘贴回车,等待它安装就好了。可以看到他先会看我们一些必要的包有没有,没有的话就给你安装,有的话就直接跳过, ok, 那 现在我们看到他已经把所有的依赖全部安装完成了,然后的话他开始了这个安装向导,然后他检测到了我们已经安装到了 open class 小 龙虾,然后他开始问说你是否想看看有没有什么可以导入的?那我们选择 yes, ok, 那 现在我们看到他在问我们要不要把 open class 的 这个配置牵引过来,然后他给出了一个预览界面, 那如果说你觉得你的这个小龙虾调教的非常好,你可以直接把它牵引过来,那这里我有了演示,我就直接选择 no, 不 牵引过来。 然后现在我们来到了配置界面,那这里我们直接选择快速配置就好,然后这里它就让我们选择你要使用哪个大模型呢?那我们可以看到你可以使用 gemine, 可以 使用 srappik, 可以 使用 openend codex, 可以 使用千万,对吧?可以使用 gitopilot, 也可以使用 hackbase 上面自己下载的这个大模型。 那刚才因为我们已经在本地上面部署了 java for, 所以 说这里我们选择 modividers, 然后进来之后我们可以观察到它多出了更多选项,比如说有智普的,有 kimi 的, 有 mini max 的, 有 kilo, 有 open code 的 等等等等。 那因为我们要选择本地部署大模型,所以说这里我们选择 custom endpoint 就 好,那在这里我们填写我们的 base url, 默认就是这个,大家记住就好,然后复制粘贴,然后这里他们选择填写这个 a j i key, 那 我们直接跳过就好,然后这里他们填写模型的名称,那我们就用填写刚才下载好的模型名称就好了。那这里是加码 four, 那 是 e c b 的 版本,这里他们选择上下文的长度,那我们直接回车默认检测就好。然后现在他们选择是否要进入聊天平台,那我们选择设置就好。 大家可以选择我们要接触聊天平台,比如说飞书,微信, telegraph, discord 都可以,那这里我们选一个菜单,那我们选微信,然后我们回车。先第一步它让我们设置我们的 telegraph, 那 我们只用找到这个 boat father, 创建一个新的 boat, 然后把 token 复制过来就好。 然后这里咱们选择谁能给这个 bug 发消息,那这里大家一定要好好选择,因为说如果你什么都不捡的话,那他就会默认所有人都给他发消息,并且他会回复。那这里我们只用填写我们自己的 user id, 如何获取你的 user id 呢?大家关注这个 bug, 然后给他发一条消息,他就会把你的信息返回过来。这里上我们选择是否要把我们的 user id 作为默认频道,那我们选择 yes, 然后现在他开始让我们选择登录微信了,那我们选择 yes, 把这个链接复制浏览器打开,扫描二维码登录 这里他让我们配置谁可以给这个 boss 发消息就私发消息。那第一个选项就是手动批准,第二个选项就是允许所有的私发消息,第三个选项就是只允许白名单,第四个选项就是谁都不能给我发,那我选择第一个选项就好。 然后这里他让我们配置谁可以建立群聊,然后发消息,他怎么处理群里面的消息?那有三个选项,第一个就是不允许群聊,第二个是允许所有的群聊,第三个就是只允许白名单里面的群聊,那选推荐选项就好, 然后这里他们选择是否要把我们的微信平台作为默认屏,那我们选择 yes, 现在我们已经全部配置好了,然后他问我们是否需要重启网关,那我们选择 yes。 现在配置完成后,他问我们是否需要立即启动,那我们选择 yes, 那 现在我们来接入微信使用,那我们可以看到因为它需要手动授权,所以说那我们在终端运行下这个命令就好。 ok, 那 这里显示已经授权成功了,我们再给他发消息试一下,我们可以看到它这里显示对方正在输入中给出了回复,那我们可以成功使用了。那刚才我们是使用本地部署的模型,那大家如果想切换和云端的话,那也非常简单,我们只用在终端输入这行命令。 hermes model, 然后在这里大家就可以自由切换了。那如果说这里找不到你想要的模型,那大家就可以自由切换了。 那在这里我选择 mini max china, 然后配置一下我们的 api key, 那 接下来配置我们的 base layer, 我 们把它复制过来,然后粘贴。那大家注意一个点,就说如果这里你不是点 com 结尾,而是点 i o 结尾,那就是配置到海外去了,所以说要保证你是点 com 结尾。 然后大家选择自己想要的模型,那我就选择二点七,那现在我们来测试一下。那如果说我们想要启动终端的聊天界面也很简单,我们输入 hermes chat, 我们给他打个招呼, 可以看到我们已经成功替换好的模型。朋友们,那这就是本期视频的全部内容,我是 jerry, 我 们下次再见。

给大家看一下这个 hermes 镜的滤镜的这个 ai 工具,目前是最新的版本零点九零,然后也有了这个 dsp 的 界面,然后这是我连接的两个平台,一个飞速,一个 tagram, tagram 连接超时了, 然后这个是和他的对话,然后这个消耗的 token, 然后这个是 q, 然后这个就 current, 就是 定时生活。目前有三个,一个是天气提醒的,还有一个是新闻的,还有一个是这个是我刚刚加的,让他爬一些免费的模型。 那目前我找到了两个免费的模型,给大家看一下我这个任务执行的结果看,我让他设置一个定时任务,然后每隔四小时爬取一下互联网上的免费模型,包括 oppo ranger 上面的这两个模型,因为这两个模型目前是免费的,然后我现在在用这个模型, 对,因为他目前是免费的。对,你看他已经创建好了任务,然后现在开始爬,他爬的结果也是这两个,然后我问他除了这两个之外还有没有免费的? 对,然后它现在还在爬,还在搜索,然后它的使用和龙虾差不多,然后这是最新的九点零的这个这个版本才才加的这个 大西 bug, 也就是这个 web ui 的 界面,然后之前是没有的,然后它的进入方式也很简单,你就执行这个 hermes 大 西 bug 就 可以了,和龙虾差不多一样的, 然后他的界面我觉得比龙虾要直观很多。说实话,龙虾我第一次用的时候我就 搞不找不着他那些配置的东西在哪也可,不过也可能是我已经用过龙虾了,再用这个就上手比较快,然后他现现在觉得还是挺不错的。

哈喽,小伙伴们大家好,最近这个爱马仕 agent 非常的火,感觉热度已经超过小龙虾了,那这个爱马仕 agent 在 windows 上安装还是稍微需要一点技术的,那我们今天就带大家怎么将这个爱马仕 agent 装到我们的 windows 机器上。 在 windows 上安装主要依赖的还是 windows 内置的一个 linux 系统,也就是 wsl 二,所以说我们首先第一步是要将这个 wsl 二安装到机器上,在安装前我们要确认两个事情,一个是你的 windows 版本,要么是 win 十,然后二零零四版本以上, 要么是 win 十一。然后第二个就是我们要安装这个 wsl 二,我们可以在最底部到客栏右键,然后打开任务管理器,然后点击左侧的性能, 然后 cpu。 在 这里我们看到有一个虚拟化,确认这个是已开启的状态,那如果是已禁用的状态怎么办呢?我们需要重启电脑,进入 bios, 然后如果是英特尔芯片的话,就开启这个虚拟技术,然后把它设置成 enabled, 然后 amd 芯片的话就设置 svm mode, 然后把它设成 enabled。 怎么进入 bios? 你 可以上网查一下你的电脑型号,因为不同的电脑对应的进入方式是不一样的。 可以设置好这个之后,我们就可以安装 wsl 了,主要命令是这个,然后我们打开自己电脑的 power shell, 可以 点击开始,然后在这里搜索 power shell, 我 们直接点击这个 windows power shell 就 可以。 接着我们运行这个命令 wsl install, 它会默认给我们安装一个雾斑图的发行版,这个过程可能会有点长,因为它要下载,大家可以耐心等待一下,它运行成功之后会显示已安装雾斑图,操作成功。 好的,安装成功之后,接下来我们要重启电脑,然后重启电脑,完成之后,我们输入无斑图, 默认它会给一个 root 的 用户名,然后没有密码,这样子我们就进入到了无斑图的子系统,我们的准备工作就已经完成了,接下来就是安装了,我们打开这个爱马仕 agent 的 github 主页, 或者说我们打开这个 agent 的 doc 文档,这里有一个 installation, 然后这里有一个 quick install, 我 们复制这个命令,然后我们进入刚才输入无斑图的这个界面,粘贴运行,接下来它就开始自动安装了,你看它检测出来我们的系统是 linux 的 系统, 然后再安装这个 python 的 包管理器 uv, 接下来我们就等待它自动安装就可以。好的,经过了很漫长的等待之后,我们终于安装成功了,但这过程中可能会遇到很多问题,我觉得最主要的问题可能还是网络的问题, 大家得自己处理好。网络安装成功之后,我们会进入到它的设置页面,我们选第一个 quick setup 快 速开始。首先我们要选择的是模型提供商,那这里就看大家目前有哪些服务了,如果你之前用过小龙虾的话,你应该比较熟悉, 那我这里就选择 deepsafe 来测试一下。选择之后,我们要输入一个 api key, 我 们打开 deepsafe 的 官网,然后这里有一个 api 开放平台,点击之后自己注册登录一下,我们选择左侧第二个 api keys, 然后在这里创建一个 api key, 名字可以随便填一个, 比如说爱马仕,然后点击创建,创建成功之后,我们将这个 key 复制下来,在这里粘贴 base url, 我 们就使用默认的就可以直接回车。模型可以选择第一个 deepsafe chat, 也可以选择第二个 deepsafe reseller, 第二个可能效果会好一点,但是比较好 talk, 我 们就选择第二个吧。 接下来要选择通讯的平台,我们直接选第一个,现在就设置这里有一个微信,我觉得是最方便的,选择微信,先敲一个空格键,然后再回车, 然后这里会询问是否要现在登录,我们输入一个 y, 然后回车。他说终端二维码渲染失败,请直接打开上面的,我们点一下, 在这里扫码登录一下, ok, 我 这里已经登录成功了,然后他会自动跳转。在这里大家要注意,一定要把微信升级到最新版,这里是选择是否要验证,然后他推荐的是使用一个配对码,那我们就试一下使用配对码来验证, 然后这里是是否允许群聊,我看他推荐的也是第一个,不让他进行群聊,我们选第一个,他说微信连接成功,然后这里继续输入一个 y, 然后回车。 这里说是否要在后台运行一个网关,我们继续输入 y, 这里选择网关的运行方式。然后第一个是用户服务,就是没有 管理员的权限,然后他是运行在一个开发的环境中。第二个是系统服务,如果你电脑上没有什么重要的东西的话,你可以直接选择第二个,那为了安全起见的话,可以选第一个,然后他询问是否现在要开启服务,输入 y 回车,继续输入 y 回车。 好的,能看到这个界面,代表我们的服务已经起来了。然后我们可以看一下它目前有哪些功能。比如说 browser, 就是 浏览器,然后可以执行代码,然后有定时任务,还有文件的操作,生成图像。然后下面这些是可用的技能。我们使用的模型是 deep seek reasoner, 这样代表我们的安装已经全部完成了,我们可以试着给它一个命令,来测试一下,看看它好不好用。比如说整理一下当前最新的 ai 工具,然后整理成表格,放在我的桌面上,我们看看它执行的怎么样, 它正在出实化一个 agent, 然后下面这个不是它执行的进度,而是它的上下文窗口的占用比例,比如它最长是一百二十八 k 的 上下文,然后目前用了百分之零,然后这是我们的模型 id, 接下来我们就等待他让他执行吧。 ok, 我 们看到他已经执行完毕了,他说已经帮我整理了最新的工具列表, 然后生成表格,保存到了 windows 桌面。 ok, 他 有两个文件,一个是 c s v 文件,一个是 markdown 文件。然后他说这些数据是从 feature tools 画取的,表格包含工具名称、分类、描述以及链接。我们看一下它生成的文件是什么样的。我们把这个 csv 文件打开。 ok, 这个就是它给的 csv 文件,然后这个是名称,然后这是描述链接,然后 markdown。 我 看一下这个是它给的 markdown 文件,跟刚才那个 csv 文件的内容是一样的。 ok, 目前来讲它其实还是可以很好地完成我给他的任务的。 然后我们刚才其实配置了一个微信的通道,那我们来尝试看一下能不能使用微信来操作它。我们刚才扫码完成之后,会自动连接到这个微信 cloud bot 上,然后我们在这里直接给他发送消息,就说你帮我截个图吧, 然后他需要,他需要做个配对,我们在电脑上跟配一个对,然后输入他这个命令,我们将这串代码复制下来,然后在这里先退出一下,然后把这个配对码粘贴进去。 ok, 已经配对成功了。我们配对成功之后还是要把这个 hermes 打开, 然后再跟他说话重新说一下。他给了一个回复说想截取什么内容,然后我说整个屏幕, 看他怎么操作,我说整个屏幕,然后他回我说当前处于 wsl 的 环境,其实本质上他还是 windows 上的虚拟机,其实他没有办法帮我截图的,但是至少代表说我们这条路已经走通了。 我们可以把这个爱马仕运行在电脑上,然后电脑不要关机。那你想做什么?你就直接通过微信来命令他,比如说让他帮我查个机票呀,然后他做好之后会返回给你。好的,那我们这个 herms agent 这个从安装到使用已经演示完毕了,大家还是得自己去体验和尝试一下。那我们本次的视频就分享到这里,大家有任何问题可以在评论区留言。

第一步,打开代码仓库,复制安装命令。第二步,打开终端,执行命令。第三步,执行 hermes set up 设置 第一个选项,不用管,直接 no。 第四步,设计模型,包含主流的模型,我用的 mini max, 二点七的 coldplay, 折腾这种就用便宜的模型就好。配置很简单,选择模型,设置秘钥。第五步,设置聊天软件演示设置 w x 使用提供链接访问,扫码授权一直下一步用推荐的设置,每个都 yes wechat 折腾了很久不能操作本机电脑,目前可能是有问题,等后面再试吧。其他软件已跑通,这是最终企业网站演示效果,个人觉得比 open code 好 配置,益于新手操作。

最近那个号称完全碾压 open 克拉的 hermes 安装部署教程它来了!你只需打开宝塔,点击终端,然后直接把部署指令粘贴给他,他就会开始帮你快速完成安装。具体的安装速度看你的服务器网络质量,等待安装完成就可以进入配置,直接全部 yes, 然后给他配置你现有的大模型 主播。这边以 g l m 为例,输入 a p i t, 再配置一下 u r a i o, 最后选择使用模型,就已经成功完成部署了。恭喜你,已经成功用向 hermes。

大家好,今天讲一个很多 mac 用户关心的话题,怎么在 mac 本地跑 ai agent 并使用本地六大模型。然后先说一下结论,我最终选择的是 o m l x 加千万三点五九 b 的 一个模型,然后我的配置是 m 二 pro 三十二 b 的 一个内存,目前来说的话还是可以使用。 整体上来说的话啊,千万这个模型比较适合在麦克上跑,中间踩了不少坑。我先来说一下啊,为什么其他的我不太推荐?首先我来说一下欧拉玛,这个其实是目前最流行的本地模型工具,但是我放弃了。 第一个问题是协议不太兼容,首先我们 hms 协进的需要 open a 一个标准协议,但是欧拉玛的话需要 let l l m 做一个中转,中转的时候还得注意我们的工具调用需要单独开一个非流式的一个经用才能正常的调用函数, windows 的 用户可以参考一下,这个是整体的架构,然后这个流程的话是能够完全跑通的。第二个来说一下 lm studio, 这个其实也是 mac 原声的一个工具,也挺好的。但是它发现我发现它没有 so endpoint, 赫默斯无法调用,只能本地自己用,无法作为服务来跑,并且它的内存占用是很高的。 说完刚才那些踩坑的经验,来说说我为什么选择 o m l x 以及 o m l x 对 mac 的 一个底层优化。很多人觉得用 mac 跑 a 帧的会很卡,其实问题是出在 prefix feel 这个东西啊,每次 ai 回复都要重新计算你的系统提示词, 系统提示词不短,它有工具描述, m c p 配置大概加起来有二十 k token, 传统框架每次都靠 cpu 重新计算,等半天才能出第一个字 o m l x。 怎么解决呢?其实是靠的四项核心技术,第一个前缀缓存,第二个分页式共享 k v, 第三个冷热分层,第四个高泵发调度。最后总结一下, mac 用户如果也想在本地跑 agent 以及大模型的话,建议使用欧美 mlx 这套方案。以上是 github 的 一个链接,大致现在的话只有一万个 star, 感谢大家的观看。

我 c c 的 兄弟们最幸福啦,一键直接把爱马仕的 edge 直接给它安装进去,很简单,大家到吉他上面去,然后呢,把你自己的啊,这个爱马仕的这个啊,直接给它下载下来,下载成这个压缩包, ok, 然后下载到压缩包就在这,大概是十点九 mb。 然后呢,我教你们个特别简单,打开你的 c c 啊,这卡扣一拖,然后一丢, 好了,那按回车结束,他就叭叭叭叭叭,全部装完了,好,安装它只是第一步啊,因为我装完了啊,我就把它删了,然后安装它只是第一步,安装完之后你需要配什么?你需要去配 key, 对 不对?那你要配 key 怎么办呢?这个时候呢,你自己就要去搞定啊,你自己的这个看你要接什么, 呃, mini max 啊,千万啊,你自己接啊,我接的是这个,然后因为这个呢,现在我可以大量白嫖啊,你们去看我前面的视频吧,我前面的视频其实都有说啊,然后呢,就把这些东西接过去就行了,接口啊, key 啊,全部一股脑的往 c c 里面丢,丢完 c c 就 噗噗噗噗噗,好了,全部搞定。 然后呢,你一过来,我说,哎,你现在用什么模型啊,他就告诉我什么什么情况,就这么简单,所以有 c c 的 兄弟们还是很舒服的,这东西都不需要你去折腾一下就好了。

兄弟们,比我方卡了更厉害的 ai 助手 hemi 插件必连 nas 部署教程来了!首先呢,去飞出一键创建机器人连接我方屏幕了啊,大家截屏时自取,然后进入 nas 多克项目创建配置代码,大家自己截屏提取,粘贴到 compose, 然后点击立即部署,等待镜像拉取完成。进入容器,找到 hemi, 点击终端新增, 输入 amis setup 并回车,选择 quick stop 回车,然后选择 more providers。 这里选择你有的模型啊,我的是 mini max, 粘贴 api key 粘贴 url, 然后呢,选择调用的模型,回车之后选 skip 跳过,然后输入 y 回车。 现在你的爱马仕机器人就已经可以在终端使用了。接下来呢,就是配置飞书机器人,当前终端按 ctrl 加 c, 然后输入 amisgetaway setup 回车。选择飞书,粘贴之前创建的飞书机器人 id, 回车之后粘贴 script 继续回车,输入飞书,然后这两个项目直接不填回车。在用户授权这里啊,选择第一个,这个选项,空着继续回车,最后选择当 最后输入 n 再回车。恭喜你,飞书机器人现在也配置完成了,现在啊,你就有了比 open 可更牛逼的爱马仕!没有 ctrl u s 印章啊,但是它的学习能力是真的恐怖! 教程一发,照着做啊,你也能拥有一个越用越聪明的 ai 助理!有问题评论区见!下一期教你怎么把 opencolor 的 记忆一键签到 hems。

兄弟们,昨天刚说 hems 没有控制台,今天的 v 零点九就把哥们脸都给抽烂了。第一,本地外部控制台来了,浏览器里面点点鼠标就能管绘画调技能,直接降低使用门槛。第二, flash 的 极速模式, gpt cloud 模型发的消息都可以秒回啦!第三, 微信加企微回调模式,兄弟们啊,终于可以丝滑接入,不用折腾!第四,安卓原声支持安装 turnx 后啊,直接在手机部署,手机直接变服务器,电脑都不用啦!第五, 一键备份导入 ems backup 命令,配置直接秒备份,无论是设置崩了还是换了台机器,完全不用慌!第六, 十六个平台支持从微信到 discord, 从 m s h 到飞书全平台通知,你想用哪个软件啊就用哪个。说实话,这个版本最大的变化啊,不是功能,是门槛,以前呢,得会折腾并内行,现在呢,小白也能直接上手。但这样的不再是极客的玩具,是真的变成了生产力。