粉丝1.4万获赞5.9万

我觉得现在最适合用这个 oppo 靠的模型呢,实际上可能是阿里新推的这个服务啊,这个东西叫这个扣丁不烂是吧?呃,为什么呢? 就之前吧,就是续费了好几个这种模型,然后呢?你续的不多,但它其实用量还挺大的,你看昨天晚上我就大概一个小时,我就把 kimi 的 那个十五元的 top 的 额度也就一个小时我就用光了。 我算了算,调用其实也不多,但是因为你在欧风靠的调用和你日常对话的调用是不一样的。今天我想打算试试这个阿里云百炼,简单说一下这个东西怎么回事啊?他其实就是把几个常见的这个模型给打包了,打包了以后有一个专属的调用地址和专属的 api, 来看一下它的指南。它是这样的,整合了这些顶级模型,然后还兼容主流的编程工具,就比如说我们 用的那些 id 类类的工具哈。如果你要是正常调用,他有的时候会限制速度或者限制这限制,那如果你一定想使好的模型,要么你去买会员,要么去升级,是不是他通过固定的费用?其实我算了算,应该是还是挺便宜的,虽然不至于到这个可调用的一折,但还是挺便宜。 然后它现在有几个基础的模型啊?这个千万三点五过年的时候推出的,很牛。据说啊, kimi 呢,也是刚推出不久,然后 mini max 当时那阵刚推出的时候也火了一阵。 glm 那 个五现在可以对标,他说可以对标那个叫什么来着,那个很牛的那个。 然后它有更多的就是千万三的 max 模型,这也是版本挺新的,二六年一月二十三号的,然后加上这些小模型啊,这无所谓,就是我们理论上如果你的调用次数差不多,那么你根据你的任务来选择不同的有特色的模型就可以了, 尤其是千万的这个和 kimi 的 这个都支持。图片理解费用上啊,首月七块九,其实你看的挺便宜,对不对?然后这个高级套餐呢,是三十九块九,就真的是特别便宜,但是价格上你看啊,首月七块九,次月呢是二十,也就是说他的正价是四十块钱,第一个月呢是便宜,然后第二个月呢是五折,第三个月就是正价。 呃,我猜两个月以后可能在这种东西上可能会有更多的爆发。呃,其实现在我我印象里火山就有这种类似的这种打包的这种服务,但是呢,一呢他的价格不便宜,二是他好像我查了查,他没有明确的说他支持那个 oppo 扣,这个呢是明确的说了他支持这个 oppo 扣,然后即使是最贵的这种 两百每月,那也真的是不算贵,因为你如果真的深度用了,你把两百的额度都用光的时候,那我认为你值得在这个上面花更多的钱。然后那个那天我还看到论坛上就有一个人说我除了租房子吃饭和日常开销,我把所有的钱都用来买陶坑上,哈哈哈,其实这是很有意思一件事啊,我觉得真的挺贵的。 我,我查了查我的用量限制,我觉得我用的不算多,但是其实也不算少,我其实在很多工作上都是在在那个詹妮的那个网页上去完成的,因为很多时候你要做调查呀,做一些文本的生成啊,那些东西他那个 pro 的 版本就完全能搞定了,因为我有个 pro 的 版本,但是如果按照他这个标准, 每五小时一千两百次请求,我现在是达不到的,但不知道我买了这个套餐以后会不会达到哈,我回头再测一测。那我认为新手呢,你就花七块九加上二十块钱,先用两个月, 对吧?然后当你发现不够的时候,你去升级那个就可以了,你就直接干到二百一个月呢。其实也没啥,二百块钱一个月也就是个电话费吧。我现在已经买完了, 买完了以后呢?他现在剩余天数二十八天,我不知道他为什么是二十八天,明明买的是一个月对不对?这个是不是他的 bug 按照当月天数计算的?那你们要不要搞到下个月再买二十八天?你看他是按照这个算的,上个月的二十六号到下个月二十七号对不对? 这个就不对了,这个非常过分啊,明明是一个月,所以我打算提前使光呢,呵呵。然后我们获取了这个东西啊,它有专属的 api key, 然后呢,怎么配置啊?这里面说明,我们来找说明配置, 看 open 框中配置这些东西,实际上不要被它这种东西吓到,如果你的 open 框现在正好用的状态, 你就把这段命令考下来。怎么写啊?我这就写了,我现在咱说说怎么配置哈,就首先呢,第一步就是修改配置文件,哪个配置文件呢?就是这个东西啊,但是呢,我们在 open 里可以直接跟他说,这是我上面已经配置完了,我重新演示一遍怎么配置,就跟他说修改配置文件啊, 然后呢?把这句 copy 过来啊,这这段啊,把这段 copy 过来,然后你可以把你的 apk 呢替换到这,我懒得打码,我也就不替换,放到这。然后呢?就这样呢,这个命令就搞定了,你回车, 回车以后就是我刚才的配置,那我已经配置完了,他现在就告诉我有这些可以用的了,然后同时它底下呢,还有一段,你可以直接考过来, 然后站到这,然后回时它就会自动把你这些东西都改好。看到没变更的载药就是什么呢?它其实就是告诉你默认模型变成这个,主模型 变成这个,然后移除了原先的什么什么,这些,就移除了原先其他的所有模型,然后把其他都移除了,我还有钱在里面。其中我认为比较好的几个,特别好的四个主流四个模型就是 kimi 的 二点五,对吧? g m m 五, 然后迷你 max 的 二点五,这个也不错,迷你 max 二点五。我发现他好像在写程序上更有优势。也是这样的,我的感受上啊,因为他的代码他理解的更快更好。然后这个是个多模态模型。嗯, kimi 应该是多模态吧,我记着这两个是多模态模型,如果你需要用到图片处理,尤其是处理本机的图片的时候,这两个模型非常好。 到了这步你的七块九已经发挥作用啊。至于接下来怎么用,那其实还是靠大家去想象。我之前因为这个模型的用量问题,我现在想都给他背地里的任务, 我现在都给他加回去,加回去以后我看看他这个调用的数量到底能撑多久啊?我每天会监控他的用量,我把他这个用量记进去吧, 非常好。我觉得整体来说这下就算完事了,至少我这个月应该不会特别为掏坑的续费吧?因为每次他如果出问题的话,你很难发现,除非你里面充特别多的钱。

今天给大家介绍一个方法,就是让 openclaw 当一个调度员,去指挥多个 ai 编程工具,帮你完成编程任务。 那为什么这么做呢?我今天遇到一个问题,就是我让我的研发的 agent 去帮我写代码的时候,发现他很长时间没有回复我,我看代码也没有提交,我就问他,我说你根本就没有提交代码,是任务超时了吗?你把原因告诉我。 最后他给我的回复确实是超时了,因为 openclock 他的机制,如果说一个任务时间过长的话,他有可能被杀掉,所以任务就 终止了,而且他甚至他都不会主动告诉你。那怎么去解决呢?现在有一种办法,就是用一个叫 t m u x 的工具来解决,这是个什么东西呢?你就可以理解,它就是一个不会被关掉的,在后台运行的这么一个程序窗口, 那在这个窗口当中你去调用 cloud code 或者 codex, 就是 这个逻辑。那让 chat gpt 给大家解释一下,就这么一个结构,我们 让 openclaw 去调度在 t m u x 当中的各个编程工具, cloud code x, gemini 都可以,说白了你就把它当一个人去用,它打开了多个命令行工具去写代码,就这么一个道理。 那这有个什么好处呢?第一, openclaw 的 这个上下文你就可以随时跟他交流了,因为他只是一个调度员,他不是原来那个写代码的人。 像之前如果他又要写代码,又要跟你回复,他要停下他代码的工作才能回复你,或者他在写代码的时候,他就没有办法回复你,因为他的绘画是一直在持续的。那怎么去用?也很简单,就直接告诉他让去安装 t m u x, 并且安装这些命令行工具,然后让他把授权的链接发给你,你在本地授权之后把 code 给他就可以了。 那你也可以让他定时的去检查这些命令行工作的进度,汇报给你,并且最后让他去审一下修改的代码,如果他们有任何的讨论, 让他们自己处理,处理完讨论一致之后把结果汇报给你。所以这是用 t m u x 去解决 这种长时间的编程任务的一种办法。那给大家看一下,目前我有个任务还在进行当中,那在这里你就可以看到他在改哪些代码,他都会告诉你。好,大家可以去试试。

这期视频,我们聊聊怎么用 cloud 控制智能设备。控制智能设备,最关键的一步是拿到设备的控制权限。以小米温湿度计为例, 你想获取它的毒素,但小米并没有开放这类的接口,你很难获取。那怎么解决?这个时候, home assistant 就 派上了用场。 ha 是 一个开源的智能家居平台,它专门做了各大平台的设备集成,支持米家、苹果、 homekit、 涂鸦等一系列的主流设备。 它帮你把各个设备的协议进行的统一,你只需要授权给 ha, 就 能通过 ha 的 接口访问和控制所有设备。所以,而 oppo cloud 的 对接, ha 理论上就能通过 ha 控制所有的设备。但实际跑起来,问题很快就来了。我发现 oppo cloud 的 经常会遗忘我们对接的 ha 什么意思? 假如我问他房间的温度是多少,他不是去温湿度计去读取数据,而是走天气接口,甚至连地理位置都不对,这很离谱,对吧?在 open log 的 架构里, agent 采用的是 react 模式,先推理再行动。 当用户问温度是多少时,模型会先思考我该用什么工具。但问题来了,他并不知道自己有哪些设备可以用。 你说使用 home assistant 查看房间的温度,它能正确获取,但不加 h a 的 这个条件,它就开始自由发挥了。所以,当用户问温度的时候,模型一推理温度,我可以通过天气的 api 来获取,这并不是我们想要的结果。 而且在 h a 里面,一个设备往往会被分为多个实体,不同实体可能有类似的功能,这就更加容易造成查询的混乱。 那怎么解决?我想到了一个思路是,与其让 opcode 记住设备,不如让设备自己生命能力。 具体的做法是把每个设备分装成一个独立的 skill。 每个 skill 其实是有两部分核心内容的,第一部分是描述用自然语言告诉 agent 这个 skill 能做什么。第二部分是实现具体的调用逻辑,比如调用哪个 api, 跑什么脚本, 都不可傲的知道温湿度计是一个 skill, 并且他描述是读取温湿度的数据,他就明白用户问房间温度时,我就应该调用这个 skill。 而且根据 astropic 对 skill 的 设计, skill 的 使用是渐进式频读的。传统的其实是做法是把所有的信息一次性塞给大模型, 几十个设备偷看很浪费不说, aint 也容易被批量的信息搞晕。渐进式频读的好处时不主动加载所有 skill, 先用 skill 的 描述信息进行筛选,在需要时才动态加载 用户用温度才加载温湿度计的 skill。 问 pm 二点五才加载空气净化器的 skill, 这不仅节省 token, 还 a 技能的决策更加精准快速。 但如果我有十个二十个设备,难道手动一个个注册 skill 吗?这也太不优雅了。于是我又把这部分逻辑封装成了一个 h a manage skill, 由它来控制管理所有的子设备。 h a manage 的 核心能力有两点,第一个是自动发现设备, h a manager 会调用 homeworks 的 a p i 拉取所有的实体,然后根据设备的 id 将多个实体合并为一个设备,自动解析每个设备的能力。 第二,它自动生成 skill, 它会根据各个实体的功能自动生成对应的 skill 描述文件。这样的设计好处是不需要为每个设备写 skill, h a manager 根据规则和设备信息自动生成对应的 skill。 为了方便管理和共享,我为设备的 skill 单独建立了一个仓库, 这里有一个优先匹配的设计精确匹配模式,比如小米温湿度计。仓库里有这么一个 skill 模板,就用匹配的专用模板直接下载 skill, 后续 skill 有 优化迭代,就可以直接同步更新。 第二是动态生成兜底。假如没有匹配到的模板, h a manager 会根据实体的功能,结合预设的规则模板动态生成 skill 描述。说了这么多,那我们一起来实战一下吧。 安装过程呢,很简单,直接把 github 的 仓库地址发给 opencloud, 跟他说安装 opencloud 会自动根据引导完成配置,它会让你先输入 h a 的 访问地址和长令牌的 token。 整个过程呢,不需要手动配置任何设备,完全是自动化的。 我们来测试一下它的效果,现在房间的温度是多少,可以看到它能准确地找到设备并获取读数。 测试一下它的控制能力,把空气净化器开大一点,它很智能的将风扇调到了更快的转速。这就是我一点零版的 opencloud 的 设备控制方案。 核心逻辑其实很简单,设备不是被管理的对象,而是被声明的能力。把设备封装成 skill, 解决了一进的遗忘设备的问题,从而 h a manage 的 自动发现加动态生成,降低了多设备的管理成本。 当然,这个方案也可能有不少的问题,有不少的优化空间,权当抛砖引玉,期待和大家一起探讨更多的可能性。项目的具体地址呢?我已经放在了我的主页,如果你对 ai 自控感兴趣,欢迎关注我,我是习特胡,我们下期见。

之前一期视频我测试了 mini max m 二点五,在编程和 a 的 场景下,相距于上一代模型提升明显,那现在 mini max m 二点七来了,而且我已经把它接近了我每天都在用的 open cloud 龙虾里面。这一期视频我们就看三件事情,第一个 接入到 open cloud 中,它的 a 进的能力到底涨了多少?第二个的话它的编程能力提升明不明显?第三个自媒体 a 的 内容的内容,它到底有没有一个质变好?下面我们看一下把它接入到 open cloud 中的一个任务测试, ok, 第一个任务的话是测试他的一个信息采集加结构化输出,让他去搜索一下这一个 mini max 二点七的一个最新消息,按模板输出要考验他的一些搜索能力,信息筛选能力, 以及最后能不能严格的去搜索到我们指定的一个格式。这块的话,评分的维度主要是看他的一个正确性,完整性,以及他的一个格式遵循,也是跟 mini max 二点五去做对比哈。那第二个任务的话是一个模糊指定加工具选择,那具体的任务是这一个 主要去看它能不能去要用到我们这个 bird skill, 以它的意图推断准不准确。第三个的话是测试它的一个多轮对话,加一个上下文记忆。好,下面我们来看一下我们是怎么测的。 我这边的龙虾配置有三个机器人,第一个是我的贾维斯,它主要有 gbt 五点四跟 cloud op 四点六驱动呢,还有我的开源雷达,主要去负责 帮我去监控一些开业项目的信息,它是有 mini max m 二点五启动的,还有这个挖掘机,主要去挖掘 x 平台上的一些新鲜的 ai 资讯信息,以及我想收集的一些纹身图,纹身视频的一些提示时。那这一次的话,那我这边的话是用我们的主控 a 镜呢,让它去做我们的这一个龙虾的测试, 让他去帮我们先配一个 mini max m 二点七的一个模型,同时让他在这一个开启三个 sub agent 的 一个 setting, 让他配置 m 二点五,让他分别去跑三个任务。第二个的话是让他配置 mini max m 二点七,同样是三个 setting, 然后去模型设置成这个 mini max m 二点七。那采集这一块的话,我们都知道龙虾这一块,它会把我们所有的这一个聊天记录转录成一个节省 l 的 文件,所以说对于我们 三个任务在两个模型上的测试,它是会有六个 c 形文件,那我把 c 形文件拿到,就能看到它整个的一个完整对话工具调用的一个情况,以及它的一个申请的一个过程。 我们把龙虾整个对话抓完之后,我们就可以把这所有的 c 形文件给它喂给 cloud code, 也是通过龙虾让它用 a c p 去调, 调完了之后我们给了他评估的一个 prompt, 那 这个时候他就会去把所有的评测结果给到我们。好,下面我们来看一下他的一个跑完的结果情况,可以看到我把这个龙虾的一个原始记录,让他给我挡不出来一个 zippo 包了,哈,我把它下载下来,可以看到这边有三个 mini max 二点五的一个申请记录,这边有 mini max 二点七的, 那我们就是让 cloud code 帮我们去把这六个申请文件全部去做理解,然后去做分析,最终得到一个结果。下面我们来看一下整体的一个评分情况。 mini max 二百二点七,相较于它上一代, 不管是在信息采集、模糊指令以及上下文记忆这一块,在龙虾里面的表现都是相较于上一代提升非常的明显,整体平均分可以看到还是多了蛮多的。那这一块的话,我们给他一个总结,就是他的一个指令遵循更加的严格。速度这一块是相较于上一代更加快了,快非常的重要。在龙虾里面, 我用国外模型最大的一个痛点就是它比较慢,它的推理,那我用国产的 mini max 的 话,就是速度很快,速度快有什么好处呢?对于我那两个机器人哈,它是需要去快速的去帮我监控一些 ai 新闻的,比如说国外的模型发布,国内的模型发布我希望第一时间得到,那这个时候速度就有很大的优势, 所以我们这个结论在龙虾上去跑迷你 max m 二点七,它速度提升明显,并且指令追寻比上一代更加的明显,那这个带来什么好处呢?因为龙虾这一块它的提示词非常的大,所以说它要求你模型的能力要在线, 并且大家都知道它非常的耗托肯,之前我测试过按 api 计费用, cloud 四点六,它跑了我大几千万的托肯,耗了一差不多快一百美刀吧,当时我记得, 所以说你要追求一个性价比,并且速度快的话,它是真的是一个非常不错的选择。好,下面我们来看一下编程实测,那这一块的话也是基于我之前几期视频有去测试国内国外的一些模型哈,也是两道编程任务。那第一道的话是我们有一个谷歌认证以及 github 认证的一个项目,让它去迁移到我们这个图片生成 a 镜的项目里面来, 同时再让它补一个落地页。那第二个任务的话是一个终端变网页的项目,我手里有一个 skills agent, 它是命令行的,我希望把它做成一个外部聊天界面,希望它保留 syncing 工具调用以及流逝输出。那这块主要测试它的一个权重能力嘛?好,下面我们去开始实 测,对于我们刚那两个任务,它的一个功能完整程度, 以及它的一个 u i u x 的 一个交互。第二个的话是我们把它所有代码提交了,跟以往的 codex off 四点六以及 mini max 二二点五去做 code review, 让最顶尖的模型我用的是 off 四点六以及 gpt 五点四 codex, 让它们去分别去 review 这所有代码,最终得到了这个评分。 从结果看的话,它这一次相较于上一代有提升,但不是特别的明显。那这一次的话它在任务二上的一个表现哈,会相较于上一代 m 二点五提升比较明显。上一代有会有一些消息重复的 bug, 这一次它都修掉了。那第二个的话是它的一些缺点哈,就是它这个测试代码其实还是比较少, 上一次也是这样子,就是说你写完代码,你需要写一些测试代码,然后,然后来保证你的一个功能输出嘛?好,下面我们开始下一个评测之后,我们就会把这个 mini max 二点七以及二点五都接到我一个自媒体内容分析的 a 镜头下面,去看一下整体的一个表现情况怎么样,我们开始测试。 好,我们来看一下整体的一个结果。在速度方面的话, mini max 二点七比上一代又快了一截哈它,并且它首轮的这一个反馈更加的及时更明显。 那上一期的这一个 m 二点五相较于 m 二点一已经快了不少了,这次又往前退了一步。那在拆解深度这一块的话,这次最大的惊喜是我把同一个视频丢进去,那 m 二点五给我的是一段诊断总结,这个视频讲了什么,节奏怎么样? 那二点七的话直接是按这一个 s r t 时间戳去拆啊,几分几秒,讲了什么,用了什么手法,为什么有效,力度完全不一样,这是真正的一个时间轴的一个拆解, 那 mini max m 二点五的话,从我们的这个测试任务里面它是没有达到的。那第三个的话,在表达真实感这一块, m 二点七更像是有人在给你去复盘这个视频,然后措辞更加的接地气, 逻辑的话更像人话一样。那这两个拆解深度跟表达真实感不是我人为主观的去感受的,而是我把它所有的输出的结果拿到 jimmy 来跟下载 gpt 上,让他们去 review。 好, 下面我们来进行一个总结。在这个龙虾的场景里面哈,这一次 m 二点七 升级明显,他整个评分在指令遵循、工具调用、准确性这一块提升都特别明显,而且速度叫上一代快了很多。那第二个在编程场景这一块的话有进步,但还需要去补课,跟国外的这个模型还是有一些差距。第三个的话是我在这个自媒体 a 技能里面去接了 m 二点七, 这次的话能感受到他相对于上一代拆解的更深了。好,这就是这期视频的所有内容,你想看哪个模型的评测?在评论区告诉我,我是阿江,我们下期见。

给大家分享一个我踩的一个坑,就是在 openclaw 里面,它虽然可以帮你开发代码,但是有这种大量的参考图的需求开发,我建议大家还是回到 ide, 自己把这些贴图在 ide 当中粘贴给 ai 编程工具,让它去开发, 因为它能够识别那些图片,但是在 openclaw 里面是很难做到的,为什么呢? openclaw 现在就我觉得两种编程的方式,一种是直接把需求告诉他,让他给你编码,但这种长时间的任务会被 openclaw 杀掉,所以我不建议大家去这么去做。 还有一种方法就是我昨天推荐的用 tmux 让 openclaw 当一个传话筒,真正的编程工具是在 tmux 里面去执行的,那这种就面临一个很大的弊端,它没有办法把图片传过去, 所以那边的编程工具他根本就不知道你要参考什么样的图片,因为他拿不到图片,所以我觉得在 openclaw 里面让他帮你去写代码的话,更合适的是那种不需要大量 ui 界面的 需求,如果需要更改大量的 ui 界面,并且需要基于参考图来开发的情况,我建议大家还是回到 i d e。 当然这是我个人目前踩的坑,如果大家有更好的办法能够解决这个问题的话,也欢迎大家在评论区告诉我。

火爆全网的 open cloud 养龙虾到底是怎么回事?分享四个独家的观点,感兴趣的小伙伴呢,一定要从头听到尾哈。第一点,这个龙虾它是怎么回事?它是怎么来的?最开始啊,在二零二六年的一月二十四号,上线了一个叫 cloud bot 的 一个应用,这是龙虾的第一个名字, 那么刚刚上线两天,因为收到了 astonropik 的 律师函,直接被改成了 motbot, 接下来在今年的一月二十九号这一天,正式改名成了 open claw。 这个龙虾的真是很曲折哈,从诞生之日起就连续改了三个名,满打满算不到五十天的时间。 论文到底是个什么东西呢?自从 agent 的 这个概念出现之后呢,在过去整整一年半左右的时间里,它算是 agent 的 一个巅峰。本质来讲呢,是一个可以调用底层的大语言模型的能力,可以调用上千种不同的工具,帮你完成日常办公,写代码很多很多事情的这么一个 智能体,也就是说,它不仅仅是一个单轮对话的这么一个语言大模型或者推理大模型,它是一个真正能够帮人或者帮很多的开发工程师,普通用户使用干活的真正的一个智能体。这就是龙虾的定位。第二个关键点呢,这个东西到底好不好用, 咱们先明确哈,龙虾好吃,但是很贵,什么意思哈?这个 opencloud 工具框架这么讲,百分之八十以上的能力来源于它底层的基座大模型,而它对于底层基座大模型的访问呢,是通过 api 调用的模式,那 那么 api 调用大家都知道,大量的消耗 tokens 哈,按照过去整整一个多月全球网友的贡献出来的信息,包括小赵说的实测,这里面会发现什么呢?这个龙虾它完成一次单条或者说一个单一的日常办公的任务。 咱们先不讲复杂的,什么构建应用啊,构建软件这种东西,就是一些日常的,比如说收发邮件呐,什么写会议纪要啊,帮你完成一些小作业,小代码。就这些日常,它的单次任务,基本上消耗的 tokens 的 数量知道能有多少吗?少则几十万个 token, 多则两三百万个 tokens, 这什么意思啊?说几百万 tokens 很多小伙伴没有概念,即使换算成咱们国内很便宜的算力,单次的任务基本上来讲差不多人民币 消耗个二三十块钱,复杂的任务,单次任务基本来讲就是要消耗掉好几十块钱。那么大家想想,你每天如果二十四个小时的养龙虾,所谓的养龙虾就是你的龙虾一直在干活,一直在调用 a p i k, 一 直在消耗海量的 tokens, 比较精准的计算哈, 每一天的人民币的消耗,轻量级的差不多一百块钱,重量级的差不多得达到两三百,这是一个普通的用户他能够支撑的这种花销吗?我们一直在说使用 agent 呢,是为了降本增效,这个本肯定是为降下来效率增没增上去还要打一个大大的问号。 所以说呢,这个 opencll 呢,即使我们先不去评价它好还是不好,大家一定要注意,因为很贵这件事儿背后其实会限制它的很多应用场景。那么要给大家分享的第三点呢,就是关于 opencll 这个工具现在在 b 端的应用到底能不能落地?敢不敢用?直接上答案哈, 不敢用也没法用,为什么呢?因为 tob 的 这种企业级的项目的开发,关键的点啊,咱们就是抛开这些技术层面的东西,它要具备什么呢? 包含比如说数据的隐私性、合规性、可审计性、可回溯性这几样东西。说白了,现在的 openclaw 基本来讲都是缺乏的, 当你把企业级的应用交给 openclaw, 它拥有了一个最高权限之后,网上有各种各样的新闻,对吧?就一个公司的这个 ceo 加 cto, 它们公司一百九十四万行生产环境的代码、数据和备份,连快照都被 openclaw 一 键清空了, 整整三年多的线上的这个最宝贵的数据全都被清空了。那么这种东西你放在企业级的应用里边,企业里边的这些客户,他们的私有的数据, 或者他们的个人的这些账户,整体而言交给 opcode 是 非常非常可怕的。所以说弊端应用当前全球范围内可以很负责任地说,都是处于一个观望状态,大家根本不敢用,而且在可预见的未来也不敢用。 接下来呢,分享第四点哈,就是这个 open cloud 在 c 端怎么样?大家注意啊, c 端一,我们要面临 tokens, 非常贵啊,龙虾非常的贵,很多人其实说白了,你养龙虾养不起,这是一个非常关键的现实。 第二点呢,你个人的电脑敢不敢把最高权限付给这个所谓的龙虾?大多数的人也不敢呐,你个人的电脑里有你个人的 隐私,你的照片,你的一些特定的办公数据,学习资料,这些东西在龙虾的眼里都是一视同仁的,全都是零一字母串, 全都是这种所谓的数字化的。这个编码,他是分不清到底哪个对你特别重要,哪个又不重要。而你一旦把很多的权限给到龙虾,他一旦放飞,对于你的伤害会非常之大。而且我们要知道, opencloud 这个东西呢,它本上来讲依然是一个薄来品,英文版的命令和中文版的命令经常会产生不一样的后续的效果, 底层的模型不一样。而且对于这个龙虾的工具呢,它原声是适配很多国外的那些应用和工具,比如说 g tab 呀, gmail 呀,迁移到国内之后,你国内的这些应用,很多时候它是没有一个直接的一个操作和访问权限的,整个数据链条没有打通, 整个的应用访问权限没有打通。那么这件事即使在 c 端,小赵是觉得现在呢,依然是为了给大家玩而用。他的未来呢,是应该保持一个 平和的心态,一个冷静的心态。很多人应该都记得当时 minnes 刚出来的时候,横空出世啊,对吧?很多人觉得,哇,新时代打开了,但是接下来又怎么样呢? 现在龙虾市场来讲也一样,他现在所做的很多的内容,很多的事儿,发几个邮件呐,浏览几个网站呐,帮你搜罗一点儿数据啊,整理一点儿文档,这些工作是个人他都能去干。至于降不降本,他肯定不降本,因为 tokens 非常的贵, 增没增效不好说,他帮你写了三封邮件,然后再删掉了三百封邮件,帮你整理了两篇文档,再删掉了。 呃,三个文件夹这件事都很难评估,再加上有一些小伙伴嘛,干脆就不知道,龙虾现在已经把他个人电脑里面的隐私都掏空了,他自己可能还一无所知。从这个角度来讲,小赵是觉得呢,龙虾代表了一个新技术的趋势,我们要以发展的眼光看问题, 尤其是你是一个专业的开发人员的话,龙虾这件事呢,你试验试验就行,企业里一半时候用不上。如果你是一个个人玩家的话,这件事呢,你可以适当的玩一玩,不要付给他太高的权限。关于 open cloud, 大家有什么看法都可以在留言区里面留言。

ok, 看到这个视频的朋友有福了,专为小白打造的 opencloud 龙虾的安装教程,主打一个解放双手。 这个时候可能有朋友问了,哎,为什么针对小白啊?无它,因为有流量,请允许我暂时做一波流量的。首先 opencloud 的 这个龙虾,它算是一个 ai 产品吧, chibi gmail 是 不是也是 ai 产品?所以我们想安装它非常简单,直接去问 ai, 但是你直接去问的话,他没法操作你的电脑,不是很烦吗?所以我们需要一个中介,直接在你的浏览器上搜索 ai 编程工具,不管使用国内的还是国外的都可以。 我这里简单举个例子,比如说字节的 tree t r a e 或者是阿里出品的 q 的, 你来到他们的官网,直接点击下载,就是在你想要安装龙虾的这台机器上下载一个 a i d e。 我 这里因为电脑上刚好有 tree, 所以 就用它来演示,然后点击右上角的登录这里呢可能会让你输入手机号进行注册,你注册一下就可以了。 登录之后呢,我们就可以开始安装了,然后我们点击这个,打开文件夹,去选择一个路径,比如说我这里新建一个文件夹,嗯,龙虾, ok, 我 这里呢只是给大家演示,你可以取任何的名字点击打开, 这样呢,我们就进入了这个文件夹里,所有的操作呢都会在这个文件夹里去进行。然后我们来到右边啊,直接让他搜索 opencloud, 然后在本地帮我安装他,然后我们直接回车 这里,我们可以注意到他是在沙盒中安装,那这个不是我们想要的,在沙盒中就比较麻烦了,直接在本地安装拉去远程项目到本地不要沙盒, 因为他在沙盒里虽然安全,但是我们后续添加技能的话是没法去正常调用的。在这个过程中他会询问我们很多次,让我们给他允许,不然的话他没法去运行这个命令。 ok, 好, 已经全部拉了出来,大概过了一分钟左右就帮我们构建好了。下面呢,需要我们配置 api key, 就是 你想要你的龙虾接入什么模型,你去聊天的时候用什么模型来进行处理。它是建议我们手动去配置,因为涉及到敏感的 api 信息。那如果你完全不怕,你可以让它帮我们来配置, 那比如说我想接一个 deep secret 的, 你帮我配置,我用 deep secret 的 api, 然后直接发送给他,我们选择第一个填写 api key, 然后下一个,然后把你的 api key 粘贴进去提交。那这个 api key 应该怎么获取呢?你也可以直接问他,他会一步一步的教你怎么去获取, 他干嘛呢这是?跟卡住了一样,我们直接给他中断,你干嘛呢?帮我安装运行。 ok, 现在已经成功运行了,我们点击打开一下,啊,这里有一个错误,我们把这个复制,然后在盖栏这里粘贴到网关令牌这里连接好,这个时候就正常了,尝试一下聊天。嗯,你好, ok, 有 问题复制一下,直接发送给他,说聊天有问题,让他来帮我们解决,因为 ai 相当于我们的外置大脑,有大脑为什么不用呢?我们必用, 现在他说已经修复好了问题,我们再次尝试好,可以正常回复好,这个是没有问题的,现在安装就已经基本完成了。如果你想要让他做更多的操作,你得教他,你可以做什么? 他这里列出了非常多的能力, ok, ok, 让他帮我们安装一些好用的技能, 我这让他停止现在的 opencloud, 因为我怀疑他运行在沙盒里。然后让他给我一个在本地可以启动的命令,然后我们直接点运行, 这里呢,出现了错误,我们复制一下,粘贴给他占用了,我们先清理一下,然后再次运行,我们刷新, 这样就正常了。我给他贴了一个路径,让他在这个路径下创建一个游戏, 我们看一下这他创建的,而且就是我们指定的位置。如果你在安装过程中出现了错误,你就给他复制截图, 然后发给 ai, 让它来帮你修复。需要注意的是,如果你使用的是自己的 tree, 你 会发现它更新了之后,为了安全,它的命令都运行在沙盒里。所以当我们测试完毕之后,你就要像我这样让它把这个给关闭, 然后给我们一个启动命令,我们点击运行在我们的终端里去直接打开它。整体操作下来应该是没有什么难度的。 以上就是本期视频的全部内容了,如果你遇到什么问题的话,可以在评论区进行留言,如果觉得本期视频做的还不错,或者对你有所帮助的话,记得一键三连点个关注。最后祝各位玩的愉快,我是端锋,我们下期再见!拜拜!

二零二六年了,如果你写代码还在按 token 付钱,那你的钱包真是在滴血。现在的 ai 辅助编程,随手一个虫购就能跑掉几十万个 token, 按量付费简直就像坐着计费器疯狂跳表的出租车,看着心慌。为了抢开发者,国内各大厂商终于卷出了包月套餐。 我已经帮你把字节、阿里、智铺、 kimi 等九家主流厂商的 coding plan 底细全扒干净了。看这张表,字节方舟四十元就能通吃。 deepsea 和 kimi 的 旗舰模型性价比极高,阿里云 q、 n 三的代码表现确实顶, 但你要小心他后续涨价。不过别急着掏钱,这些包月套餐里藏着厂商不敢说的限流陷阱和模型降至猫腻,一旦踩坑,不仅没提效,反而会拖慢进度。咱们直接看最真实的测评结果。看完了总表,咱们先聊第一阵营, 多模型聚合派这类套餐最大的好处就是灵活,一个账号能调好几家的旗舰模型。字节方舟是目前的头号选手,四十块钱一个月能同时用上 d、 c、 v 三点二和 kimi 最新版,生态兼容性做得最好。百度千帆也是四十块, 它的优势在控制台切换模型,不用改代码,体验很顺。如果你预算有限,无问心穷,直接把价格打到了十九块九,虽然偶尔不稳定,但作为 deepsea 思考模型的低价入口,依然非常能打。如果你写代码需要反复对比不同模型的逻辑,选这几家准没错。 如果你追求极致的性能,那还得看字眼、旗舰派,这三家都有自己的护城河。先说阿里云的 q 文三 max, 他的代码逻辑在国产模型里是独一档的,处理那种烧脑的算法重构非常稳。但提醒一句,很多人反馈他首月四十块只是钩子, 续费可能会跳涨。再看月至暗面的 kimi code, 这是目前的常文本之王。二五六 k 的 上下文是什么概念? 它能把你整个工程几万行代码一次性全吃下去。无论是改陈年老 bug, 还是理顺复杂的调用链,目前只有 kimi 能接住这么大的量,而且响应速度极快。 最后是智普 ai 的 glm 五,它的工具链整合做的最全,能,直接调用二十多种编程工具。唯一的缺点是太火了,经常显示缺货,想用还得看运气。这三家怎么选?看逻辑找阿里,看工作量找 kimi, 求全能,找智普! 买套餐前,一定要看清厂商的数学题,很多厂商宣传五小时能用一万多次,对吧?这就是坑。 这就像早期的那种无限流量卡,看着是不限,但只要你短时间内多看了几个高清视频,立马给你限速到断网。在抠屏场景里,如果你正在进行大规模代码重构,连续点了几次生成,系统会判定你高频异常,直接给你熔断。 社区里很多人的真实月上限其实只有六百到一千次。记住,厂商给你的数字是上限,但决定你体验的是那个看不见的动态调节门槛。 为什么有些平台的 db、 cv 三点二用起来感觉特别笨?那是因为部分聚合平台为了省钱,给你偷偷换成了量化版模型。这就像是把一个学霸的脑子精简了,普通的填空题他能做,一遇到复杂的逻辑大题就彻底翻车。更恶心的是兼容性封锁, 有的厂商会偷偷检测你的调用来源。如果你没用他们自家的 ide 或者官方插件,而是用的 open core 这类第三方工具,后台直接就给你报风险错误。 如果你发现自己的代码 ai 突然不听使唤了,先查查是不是被降至或者被定向封锁了。最后说个钱的事,千万别被那些九块九甚至四十块的标价给骗了, 那往往只是首月的体验价。像有些大厂的套餐,第二个月续费直接就能跳到一百多块钱。 订阅的时候一定多点开那个资费详情的小资看看,最好是先按月订阅,把它的响应速度和病发限制实测一遍,觉得好用再考虑长线,别一上来就被大厂的招牌给套牢了。最后帮大家总结一下怎么选, 看中性价比和多模型对比,闭眼入字节方舟或者百度千帆。如果你要维护万行代码级别的大工程, kimi 的 长文本能力目前是唯一解阿里老用户或者是 q one 的 死忠粉,选百炼就行。但有一点千万记住,不管你最后定哪家, 都别直接包年,先花几十块钱订阅一个月,在你常用的编程插件里实测一下真实的响应速度和并发症。别等大面积重构代码卡死的时候才后悔,听我的,实测完再考虑长期续费。

不懂代码的人,你让 ai 去帮你写代码,有可能会存在哪些血淋淋的坑?之前我从来没有发现自媒体博主去讲过这件事情, 那我自己搭建的这个应用就是用 ai 来做品牌级的物料,已经打通了用户登录、数据存储啊,支付等等环节。我们先关注一下我都花了多少钱,其实就只有三个大头。第一是我的这个窗口 now 是 最贵的一档两百美金 一个月的,给大家看一下我的付费记录,我一开始买的是二十美金的额度,就先试试,也不一定真的上线了,然后就开始噗 呲噗呲开始搞代码,到二十四号买二十美金的额度不够用,很快下午又买了四十美金。大家就知道说,你真的要搞上线的时候,额度的消耗有多么的快乐,我预估总消耗应该会在五百万 t 肯左右。如果你很认真的对待你自己的这个应用,想要上线部署,就直接一上来就做两百美刀的额度吧,挺划算的。 接下来呢,我认为也是非常重要的一些部署过程里面遇到的 bug, 如果这个命令我不能理解,我就会回到 google 的 ai studio 里面跟它去交流。这个长对话我主要使用的是当前谷歌最新的模型 jamming 三点一 pro preview, 它的计费模式二十万 token 以下, 它是输入两美金,输出十二美金,二十万以上就是输入四美金,输出是十八美金,我的这个到八十五万了,所以现在我的费用又是最贵的,光这个对话大概就值一百美金,哈哈, 但是我觉得非常的值,因为你一百五美金,你连程序员你都请不到对不对?但是他会一步一步告诉你要发什么命令去处理你当下的问题。很详细,基本上其实你只要复制粘贴就可以,但是这里面有一个 bug, 我 猜我 浪费了两百美刀,很冤大头的部分了。这是第三个 api 调用的费用。这儿也是像我这样不懂代码的人用 ai 去编程,最容易当冤大头的部分, 一是 a p i 的 泄露被盗用的问题,第二个就是 ai 可能会写一些让你的钱包破产的代码,但是如果你根本都不知道,你就会收到像我这样子的巨不正常的超额账单。 比如从二十七号开始进行部署以来,整个我的 d p i 的 消耗从一号、二号就开始稍微降下来了,那为什么前几天这么高?我们主要看有颜色的。这里有个很诡异的点,就是这个 image input, 大家有没有发现第二个 居然花了二十美金。谷歌里面你每上传一张图片,它其实固定的收费只有几美分,如果我花到了二十美刀,说明我在今天是上传了至少上万张图片,想想都不可能哦。然后这个费用的 bug 来自于哪里呢? 其实就来自于程序他自己给我写了一个类似于滚雪球的代码。比如说我上传了图片,他在第二次向 a p i 发送命令的时候,会自然地把我前面的图片也给 a p i, 所以 这个命令里面的图片数就越滚越多, 最后就变成了一万多张。那所以这里想要和大家提醒的,因为我知道现在很多朋友都在尝试 open cloud, 大家都在吹全自动怎么很厉害?但是我如果当你对于部署一个产品可能存在哪些风险?比如说 a p i 都泄露的风险,如果你不了解,你的钱包真的会破产, 只有你真正去了解一下,那至少今后你们再去 open cloud 就 不会变成是被 ai 牵着鼻子。那还有应用的成本 的把控,用户体验优化,甚至包括页面响应速度,这些全部都是我们可能做一个 demo 的 时候你不会去考虑的。如果你想要和我一起交流 ai 在 营销领域的应用,请留意评论区,我们下次分享见,拜拜。

我是一个完全的编程白痴,而且我英语也不太好,然后分享一下我自己学习 ai 和使用 ai 的 一个过程,希望对你们有所帮助啊, 然后每次我都会就回复你们的问题啊,你们遇到什么问题可以问,然后这个宝子说特别的稍 tokin, 其实你不要听网上说啊,其实,嗯, 我们一定要去真实的去体验,包括现在很多人说这个小龙虾怎么怎么样,鸡类啊,怎么怎么样都无所谓,我们真正的要去体验一下,他毕竟是一个新东西出现,要去体验啊,适当的跟风给你们看看。嗯,真实的一个操作流程和烧的一个头啃 我一个叫个人聊天是无限进步的小王个人聊天一个,建了一个那个公众号的测试群就是,嗯,飞叔在小龙虾在里面,还有一个就是视频的啊,视频的在这里面,然后我接下来用视频的形式让他生成 啊,给你们讲解偷看,我不讲,让他们来讲,就是用视频啊,让 ai 来回答他,你们看一下少多少钱,好吧, 我也不知道行不行啊,我跟他说很多人说小龙虾很少偷看,我回复这个问题,请你通过进龙信息获取 ai 知识回复这个管理,让大家真实的去体验这个 ai 我 们可漏的使用性,生成一个三十秒的讲解视频,用我的声音去克隆文字,配音要有剪辑,我也就随便说一下啊,看他如何去操作啊。 然后这个大模型用的是 dbic 的 啊,便宜啊,国内的便宜啊,国外用不起,本来我在学习嘛,重在体验,然后我五十一点三五啊,这个本次消费本月收入十块九,咱就算十一块好吧,然后看看如何 好。他已经开干了,我这个无限进步小王已经开干了啊。嗯,他说帮我讲解视频啊,很好哔哔哔哔哔哔哔哔哔哔哔哔哔哔巴拉巴拉的啊。三十秒然后配音使用我克隆的声音需要你有。嗯 我也不知道有没有啊,反正我前段时间给他配了一下音,然后告诉他生成如果找不到我的声音就用 ai 去代替,必须完成这种视频啊。 视频已经剪辑好了啊。剪辑好了呃。然后位置在这里我直接去那个云端可以获取位置,同时好像也可以直接给我我试一试啊,他会提供 找不到他给我这个文件这个链接啊,输我也不想输了。我让他直接分享给我啊,直接用分数分享给我。哎视频啊看了这个咱看看怎么样啊。他写了一个飞书文档然后放了视频在里面。挺有意思的啊, 是个小狒狒啊。因为我没有给他具体的方向,我是直接让他生虫的,我觉得应该给他特定,但是这个文案写出来了说的是英语, 可能我需要给他特定的环境,不过还不错啊,起码是那个意思。然后我们来看最终的 token 值啊, 大概用了一块五,然后我问了他很多的事情啊,其实这个过程问了很多,你看说成视频这咱再把它处理对吧啊其实这很多只烧了一块钱啊。嗯他视频没说真话,我觉得是因为我的原因,因为我没有长时间去训练他啊, 并且的话没给他特定的一些文案还有我没有把我就是我的声音,我的数字人,这些模型,这些技能,这些 api 的 一些地址具体给了他,我只让他充分去发挥 啊。他有很,他有很多的权限没有达到,这些都是我慢慢去要去养的。这就网上为什么说养龙虾,但是你会发现这个视频他真的剪出来,而且并并且发给我,而且文字配的确实那个意思,对不对啊?才烧了一块五,你觉得划算不啊?我觉得还行,需要慢慢养。

哈喽,大家好, opencode 之所以能火啊,能让普通人也能靠它省时省力的做事情,核心在于它有三大核心能力, 尤其是第一个让不懂编程的人也能直接用。那么我们今天来介绍一下它的三大核心能力。第一点呢,就是小龙虾,它可以自己去写代码,造工具,比如说你要提取一百个文档里的关键信息,不懂编程怎么办呢?这个时候你只需要给 opencode 下一个指令,它会自己去写对应的 python 脚本, 在写完了之后,然后他会提取对应的信息,提取完了他会把对应的这个脚本给删掉,不会让这个脚本占用电脑的空间,这就是所谓的免洗工具,也就是说我们用完就可以扔掉了,对不懂编程的小白特别的友好,也不会占用我们电脑的一个运行的空间。 第二点也非常的重要,它能够拆分任务去生成紫黛里,而紫黛里听起来是一个新鲜的概念,但实际上并不是特别的新鲜,就是在于让 omgala 这只龙虾它会生小龙虾, 也就是说他会去外包工作,比如说我给 openclaw 下一个指令,让他去写一个行业分析报告,这个时候他可以去拆分成若干个外包来进行去做这件事情。第一个小龙虾他会去搜集对应的数据,第二个他会写对应的内容,第三个他会排版的美化 不同的小龙虾,去做不同的事情,分工协做,而会使这个任务做得更好。但是请注意的是,我们可以去设计让小龙虾不能再生成新的小龙虾,因为这会避免无限的套路啊,否则这个事情蹭蹭外包出去就会没人干了。那么第三点呢,在于 open globe, 它有 skill 技能。 所谓的 skill 啊,其实就是工作的 sop, 标准化的操作流程,就相当于是一个任务的手册。比如说我们让 openclaw 去查文献对应的 skill 呢?它会去安排好你应该怎么样去查文献,怎么样提取信息以及怎样的排版。 而 openclaw 在 社群里面有非常大量的 skill, 而这些大量的 skill 就 指导着它该怎么样地去做事情。 那么 openglola 既然有这三大核心能力,它可以一直帮我们干活吗?它可以一直运行,那这一直运行的话又会不会很烧钱呢?下一次我们来讲解一下 openglola 的 非常核心的心跳机制和上下文工程,教你 ai 如何帮你打工,记得不要错过哦!

你们等了这么久的 open cloud 净化指南终于来了,今天我带你从残血到满血,一条视频全搞定!先说一个残酷的事实,你装好 open cloud 之后,它其实是个残血状态,默认只有二十五个工具,记忆系统是瞎的。每天烧五十到一百美金 a p i 费用, 就像你买了一辆跑车,但是只开了一档。今天我教你怎么把它开到满血。第一步,安装你需要三样东西, 一个代码执行器,比如 tray 或 cursor, 一个大模型 api key。 推荐 minimax, 最省钱,一个飞书机器人,让 openclaw 能跟你对话。具体怎么操作?打开 tray, 新建文件夹,然后把我给你准备好的安装提示词直接粘贴发送, tray 会自动帮你完成百分之九十九的工作。 安装提示词我放在评论区置顶了。装好之后,第一件事,解锁满血工具默认的 coding profile 只有二十五个工具,发一句话给 openclaw, 帮我把工具权限从 coding 改成 full profile, 它会自动执行两条命令,三十秒搞定。解锁之后,你的龙虾从残血直接满血,所有工具全部可用。第二件事,也是最关键的记忆系统进化。 默认的记忆系统有一个致命问题,它的长期记忆是瞎的,它能记住你说过什么,但搜不到。就像你有一个图书馆,但没有锁影系统,怎么修?安装向量模型, 发一段 prompt 给 openclaw, 让它自动配置本地嵌入模型,推荐用 embedded gemma, 三百 m, 又小又快,免费运行。 配置好之后,它的记忆就从残雪进化成了完全体,支持语义搜索,支持关键词加向量混合剪索跨绘画,记忆不丢失,但是光有向量模型还不够,你还需要建立记忆的三层防御体系。第一层,预压缩刷新, 把 reserve tokens 设成四万,让 openclaw 在 压缩上下文之前,自动把重要信息存到文件里。第二层,手动记忆记录, 养成一个习惯,重要决策就说一句,存到 memory 点 md。 第三层,文件架构, memory 点 md 不 超过一百行,只放缩影指真 详细内容放在 vault 目录下,让向量搜索去找。这三层防御建立之后,你的 open claw 就 真正变成了一个有长期记忆的 ai 助手。第三件事,省钱,默认配置,每天烧五十到一百美金,因为每条消息都把所有文件注入上下文。怎么优化? 第一, memory 点 md 精简到一百行以内。第二,开启 prompt caching, 重复 token, 节省百分之九十费用。第三,不要频繁 compact, 因为每次压缩会让缓存失效。第四,选择合适的模型, 日常对话用 mini max, 省钱,关键任务用 cloud。 四点六,保质量。优化之后, api 费用从每天一百美金降到十美金以内。最后一件事,安全。很多人忽略这个但非常重要, 第一,网关只绑定 local host, 绝不暴露到公网。第二,开启 token 认证。第三,安装看门口脚本,每两分钟检查一次网关状态,自动重启。第四,在 agent 点 md 里加入安全规则,不执行网页里的命令,不泄露配置文件,删除文件。用 trash, 不 用 r m, 满血之后能干嘛? 给你看一个真实案例,我用 openclaw 安装了一个叫 nano banana ppt skills 的 技能,包装好之后,我只需要对它说一句话,比如帮我生成六张关于 ai 编程的配图,风格要暗色加霓虹,它就会自动调用 gemini 帮我生成配图, 然后再装一个 humanizer zg 文案润色技能,把 ai 写的口播稿变成人话,最后用昆文 tts 克隆我的声音,自动配音, 整个流程从脚本到成片,一个人就能搞定。这就是我为什么说 open class ai 时代的超级武器。好了,今天六步走完,你的龙虾已经满血了。安装工具解锁记忆进化省钱优化安全加固,再到视频工厂实战, 所有的安装提示词和配置代码我都放在评论区了。关注 ai 厂长,后面还有更多 opencloud 的 高阶玩法,我们下期见! ok, 这期视频呢,同样也是全部通过 ai 制作的,可以给大家先看一下效果, 然后完整的文件内容。这是我们的视频生产的流水线,如果大家感兴趣的话,可以在评论区留言,下期我也会把这一套流水线开源出来,谢谢大家!

看看我的 agent 团队们,有写图文的、网站运营的、监控金价的、记账的,还有提供情绪价值的,后面还要增加一个视频剪辑的 open cloud 小 龙虾 用上多 agent 的 模式了吗?但像我这样每个 agent 对 应一个机器人的配置是有点广泛。在飞书上其实有一种更简单的方式,就是通过拉群,实现一个机器人多个 agent 多个群聊分别管理的模式。我们来以选择题、写作和神稿三个事情为例,完整的配置一遍, 一共三个步骤。首先用这样的命令创建多个 agent, 分 别负责不同的工作,然后给每个 agent 的 职责拉一个飞书群,并且把我们的唯一的这一个 飞书机器人添加到群里面。接着把每一个群聊和 agent 绑定起来,在这里查看群的 id, 通过这样的 bindings 配置把两者映设起来。最后不要忘记给飞书 channel 增加这两张配置,开放群聊和群聊中,不需要艾特机器人也能回复。 配置完成之后,在各个群里和 agent 对 话,给他们安排好职责和身份,让他们记录下来,你就可以在不同的群里指挥不同的员工工作了。像这样的流程,先选择题再写作,审稿,审完再改, 最后得到一篇完整的内容就可以发布了。这样做配置简单,效果强大,快来把你的 agent 军团也安排起来吧!关注我,带你玩转 open club!

ai 真的 能改善我的生活吗?第二集,能不能让我在做家务的时候也高效工作?我给现在火到冒烟的 open cloud 定制了一套丝滑的语音操作系统, alexa。 我 在。呃,你看一下我 doc 文文件夹里面有我所有的这个签证历史信息,我需要你分析所有的历史上的这个签证文件,然后直接把我把新的 t r v 的 申请表格填好。那你首先看一下这整个链路是否会能够跑通,你自己操作的话有什么困难? tickle voice, 我 收到了 bobblebee, 我 在。你扫描一下我的 gmail 邮箱。我最近几天我们跟很多律师进行了沟通, 然后有些新的律师又回了邮件说他们的违约金。我需要你看看把他们的回复啊进行一个分类,就是有是第一个电话要收费的,或者是第一个电话不收费的,或者是说,呃,直接没时间的,或者推荐了其他人的。你分成几类,然后我逐一再告诉你哪一类,我们怎么回复。 tickle voice, 我 收到了 jovis, 我 在。你看看我们本地有个名叫 nature trail 的 项目,现在我们昨天应该是连上了这个 s p 两千的数据库。我还没测试过它是不是跟我们现在前端的这个集成呃,能够整合在一起啊,你测试一下 告诉我。杰顿, pick a voice, 我 收到了 alexa, 好 的, aaron 要基于新光签给全家申请。 t r v, 让我先看看文件结构和表格格式,评估整个链路能不能跑通。 now, let me check the t r v form i m m fifty to fifty seven to understand the format now, let me look at the previously filled jesse t r v form to understand what data was filled bumblebee 好 的,上次我们已经处理过一轮律师邮件了,让我扫描最近几天的新回复。 好的, a n 扫完了。以下是二线限时期之后所有律师新回复的分类整理律师邮件分类,二月十八日到二月二十日新回复类别一,已完成咨询加后续总结律师,我讲请 刚出门 a m c 而且限十八。打完电话发了详细的咨询总结邮件。姜伟,好的,艾瑞让我测试 s b 两节数据跟前的集成情况,我先看看像的现状。 好的,之前已经进入了 cd 两千并修了三个版,但对手还没亲自测试前端集成,让实际一起来测试一下。好,代码看完了,现在启动 sim 实际测试一下。测试完毕,如果你也想用,关注看下一期。

你知道怎么配置多智能体吗?也就是在你的飞书的客户端里,有多个机器人可以陪你聊天,而且呢他们还可以在一个群里边互聊。 同时呢,你的那个默认的机器人,也就是你最初配置的那个机器人,可以指挥其他的机器人干活。 这里边有三种写作模式,第一种呢就是点对点的直接通讯, 也就是说两个智能体可以在后台相互沟通,他们不依赖于非书的这个群主。然后第二种呢,就是非书群主内的写作,也就是你建了一个群主,把他们都拽进去,然后呢就可以在群里边沟通工作,分工写作。 这一切的前提条件是你的电脑上已经正常的运行了 openclaw, 不 管是乌班图系统,还是 windows 系统,还是 mac 系统,还是独立的 linux 系统都可以。 然后呢,你就要到飞书的开放平台去注册账号,然后呢申请到它的 app id 和密钥, 然后呢再给他添加权限,做一些回调。上一期视频我们已经聊过这个话题了,这里就不再赘述了, 这呢你就要根据公司或者你的业务诉求给他们划分岗位,每个智能体叫什么名字,然后呢他们的角色是什么,以及他们的核心职责对应的非输应用的账号。 再接着呢,就是要给它们创建独立的工作区域,但是不管你怎么创造,创建它们都在 核心的这个 openclaw 文件目录下。如果是 windows 系统呢,就是在 c 盘的管理账户下面有一个点 openclaw 这么一个目录,然后把所有的这个文件夹都建好。 接着呢就是最重要的一步来了,给他们每一个智能体都配上一个灵魂文件,也就是给他们定义性格,那这个性格文件呢,也就是对他们的一个约束了,他叫啥?职责是什么啊?甚至你看我还给他起了一个英文名字和工号, 包括他的核心职责啊,专业技能啊,同时呢一定要告诉他他的同事有谁,不然的话他会混乱,他会记不住。然后呢 还要告诉他一个写作的一个方法,就是当你需要把一个工作分配给他的机器人同事的时候,要用到这样一个工具,那这个工具是什么呢?就是下面的一个描述,就是他 要通过这么一个工具联系到那另外一个机器人的 id, 然后呢告诉他你需要做什么, 等到他的工作完成,并且呢收集到了其他智能体的工作结果,他就可以进行交付,所以整个的智能体协助的一个过程,这个 session 的 这个工具非常重要,一定要写清楚。 这里呢有一个解释啊,就是塞声散散的一个作用,就是找到目标的智能体 id, 然后给他发一条信息, 这个发回信息之后呢,还要得到他的返回信息,所以这个过程是所有通讯的核心逻辑。 后面我又给他定义了他的一些工作风格,就是不同岗位,你要给他一些职业习惯性的一些性格特点,这样他的工作的效率才会变高,才不会啰嗦。 汇总一下,就是每一个智能体的性格,也就是灵魂文件都要包括以下的这几点,从他的基本信息到他的核心职责,还有他的专业技能, 以及呢向他介绍其他的团队成员,包括他们的写作流程的说明,还有这个工具的使用说明,以及消息响应的一个规则。 当你给每一个智能体配置完成它的灵魂文件之后,我们就要进行 opencloud injection 这个文件的配置。 如果是 windows 系统呢,它是在 c 盘管理账号下面有一个文件夹叫点 openclaw, 有 这么一个 openclaw 点 jason 的 一个文件。 然后呢,除了定义它的主模型之外,还要给每一个智能体都定义它使用的模型。比如说 你用的是阿里的百炼,那么申请到一个密钥之后,你就可以选择阿里百炼里的不同能力的模型,对应不同能力的岗位的智能体, 或者说你在火山引擎也是一样的,申请了一个密钥之后,火山引擎里边有很多的模型, 我们一定要知道每种模型的能力都是不一样的,同样的你定义的这些智能体数字员工, 他们的工作岗位对智能体的对大模型的要求也是不同的,因此我们需要给它们配置不同的模型,让它们更高效的工作。 配置完它们各自的模型之后,我们还要解决啊智能体之间的一个通讯问题,就是这里边有一些开关要打开, 再接着呢,我们就要和飞书插件进行对接,也就是说这里要特别注明我们的所有智能体跟飞书的 一对应关系,就是这里要写上飞书的 id, 然后我们在系统里配置的飞书这个智能体的一个名称,包括它的中文名称等等。 到这里呢就有一些配置像也非常关键,他呢是一个是私信的一个策略,一个是群主的策略,然后决定了说他们在一个群里通讯的时候,需不需要被艾特, 那有的时候呢,你可能没有艾特,发了一条信息,这个时候谁来回复?是通过名字提及来回复,还是说你根本名字都没有提,这个时候应该是谁回复这个规则的问题。还有就是当你艾特他的时候,他会不会回复。 再接着呢,就是群主内的一个绑定关系了,这里特别说明一下啊,一个呢是叫群主绑定,一个呢叫账户绑定, 大家看一下这里的区别啊,有看的 group, 然后到下面的时候呢,这里就有一个 channel, 一个飞书,然后呢会有区别啊,这里就是 account id, 你 看这个跟群主是不同的,一定要注意这个, 这里的提示特别重要啊,就是每个智能体需要有两个绑定,一个叫群主绑定,一个叫私信绑定,也就是我说的账户绑定。那么还这里边呢,群主绑定主要是接收群主的消息,私信绑定呢,主要是私聊的消息, 这里边特别要注意这个东西的参数,千万不要去设置,否则容易出错。我已经试了无数次, 等到这些配置全部完成之后,你就可以重启小龙虾的服务了。那重启之后呢,可能会遇到各种各样的问题报错,比如说我遇到的问题就是 艾特了 a 智能体,结果是 b 智能体回答我,等到我艾特 b 智能体的时候呢,他又不吭声了,所以各种问题。那这些问题的话呢,我在视频里很难讲清楚, 也讲起来比较复杂,如果有需要的小伙伴请关注我,我通过私信的方式把文档发给你。

呃,最近新出了一个词叫古法编程,就是用手敲键盘的方式编程,叫古法编程。 ai 的 发展速度现在太快了,我估计过不了几年,这个古法编程就可以申请非物质文化遗产了。 哎,本来呢,我自己一直以为我自己可能会是科技领军人,结果硬生生把自己活成了古法编程记忆非遗传承人。 这个世界说不要你就不要你,不但不要你,还会嘲笑你。我们直播间嘉宾刘老大跟我说,以后在步行街敲银首饰隔壁的那个档口就是你的, 听了之后呢,还是心里还是有一种感觉啊,有没有跟我一样 掌握古法编程技艺的兄弟们,欢迎在评论区留言,我们抱团取暖啊,毕竟我们是非遗传承人,我们还是要有文化自信啊。

腾讯版 openclaw 来了,今天我们就来上手体验一下最新的 workbody, 尤其是最后大家比较关心的通过微信远程操作电脑的功能。我们先进入官网下载呢, workbody 之前这个产品其实叫 codebody, 顾名思义呢,主要是面向开发者。但最近 openclaw 爆火,为了避免大家误以为它只是一个程序员工具, 腾讯呢紧急改了名,重新上架了 workbody, 意思是你的工作伙伴,工作搭子。反正呢,最近 ai 圈呢都流行改名字,安装完成后呢,我们打开主界面,这里呢有两个入口,分别是代码开发、日常工作 对应不同的使用场景。和传统的 ai 对 话不同。 workbody 呢不只是聊天精神,它不仅能听懂人话,但脑子思考,还可以真正操作你的电脑里的文件,真正帮你把事情做完,并交付一个可验收的结果。 首先需要设置一个本地工作文件夹,就可以在这个文件夹里进行文件操作。然后呢,直接给他下任务,比如整理这个文件夹里的图片,按日期重进命名,或者下载公司的财报,并生成看板和 ppt 报告。 当你创建完任务后呢,左侧会出现任务列表,中间呢是对话区,可以实时看到 workbody 的 执行的过程。右侧呢是结果区,会展示任务的产出,比如生成的文件修改记录、文件预览,整个过程呢都非常透明。生成的看板呢和 ppt 呢,都能达到可用的水平。 你还可以选择接入不同的底座大模型,包括 deepsea、 kimi、 智浦 mini max。 接下来呢,我们来体验微信接入的功能。点击右上角头像,进入 cloud 设置,然后选择微信客服号即成。扫码绑定你的微信号,当然,除了微信呢,还支持 qq 飞书 钉钉绑定成功后,你的微信里面就会多出一个客服号,以后呢,你就可以通过这个客服号和 workbody 进行交互。此时呢,微信就变成了一个远程遥控器,在手机上发一条消息,电脑上的 workbody 呢,就会自动执行任务,执行完成后呢,结果会直接回到你的手机上, 这意味着什么?你不需要坐在电脑前,也能让 ai 帮你处理工作,比如上班路上呢,让电脑收集 ai 行业的最新动态,并整理好放到 excel 文件中。 wordbook 呢,接收到任务呢,就会立即执行,我们打开生成后的 excel 文件查看一下,其实还是 ok 的。 当然使用过程中呢,还是会消耗点数,不过目前公测期间呢,官方会赠送五千点,感兴趣的可以先体验一下。 那收回体验本身搜索信息呢,和处理文档的功能还是不错的,但生成图片和视频还是比较弱,并且由于权限问题呢,一些敏感操作呢,还是需要在电脑上手动确认的,比如外发邮件等。不过呢,微信这个接口一开呢,后面的想象空间就更大了。