你知道吗?两个 mac studio, 两个总监,两个 agent 帮我干活,这边还有四个备用的,这是一个什么体验呢?如果你说花费很大,那就没有价值了。你看我现在在电脑里面跑了这么多个模型,一个模型匹配一个它的专业能力,对应的一个 agent, 看看它能干什么? 你那些线上模型为什么你问豆包啊?他们总是给不到你想要的答案,主要是这个 a 帧你没有自己训练,这个东西放到你家里,你训练的所有知识都放在这里面,所以说让他帮你写一篇脚本, 他写出来的和线上模型写出来的完全不一样,因为他最了解你的业务,这些模型都是我自己训练的, a 帧的 skill 各方面都是优化过的,所以他给我的东西基本上非常好用,你看到的每一篇我的视频,基本上我全部用它搞定, 最主要你放到这个里面使用,没有一分钱消耗,当你开始跑的时候,他的风上疯狂的旋转,那样的话你的算力永远放到自己家里。 而且就算是你是工作室,三五个人同时用,没有任何压力,因为一个 a 键特匹配一个模型,内存再宽也不会被压占满,那样的话压力非常的小。我现在这四台就准备部署更多的 a 键特,那我一人公司用六个 a 键特可以搞定我所有的事情。 而且我上篇视频专门讲了这个千万三点五的量子的 ops 的 模型,这个是一个蒸馏版本,用本地的这个只需要三十左右 gb 的 现存,也就是说你基本上一个六十四 gb 的 max 九九可以把你的这个能力压在买 线下,基本上跑没有任何压力,而且他的智力水平比国内的很多模型要强很多,线上的你那一种在高峰时期你的智力还会被降至,所以说本地大件大模型,这个是未来的趋势。如果你有预算的话,搞个这个东西,弄个艺人工作室, 解决你现在团队绝大多数问题,帮你写文案,分析各种数据,多多做财务报表,帮你审核合同,这个东西完全够。 后期我会针对这所有模型给大家讲一下哪个模型适合什么样的业务。你大概了解完你就有个 ai 的 基础了。而且对于 opencloud 的 使用场景,我们适合工具调用的哪一个模型,以及我要创建一个 agent, 它适用于哪个模型,我都会给大家讲到这个价值非常大。
粉丝4204获赞7760

我的 ar 可以 自动给我做游戏了,全自动的哈,需要我们任何参与,你只要告诉他你需要做什么,他会自动给你创建文档,编成一体的。 所以说新的一年新的开始啊,全 ar, 你 告诉他需要做什么,他整理出来,告诉你需要做什么,需要我们自己去做,但是我们没有技术基础的人是完全操作不了的。经验不同了,零基础的小白只要花一天时间哈,可以让你的 ai 给你做任何事情, 编程,做网站,做程序,做游戏,尤其是我们传奇,做新地图,新新玩法的时候,你根本就不需要懂,你告诉他,他就全自动给你完成。让我来看一下,这就是我在自己的电脑上 搭建的一个 ai 助手,你只需要一台电脑,搭建好之后呢,你告诉他你需要做什么,他可以在你的电脑上 自己创造新的文件啊,自己搭建程序,然后编程写代码。这和传统的 ar 软件不一样,传统的 ar 软件是你需要做什么,它整理好之后, 把文档发给你,告诉你怎么去做,让你自己去实操。对于零基础的小白根本是操作不了的,但是我们这个 ar, 它可以自己创造新的文件,自己编程,自己把所有人做好,直至上线都可以完成。它可以做网站,做小程序, 做股票软件,任何你想要做的东西,他都可以给你完成。我本地电脑上有个幺七六的复古版传奇,现在很多玩家已经到了五十级了,装备到了次月了,让我们这个 ar 助手来更新,更新的装备,更新的地图,来进行一个实操,看他会怎么说, 他会分成三个阶段,第一个阶段是资源分配,看我们现有的资源和地图有哪些东西。第二个进行策划,提供五十级以上的成长空间,增加新的装备,然后 策划出了新的地图,新的装备。后面就是在编辑了,在我电脑上实际操作了,他会自己操作,不需要我们任何动手。那我们后期更新他会做的怎么样?我们陆续关注一下。

呃,我听朋友说现在爆火的龙虾阿芬可乐不就是自动化脚本吗?其实这句话一听起来没毛病,龙虾其实就是自动化脚本,而且非常智能,能够根据用户的需求自己去执行自动化操作。但是二者有很大的不一样, 第一就是自动化脚本,他是固定的代码,每次都会执行同样的操作,我们封装好的代码没有,他没有自主思考能力,更没有眼睛。 龙虾呢本质上就是一个 ai 综合智能体,他可以把直可以这个执行自动化操作,但是他每一步都需要大模型的参与,他会把这个我们桌面上,我们电脑里呢一些数据发给大模型,让大模型返回 数据,然后他在操作,就意味着你需要支付大量的 token 费用。如果像我们这样使用脚本打游戏,或者是做一些其他的这种赚钱项目的话,我估计可能我们挣到的钱还不够给他充 token 呢,这就是最大的区别。

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

openclose 有 什么实际的使用场景?感觉对工作没有帮助?这是最近很多学员问我的一个问题,那这个视频给大家聊聊,我一般用 openclose 来做哪些事情。大家都知道我有很多账号,我每天要录将近十个视频, 所以第一点,我习惯在前天的晚上,我在手机上去给他发一个关键词,让他在某音和某红书平台去找到最火的十到二十个视频,然后就提取相应的脚本,相应的标题,给它保存到飞书链接里面再发给我,这样我一早上起来就能够看到现成的脚本,实话实说,这真的太方便了。我要做的第二件事情 是找到我认为 ok 的 脚本,让 open colo 来给我去做一个二次的润色和修改,它润色完了之后也会以飞速链接的形式直接发给我,然后我直接去审核就好了,我上午大概一个人就能拍十几条视频。第三个用处呢,就是给我的口播视频去做一个相应的粗剪,我录好之后,用 open colo 的 自动去把我的气口给它剪掉,就相当于先粗剪一下, 再把这个视频直接打包发给剪辑老师,这样的话他们的剪辑效率就大大提高了。然后就是第四点,因为我们这两个月在铺一个小铺的项目,所以需要大量的笔记,我们就用 openclot 去搜集了很多同行的笔记, 就找到了很多优质的同行发的素材和帖子,我们会让龙虾采集好,然后去检测哪一些帖子是跑的最好的,我们再把这个帖子定时的发送给我们运营,所以他每天都可以蹭到最近的热点,哦,对了,我们还在研究用 openclot 去实时监控一些评论区的数据,因为有一些品牌方想要去知道你的评论区里面的鱼情,对吧?就是有好评有差评,然后怎么去做一些相应的回复,这些也可以用 openlog 去解决。还有最后的第五点,也是我觉得很方便的一点,我之前约会的话,我还需要手动操作,然后还需要去打开一个录制,以及 我还需要去手动的去记一些相应的会议重点。那现在我可以直接用 openlog 我 给他发一个,说你给我预定一个今天下午三点钟的会议, 然后记得开会的时候给我定时打开那个屏幕的录制,他就会全部给你做到,而且可以把你的音频翻译成文字来提取重点,这样的话你就不用怕会有一些核心的东西丢失了,我还是蛮喜欢这个功能的。所以 photoshop 的 其实可以做的事情有很多,你要把它和你的业务连接在一起,怎么样去做一个降本增效的操作,这个才是重点。

openclaw 装上了不代表他会干活,你还得帮他开张。装完之后,在终端里敲 openclaw on board, 你 会看到一个像老游戏一样的文字界面跳出来,他会先提醒你一件事, openclaw 不 只是聊天,他是能 真的动用你的电脑发邮件跑脚本的,你得确认自己知道这一点。接着他会问你选哪种模式,新手这一步直接选 quick start 的, quick 在会帮你配置好一套比较安全默认的稳定设置,再让你选择一个主力模型供应商,填上 e p i t, 搞定之后,你就可以在这个页面打出人生第一句, hello 你 好,测试一下你在不在,只要他能正常回你一句,恭喜你的本地 agent 正式活过来了。

把 openclaw 大 龙虾从云端搬到本地的那一刻,我以为自己终于开窍了,但是事实证明我想多了,我把 openclaw 搬到了本地的 macbook 上,而且搞了一个多 agent 的 架构,放到 discord 里,一个专门管跑步,一个管信息,一个管视频脚本,看上去特别 专业。结果真正用起来才发现,我这好几个 agent 共用一个 workspace, 谁写的记忆,谁写的配置,大家都是共用的一套配置文件, 共用的 so, 共用的 agent 互相串门。你以为每个 agent 都有独立的办公室,其实大家都在同一个大开间,还能顺手翻对方的抽屉。而且每个 agent 看起来名字不一样,但 它本质的行为想法, memory 都是共用一套东西。这根本不是多 agent, 这是披了一层皮的假的多 agent 环境在浏览器自动化这块,登录插件也是经常掉线,封控的拦截也是没有消停。所以多 agent 不是 不行,而是要看成熟度,看你如何配置。关注这个系列,后面我讲讲什么情况下用单一 agent 反而更好。

近期,太原 ai 智能体欧本科奥龙下凭借本地部署自主操控电脑的能力,成为 ai 辅助开发的热门工具,但底层参数配置一旦出错,就会造成巨大资源浪费。本次核心任务是对应的 tree s d k。 二 python s d k 进行全维度梳理,形成标准化文档与测试脚本。 实际执行中, ai 只完成了目录创建,后续工作全面中断,陷入执行中断、重试的死循环,没有任何有效成果, 却在夜间消耗了超百万级无效 token, 严重耽误进度。问题根源并不是模型性能或工具缺陷,而是两处核心参数被不合理手动配置。一是 context window 上下文窗口手动设为一万六千,远低于模型原声上限。二是 max tokens 单次最大输出 token 手动设为四千零九十六,限制了单次输出长度。配置的初衷是想降低 token 消耗,却忽略了工程化分析最大容量上下文的需求。 s d k 分 析需要读取多文件源码, 记忆目录结构,留存历史结论。过小的窗口反而成了性能瓶颈。 context window 代表模型的总上下文容量,可以理解为模型的短期记忆。一万六千的容量太小,系统会自动压缩数据,导致核心信息丢失,模型记不住项目进度, 只能反复从头开始。 max tokens 控制单次推理的最大输出长度,四千零九十六的限制无法满足工程文档和完整代码块的生成,输出会被强制截断,无法生成完整文件或使模型不断重复请求,这样就形成恶性循环。 上下文不足导致记忆丢失,输出截断导致任务无法完成,两者叠加引发无限重试,最终 token 疯狂消耗, 任务却毫无进展。解决方案非常简单, openclaw 本身具备模型参数自动适配能力,没有手动配置时会自动使用。模型的最大上限,我们只需要删除配置文件里的 context window 和 max tokens 这两个限制参数,保存重启后重新下发任务即可, 效果非常明显,任务效率大幅提升。 ai 可以 快速完成全部工作,精准判断底层通信架构,生成完整的架构分析报告,整理全部 api 接口文档,输出对应的拍丧测试脚本,完成统一配置文件参数。缩线并不是不能用,而是要看场景。适合缩线的场景 轻量级交互,比如简单查询单行代码修改普通问答,或是硬件资源有限的环境,可以降低消耗,提高速度。不适合缩线的场景 工程开发、项目分析、长文档生成、批量代码编辑等复杂任务,这些对上下文和输出长度有硬性要求,强行限制一定会崩溃。核心原则, 简单任务适度缩线控成本,复杂任务放开限制保效率,不要一刀切,给大家一个实用的配置。建议复杂任务直接删掉 context window 和 max tokens, 让系统自动适配。手动配置可以参考 常规工程 context window 不 低于八万,大型项目拉满到模型上线, max tokens 建议设为一万六千三百八十四。如果遇到 ai 失忆,输出截断,任务卡住, token 消耗异常,优先检查这两个参数。最后提醒大家, token 成本要看有效产出率,一次完整执行的成本远低于无数次无效重试的总和,提升效率本身就是在节约成本。

很多人使用 oppo pro 遇到的最大问题不是说这个模型不够强,也不是说你的钱包的钱不够多,而是你经常性的需要去重复性的培训他,因为纯天然对话的 agent 每次都需要带着你那 种长长的上下文去跟大模型进行沟通,那么这样带来的结果必然就是头壳烧的越来越多,结果也是相当的不稳定。其实啊,还有更聪明的做法,比如说我们可以使用最近刚刚发布的 at g p t 五点四啊,用这些脚本呢,让咱们的 oppo pro 定期进行脚本就可以了。直播电商这块来说,我每天都会有一个重复性的工作, 需要去制作一个前一天的销售日报,比如说咱们直播数据,投放数据,商品数据,我们之前的话每天都要去至少花上个比如说十到二十分钟时间 去完成这样一个日报。现在有 oppo 的 话,我们可以让 oppo 去自己做这件事情,但是他往往的表现结果并不是很稳定,因为你要一行行,你教他去怎么做事情。那么不同的模型之间呢,他的理解能力也不一样,你今天刚刚教会他的这个制作日报的这个事情, 那么到了第二天,即使他有记忆插件,他的效果产出也是不稳定,他要么就是计算错了数据,要么就是输出的格式并不。 为了解决这个问题呢,我想到这个方法,就是我编成一段程序让他自己去做,只要我有了这个程序,那我只要在 oppo 上面设置一个定时的任务,让他到这个时间执行这个程序任务就可以了,就不用让 oppo 哥带着永长的上下文去 查去工作效率可以大幅的提升。以我屏幕当中展现的这个 gpt 五点四格式为例,他是可以呢操作你的本地的浏览器,然后呢按照你的需求去进行一些编程工作的,那比方说我们打开一个店铺会的时候呢,我这里的话直接 先帮下载 g p p 四登录好网页,提供给到他我需要采集数据的网页,让他打开网页之后呢,我告诉他我需要的数据在哪个位置,这个时候呢, g p p 呢,它自动的去后台把这些啊步骤记录下来。当我将一整套制作这个 日报的数据流程都未给 gdp 五点四中呢,我只要告诉他一句话,请将刚才制作日报的这个过程制作成一个一键双击即可完成的脚本文件,那么 gdp 五点四就开始了他的工作,在等待了差不多两三分钟左右的时候,我就得到了这个脚本,我直接把这个脚本 的位置告诉了我的 openclock, 告诉他每天早上十一点半找到这个程序运行它,得到数据之后呢,再把数据发送给我,这样的话就解决了你喜欢 openclock 带着永常上下文去进行浪费 token 的 一个情况,真正意义上达到了自动化脚本执行啊,不会出现任何的错误。那么一句话总结一下, 如果说你需要去部署 open call 去做一些日常性的重复性的工作,那么不要去长期的使用对画画,而是去把它脚本画,这样的话你可以得到一个稳定的想要的结果,并且的话不会让你的 open call 带着你永恒的向下纹去跟你的大模型进行沟通,浪费你的托克。

嗯,今天我对这个问题进行一个讲解啊,就是你用呃 openclock, 你 会发现就是前阵子其实还可以的,现在应该涉及到安全的问题,它这里在你 windows 系统上,它不能直接让你使用需要工具了,就是它自己如果让它使用 读取文件或执行命令呢?他会给你提示没有这些工具,就是比如说他本来是可以自己写脚本,然后自己来执行的,就你告诉他方案,他就可以执行,然后现在他是把这些权限是关掉的。然后我们 windows 系统应该怎么把这个权限改一下呢?就是你可以手动改下配置,不然他每次都会让你,呃,这样你看 让你创建一个文件,然后运行,他每次都会让你这样,这个是 windows 权限上的问题,然后我们今天要把这个权限开放给他,然后我这边做一个简单的讲解。 然后首先呢,你大部分人他本地系统的 openclaw, 他 应该是安装在 c 盘目录下的,除非你改过了在这个用户。然后这里,这里应该找到 openclaw 的 文件包的位置,在这儿有个文件叫 openclaw, 点 jason 文件,这个 这个我就不直接打开给你们看了,我现在在这个位置,因为上面有一些个人的一些信息,还有 token 之类的。在这里,在 a 键子下面这有个 tools, 如果没有,你可以把它加上 tools 这一栏,按照我这个要求写。 记住了,这边是有逗号的 profile, 等于 four, 然后这里权限也给了 four, 就 权限都给了它之后呢?然后你就会发现,嗯,我给你们看下飞出界面吧,上面一直是卡着的,然后权限给到它之后呢?它就可以加载新的工具权限了。你看一下,给它权 限之后,它就可以自己读脚本,然后自己写写脚本,读取文件, 然后差不多就是这里了。主要是大部分人网上也没有类似的教程,大部分人他不知道 open curl 没有权限, windows 没有权限应该怎么改?他改到就是在这个 open curl 点 json, 点 json 文件这个位置,把它权限给到他,然后就可以了。 还有个点就是它有个 settings 剪辑,我不确定这个文件跟那个权限没有什么关系,但是目前的话应该是打开这里就可以了。 settings 剪辑的话我今天早上也问了一下,在在这里 我找一下进入的文,进入的 应该可以,进吧 settings 点节省。

只要输入一句话,就能安装全网爆火的 openclock 小 龙虾, windows 和 mac 电脑都适用。首先打开系统自带的终端,以管理员身份运行,然后输入这条命令,使用我们开发的傻瓜式装虾程序, 接下来等着就好,程序会自动帮你检测小龙虾所需的环境,并通过国内镜像加速安装。 安装完成后,程序会引导你选择 ai 服务商建议选国产的,输入从 ai 平台获取到的 api k, 然后选择默认模型,就会自动弹出使用小龙虾的网页了。愉快的和你的小龙虾聊天吧! mac 电脑按 command 加空格键唤起聚焦搜索搜索终端并打开,然后输入这行命令,其他步骤都跟 windows 一 致,你学废了吗?

今天你养龙虾了吗?一条视频告诉你, open klo 到底是什么。 open klo 最主要的呢,就是它是真正能帮你干 活,你可以把它理解为一个随叫随到的同事,二十四小时,全年无休。它最厉害的地方在哪呢?就是你不再需要打开一个新的 app 去跟 ai 聊天儿,你平时在哪儿聊天儿,它就在哪儿,像 what's up、 telegram、 discord, 甚至国内的钉钉飞书,他都能够立刻进群上班。你给他发一句话,他不是只回你一句话,如果你给他权限,他直接能够动手作证。听到这,你可能以为这不就是 chad 的 gpt 吗? 其实它们的区别可大了, chad、 gpt 呢,相当于嘴,而而欧文可浪呢,相当于手。它不是一个技术创新,它是一个应用创新,它真正的让我的生产力出现了巨变。过去两年呢, ai 的 发展虽然很快, 但还并没有到真正去改变整个社会生产力结构的那个节点。而 ai 的 分水岭在今天真正的到来, 原来是能不能回答,现在呢?是能不能执行。那它的底层是怎么工作的呢?其实就是四个部分拼接在一起。第一个部分呢,叫前台, 专门负责对接各种聊天软件,比如说 whatsapp、 telegram, 甚至钉钉飞书,它都能够接近。第二部分 呢,是 cloud、 chat、 gpt 这些大模型,专门负责思考。 第三部分呢,是双手,就是各种脚本和插件,能够控制浏览器跑代码、发邮件。第四部分呢,是档案柜,把你的对话、任务、偏好都记下来, 存在本地。把这四个呢拼接起来,就是一个能记得,你还能思考、能动手的 ai 助手。 第一点,他满足了大家多年对 ai 助手的幻想,你跟 siri 说半天,他可能只能回你一句啊,不好意思,我没听懂,现在用我喷可唠你一句话,他就真的去做了。我给大家举几个例子, 有个网友让他去跟汽车经销商邮件砍价,最后硬生生的砍价了四千两百美元。还有人呢,让他去分析叉和 u 二 b 的 热点,直接去产生爆款内容, 你还在那琢磨选题,人家呢,二十四小时不休息,已经开始写了。这跟你用一个工具可不一样,你是在雇一个数字员工,而且不用开着屏幕,他就能自己在那干活。 第二点呢,这个东西他并不是三分钟热度。为什么这么说呢?因为他最大的价值不是他有多聪明,而是他一直都在。你凌晨两点突然想让他跑个任务,你想让他每天早晨给你发简报,他也能做到。但是问题来了, opencloud 和 linux 不 一样,后者用的是这个云端的 ai 代理,不占本地资源。而 opencloud 呢,需要本地设备把它放在那。这个时候 make mini 就 成了最好的选择,安静省电,往那一放, 他就随时待命了。所以啊,出现了各种名场面,有人甚至直接买了四十台那个迷你来跑。第三点,数据在自己手里。这一点呢,对于很多人来说特别的重要, 所有的数据都存在你自己的电脑上,配置你自己说了算,想改就改。这就像你买了块地,想盖几层就能盖几层。 过去创业拼人多,现在创业呢,拼的是你能不能把 ai 变成你的第二大脑和第二双手,这个正在变得前所未有的重要。如果你觉得这个视频对你有帮助, 求赞、求收藏、求转发,还有什么想了解的 ai 内容评论区告诉我,我们下期见。

最近全网都在说一个东西,小龙虾智能体。哈喽,我是老高。有人说他一晚上能跑十个账号,有人说能自动写脚本、剪视频、回评论,他听起来像什么?像一台自动赚钱机器。但我今天必须说句大实话,如果你把它当搞钱外挂, 那你很可能会成为第一批被割的人。先把这个东西讲清楚,所谓的小龙虾智能体,根本不是神秘的 app, 它其实就是扣子或其他大模型平台用 ai 打出来的一套自动化工作流水线。 核心能力只有三个词,批量生成、批量测试、批量执行。以前做内容、做运营,做电商 要策划文案、剪辑,运营一整套团队。但现在不一样,以前叫团队作战,现在叫超级个体。一个人加一套系统,就能拉起一条小型生产线。很多人认为这东西只能做自媒体, 错!你对号入座,看看下面这四种人有没有你!第一个,销售私域,客户不回消息讨价还价,朋友圈不知道发什么,把客户抗拒点丢进去, 他可以生成三套话术,模拟难缠客户对联,甚至写一整周的朋友圈。 你不是更努力了,只是更系统了。第二个,跨境电商,以前爆款靠什么?拍脑袋?抄精品、赌运气。现在丢一个精品进去,它可以拆卖点,写标题,生成多语言文案, 甚至直接给你整套 ab 测试方案。以前爆单靠运气,现在爆单靠概率。第三个,最普通的上班族,每天最头疼的是什么?周报写不完, ppt 做不完,数据理不清。 把零散资料丢进去,它可以自动理出逻辑,生成汇报框架,甚至可以把老板可能问的问题 提前帮你准备好答案。别人还在熬夜掉头发,你已经系统化下班。第四个,本地生意老板,餐饮、美甲、房产中介。很多老板最大的问题不是产品不好,而是不会做内容, 把门店素材丢进去。他可以做三十天内容计划,写三年脚本,甚至自动恢复差评。你不需要变成网红老板,但你可以变成最会用工具的老板。 很多人会问,那他和普通 ai 有 什么区别?我给你打个比方,如果 ai 是 一片工地, 普通 ai 工具像一把铲子, ai 助手像一个工人。而智能体不一样,它是一台挖掘机加一条流水线,你不是在干活,你是在开工厂。这就是为什么很多人突然能一个晚上跑十个账号, 差别只有三个字,规模化。但我必须泼一盆冷水。很多人以为智能体是赚钱机器,其实它根本不是,它只是一个放大器,它放大的不是成功率, 而是执行速度。如果你的方向错了,它只会让你更快失败。很多人还在争论, ai 会不会取代人类,别傻了, 机器不用发工资,不用交社保,也不会累。如果你还在跟系统拼体力, 那你必输无疑。未来职场只会剩下两种人,一种是被系统分配工作的人,一种是分配系统去工作的人。而智能体就是那个系统。哈喽,我是老高,我们下期见!

本期视频分享下我自己部署 openclog 的 实战经验。咱们不炒概念,只讲实操,以及基于实操的真实体会。关于部署环境,网上很多人都在推用 mac mini 或者去租个云电脑, 但我的结论是大可不必。我目前的最终选择是直接在家里闲置的主力 windows 电脑上装一个 linux 子系统来跑,为什么不选其他方案? 咱们先来盘盘这里面的坑。第一个大坑,租用云服务器。我最初上手时图省事,租了某大厂的云应用服务器,五十八块钱一个月,两盒二 g 内存点点鼠标,确实装的很快,但跑起来你才发现,这配置充其量只能算勉强续命。 你要想让它顺畅的跑起来,起码得四核八 g 的 配置,那月租直接飙到了两百二十块以上。最要命的是,云服务器的限制极其多,比如你想让它科学上网去查点 x 或者 youtube 上的信息,连接会非常不稳定,直接断了龙虾的触角。第二个大坑, 买 mac mini。 听说现在十六 g 内存 m 四 mac mini 的 二手价国内都被炒到了四千块以上。很多人花这笔钱仅仅是为了追求所谓的物理隔离,但这背后的代价太沉重了,你失去了用主力电脑上 ai 编程工具来维护它的能力。你把 opencloud 单独扔在 mac 里, 一旦他哪天挂了,你又不懂底层代码,就得重新回去苦哈哈的查资料排错,对咱们普通人的门槛太高了。所以进入正题,为什么我最后选择在主力 windows 电脑上装 linux 子系统?核心原因有三个, 一,底层兼容。 openclaw 本身跟 linux 是 原配,但如果硬装在 windows 系统里,会报各种离谱的错, linux 子系统完美绕过了这道坎。第二,系统级的环境隔离。装在子系统里的 openclaw 有 它自己完整的权限,除非我在 windows 主系统里特别允许, 否则它是绝对碰不到我主系统里的任何进程和核心文件的,完全能实现环境隔离,非常安全。第三点,也是最核心的,是为了适配我个人的情况。 我的主力电脑是不关机的,平时纯靠各种 ai 编程工具来开发写文案管系统,在 e 盘里积累了一大堆的流程规范文档,我需要 linux 里的 openclaw 能读这些文档来附用技能,还需要它能自动迭代更新。 这怎么解决呢?很简单,利用 linux 子系统的磁盘挂载功能,我单独给它开放 e 盘的读写权限,在风险绝对可控的前提下享受最大的便利。 而且因为我不太懂技术细节,如果子系统里的 open cloud 哪天运行出 bug 了,我可以直接在 windows 主系统里唤醒我的 ai 编程助理,跨系统去把它给修了。另外,只要在子系统里装个叫 vpn k i t 的 工具,它还能直接共享我主系统的代理, 科学上网极其丝滑。当然,这套方案真要落地,还是得解决一些技术细节。比如怎么把子系统那庞大的虚拟磁盘从寸土寸金的 c 盘完美迁移到 d 盘。 又比如,我平时是用 team 模式代理来跑 codex 与 antigravity 的, 跟子系统的虚拟网卡路由重叠了怎么破? 再比如最后怎么配置飞书或者 telegram 给它当嘴巴。不过没关系,以上这些坑我都踩过且解决掉了,所有的解决方案我都整理成了一份标准指令文档,即使你换台新电脑,只要把这份文档喂给你的 ai 编程助理,它就能帮你全自动搞定一切。 我是 cc, 分享那些不吹牛的 ai 实战经验,咱们下集再来扒一扒这只龙虾到底能不能当成 ai 员工来用。

今天我把 openclaw 扒的底朝天,不吹不黑告诉你它到底能干嘛?为什么我用了它直接把其他 ai 全删了?因为它不是聊天机器人,是直接动手干活的 ai 超级员工一直接操控你电脑。真动手干活, 它能像人一样点鼠标,敲键盘,读你文件,改你文档桌面乱,一句话,帮我按类型整理桌面文档图片视频,分好文件夹,批量重命名,压缩图片, pdf 合并 excel, 自动做报表,甚至写代码,跑脚本,自动调试 bug。 二、八个 ai 机器人分工干活,不用你管文案豹子写脚本,写文案,写标题,写小红书,写抖音, 设计豹子文案写完自动除图,做海报,做封面。数据豹子排网页,抓数据,整理报表,自动分析运营豹子发邮件,发私信,自动回复监控评论,开发豹子写代码,改 bug, 部署项目助理,豹子 记日程提醒,自动汇总工作,搜索 boss, 全网找资料,自动总结,联动 boss, 所有机器人自动配合,不用你切换软件。 三跨软件,全自动打通所有工具, wps、 office 浏览器、微信、钉钉、飞书、剪映。 ps, 你 不用复制粘贴,它自己联动 写文案,自动出图,自动排版,自动发朋友圈,小红书,抓数据,自动做 excel, 自动生成图标,自动发邮件给老板。四、二十四小时主动干活, 不用你喊定时条件触发后台监控,每天十八点自动汇总工作生成日报发群里,商品降价自动重启,自动发告警自动修复。 五、越用越懂你,永久记忆你的一切,你的风格,语气、喜好,项目背景,常用模板全记死。 写文案直接按你平时的风格写,不用教做设计,知道你要什么配色,什么排版,甚至你没说出口,他都能主动提醒,主动补全。六、本地运行数据,百分之一百安全,不上传云端,所有内容存在你自己电脑, 不泄露,不被盗,隐私拉满公司机密,私人文件,敏感项目放心用。七、 一万三千加技能,像装 app 一 样扩展拉号技能市场,一键安装,自动剪辑视频,自动做字幕,自动配音,自动翻译,自动写代码,自动做 ppt, 自动排数据,自动发抖音,自动做电商运营。八、一句话指挥全军, 不用懂技术,不管你是小白,运营、设计、程序员、老板、学生,只要说人话,他就懂。 帮我做一条抖音主题 ai 工具,配三张图,加热门音乐,帮我整理上个月销售数据,生成图标发给王总,帮我写一份简历,突出 ai 经验,排版成 pdf, 这就是欧派克奥。一个工具等于一整个 ai 公司, 写文案,做设计,剪视频,搞运营,写代码,抓数据,自动办公,全能全自动全懂你! 以前我用七八个 ai 忙到死,现在一个 open club 效率直接翻二十倍,想知道我怎么用它,从早爽到晚,评论区扣 open club, 我 把完整的教程加实战玩法直接发你。

哈喽,大家好,我是麦东。大家有没有发现现在互联网上很多 open cloud 的 多智能体教程都讲的比较复杂,并且在自己本地难以复现。 今天我想给大家带来一个简化版的多智能体协助教程,帮助大家在本地快速搭建一套真正能跑起来的多智能体协助流程。视频教程,欢迎大家点赞收藏,慢慢观看。本次视频我们还是借助飞出通道来跟大家一起完成。 我们以软件开发中两个非常常见的角色,项目经理以及全站工程师为例,给大家带来演示。首先第一步我们需要创建两个飞出机器人,点击链接跳转到飞出机器人的创建界面,第一个机器人我们取名为项目经理小册, 第二个机器人我们取名为全站开发工程师。小站 机器人创建完成之后,当前页面先不要关闭,等会儿我们还需要拷贝相应的 app id 以及 app secret。 下面我们开始进行下一步 opencloud 多智能体的配置。 opencloud 多智能体的配置也比较简单, 我们需要给每个智能体定义它的 id 名称、工作空间以及它所使用的模型。需要注意的是,默认的主助手我们可以让它使用已经存在的 workspace, 但是对于其他需要协助的助手,一定要给它分配不同的 workspace。 完全独立的 workspace 就 意味着每个助手可以拥有完全独立的性格以及做事风格,这也是我们多智能体协做所必要的前提条件。下面我们复制该配置文件,点开 offencloud 控制台, 点击配置,找到 engines 配置,将配置文件粘贴过来即可,这边不要忘记需要根据实际情况补充逗号,否则配置文件格式就会不正确。粘贴过来之后,记得将相应的模型替换为你正在使用的模型, 修改完成之后点击保存。这时候可以先不用急着重启,我们将其他的配置修改完成之后一并重启即可。回到文档,我们开始进行。第三步,多账号儿绘画隔离设置 这一步也是非常重要,一定要进行配置的,否则你多个机器人之间就没有办法实现完全独立的绘画复制该配置。在 opencloud 配置文件中找到 session 粘贴过来即可,同样要注意逗号,点击保存。接下来第四步,工具权限配置工具权限配置里有一个非常重要的配置, 当我们将该配置设置为开启的时候,我们才可以通过主智能体向其他的子智能体发送消息进行调度。同样复制粘贴进配置文件即可。 找到 taurus, 粘贴完成,注意多号,点击保存。下面看第五步,飞书 channel 的 配置。 飞书 channel 配置里面主要是新增了多机器人的配置,机器人所需要的配置信息也比较简单, app id, app secret 机器人的名称私聊策略私聊策略我这边配置的都是 allowist, 这个配置代表的含义是只有在 allowform 里面的账号才能够跟该机器人进行私聊。下面我们同样将这块配置粘贴到 opencloud 的 配置文件里面, 找到 chines, 找到飞书粘贴进来即可。粘贴进来后,我们首先将相应的注式去掉,接着将新建好的机器人的 a p id 以及 a p p secret 粘贴过来, app id app secret 粘贴完成之后, allowform 暂时先不做修改。 allowform 里面的账号配置只有当我们在飞书里面对相应机器人发送消息的时候才可以获取到,我们先将它放在这边,后续再进行配置, 同样点击保存。我们接下来看第六步, opencloud 的 路由绑定配置。 opencloud 的 路由配置比较复杂,我这边只取了其中最简单的一种配置,以 project manager 为例,这个配置代表的含义是,当我在飞书里面通过 project manager 这个机器人向 opencloud 发送消息的时候, 他所有的消息都会被转发给我的。 project manager 这个智能体也就是构建了一个消息转发通道,确保我的消息不会被错误地转发给其他的智能体。 同样复制该配置,打开 open class 粘贴该配置文件的时候,需要注意它的层级是比较高的,千万不要把它错误的放在 chines 里面。我们直接找到 chines 配置的开头,在 chines 的 上方按下回车粘贴进来,粘贴完了之后点击保存即可。 好,所有的基础配置都已经完成了,下面我们打开终端重启一下 openclaw 服务,执行 openclaw getaway restart 命令,重启服务, 服务重启完成了。大家还记不记得刚刚在进行配置的时候,我们还有一个飞书机器人允许的私聊账号没有?配置完成,我们先找到账号配置的地方, 下面我们就来跟大家讲一下怎么样才能找到这个相应的账号。首先我们再打开一个 open class 控制台的页面,找到预制菜单,将预制拉到最下面,下面我们打开飞出, 先找到项目经理小册,点击打开应用,给它发送第一条消息, 消息发送完成,这时候它肯定是不会回复你的。我们回到刚刚的 open class 控制台, 可以看到这样的一条消息,它的格式是比较固定的,前面是飞出,后面是我们给机器人取的名字,再接着就是 sender, 某某某 not in d m a list sender 后面跟着的这串 id 就是 我们需要的用户 id, 复制改 id 粘贴过来即可, 同理另外一个机器人所需要配置的 id 也通过该方式获取。打开全站工程师小麦发送嗨,回到 opencloud 控制台,找到相应的 id, 复制粘贴过来即可。 两个 id 都配置完成之后,点击保存,再次打开终端,重启 opencloud 服务。 服务重启完成,我们回到飞书,再次给两个机器人分别发送消息, 可以看到 openclaw 已经收到我们的消息了, 从机器人给我们的回复中也可以看出来,他们两个是完全独立的新的工作空间,下面我们可以给这两个机器人赋予他们的灵魂,并且给他们设置好各自的工作策略。我们同样打开文档, 这边我准备了两个参考的配置,大家在模拟我的场景的时候也可以直接使用,将文本复制发给对应的机器人即可。 好,两个机器人都已经完成存储化设置了,下面我们开始进行最后一步的配置,告诉我的主智能体小麦它应该如何指挥这两个子智能体去干活儿。 我们回到文档,看一下主智能体记忆固化这部分的内容,这段题的主要目的就是在主智能体里面去建立长期记忆。 当我向主智能体下发开发类的任务的时候,默认不要新建临时智能体,而是将当前任务发送给项目经理智能体以及全站开发工程师智能体,让他们去进行协助处理。 这段提示词里面有两个地方需要调整,分别需要修改项目经理智能体以及全站开发工程师智能体的 session key。 session key 我 们可以在 opencloud 的 控制台绘画里面获取,打开 opencloud 控制台点击绘画,我们可以在这边解锁绘画, 复制 project manager 粘贴过来,这个就是我们项目经理对应的 session key, 复制粘贴过去即可。远程工程师的 session key 也是一样的处理方式。 接下来将这段话复制发送给主智能体即可, 等待主智能体完成配置即可。好了,主智能体已经完成配置了,下面我们就可以来验证一下多智能体协助的效果了。 我们给主智能体发送一个开发时钟的任务,让他去安排项目经理以及全站工程师进行开发。 可以看到我的主智能体已经在安排开发任务了,我们可以打开 opencloud 控制台对应,找到相应的 session 去观察一下,点击聊天,在这边切到项目经理, 可以看到我的主智能体跟项目经理说,大哥这边有一个开发任务,开发一个时钟,要求他出一个开发文档,以供后续全站工程师直接开发, 然后我的项目经理就开始去做需求拆解了,哎,跳出这个网页说明我的开发工程师已经开发完成了,我们先不管他,接着来看一下他的整个调度流程。 当项目经理完成需求拆解后,我们先看一下主智能体这边他做了什么事情。项目经理已经拆完需求,我现在继续安排全任工程师按这份文档开发, 我们再切换一下全站工程师的筛选,看一下他是怎么工作的,组织能力告诉他大哥这边有一个新开发任务,开发一个网页时钟,并且将项目经理拆出来的需要文档交给了他,然后接下来我的全站工程师就开始按照这份文档去做开发了。 下面都是开发的流程,我们就不再一一查看了。刚刚在我给大家讲解的过程中,其实是弹出一个网页的,这个就是全站工程师开发出来的结果,一个网页时钟 可以看到他也是能够跟我当前的时间匹配上的,意味着全站工程师开发的也没有什么问题。好,下面我们回到飞书看一下我的组织能力,小麦是怎么给我汇报的。可以看到项目经理拆解完需求,全站工程师按文档开发。全站工程师开发完成之后, 他告诉我他是怎么处理的,并且给我总结了当前项目完成的成果,最后给我提供了一个访问的地址。好,本次的多智能体协助的视频演示到这边就结束了,演示过程中采用的场景还是比较简单的, 关于多智能体协助的场景,麦冬目前也还在逐步探索,欢迎大家在评论区多多留言,相互交流。工具会变,但方法更重要,我是麦冬,下条继续。

hello, 大家好,我是小军,相信大家对 openclaw 已经非常熟悉,因为它最近火到各行各业,那么在我深度使用了几天之后,我觉得小龙虾确实可以对我们个人带来非常非常大的帮助。好话不多说,我们直接带大家进行一个实操, 那小龙虾的第一个场景应用就是可以帮我们去学习一些长视频内容,这个是我给他的一个小任务,我让他帮我精简一下 视频,说了什么做成文档形式,便于我学习。原版的这个视频呢,它是有五十三分二十五秒的,但是我没有那么多时间看完,那我可以用小龙虾来帮我总结学习,然后在耗时三分五十一秒的情况下,他帮我总结成了这样表格文档,我们来点开看一下 来,你看他不仅帮我把这些总结成了这么详细的笔记,还配套这种链接对不对? 然后在左边的话,这个子目录我可以想学哪一块的时候点击到哪一块,总而言之就是非常的高效。 那小龙虾的第二个场景用就是可以很好的帮助我们去做自媒体抓取热点和选择题,这是我给他的一个任务,我说比 最火的十个视频是什么?点赞量分别是多少?是什么领域,帮我做成选题库,不要给我很糟糕的东西。然后这是他给到我的一个热点视频汇总,让我们来看一下 是不是真的很高效,就很像你的一个私人小助理一样。那第三个应用场景就是可以帮我们很好的去整理一些会议记录,这是我让他帮我把 整理里程非书多为表格,然后我们去看他开始工作了。好,最后我给到他我的一个录屏的链接,我让他需要条理清晰,要有逻辑性,还要有一个课程回顾。最后他给到我的是这样的一个东西, 他先帮我用文字去进行了一个整理,并且他会自动帮你整理成每天的内容。来,我们去看一下他最后的一个输出,他给到我一个文档链接,我们点开看一下, 对不对?你看他帮我整理的非常非常好啊,我感觉就是比我自己去记东西要整理的非好很多,他会根据你的视频内容去整理。那今天的应用场景就是这些,你学会了吗?如果你觉得对你有帮助,我们下期见。

大家好,这期讲 open call 的 多 agent 模式,简单说就是一个 git 里可以同时跑多个独立的 ai 大 脑,每个大脑有自己的工作区,绘画记录和性格设定,互不干扰。 比如你可以有一个工作 agent, 一个生活 agent, 消息自动路由到对应的那个,非常适合多角色、多场景使用。 搞懂多 agent 要先理解三个核心概念,第一个是 agent id, 就是 每个 agent 的 唯一名字,比如 main work home。 第二个是 account id, 是 渠道账号的名字,比如一个非书账号,一个钉钉账号。 第三个是绑定,就是消息路由,规则决定哪条消息该交给哪个 agent 处理。添加新 agent 只需要一条命令, open call agents add 后面跟你想取的名字,比如 work 或 call 顶。 执行完之后,系统会自动创建独立的工作区目录,初步化搜点 md agents 点 md 等引导文件,还有独立的绘画存储。你可以一次性添加多个 agent, 每个都完全独立。 配置好 agent 之后,还需要告诉 get 位消息该路由到哪里,这就是 bindings 配置。在 open call 点 j s o n 里, bindings 是 一个数组,每条规则指定 agent id 和 match 条件, match 可以 按渠道名、账号 id 甚至具体的群 id 来匹配。匹配规则遵循最具体优先原则,精确到群 id 的 规则比只匹配渠道名的规则优先级更高,没有匹配到任何规则时,消息会回退到默认 agent。 多 agent 有 三种最常见的使用场景,第一种,不同渠道绑不同 agent, 飞书走工作 agent, 钉钉走,个人 agent, 互不干扰。 第二种,单个机器人账号按群路由同一个飞书机器人在技术群里是编程 agent, 在 运营群里是内容 agent, 用户只需要记住一个机器人入口。第三种,多人共用一个 gateway, 每个人对应一个 agent 工作区和对话历史完全隔离。 根据实际需求,有四种配置方案可以选择。方案一是单 agent 多绘画,最简单,适合个人用户。方案二是多 agent 软隔离,每个 agent 有 独立工作区,适合小团队和多角色场景,推荐大多数人用这个 方案三是 docker 沙箱处理敏感数据,使用安全性更高。方案四是多 gateway, 每个 agent 独立进程,适合企业及部署,越往后安全性越高,但复杂度和资源消耗也越大。按需选择, 每个 agent 可以 独立配置沙箱和工具权限。沙箱有三档, off 表示不隔离, none man 指对非主 agent 请沙箱, off 表示所有 agent 都进沙箱。 工具权限通过 allow 和 deny 控制。比如给家庭 agent 的 设置只允许读取工具,禁止执行和写入,这样就算有人恶意构造消息, agent 也没有权限做破坏性操作。 配置完成后,需要重启 gateway, 让改动生效。执行 opencloud gateway restart, 然后用 opencloud agent list 加上 bundins 参数,可以查看所有 agent 和对应的绑定规则是否正确。最后用 opencloud channels status 加 pro, 确认各渠道连接正常, 再对应渠道发一条测试消息,确认路由到了正确的 agent 就 算配置成功了。好了,这期多 agent 模式就讲到这里,记住三个核心, agent, id 是 大脑的名字,绑定是路由规则,最具体的规则优先匹配。 新手从多 agent 软隔离方案开始,用 agents add 命令添加 agent 配置 bundings, 重启 get 维,验证一下就搞定了,下期见。