每天分享一个强大的网站第十期,今天分享的是这是一款免费开源,分类清晰的 openclock 专属技能库,包含三十多种分类和三千多个 skills。 不 管是编程开发、音视频生成,还是搜索研究、数据分析,它都能满足你的技能需求。更绝的是, 每个技能都进行了详细的介绍和说明,让你的使用毫无门槛。比如你想给本地 ai 助手加个代码开发技能,只需输入这个命令,一键就可实现安装。重点是它还给我们提供了安全扫描器,让 skill 使用起来就很放心。
粉丝291获赞2882

龙虾版本更新的太快,之前的教程都快过时了,那这期视频给大家带来最新版本的 open clone 安装教程,最简单的一种方式,两三句话就能装好 open clone 哦,保证手把手文科生跟着也能学会 本地安装。 mac 和 win 都可以, mac 用起来最舒适,部署也比 win 更简单。 win 的 实质上百分之九十的玩法也是能跑通的,剩下的百分之十就不能像 mac 那 样能直接操作系统,日历不用录这些。所以因为大家都在玩 openclock, 海外的 mac mini 都没得货了。 如果你是纯小白,建议用 vape coding 工具安装,这可能是迄今为止最简单的 open clone 安装方式,只需要两三句话就能装好,尤其是 windows 系统用这种,方便省事。例如我们可以用 codex, 它是 opena 出的新一代 vape coding 工具,上手门槛更低,文科生都能轻松玩转。 安装 codex 以后,首先在这里把模型选择为 gpt 五点四,推力强度选择高权限选择完全访问权限。然后在对话框这里告诉 ai 学习一下什么是 openclo, 因为我配置需要的环境,安装和部署 openclo。 然后他就开始吭哧吭哧干活了, 跑了十三分钟左右,他就帮我把 openclo 安装好了,就差大模型和消息渠道没有配了。模型配置我们申请一个 apikey, 这里我用的是 kimi 二点五的,今天过来发给他,也是过了十三分钟左右就配好了。 不会申请 apikey 的 朋友可以跳转到后面配置模型的部分,有手把手的详细教程,配完以后就可以打开网关使用了。到这里就这两句指令, openclo 就 装好了。那如果想要实现在飞书上和 openclo 进行交互,就需要在手动配置一下飞书机器人。飞书机器人怎么配?可以跳到后面配置飞书机器人的章节哦。 如果你的动手能力强,想更深入地理解 openclo 底层,那就可以手动安装。那接下来我们以面为例,教大家本地部署视频,后面也会有 win 的 部署教程哦。首先是环境准备,装 openclo 跑起来必要的代码库是安装 homebrew、 node 点 js 这两个工具。 安装 homebrew 的 话,打开终端,输入这行命令, node 点 gs 用这行命令运行完就 ok 了。这些命令我都会放到教程文档里面哦。然后你可以运行这行代码安装 opencl 了,差不多一分多钟就安装好了,会弹出这样一个 opencl 配置的出厂界面, 如果这个触手滑界面没有弹出来,你可以运行这行代码。这里呢,就是一些安全问题的确认,那你知晓龙虾具有一定风险,我们选 yes, 按回车往下就好。配置模式我们选择 quickstart, 然后就会弹出一个配置模型的提示,模型配置比较重要,这相当于是给 openclo 安装大脑, 模型越强,你的龙虾就能完成越复杂的任务。 y 的 模型功能是 cloud 加的更好用,其他用的多的就是 gmail 戳 gpt。 国内模型也有不错的,现在大部分人是在用 mini max 二点五、 kimi 二点五、智普的 g l m 五这三个,但相应的,模型越好,烧的钱就越多。这里有一个 get up 大 佬做的成本对比图,可以看到国外的模型比国内的贵了一倍了, 如果不想太麻烦,我们就在这个模型名单里面找到自己想配的模型。配不同的模型,核心步骤都是一样的,很简单,就是找到对应的平台,申请 api key, 把 api key 粘贴到终端里面就好了。那这里我们以 kimi 二点五为例,先在 kimi 的 开放平台在 api key 这里新建一个 api 复制,粘贴到备忘录里面。保存好。我们回到终端,这里选择 moonshot, ai, 选择第二行的点 c n, 选择 pixel, 然后把刚刚的 api key 复制过来,回车选择 keep current 模型就配置完了。 配置 channel, 也就是配置机器人,这里我们可以先选 skip, 跳过最后来配置,跳过以后终端会提示我们是否安装 skill。 skill 就是 一个个称手的工具包,它是 open curl 的 灵魂,你装的 skill 越强,你的龙虾就越强,这里我们选择 yes, 这里建议只选择一个 curl up skill, skill 并不是越多越好,如果一开始配置太多的 skill, ai 在 执行任务的时候需要从大量的 skill 里面选择,反而更容易选错或者不调用 skill, 所以 建议先少量配置,后续再慢慢增加。 我这里还加了一个管理 gitup 仓库的 skill, 然后选择 mpm 的 安装方式运行,可以看到 clop 的 skill 一下就装好了,而 gitup 的 包了一堆的错。没关系, skill 没装上,后面可以再装,可以先不管,继续跑安装流程。这里终端会一直提示我们配置别的 api 我 们全部选 no 就 可以了。 然后就是配置 hooks 的, 就像你设置闹钟,到了九点,就像你一样。 hooks 是 一种条件触发机制,当某些事情发生的时候,系统会自动执行你预先设置的操作。 比如这四个是 openclo 启动的时候需要调用的 hook 这个 boot d m d。 每次 openclo 启动的时候,都会先读取 boot 文件里面的内容,然后再开始工作。比如你可以在 boot 文件里面写一些基础的设定,比如这个设定让他做一个解答问题,整理笔记的助手。这样每次 openclo 启动的时候, ai 都会先读取这段规则,然后按照这些规则来跟你对话。那第二个 bootstrap actual files 就是 启动时会加载额外文件,比如注入额外的 prompt, 这些小白可以略过不选。 第三个 command log 就是 记录系统的命令网址,也就是说开启了以后,用户输入了什么, ai 回复了什么,系统执行的哪些命令都会被记录下来,保存到网址文件里面,这样方便在你的龙虾出问题的时候,可以通过查看网址来排查问题。 第四个 section memory, 回话记忆,这是最最重要的一个,它用来保存聊天记录,让 ai 记住之前说过的话。如果没有开启 section memory, 你 下次再跟他对话的时候,他又会忘了你是谁,直接失忆了。 所以这里 hux 除了第二个不选,其他的我们都选上,配置完安装程序会自己安装和启动。 getaway, 也就是 opencloud 网关,网关是 opencloud 的 核心服务,它像一个中央调度站,连接了各个聊天平台,就是飞书企、微 qq 这些。在这些聊天平台收到消息之后, 网关会将消息转发给 ai 处理,也就是转发给我们前面自己配置的模型,再把 ai 的 回复发送到对应的平台。 所以网关要能够正常运行,你的 open curl 才能够正常使用。比如你在飞书上跟龙虾说话,他突然不回复了,可能就是网关出了问题,可以试试重启一下网关,用这行命令就行。那常用的这些网关操作命令都 放教程文档里面喽。那到这里就是最后一步了,这里可以选择龙虾的启动方式。第一个 t y 的 意思是在终端运行不适合我们小白,我们可以选择第二个 v y 方式,然后就会弹出这样一个界面,你就可以和你刚装好的龙虾开始对话了。 不过现在最新版的 openclo 三点八下载下来,你只能和他聊天,想让他自己干活,比如让他帮我安装一个 skill, 他 就不行了,因为他默认是没有终端这个工具的访问权限的。 想给他调用各个软件的权限,得修改一下配置。在控制台这里点击配置,然后点下面的 raw, ctrl 加 f, 搜索下 messaging 这个词,把 openclo 的 权限从只能聊天改成 f, 这样 openclo 就 拥有了操作系统的权限。 最后一定要记得点击保存和更新哈。如果想在聊天软件上和 openclo 对 话,我们就需要配置 channel, 也就是通讯平台配置哪个平台,你就可以通过哪个平台和 openclo 对 话,国内的话,飞书、 qq、 钉钉、企微都可以。我试了一下飞书的配置,会更方便一些。那我们在终端这里输入这行命令,然后选择 yes channel, 这里选择飞书,然后安装飞书插件,选择输入 app secret, 然后就可以去申请对应的 app secret 了。申请 app secret 有 三步,第一步,创建飞书应用,飞书开发平台,点击开发者后台,然后创建企业之间应用,添加这些信息, 点击创建按钮,第一步,创建飞书应用就 ok 了。第二步,添加机器人,在添加应用能力这里点击添加机器人就可以。第三步,查询 app secret, 在 左侧导航栏找到频距与基础信息,点击进入, 找到 app secret 和 app id 两个参数,分别复制填入终端,然后连接方式,我们选择默认的句型区域,选择 china open close 机器人,这打算自用的话,群聊规则这里可以选择 disabled, 需要加入群聊的话选择前两个。第一个 allow list 可以 设置群聊的白名单,给指定的群开放。第二个 open 就是 全部开放,我选了 open 就 完成 open close 和非输的连接了,所有的操作教程文档里面都有写哈。连接完成了,我们继续配置机器人, 在左侧导航栏点击事件与回调,在事件配置这里选择长连接接受事件,然后点击保存,然后点击时间配置页面中的添加事件, 在弹出的列表中搜索并添加接受消息,点击确认添加,点击确认开通权限,如果你想把飞书机器人拉进群聊里面,还可以按照刚才的步骤添加这些权限,接着在这里选择回调配置定位方式,选择长连接这个点击保存就可以。然后我们在左侧导航栏点击 权限管理,点击批量导入权限这个按钮,在弹出的窗口里面复制这段代码进去,点击确认新增权限,申请开通就行,那这样操作就会把图里的这些权限授权给你创建的飞书机器人。接着我们来发布机器人,在这里点版本管理与发布,点右上角的创建版本,点一下应用版本号和更新说明, 点击保存并确认发布就可以了。然后我们飞书在这里搜索我们刚刚设置的机器人的名字,给他随便发点什么,然后把他回复的这段的最后一行粘贴到终端就行。我们再回到和机器人的对话框,随便发点什么就可以正常聊天了。那到这里整个部署就完成了。 我这一趟部署跑下来还算比较顺,但很多人安装软件的时候会遇到各种莫名其妙的报错, 所以呢,好人做到底。我给大家找到了一份 get up 大 佬写的常见问题,速查文档,碰到相近的问题,大家可以对应着目录去找,这个文档我也放到教程里面喽。那由于我手上没有 windows 系统的电脑,没办法带着大家亲自跑一趟全流程,那我找到了一个 get up 大 佬写的非常详细的 windows 部署教程。 windows 的 教程同样在文档里面喽。 龙虾部署好了,我们用一下,比如让他帮我创建一个明天下午的会议日程,他就用 apple script 创建好了,而且我打开日历软件就能看到日程了,这样我们的龙虾就跑起来了。 那这里是勋酱,关注我,带你解锁更多普通人的 ai 玩法,我们下期见!

最近啊, mac mini m 四又火了,就是因为那个从 cloud bot 改名为 mod bot, 最终啊,又命名为 open cloud 的 ai 工具。现在很多人啊,都想搞一台全天二十四小时待命的个人贾维斯。 确实啊, mac mini m 四啊,本身就很强,但是如果你真想用它来搭建本地 ai, 有 几点啊,你真的要注意。首先啊,想跑 ai 模型的话,那些对话记忆 只是酷训练数据这些在使用的过程中啊,持续产生的数据,确实是个存储黑洞,两百五十六 g 啊,根本不够,五百一十二 g 啊,想跑训练久了可能也有点费劲,但如果直接上大内存的版本, 这个价格啊,都会再买几台 mac mini 啊。我的省钱方案是啊, mac mini 啊,就入手盖板就行了,之后直接外接个固态硬盘来扩容。另外,想要模型加载快,数据供给顺畅的话,外接硬盘的传输速度也很重要。 本地读写速度啊,也是 ai 本地推理训练效率的关键。这么看来啊,想要搭建一个真正的个人假维斯,光有 mac mini m 四还不够,你得给他配一个传输速度快,传 输空间大的硬盘盒,至少十 g 二十 g 起的传输速度,再加上几 tb 的 传输空间,才能真正发挥 mac mini m 四的实力。 前段时间啊,我按照这些需求啊,到处找了一圈,最后锁定了阿卡西丝的 m 零零二 pro。 前面说了,咱们搭建个人假维斯最怕什么,就是存不够,刚好他这里有两个硬盘位,可以塞两块最大八 tb 的 固态硬盘, 直接就是十六 tb。 十六 tb 放在那 ai 模型啊,随便装知识库呢,随便建训练数据啊,随便存空间啊,直接管够。然后是速度啊,这个才是我选它的核心原因,开个锐的零模式啊,直接飙到四十 g, 你 们想啊,跑 ai 的 时候 图形要加载,训练数据呢要读取,检查点呢要保存,这些操作全都要从硬盘里拿数据, gpu 的 算力再强啊,但硬盘速度太慢,性能啊,直接拉跨。有了四十 g 的 速度,训练数据读取嗖嗖的。最后是散热和防尘,这很多人啊,可能没注意到要二十四小时开机,跑 ai 这些啊,真的很关键。 m 零零二 pro 是 一比一开模的,铝合金设计,完美搭配苹果美学,这就像给 mac mini 啊穿上了一层散热机甲,一眼看过去啊,像不像 mac pro, 颜值和格调直接拉满,加上上下全开孔,热量直接散出去,我挂一整周啊,摸上去啊,也不怎么热。而且啊,不止是硬盘盒,前面三个 a 口啊,可以接移动硬盘和 u 盘, 后面两个 d p 口啊,支持双四 k 显示,顶部还有 s d 和 tf 卡槽,相机拍的素材啊,直接导一盒多用。总结一下, mac mini m 四啊,是个好东西,但想当真正的 ai 服务器,存储容量和传输速度啊是关键!正在搭建 ai, 想让 mac mini m 四啊存储和速度飞起的朋友阿卡西四的 m 零零二 pro 啊,赶紧试一试!

经常有人问我,要玩儿 ai 的 话需要换电脑吗?配置到底要多高?那今天我就把这件事情彻底跟大家讲清楚,不管你是想做图做视频,还是运行智能检测 skill, 那 这个视频都会帮你找到自己的位置,不多花冤枉钱,而且不会因为配置不够而被卡住。 很多人呢,买电脑呢,只看价格,不知道哪一个部件到底影响什么。而且在 ai 这件事情上面,三个核心的部件各有分工,而且它和以前非 ai 时代选电脑的逻辑呢,已经完全不一样了。首先我们来看一下内存,内存呢,能够决定你同时能够跑多少东西, 内存只要不够,你的程序会卡,会崩溃,会报错。而跑 ai 工具的时候,往往需要开着编辑器,浏览器终端等等,而内存就有可能会成为瓶颈。 而显卡呢,是决定你能不能在本地做计算密集性的任务,比如说像图像生成啊,云识别啊,视频剪辑这些都需要显卡来加速。而显卡里面有一块专属的内存叫做显存, 它决定了显卡能够处理多大的任务,显存不够,要么跑不起来,要么慢的让你崩溃。而 cpu 决定通用计算的速度,而对于绝大多数的 ai 工具来说, cpu 都不是瓶颈,这几年的主流的处理器都够用,完全不需要去特别追求顶配。 所以我们先来说一下第一种情况,如果呢,你只是想用浏览器去打开豆包千问 china gpt 或者是 dbic, 或者呢?你用一些像 china studio 这样的桌面客户端,把多个 ai 模型整合在一起去辅助工作,那这一类工具,它所有的计算其实都在云端完成, 你的电脑呢,其实就是个显示器,对于配置要求极低,只要能够流畅的跑浏览器,其实就能用。哪怕是五年前的老电脑,只要内存不低于八 g, 网速还行,用起来完全没问题。而在网页上升图升视频也是完全一样的道理,你在网页上点一下任务,发送到云端服务器,等结果直接回来就行, 你的显卡 cpu 跟这件事情根本就没有任何的关系。而这类的工具,对电脑的真实的唯一的要求其实就是网络网速越快,响应就越快,体验就越好。 不过有一点要说清楚啊,八 g 内存是能用的底线,但并不是推荐的配置。如果你现在要新买台电脑,不管是什么用途,十六 g 内存是起步,现在几乎是标配,价格上呢,几乎没有额外的成本,但是体验要好得多。 第二种情况就是用本地的智能体工具,比如说最近大火的 open cloud 龙虾,或者是 ai 编程工具,比如说 tree cloud code, open code 它会在你的电脑上直接读写文件,运行代码,调用终端,或者是本地的智能体平台,比如说 cowalk 呀,或者 skywalk desktop, 它们的逻辑呢,都比较相似,核心的计算是依赖于云端模型,本地呢,主要是负责任务调度,还有界面的交互。那这三类工具就有一个共同的特点,就是都可以运行 skill, 也就是说让 ai 在 你的电脑上执行一套完整的自动化流程。 那这类的工具其实对配置的核心要求,取决于你的 ai 在 你的本地到底实际在干什么活。如果说你只让它生成一份 word 文档,整理一个表格,那对电脑几乎没有额外的要求,十六 g 内存完全够用。 但是如果你是让 ai 帮你去剪辑视频,做语音识别,批量处理图片,那就完全是另外一回事了,配置要求呢,就直接拉满。所以说,这一类工具对于显卡的要求,并不是由工具本身决定的,而是由你让 ai 做的事情决定的。 如果你确实让 ai 在 本地做视频剪辑,做音频识别这一类计算密集型的任务,那显卡呢,就不能够将就显存呢?就像是显卡的工作台,工作台越大,能同时摆开的材料越多,干活就越快。 那如果你要做视频剪辑,其实我觉得更好的方法是核显加独显的双显卡组合,它能够大大的加速剪辑的效率。而这三种情况就是在本地运行大模型, 比如说你像在本地啊,去运行一个小 ai 模型来保护隐私,或者在本地来生成图片,那么不废话,我直接给你一个简单的估算方法,用模型的参数量乘以二,大概就是你需要的显存的显存,而十四 b 大 概就需要十二到十六 g, 而七十二 b 的 模型如果没有四十 g 以上的显存,根本就跑不动。所以一块能流畅跑中型模型的显卡,价格都在几万甚至是几十万以上。 哪怕是 rtx、 五零九零 d 这种目前消费级最强的显卡,它跑能力足够强的大元模型其实也很吃力。 而如果你用 api 去调用同等能力的云端模型,每个月的费用可能只要几十到几百块。所以啊,除非你有非常特殊的隐私需求,或者每天的调用量大到 api 费用比买卡还要贵,否则都不建议本地去跑 ai 模型。 但是还有个被很多人忽略的问题,就是操作系统 mac 的 这个 m 系列芯片,它用的是统一内存架构, cpu 和 gpu 是 共享同一块内存, 所以一台六十四 g 内存的 mac 可以 直接用来跑七十 b 级别的模型,而且速度还不错。而 windows 机器呢,是做不到这一点的,因为显卡的显存和系统内存是分开的,你有六十四 g 的 系统内存,但是显卡只有十六 g 的 显存大模型还是跑不起来。 还有一个非常重要的问题就是兼容性,绝大多数的 ai 软件 mac 和 windows 都支持,但是 mac 在 兼容性上甚至要略好一点,很多工具在 mac 上的体验会更流畅,而且更新也更及时。 如果你是 windows, 想用老电脑,那么一定要注意 win 七以下呀,现在几乎所有的主流 ai 软件都不支持了, win 十是最基础的要求,但是强烈建议升级到 win 十一,因为随着时间的推移,越来越多的工具会把 win 十一作为最低的要求。 如果你近期有换电脑或者是重装系统的计划,直接上 win 十一,不要犹豫。最后给大家总结一下啊,如果你是用网页版或者客户端工具,普通电脑就够,用本地智能体工具做代码文档类的任务的话,那么十六 g 内存起步,三十二 g 更好。显卡要求不高, 如果做视频剪辑,做音频识别,那么核显加独显的双显卡组合最实用。本地跑大元模型,那么 mac 比 windows 要更有优势。操作系统方面 mac 的 兼容性要略好。 windows 一定要用 win 十一,而 win 七以下直接放弃。赶紧转发给需要的朋友吧!我是 c 哥,点赞关注,咱们下期见!

装了 openclaw, 但发现它什么也干不了,甚至有点笨。那是因为你还没有去 clawhub 给它装 skill。 clawhub 上有一万七千多个 skill, 我 从下载量前三十和我自己高频使用的做了交叉筛选, 只推荐这十个,装完至少强三倍。第一个 skill writing, 安全审查员,他会在你安装任何 skill 之前扫描安全风险检查红旗标识、权健范围和可疑模式,能检测 prom 的 注入工具、逃毒、隐藏恶意代码。建议在装任何其他 skill 之前先把它装上。第二个自我进化 skill, 它是 cloud 交互下载量第一的 scale, 解决大模型失忆症。它会自动把每次的错误日期、成功经验和你的编号存到本地数据库,下次遇到类似问题,直接调用历史经验实现,越用越聪明。这个 scale 的 价值不在于第一天,而在于第三十天, 用的越久, agent 越像你的数字分身。第三个, tablie search ai 专属搜索引擎,让 agent 学会上网搜索,而且搜出来结果是 ai 友好的。 不同于传统搜索引擎返回一堆链接, tabl 直接返回干净的结构化内容, agent 拿到就能用。第四个 summarize, 全格式内容,摘药专家,网页、 pdf, 图片、音频、视频,什么格式都能一口吞下去给你摘药。 我的日常用法是 tabla 搜索加 summary 总结,先搜到相关页面,再把整篇内容压缩成五百字未给上架文,效率翻倍。第五个, find scales, 寻找 scale 的 scale, 用自然语言告诉 agent 你 需要什么技能,它帮你找到并安装对应的 scale, 不知道装什么的时候直接问他就行。六个 using superpowers 来源于 superpowers, 这个强大的插件,核心理念是让 agent 严格按照先查 scale 再行动的规则做事,杜绝偷懒和无距离探索。如果你发现 agent 不 用你装好的 scale, 就 自己瞎搞, 这个 scale 能帮你管教他。第七个, react 最佳实践技能的性能优化圣经 worst one 方共同团队出品, react 和 next 最佳实践前端开发者必装。 第八个前端设计技能,帮你写出更有设计感的前端页面。按 zorbike 官方出品强制 agent 先做设计思考,再写代码,把从能跑就行提升到设计合格。第九个, github github 全流程操控,让 agent 直接操作你的 github 仓库, asos prci 一 条命令搞定。最后一个浏览器操作技能,让你的 opencloud 像人一样打开网页,点击按钮,填写表单,截图画面。最后帮大家总结一下。

很多人买了 mac mini 想装 openclo, 却发现步骤有点多,教程也比较零散。所以这期视频我带你从零开始,完整演示一遍 openclo 的 安装和配置流程。整个过程我会拆分成四个步骤,一步一步讲清楚。 ok, 我 们正式开始。 第一步,安装基础环境,如果都能正常显示版本号,说明我们的基础环境已经准备好了。这里简单说一下, homebrew 是 mac 上的软件管理工具, python 是 open curl 运行所需要的环境, git 是 用来管理代码和项目的。只要这三个工具正常,我们就可以进行下一步了。这一步就是基础环境的确认。 第二步,下载并安装 openclo。 接下来我们正式开始安装 openclo。 首先打开浏览器,进入 openclo 的 官网,在官网首页往下滑,你会看到官网提供的一键安装命令, 复制这段安装命令,然后打开终端,直接粘贴执行。执行之后他会开始自动下载安装。整个过程需要一点时间,我们稍微等待一下,你会看到他正在下载相关的安装包,以及一些依赖组建。 等安装完成之后,系统会提示我们进行一些配置。首先会问你是否了解相关风险,我们直接输入 yes 就 可以。接下来会让我们选择启动方式,我们选择 quickstep, 用最快的方式启动。 然后系统会让我们选择模型,比如这里我选择了 kim, 输入对应的 api key 后选择 keep current。 接下来会让我们选择接入渠道,比如 whatsapp, 飞书等。这里我们先跳过, 因为第三步我会专门教大家如何配置飞书。接下来是技能的配置,为了快速启动,我们先选择 no, 后续有需要的可以再单独添加,然后它会开始安装网关, 安装完成了之后,我们会选择 open the web ui 浏览器,会自动打开一个聊天界面, 这里我们可以测试输入一下,比如说查看电脑状态,如果它正常返回结果,就说明 open curl 已经安装成功,并且可以正常运行了。到这里 open curl 的 下载安装和启动就完成了。 第三步,我们来看一下如何配置飞书。首先打开飞书开放平台,创建一个企业自建应用, 点击创建应用,应用名称可以自定义,由这里我直接命名为 word。 openclove 创建完成之后,我们进入应用后台。第一步,添加应用能力,选择机器人,添加完成后进入权限管理页面,这里我们可以选择批量导入权限, 直接复制我已经写好的权限 js, 确认之后点击申请开通,然后按照提示完成下一步操作即可。 这里飞书册的基础应用就创建完成了。接下来我们回到 openclove, 在 最新版本中其实已经内置了飞书的插件,但是默认是未启动状态。 我们先进入插件管理页面,查看飞书插件当前状态,可以看到飞书插件是未用状态,现在我们执行应用命令, 将飞书插件启动,启动之后再次确认状态,可以看到飞书已经处于遗弃用的状态。我们重启一下 open call 服务,重启完成后,进入 channels 页面,可以看到飞书插件已经出现在渠道列表中, 现在我们开始进行飞书的配置,首先填写飞书应用的 app id 和密钥, 这两个信息可以在飞书开放平台的应用凭证页面获取。连线完成之后,下面的选择连接方式,选择长连接模式,相关选项全部起用,然后点击保存,保存之后系统会自动重启网关服务, 网关重启完成之后,退出渠道就已经接入完成。在建立好长连接之后,我们需要配置事件,这里的事件类型选择长连接,然后点击添加事件,我们添加的事件类型是发送消息, 然后再回调配置,里面同样选择长连接方式,配置完成后记得点击保存。 接下来我们创建一个新版本并提交审批。最后我们回到飞书客户端,还是查看电脑信息状态,可以看到它现在已经成功回复,说明我们的飞书已经配置成功了。 在玩 openclo 的 过程当中,我们可能会碰到很多问题,这里我告诉大家一个邪修的方法。举个例子,我之前在配色非书应用的事件与回调的时候, 使用长链接接收事件,会显示应用未建立长链接,这时候可以直接让 open curl 帮我们处理,这是我邀请他做的,他现在需要我们提供飞书的 app id 和密钥,我们找到飞书应用的 app id 和密钥发给他, 等他一会,现在他已经更新好配置文件了,我们来看一下网页中飞书的配置, 目前来看已经是配置完成了,所以当我们有一些问题需要处理的时候,我们可以直接让 openclock 帮我们来处理,当然也不止这一个场景,你要是碰到了其他的问题,也可以直接告诉他,让他帮忙处理, 毕竟我们花这么大的精力来配置他,是要让他好好干活的。 ok, 这是 mac 配置 openclock 的 全部教程,大家赶紧去试一下吧!

大家好,今天我来教大家如何在 windows 系统上快速安装部署 open clone。 open clone 是 一个强大的 ai 工具,可以帮你更加高效地处理各种任务。 安装过程其实也挺简单的,只需要几分钟就能搞定了。 首先我们先登录它的官网,也就是 open clone 点 ai, 然后在下面这里找到这个运行到你的机器上, 打开之后我们可以把它切换到这个中文模式,也就是这个,然后点击安装这里一个步骤,这是系统要求 windows 所要求运行在 wsl 二上面。 首先的话,我们需要在 windows 系统上安装这个 wsl 二, wsl 二是适用于 linux 的 windows 子系统,允许开发人员在 windows 上运行 linux 的 环境。然后这是个安装文档, 首先我们要运行这个 wsl 杠杠一 doo 命令,我们可以打开这个终端, 这终端必须使用管理员的身份打开, 我们搜索, 我们以管理员的身份打开终端右键,以管理员的身份运行,然后输入这个 wsl。 杠杠一 stop, 我 这边已经安装了,所以说就不用执行这个步骤了。 在安装 wsl 的 时候,我们可能会碰到一些问题,比如说没有开启这个虚拟平台就会导致这安装失败,所以说我们要确定一下, 我们可以在这开始的时候输入这个 windows 功能, 点击,然后从列表中选择打开或者关闭 windows 功能, 然后找到这个虚拟平台。 我这边已经勾选了,所以说不需要再次勾选。 然后当这个命令执行完毕之后, 我们可以检查一下当前运行的版版本是什么,点击复制, 然后当前运行版本是 g o 乌班图的,我们可以换成其他的版本也可以, 如果想更改版本的话,我们可以通过这个命令进行更改,或者打开这个应用商店 输入, 然后咨询选择版本进行安装。我已经安装着过了这个二十二点四的, 然后安装完成之后我们搜索这个终端,然后点击,点击之后这里有个侠列表,我们选择这个安装的无弯图, 然后这里开启我们真正的安装步骤,然后在这里我们就可以暂时安装了, 我们首先使用这个快速安装命令,点击复制粘贴回车,然后这里会让我们输入这个密码,就是当时我们安装这个 double s l 的 时候会有个密码输入, 输入完成之后回车,然后接下来它就开始安装了, 这里已经下载完了,然后这是正式的安装步骤,然后这里让我们是否继续,我们选择是到这里我们选择第一个, 然后这个揭露的模型是让我们选择哪个模型啊?这里就选择这个千问的模型就行了,然后这里会让我们等待,让我们登录这个阿里千问的模型, 我们需要把这个网址复制,复制到浏览器粘贴, 然后我们需要登录到这个千万模型,然后这边我已经登录自己邮箱,并且认证成功了,然后我们回到这个命令,行, 这个 let, 我 们选择对应的模型,我们选择这个保持默认就行了。当前模型, 然后这个的话是配置那个飞书或者其他工具,安装的时候可以选择这个跳过, 然后这个的话是让我们现在是否配置几呢?选择否,然后这里的话是通过这个空格键选择,这是因为是多选的嘛。然后我们这个也跳过就行了,让安回车。 然后这个是让我们通过哪些方式进行预览?我们一般选择这个,通过这个 web, 也就是网页, 然后到这里我们就已经安装完成了,并且这个也已经启动了。然后在上面他会有个地址,我们复制这个地址, 然后粘贴到浏览器,然后这个就代表已经安装成功了,我可以跟他聊天, 你是谁? 好,然后这个就代表已经安装成功了。 好了,这个 open clone 龙虾已经安装完成了。是不是挺简单的? 然后今天视频就到这里了啊,感谢观看,然后下期再见。

二零二六年,谁手里龙虾多,谁就是真大爷。今天我手把手教你在本地的 windows 上面把小龙虾 open club 部署起来, 让他成为你的第一个 ai 员工。安装 open club 需要三个软件啊,一个叫 gte 啊,就这个软件,还有一个叫 load gs, 这两个下载最新的就可以了啊,当你的电脑如果是 windows 十的话,你还要下一个叫 winsole 的, 这个软件让他比较简单啊,比较简单啊,只说这过程中需要有三个地方需要注意啊,我用图给大家展示出来的啊,需要注意的地方, 安装完成之后需要重启电脑啊,重启完了之后,接下来我们要运行一个命令,叫 n p m install, 然后杠 g 啊,然后 open cloud at latest 啊,运行这个命令,它就会帮我们去安装这个 open cloud 这个这个软件啊,我就等待它啊,这过程如果不报错的话,你就可以接下来就可以去看一下它安装的版本号,你看我这个是二零二六三零二,对吧?啊,安装完看了版本号之后,就运行一个命令叫 open cloud onboard onboard 啊,运行完这个命令,它就会帮我们去去开启一些设置项啊 啊,开启第一个设置项就是我们的那个大模型的设置啊,大模型有非常多啊,支持,比如说智普的大模型啊, kimi 的 大模型对吧,千万大模型,谷歌等等啊,这里我用了 kimi 啊,所以说我就选择 kimi 的 大模型啊,完了之后还要你输入 kimi 的 k 啊, k 从哪里来,你们自己去搜索一下啊,自己搜索一下啊 啊,配置完这个大模型的 k, 选完我们需要的模型之后啊,接下来下个要要做的配置,就是我们去配置那个,那个 什么聊天聊天工具啊,这个地方默认的话它是就是我们有很多,有 imessage 啊,谷歌呀, whatsapp 啊啊,大家中国人选的最多的是飞书啊,飞书啊,但飞书怎么配色?你自己去看一下啊。但是我们这个地方先不用配啊,我们先先站着跳舞,这个暂时不用弹啊,不用弹啊, 啊不不,然后完了之后,接下来就可以跳到下个啊,下个是啥?就是配置它的那个 skills 啊, skills 啊,那 skills 来自哪里啊?就是说这个时候如果你搞不明白,你也可以选择漏啊,很多地方都可以不用配,因为我们到后面,它到它控控制台里面,我们还可以去去修改它,还可以去增加它,大家不用担心啊,就是搞不清楚了就先不配它啊。 所以这个 scroll 你 要选择 low 啊,选择 low 啊。接下来下面还会有几个选项,你只需要选择后面四个啊,叫,一个叫 bug 啊,一个叫 bug drop 啊,一个叫 command 啊,一个叫 session 啊。选择完这四个按回车,按回车键啊,然后就可以了,它就会自动给我们去安安装安装和配置。这个 open call 啊, 这个安装配置过程中可能会有点问题啊,有时候可能会报点错,如果报错的话,你就去去什么?去那个 ai 里面再去搜一下啊,因为每个每个环境可能不一样,会有点差异啊, 但整个过程还是比较简单还是比较简单,你需要你,但凡你在大学里面学过 unix 或者学过那个那个 dos 啊,一般都会啊,所以可能在这个全英文环境下,可能稍微,呃,比较比较骚扰一点啊,比较骚扰上面会显示龙虾那几个字啊, 就代表你就配置成功了啊,配成功了啊,你看这个运行完了之后,马上他基本上大概可能一分钟左右他就会弹出那个界面啊,那当看到这个界面的时候啊,这个小玩家就配好了啊,你就可以开始使用它,看懂了吗? open color 已经在你 windows 上跑起来了,就这么简单,关注老王带你玩 ai。

有粉丝说不会安装 skill, 今天录这个视频安装一下 skill 演示一下。 那我们今天装的这个 skill。 呃,是一个 a 股的分析的一个 skill, 叫这个,我们安装一下。那我们可以在应用市场这里搜啊,比如说你 这里有很多,那我们装一个最多的吧,就装它。好吧,装看一下。因为最近这个服务器一直不稳定啊,用网络安装的方式可能装不了,我们把它下载我这里下载好。 我们装完它之后,你看它会说这里还有一些问题,并不是马上就能用了这个 skill, 它要装些这些东西。那我们跟他说要 好,这里他给你全部装完了, 那我们试一下啊。他说 啊,他这里说他跑起来了,我们反问这个地址,你看他给你反问这个地址,打帐号密码,我们试一下。我知 你看报错了,那我们今天讲下报错该怎么解决啊?那报错了你就告诉他报错, 我们在网页随便复制几句发给他。 ok, 他 跑完了,他说修复了,那不管怎么样,我们试一下。 看起来好像没问题啊,而且说有账号密码吗? 那我们试一下。他之前点了账号 算了,直接问他可以看到, 那我们用这个第一个通一下。 哎,好像可以了,但是进来看着怎么没有数据啊? 设置优化设置。是这个市场还没开吗?那我这边等一下,等一下,我九点半了,我再看一下,感觉好像没问题了 啊。他这里说了,现在集合进价前后很多发不了啊。那做 这里停了好久也没电脑能处理出来,我们停止, 哎,你看把它停止重新问,他又搞好了,我们刷新一下。 好,他说修好了,我们再新他一次好吗? 嗯,看着有点变化了, 五次十次,一次,再再 应该还没好,不知道哪里有问题,我们让他自己去检查一下吧。 好,他这边说可以了,我们试一下按 ctrl f 五强制刷新。哎,好像好像可以了,咋也看不懂呢? 三个上场核心功能, 我们看一下他说的这些有没有真的, 那打分一下。好吧, 平分 看结果。当前平分 这个 skill 主要功能给我列出来, 你可以去后面给他优化看。这是它主要功能啊。 好,今天这个 skill 就是 讲到这里,还有什么 skill 需要看的,大家可以评论区说一下。

最近小龙虾 oppo kart 又火了,袋装业务一次收费高的离谱,今天我把完整的安装教程直接公开,小白跟着操作也能赛博养虾。这期视频主要讲 windows 用户, mac 用户将放在后续视频, windows 用户注意,最低要求是 win 十六十四位。安装前需要两样东西, note 和 git note 官网在这截图保存,下载后一路 nice 就 行, git 也是一样,官网下载,安装时留意这个选项,其他的默认即可。 安装完成后, win 加 r, 输入 c m d, 打开终端,输入 note 杠 v 和 n p m 杠 v, 看到版本后就 ok, 再输入 get, 有 提示就是装好了。接下来是重头戏,在终端输入 n p m install 杠记 opencloud at let's, 等待下载完成即可,期间千万不要关闭终端窗口,看到这个页面就 下载好了。输入 openclaw on board insta demo 运行新手向导 api 的 接入呢?先跳过,下期我们详细讲解,这时它的 token 一定要复制,这个很重要。之后我们输入 openclaw getaway hot 一 八七八九 vbox 启动服务。这时候我们就需要用到浏览器了,浏览器我使用的是官方浏览器,其他的也是可以的。我们浏览器访问一二七点零点零点一冒号幺八七八九,把 token 填进去 是正常,就是成功了,这时候你就拥有属于自己的小龙虾了。下个视频教你接入 a p i 手机远程控制,让小龙虾二十四小时帮你工作,赶紧跟好,别错过了。

大家好,上期不是给大家分享了我养了好几只小龙虾,用本地模型吗?大家对我这个机器配置比较感兴趣,也很好奇我这个机器到底能开多少只,其实我试了,能开差不多十只都没问题。那今天我刚好给你们做个开箱吧, 等一下,等一下!我又仔细想了想大家的问题,大家真的是刚需一窝龙虾吗?是真的刚需硬件本地部署模型吗? 又或者说,其实很多人都只是因为很迷茫,大家都不知道到底需要什么,只是想拼命的抓住机会,所以觉得有了这些也许就更近了。是这样子的吗? 我的评论区和私信里面问的最多的问题就有这三个,今天呢,我就分享一些自己的经历,来解答大家这几个问题。 首先啊,我很惭愧,我网名叫小天,但我其实不小了,我是个四十多岁的老灯,我就想告诉大家,其实学 ai 年龄不是问题, 我自己也不是程序员,我是一个连续创业者,我做过狼人杀,做过剧本杀,说不定你们还玩过我做的产品呢。我以前还写过好几个剧本杀,但我真没怎么写过代码,也不懂技术细节。我就想告诉大家,学 ai 只要有热情,技术也不是门槛。 那很多人还问我,你到底是怎么学 ai 的? 我真不知道怎么学的,我就知道玩起来就对了,能玩的东西越多,你学的就越快, 我那几个显卡就是我的玩具啊,我部署了本地模型之后,我总不能光聊天吧,所以每次有什么开源的好东西啊,我都会去部署一套来玩。那很多朋友也喜欢这样的折腾,网上就会有一种声音就批评他们说你们没产出,但我觉得这其实都会产生巨大的回报。 open 出来之后啊,我就非常感慨,我感觉这个世界又出现了一个 chat gpt 时刻。 具体的来说,就是全世界都形成了一个共识的窗口,在这个窗口之内,大家都会疯狂地去研究 openclot。 我 之前给大家教过怎么用 clot code 吧,那时候从来没有人会说,哎,谁来帮我装装 clot code, 我 来付费。 但 opencloud 就 不一样了,你们去网上搜一搜,连上门安装的服务都有了,全球的 mac mini 都卖断货,这根本就不正常。你们可能会说啊,这些都是不理智的没错,可什么时候经济繁荣是完全是因为理智产生的呢?人类本身就是乌合之众啊。 在这个非理智的时间窗口里,你周围会有很多很好的氛围和很多人,大家都通过这件事情来建立连接,这就是很好的。虽然说不理智,但是大家头都很热,对不对?就会产生大量经验和内容,可以参考。 所以,不管这个现象到底是不是理性的,参与者是实实在在的产生需求上的变化,也许这个热度很快就会消散, 但你就再也回不去了,因为你再也不是那个不需要 ai 的 自己了,对不对?所以你说要不要花时间去参与这场盛宴呢?有人说啊, openclaw 一定会过时的,应该等更成熟更傻瓜的产品出现。 我同意啊,绝对会过时的。我过去两年本地部署过的开源模型也有几十个了,他们都过时了, 但你要问我怎么学的耶,就是因为我玩过他们,我还玩过很多开源的软件,这样做,知识才能不断积累,越来越多的知识碎片汇聚到一起,慢慢才有了一个体系化的认知。 那你说该不该投入时间?肯定该啊,但每个人效能是不同的。我有时候半夜起来刷到千万又发新模型了,我就赶紧起床去下载,但我一点都不觉得累, 为什么就我,我的感觉就是我起床捡了一下装备那种心态。那我说一说,如果你有 gpu, 或者有个 mac, 有 没有意义啊?我有这么一个观点, 你的玩具不一样,你获得的认知也不一样。有的朋友啊,他没有 gpu, 没有 mac, 买了一个九块钱的 cooling plan, 聊了几分钟,还什么都没试出来呢,额度就用完了, 然后就骂骂咧咧说,就这玩意我就不一样,龙虾刚出来的时候,我几分钟就装好了,而且是本地模型。养龙虾我可以拼命的试,错开 n 多的病房,把所有的脑都能试出来。我的玩具和别人玩具就是不一样,我得到的信息也就不一样。 评论区很多人问什么是容器,怎么部署本地模型,我说,啊,你要是玩过纳斯这个玩具,你就不会布置到 dork 的。 你要是为了学 ai, 买过显卡,你也一定会部署本地模型。你没有这些玩具,你自然不会接触到这些信息,你就没有办法形成体系化的认知。 所以 ai 时代,买一块卡或者是 mac 是 绝对划算的。先不说它费多少电,它产生的 token 质量高不高,有些程序员就说,哎,你这个本地补光星太弱智了,根本不如我的 office。 我 觉得这根本就不是问题, 就从你为了玩转它所积累的基础知识,你都是不亏的。你别去考虑它的这个 token 质量高不高,因为你得到的是无限的试错权,这是 api 做不到的。 那退一步讲,我就是没卡,我也没有麦克,我该怎么办?只有托,肯行不行?行,肯定行,但是你还是得至少有一台能玩的设备,对不对?你得给你的小龙虾有个家,对不对?一台离 ai 生态更近的设备,一台长时间能在线的设备, 你必须要有一个数据中心的概念,我很早就给大家讲过,对不对?早点整个 linux 或者是 nas, 离 ai 会更近的。比如说非牛的 founos, 就是 个很不错的选择。好多人一听 nas 就 觉得是为了下电影用的,那是绝对的误解。非牛呢,只不过是一个更简单更好用的 linux 而已。 你见过哪个 linux 五分钟都用不了就装好了?给你配置好所有的环境,一键安装英伟达驱动,你不会装到 docker 啊,虚拟机管理啊, node js, python, 点个手指就全搞定了。 这样一个个人私有二十四小时在线智能化的数据中心,是每一个人都需要的。 而现在呢?这个数据中心你可以给他再加上一些小龙虾,他就有可能变成一个天才的国度。所以,这就是第二个问题的答案,你没有卡,没有 mac, 但至少得投资点硬件,你至少得让你的龙虾有 token 用,得让你的龙虾有个家,对不对? 那最后一个问题应该怎么学习?我的答案就是,顺应大环境玩起来。你别总想着能不能变现,很多的变现机会都是玩出来的。我自己的人生经历给你们讲一下,我以前和朋友玩狼人杀, 我是在群里语音玩不好,发身份对不对?于是我就做了一个网页用来发身份的,一个网页做了个公众号, 半年就做到一百万用户,然后我就融到钱去做游戏了。所以机会就是这么玩出来的,你投入的 token 成本,或者算力成本,还有时间成本,都会给你带来更多玩的场景和机会, 你的玩具越多,你接触的知识体系就更广,等有一天你发现,哎,新出来的玩意,你看一眼就明白了,那你就是个有体系的人了。 我不知道 ai 时代怎么样系统化的学习,我的经验就是玩 openclaw 这个风口就是让大家一起去玩的。也许很快这个窗口机就结束了,大家再也不讨论 openclaw 了。但这绝不是因为他过气了,而是一部分人玩明白了,他不满足了,他跑去玩更高级的 ai 了。 而那些没有参与的人,则是在这个打勾兑的另一头,还在原地驻足。所以回到我们最初的问题啊, 你不是需要一个 gpu 来部署本地模型,你也并不是刚需要养很多只龙虾,你真正需要的是以各种各样的形式方式尽快的参与其中, 在这个时代还一片混沌的时候,尽快发育,早点找到新世界的规则,因为窗口期是不会等你的,但你可以今天就开始。 好了,希望大家别焦虑了,玩起来。以上就是本期全部的内容了,在结尾处我放了我的配置单,还有各种各样的模型,各种各样的硬件,跑出来的效果怎么样?我也给大家做了一个简单的一个回答。 还有我的工作站,我会有一个短的视频详细介绍我的工作站,如果感兴趣的话可以接着看,谢谢大家。这个机器啊,我特别喜欢的一点就是它到处都是这种方便拆卸的。 然后我当时为什么买它呢?因为它是一个建成撕裂者的平台,这个平台有个特点,就是它有八个内存通道,看到没有?我插了八条内存,这整套系统下来是八千块钱,配了二百五十六 g 的 内存, 内存大概是三千多块钱,但现在看,现在这个内存是值钱,然后这个显卡两万三。 这个机器特点就是 pci 通道特别多,一百二十八条。我现在这插了一个硬盘,硬盘扩展槽, 它是一个 pci 十六,能拆分成四个。而这机器比较好啊,它每一个 pci 的 插槽都可以拆分的。然后本机带两个 m 点二,看一下接口,接口就比较简单了, 带一个万兆,前面带两个 type c。 我 觉得这个机器缺点是什么呢?就是这个散热器不太够啊, 你比如说要翻译一个什么辣妈点 c p p 的 时候,这个就过热,经常会纳斯,会报警。这个平台有个特点,就是它的这个县城撕裂者的 cpu 是 锁的,所以它特别白菜价,这 cpu 烧坏了再买一个也就是几百块钱,特别好。 不过这个是 zen 三架构的,有一个缺点就是没有那个 avx 五幺二,所以你用它跑一些什么 k transformer 就 不太行,好了,就这样了。

装了 open collab, 但发现它什么也干不了,甚至有点笨。那是因为你还没有去 collab 给它装 skill。 collab 上有一万七千多个 skill, 我 从下载量前三十和我自己高频使用的做了交叉筛选, 只推荐这十个,装完至少强三倍。第一个 skill writing 安全审查员,它会在你安装任何 skill 之前扫描安全风险检查红旗标识、权健范围和可疑模式,能检测 prom 的 注入工具、逃毒、隐藏恶意代码。 建议在装任何其他 skill 之前先把它装上。第二个,自我进化 skill, 它是 cloud heart 下载量第一的 skill, 解决大模型失忆症,它会自动把每次的错误、日制成功经验和你的编号 存到本地记忆库,下次遇到类似问题,直接调用历史经验实现,越用越聪明。这个 skill 的 价值不在于第一天,而在于第三十天, 用的越久, agent 越像你的数字分身。第三个, tablie search ai 专属搜索引擎,让 agent 学会上网搜索,而且搜出来结果是 ai 友好的。 不同于传统搜索引擎返回一堆链接, tablie 直接返回干净的结构化内容, agent 拿到就能用。第四个 summarize, 全格式内容摘要,专家网页、 pdf, 图片、音频、视频,什么格式都能一口吞下去。给你摘要, 我的日常用法是 tellly 搜索加 summary 总结,先搜到相关页面,再把整篇内容压缩成五百字未给上架文,效率翻倍。第五个, find scales, 寻找 scale 的 scale, 用自然语言告诉 agent 你 需要什么技能,它帮你找到并安装对应的 scale, 不知道装什么的时候直接问他就行。六个 using superpowers 来源于 superpowers, 这个强大的插件,核心理念是让 agent 严格按照先查 skill 再行动的规则做事,杜绝偷懒和无距离探索。如果你发现 agent 不 用你装好的 skill, 就 自己瞎搞, 这个 skill 能帮你管教他。第七个, react 最佳实践技能的性能优化圣经 worst one 方共同团队出品, react 和 next 最佳实践前端开发者必装。 第八个前端设计技能,帮你写出更有设计感的前端页面。按 zorbike 官方出品,强制 agent 先做设计思考,再写代码,把从能跑就行提升到设计合格。第九个, github github 全流程操控,让 agent 直接操作你的 github 仓库。 a shows p r c i 一 条命令搞定。最后一个浏览器操作技能,让你的 opencloud 像人一样打开网页,点击按钮,填写表单,截图画面。最后帮大家总结一下。

open club 一 百个邪修用法第二期如果你安装了 open club, 却不知道他能帮你干点啥,那么这个开源的 open club 实战案例库你可以闭眼收藏了,即便是没有编程经验的小白,照着模板也能直接使用,包含了五十多个实战案例。像这种能够自动抓取全网资讯,分析当下热点,并将其提炼为可直接使用的文案素材。 有自动化工厂,只需要输入一个终极目标,他便能自主规划并启动任务。即便在你休息时,他也能在后台默默的编写代码构建产品。最扎力的是商业情报分析,他能构建自动化模拟交易系统,让你每天起床就能收到一份详尽的每日数据报告,以及未来的趋势预测,全部都是开源免费的。

当你不小心安装了一个 openclaw, 然后发现不知道拿它做什么,直接去 github 搜 awesome openclaw skills, 你 会发现有大佬把三千零二多个 openclaw 的 核心 skill 全部开源了,整整覆盖了三十多个吸粉领域。 不管你是想搞 ai 应用开发,网页自动化、图像视频生成,还是做搜索研究、市场营销甚至 devops 部署,总有一款适合你。最牛的是,每个 skill 的 核心工作流都给你拆解好了,直接抄作业,完全零基础可上手,而且全部免费,从此你就有了一个技能仓库。

这是我用 openclaw 搭建的 ai 团队,他们各司其职,不用睡觉,能节省下非常多的时间,同时也做很多我一个人做不过来的事情。这期视频我想带你看一下我的 ai 团队到底长什么样,然后我们再一步一步搭建出属于你的 ai 团队。我们会讲如何创建一个 agent, 我们在 open cloud 里面,一个 agent 到底指的是什么? agent 之间如何相互协助,以及什么时候需要多个 agent 和最佳实践。好的,废话不多说,我们开始吧。我的团队里面一共六个选项题,其中四个是有定时任务的,就是每天的某个时刻都会触发他的任务,让他执行直到完毕,当然也可以随时跟他对话。 还有一个是几乎二十四小时期不间断工作的,还有一个最后一个,那就是你给他任务,他才会执行。第一个 agent 呢,是攻击 galk 啊,他每天负责给我情报工作,具体来说就是每天早上九点会提前搜寻 关于 ai agent 相关的技术的进展,产品进展以及用户的痛点。然后呢,把在网上搜寻的信息汇报给我。那么如果我不回答他,那就是明天继续给我相关的信息。如果我回答他,希望他对某一个话题进行深挖,那么他再去根据某一个话题再去搜索相关的信息为我展开。 那我的第二个 ai agent 是 auto 合理,它是我的私人助理和提醒助手,怎么用呢?我一般都是通过 diagram 跟它对话,这里我就不展示我跟它具体对话了,要涉及我的个人隐私。 一般来说,有任何的待做事项或者事情有着进展,我一般都会语音留给他,或者是打字告诉他,他都会记下来,某一单有问题就会问他,他都会翻出来告诉我待做事项是什么,事情到哪一步了, 同一次。同时呢,每天早上七点半,他都会告诉我今天的天气,然后今天要做什么,一步一步按重要性排序。它的作用就是完全替代笔记软件在我这里的作用。现在呢,我已经不用 notion 来记我事情,要做的事情,以及事情的进展了。 我的第三个团队成员,也是最重要的团队成员,就是 man, 一个狮子的形象。他呢,有最好的模型,有最高的权限,我主要用它来做两个功能,第一个就是日常的对话,我所有重要的对话,长期的计划都是跟他讨论的。 第二个就是一个视频流水线,帮助我制作视频。那么这个想法来自于一个叫做 alex finn 的 博主,本质上就是每隔几个小时,比方说我是每隔三个小时,他会去 x 上搜索我感兴趣的话题,比方说 ai 阵,比方说 open call, 比方说 ai 模型等等等等。有系列的话题。 他呢,就会看看哪些帖子现在比较火,或者是正在受到关注。然后呢,把整个的中文翻译和相关的数据都发到我这里来,包括原文的链接。如果我更感兴趣,希望用这个题材做一个视频,或者是有可能做一个视频呢,我只会点一个大拇指, 他就会进到我们的流程的。下一步就是他去研究这个帖子相关的背景信息,补充相关的背景信息给我,确保我了解这个事情的来龙去脉。那么如果这时候我再相关,我还觉得还是感兴趣,我再点一个拇指,他就会往下走,去研究怎么做这个封面图,或者给我一些脚本大纲的一些建议。 那么除此之外呢,如果我对一个帖子我不想做成视频,但它对我是有用的信息,我的时候可以点一下这个眼睛,它呢就会到我的收藏家里面去,可以看到。哎,这个帖子现在到我的收藏家里面去了,这里面就是我认为收集的比较重要的信息。除了 x 之外呢,它也会去搜索 youtube 和 hacker news, 看看每天大家都在讨论什么。这是我这样一个视频的辅助系统。我的第四个团队成员是潘大熊猫,他负责开发,他呢算是唯一一个几乎不休息的智能体。现在他有开发任务,但是当他没有开发任务的时候,他会增加测试,或者是自己去测试边缘情况,找 bug。 那 么关于二十四小时期,我特地特别想说明一下,想有好的效果,往往你需要用好的模型,如用云端的模型消耗 top, 二十四小时期会非常的贵。如果你用本地的模型呢,你大概需要买 max 九九,那么 也会造成非常贵。所以二十四小时成绩一定得是高价值的工作。对于我来说,开发是高价值的工作。除此之外,正在我现在正在做的还是有销售相关的,比方说做 seo, 或者是给我自己的产品做销售线索,找潜在客户。 我的第五个团队成员是 monkey 猴子,他只有一个作用,就是我丢给他一个视频链接,他把这个视频变成一个带截图的文章,因为我自己做视频,我希望重复利用自己的资源,这时候我给他我做过的视频,你可以看到他啊把相关的进行了截图,并且把整个视频脚本重写为可以发表的文章。 我的第六个团队成员,也是最后一个是 tiger 老虎,他负责安全和更新,他呢每天都会定期扫描一下有没有安全问题,然后有新的可以更新的版本也会通知我,我们一起讨论如果更新的话,会不会造成性能的退化和影响当前的任务。 那么如何创建一个新的 agent 呢?其实非常的简单,我们后来会看到整个 agent 的 结构,但是你完全不需要自己创立文件夹,最简单的方式就是跟你的主要的 agent 的 对话,让他帮你去创建。这里我们以 diagram 为例, 你通过 diagram 与你新的这个 agent 进行对话,这时候你可以告诉你主要的 agent, 你 跟他说,哎,新建一个 agent, 他 叫什么?他要做什么啊?有什么呢?任务最后呢,告诉他你新建的这个 diagram boat 这个 diagram 机器人的 token, 这 token 怎么获得呢?我们找到 boat father, 点击这个打开 boat father 的 app, 然后这里我们点击 create a new boat, 新建一个新的,然后这时候我们给他一个名字,比方说我们叫做 fox, 然后我们点击 create boot, 你 就会得到这个 tokin, 然后这里我们点击复制,然后我们回到这里来, 把我们的 tokin 复制上去,告诉我们的主要 agent, 那 它呢,就会自动帮你创建这样一个新的 agent, 新的智能体了。那么什么是 agent? opencloud 里面如何定义 agent? 它又是如何工作的呢? 其实啊,一共就分为三层,分别是全局层, agent 层以及 session, 也是对话现成层。我们首先看第一层,就是全局层, 它呢并不是一个 agent 独有的,而是所有 agent 共用的,可以理解为是公共设施。这一层最典型的文件就是点 opencloud 我 们的总文件夹下面的 opencloud 点这次文件,也就是总配置文件,大家可以打开看一下,里面有非常多重要的参数,包括 os, 也就是定义哪个大模型厂商,还有就是你的登录身份是什么? agents 定义有哪些 agent? 它的默认模型是什么?工作目录和运行参数是什么? tools 定义局的工具权限以及 agent 之间的调用规则。 bundings 定义什么来源的消息调用到哪一个 agent, 浏览器定义浏览器信息, chanel 定义 telegram, discord, 飞书等外部的渠道连接, gateway 定义网关, memory 定义记忆等等等等。可以看到 openclaw 点 json 文件,里面包含着 openclaw 最重要的参数配置。 其实啊,大部分情况下我们出现崩溃对话没有反应的情况,也是因为我们的 ai 去改 opencll 点 json 这个文件夹里的参数的时候改崩了,所以一个建议就是,哎,你告诉你的 opencll, 在 他改这个文件之前一定要提前通知你,而且改的时候一定要谨慎。 第二层是 agent 层,这才是每个 agent 自己的领地,每个 agent 啊都有自己的工作空间,系统数据会话记录。那么 workspace 里面每个 agent 文件夹下面的这些文件,在每个对话开始的时候都会被加载进去来作为这个 agent 的 上下文。 由于呢,不同 agent 这些文件有所不同,这也就决定了啊,这些被文件被加载进去的时候,里面携带的信息,包括啊,他的身份,他是谁,他的性格,他的对话方式,他的任务的不同。 那么这些文件呢,包括 agent 点 m d, 也就是这个 agent 的 工作说明书,它决定这个 agent 的 做事规则,优先级,边界,还有如何使用记忆。 so 点 m d, 就是 这个 agent 的 性格和说话方式,与其是什么风格,是什么,边界在哪里,由它来决定。 user 点 md 就是 这个 agent 对 用户的理解就是他在帮谁,对方是什么风格,应该怎么称呼,有什么偏好,要注意 identity 点 md 就是 这个 agent 的 身份卡,解决的是这个 agent 叫什么,是谁的问题。 to 点 md 是 工具说明书,告诉 agent 啊,本地有哪些工具命令,怎么约定项目里面有什么习惯? memory md 是 长期精华记忆,它不是流水上,而是提炼之后的长期信息。这个文件很重要,而 scales 里面就是这个 agent 专属的 scale, 如果和局的 scale 同名的呢,这里的优先级更高, 会覆盖大局。那么这些呢,都属于 agent 层,也就是说啊,不同的 agent 默认不共享这些文件,但是同一个 agent, 不 同的对话,不同的对话线程之间是共享这一套文件的。第三层是 session 层,这个层级啊,不是这个 agent 是 谁,而是这个 agent 当前在哪个窗口里面工作。 session 是 对话县城,怎么理解呢?比方说,当你在同一个 agent 和他对话,但是在不同 discord 里面的频道对话,或者是你先跟他在 telegram, 后跟他在 discord 对 话,这就是属于不同的县城,因为它们的渠道不同, 或者是就是你当前的对话,但是你打了命令 slash new 或者是 slash reset, 就 会开启这样一个新的县城,区别是 slash new 旧的对话还在,但是 slash reset 会清空上下文,重新开始这样一个对话界面。那么这一层最典型的文件就是在我们每一个 agent 的 下面 sessions 文件夹里面不同的 session 文件了, 也就是每个对话都有自己独立的这样一个文件来记录啊,不同的对话历史。也就是说同一个 agent 不 同 session 会共享 agent 层那一套的。我刚才说的 saw 点 md, 我 刚才说的 agent 点 md 等等那些 workspace 的 文件,但是不会共享竹字的聊天记录。 讲完三层结构,了解 agent 工作原理之后,下一个很重要的问题就是,哎,多个 agent 之间是如何协作的呢?在 open call 里面, agent 协作大体有两种方式,第一种就是固定分工,也就是我们刚才说到的多个独立的 agent, 各自有各自自己的 workspace, 有 自己的 session, 也是对话现场。 固定分工就是像搭一个长期团队,就像我展示的我的 agent 一 样,一个负责找资料,另一个负责写脚本,一个负责写代码,还有一个负责日常对话和汇总等等等等。他们每个人啊,都长期干自己的事情, 他们之间的工作啊,写作的方式可以通过触发的串联或者是并行,比如啊, agent a 搜完信息这里我在 disco 里面点个赞,后面的 agent b 就 会根据我点赞的这个内容去调研资料,去补充材料。 那么第二种就是临时拉 sub agent, 也就是子代理。子 agent 去干活,也就是 open club 的 sessions prom, 它呢会拉起一个隔离的啊。 sub agent prom, 也就是子代理的这样一个运行在独立的 session 对 话现场里面工作, 工作完之后再把结果传到我们当前的对话里面来,相当于临时叫了一个实习生或者是外包去隔壁的办公室工作,干完工作回来汇报。这样的好处就是当我们的子代理在独立的赛程里面工作的时候,他不影响我们当前对话的这个主位阵子,我们可以继续给他提问,继续跟他对话,两边同时进行。 那么官方文档对他的定位也很明确,就是他适合做研究,慢任务、重任务、病情任务,而且不会阻塞我们主对话。 比方说这里啊,我让他去用 sessions born 去开一个子任务,研究 open call 智能体最近最受欢迎的三个讨论点,要求每个讨论点的热度、原因,代表观点,以及我可以做视频用的切入角度,然后让他开始在后台启动,完成之后主动汇报结果, 好的,他已经启动了这个任务。其实这时候我们可以去跟他对话,比方说我问他今天天气怎么样, 他呢,还是会回答我们这个今天天气怎么样的任务,因为刚才我们也说了,子任务是在另外一个县城完成的,不耽误我们跟我们的主要的智能体之间的对话。可以看到他就是继续的跟着我们进行对话,他回答了我刚才的问题,然后我们可以继续提问,我说, 哎,可以看到我们等了一会之后,他终于是把这个任务完成,然后自己主动地把任务的结果发回到了我们的主要的频道。哎呀,没有影响我们刚才跟他这个主要频道主要的智能体之间的。对,不是所有任务都适合上多 agent, 如果只是一个短问题,那么一个 agent 往往更加有效,硬拆呢,只会让系统更重更慢。那么真正适合做 agent 的 场景啊,一般有这么几种,第一种就是你的任务天然就能拆开,比如啊,研究,写作,审核,发布,本来就是不同的角色,这时候拆 agent 有 不同的工作区的这种不同的文件边界会更加清楚。 第二个就是任务可以并行,有些事情呢,不需要排队,一个 agent 可以 查资料,另外一个可以同时整理结构。如果你用 sub agent 这种并行就很合适,那么刚才我们也说了,它很适合做这种比较重的或者重复性的工作。 第三个多 agent 呢,不只是为了分工,也是为了避免污染。因为啊,如果你用单 agent 做太多不同类型的任务,都会出现相互污染的情况,长期记忆呢,会把不该混的东西混在一起。因为我们也说了,工作区那些啊, markdown 文件是同一个 agent 在 不同聊天窗口里面共享的, 那么什么时候没必要用多个 agent 呢?那么很简单,要么就是你的任务很短,要么就是上下文高度连续,你不想打破,要么就是你角色的边界根本猜不清,就没必要拆。还有就是避免为了做 agent 而做 agent, 只是为了看起来很高级而已, 能一个做好的事情就一个做,就相当于是一个队伍,当一个任务需要一个团队来做的时候,那自然值得用团队。 那么关于多 agent, 为了达到好的效果,我想分享一下我自己得出的一些实践。第一个就是不要一上来,对于很多的 agent 可以 从一个开始,有必要就加第二个,比方说你第一个 主要的 agent 也是默认的 agent, 基础上你加一个研究 agent, 每天去搜索啊有价值的信息,定期汇报给你,那么先把这个逻辑跑顺出来,然后再根据你自己的业务再加一个,同样每加一个呢,都先跑顺功能验收效果。 第二个就是工作区的文件要尽量的短,尤其是 agent 点 m d, soft 点 m d, user 点 m d, 也就是心跳文件, 而因为这些文件都会进入 agent 的 运行上下文,如果太长的话会增加效果。考虑到你有多个 agent, 如果你不注意的话,那你的成本可能会成倍的增加。好的,以上就是今天的视频了,希望你也能开始搭建属于自己的 ai 团队,不要忘记点赞和关注,我们下期再见。

如果你好不容易搞了一个 open cloud, 却不知道用来干什么,可以来这里找找灵感。这是一个开源免费的 open cloud 技能库,包含了三十多个应用场景和三千多个实用技能,比如图像和视频生成、自媒体创作、浏览器自动化操作、个人提升与发展、 数据分析和 ai 编程等等,使用起来也非常方便,只需要把对应的技能发送给 open cloud, 让它装上就行,然后通过自然语言就能调用。那新手的话,建议去找与自己业务相关的技能,多试试。