哎,养龙虾,咱们养龙虾试试,试试对话 发送消息 回复过来 接受你的功能, 开始介绍。 哎呀,其实装这个龙虾装了两天,他给它装好后就能泡了,信号正常, 现在正在搜索, 纯是自己装的,用这个软件脆 t a r e。 让它一一键安装, 你直接告诉他,让他装 open close, 他 就直接跟你装好了。就是这东西 open close, 就是 速度太慢,还在搜索, 这是刚才跟他说的话,早上好, 但是他这个时间跟他时间肯定是不对的,应该是这样,搜索完了 用这个翠一键安装,你知道吗? 这是飞书,这是刚才问他的问题,这是他自己回答的。 用的聊天用的这个飞书,和他一起聊的。哦,这是新装的,新装的那个叫微信版的我碰可乐,这个没怎么用, 这是废书,这个必须得装, 用这软件在这直接和机器人聊天,让机器人告诉你一步安装就可以,你可以选择达摩型看看, 你可以在这儿,在这里选择你的大模型经常用哪个,上面有豆包 g l m deepsea kimi, 选哪个都可以,我一般都是选自动就可以, 然后在这输入聊天内容,你就写安装,自动安装发送,它就会给你自动安装完成的。 已经装过了,咱们不装了啊,往这停止确定, 嗯,这个软件叫翠 t a r e。 嗯, mac code 基本上差不多, 这是大龙虾的界面,看看咱们的 token 用了多少? 充值余额十三块一毛八,本月消费十六块八毛一,这才装了几天,哪天装的?这是三月七号 三八三九三十,这是 token 用量。
粉丝182获赞725

大家好,今天给大家介绍一下最近很火的 openclaw, 由于 openclaw 下载难度较大,我们给大家找了可以一键安装到电脑中的软件 autoclaw。 我 们先在 autoclaw 官网下载一下这个应用,下载完成后安装即可。我们下载完成后首次登录需要登录一下账号,之后就会进入首页, 首页如视频展示一样,如果使用 autoclaw 是 需要积分的,新用户的话会赠送五百积分或者充值二十九元,有五千积分可以使用。 接下来简单介绍一下它的配置模型,相当于 autoclaw 的 大脑,我们可以切换,如智普、 deepseek、 minimax、 kimi 等多家的大模型, 也帮我们下载了很多 skill 技能,如果自己部署的话,这些都是需要自己一个个再额外下载的。 接下来我们展示 autoclaw 的 功能。第一个可以设置定时任务,如每天给我们推送当天的 ai 新闻,并简单分析 autoclaw 会调用它的技能,告诉我们怎么实现, 如他告诉我们现在的回答只能在当前窗口,无法脱离当前窗口回答。询问我们是否要连接飞书。咱们暂时先不用飞书,先简单演示一下这个功能, 这样我们定时任务就已经创建好了,等到时间我们可以查看一下效果, 到时间了效果就出现了,这次我们简单使用页面来展示,下节课我们来将飞书接入,实现飞书给我们发消息。 接下来展示 auto cloud 的 第二个功能,本地电脑操作,通过对话实现对我们的本地电脑文件进行操作。如让 ai 帮我们寻找一下我们的文件内有多少个视频文件? 现在我们看到他已经帮我们把文件夹中的文件都整理好了,还可以再让他把我们把整理好的文件根据需求放入一个文件夹中, 这里可以看到他已经帮我们把文件整理好,放进一个文件夹里了。接下来来展示一下 ppt 制作功能,我们把想要生成的 ppt 主题发给他,等待片刻, 接下来就已经生成好了 ppt, 我 们来看一下效果。

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

零元带你体验在云服务器上部署官方 openclo 首先我们用到的是腾讯云服务器,打开腾讯云服务器, 登录完之后,这里有免费试用。腾讯云服务器给我们提供了非常多免费试用的服务器,我们通过完成个人认证之后,就可以在晚上零点之后可以立即领取,领取之后我们回到首页,点击控制台,控制台这个位置 就有清亮应用服务器,直接给它点开,点开之后这里就是你领取的服务器,直接点开,点开之后首先我们需要给它重组系统,点击重装系统,点击使用应用模板 openclock, 输入自己的密码,无需备份,直接重装,点击确定,随后我们回到刚才服务器的开始, 点击这里应用管理,在这里可以配置你想使用的模型以及使用它的渠道有哪些模型优先建议选腾讯云 deepstack, 这里不需要调用 api key, 可以 直接一键增加并应用。随后这里有通道,通道中给了这几款应用的渠道,我们首选飞书, 点击手动配置,直接点击详情。进入飞书开放平台之后点击登录,登录完成之后点击开发者后台,在开发者后台去创建属于自己的应用,输入应用名称以及对他的描述,直接点击创建。 创建之后这六个凭证与基本信息这里就出现了 app id 跟 app script, 点击复制,再回到这里配置这里复制,再过来 ctrl 加 v, 直接增加并应用,这里就可以看到它是属于正在运行中。 here 目前 我们初级配用可以先不用到,之后自己想进阶玩法,想提升自己的 open class 的 时候再来处理相关 skills, 随后这里配置好之后,我们来到飞书点击增加应用能力, 增加机器人,这里显示出机器人之后即为成功。随后我们来到权限管理,权限管理我们需要开通几个权限,点击开通管理输入,我们需要给他的权限点击确定开通权限 继续添加,这里的权限是你给他能操作的,有哪些权限在之后的用途当中可以自行添加。 随后我们点击事件与回调,事件与回调部分,进入方式全部都选择长连接,要注意的是我这里是在给大家进行演示,实际你在保存之后,他这里是没有红色字的, 要是你这里没有点击一键添加并应用的话,那你这里就会选择红色。这里保存之后我们来到回调设置,回调配置当中也选择使用长连接接受回调点保存点回事件配调增加事件, 选择两个,一个是信息已读,另外一个是接收信息。随后我们在这里创建新的版本,比如说一点零,点零,这就是你的初步版本更新说明, 随后我们直接点击保存就可以了。随后我们重新打开这个控制台,然后直接点击进入, 进入之后需要给他扫个码,成功之后直接登录,登录进去,在刚才调出来的飞书,直接在这里搜索属于你的这个机器人,随便给他发一句话,然后他就会给你发这一段, 发这一段之后把最后这一段给他复制粘贴一下, 点击回车, 当这一部分出来的时候就是成功等待。

兄弟们,就在刚刚,我发现了目前为止可能是最简单的 open 库的安装方式,只需要一分钟,不仅同时适用于 windows 系统还有 mac 系统,而且可以直接部署到你的本地。最关键的是,它优化了原版中间一些做的好的技能还有插件,看完这篇,立刻帮你省下四百九十九块钱的安装费,保证任何人都能最快速度用上属于你自己的手相。 这个呢,就是自古刚刚发布的 autocool, 它跟之前的小龙虾安装最大的不同就是你再也不需要担心环境的部署了,也不需要输入命令行,整个过程就像你安装一个 app 一 样的简单还有快捷。你只要打开它们的官网,下载安装包,然后去登录账号,弹出这个界面,就输入真的是 完全安装好了。如果你还想部署到飞书上使用,其实也特别的简单。我用我这里的 mac 来举例子, mac 和 windows 稍微有个明显的不同,那 那么 mac 呢?你点击链接飞书以后,它会自动弹出一个弹窗,开始自动配置。你只需要扫完飞书,登录二维码,剩下的全部交给 ai, 它全部会自动化帮你都配置完成, 你就会看到目前为止我可能认为是最丝滑的 ai 操作了。还需要什么教程吗?一键安装不响吗?而 windows 系统呢,就会稍微复杂一点点,需要按着操作文档一步一步来,因为这方面还没有设备的特别好,这一块你们跟着做也完全没有问题,我就不再敷。 那除了配置过程呢?小龙虾 tommy 的 消耗量也是劝退大部分人的一个主要因素。这一次制服他做了两个优化,第一个是呢,用了一个龙虾的专属模型,叫 pony r four two, 这是 一个匿名的模型,还没有正式发布,就是先上来做一个测试。它的任务的成功率和它的调度其实都是有一些优化的,而 tommy 的 消耗量是有了一些甩减的。另一个呢,就是他们做了一个专门的页面,贴心的帮你把用量统计给显示出来,你再也不用担心他到底花了多少。 当然,如果你想填自己的 a p i k, 你 用你自己的模型也完全没有问题。 autocool 支持全世界所有的 a p i 模 型。那除此之外呢,还有一个不错的优化点,就是 autocool 在 内制了原本小龙虾技能包的同时呢,还对这个核心的 skill 进行了一些优化。比如说呢, to research 这个 skill 优化后,它能解锁到的内容无论是质量还是新鲜度都比原本的 open go 强了不少。还有一个他们优化的比较好的 是一个操作你浏览器的,基本上你涉及到一些网页的操作的模拟点击都需要这个东西。相比 open code, 它原有自带的 for use, 它其实是能力强的非常多,而且非常适配国内的互联网生态,懂的都懂。 那讲真的,智普这个 open code 呢,是我目前用过最方便的一个小龙虾了,技术其实从来不缺牛的,缺的就是如何让普通人真的用得上 open code 走到了这一步。你至于以后能走多远呢?说实话我也不知道,但就现在这个版本,我觉得它已经值得你花一分钟的时间去装一下,来真正的去亲身体验一下 agent 的 魅力。

登录控制台,选择轻应用服务器, 可以看到已购买的服务器,也可以点击创建服务器,可以看到默认会有 open call 服务, 同时可以更换更多的版本,这比自己安装更加省心。 接下来我们开始配置, 点击图标进入配置页面, 点击应用详情, 可以看到我们有配置的引导,一二三步骤,接下去只要按照一步步点击, 再点击配置,初步 配置对应的 kimi 要 不知道的我单独给出说明, 可以看到配置还是很快的。 接下来就可以看到访问的页面, 可以在页面中进行基础的配置,由于平台限制, 我们只能使用摆列模型, 同样点击应用就配置完成。 接下来我们来操作最后一步。

经常有人问我,要玩儿 ai 的 话需要换电脑吗?配置到底要多高?那今天我就把这件事情彻底跟大家讲清楚,不管你是想做图做视频,还是运行智能检测 skill, 那 这个视频都会帮你找到自己的位置,不多花冤枉钱,而且不会因为配置不够而被卡住。 很多人呢,买电脑呢,只看价格,不知道哪一个部件到底影响什么。而且在 ai 这件事情上面,三个核心的部件各有分工,而且它和以前非 ai 时代选电脑的逻辑呢,已经完全不一样了。首先我们来看一下内存,内存呢,能够决定你同时能够跑多少东西, 内存只要不够,你的程序会卡,会崩溃,会报错。而跑 ai 工具的时候,往往需要开着编辑器,浏览器终端等等,而内存就有可能会成为瓶颈。 而显卡呢,是决定你能不能在本地做计算密集性的任务,比如说像图像生成啊,云识别啊,视频剪辑这些都需要显卡来加速。而显卡里面有一块专属的内存叫做显存, 它决定了显卡能够处理多大的任务,显存不够,要么跑不起来,要么慢的让你崩溃。而 cpu 决定通用计算的速度,而对于绝大多数的 ai 工具来说, cpu 都不是瓶颈,这几年的主流的处理器都够用,完全不需要去特别追求顶配。 所以我们先来说一下第一种情况,如果呢,你只是想用浏览器去打开豆包千问 china gpt 或者是 dbic, 或者呢?你用一些像 china studio 这样的桌面客户端,把多个 ai 模型整合在一起去辅助工作,那这一类工具,它所有的计算其实都在云端完成, 你的电脑呢,其实就是个显示器,对于配置要求极低,只要能够流畅的跑浏览器,其实就能用。哪怕是五年前的老电脑,只要内存不低于八 g, 网速还行,用起来完全没问题。而在网页上升图升视频也是完全一样的道理,你在网页上点一下任务,发送到云端服务器,等结果直接回来就行, 你的显卡 cpu 跟这件事情根本就没有任何的关系。而这类的工具,对电脑的真实的唯一的要求其实就是网络网速越快,响应就越快,体验就越好。 不过有一点要说清楚啊,八 g 内存是能用的底线,但并不是推荐的配置。如果你现在要新买台电脑,不管是什么用途,十六 g 内存是起步,现在几乎是标配,价格上呢,几乎没有额外的成本,但是体验要好得多。 第二种情况就是用本地的智能体工具,比如说最近大火的 open cloud 龙虾,或者是 ai 编程工具,比如说 tree cloud code, open code 它会在你的电脑上直接读写文件,运行代码,调用终端,或者是本地的智能体平台,比如说 cowalk 呀,或者 skywalk desktop, 它们的逻辑呢,都比较相似,核心的计算是依赖于云端模型,本地呢,主要是负责任务调度,还有界面的交互。那这三类工具就有一个共同的特点,就是都可以运行 skill, 也就是说让 ai 在 你的电脑上执行一套完整的自动化流程。 那这类的工具其实对配置的核心要求,取决于你的 ai 在 你的本地到底实际在干什么活。如果说你只让它生成一份 word 文档,整理一个表格,那对电脑几乎没有额外的要求,十六 g 内存完全够用。 但是如果你是让 ai 帮你去剪辑视频,做语音识别,批量处理图片,那就完全是另外一回事了,配置要求呢,就直接拉满。所以说,这一类工具对于显卡的要求,并不是由工具本身决定的,而是由你让 ai 做的事情决定的。 如果你确实让 ai 在 本地做视频剪辑,做音频识别这一类计算密集型的任务,那显卡呢,就不能够将就显存呢?就像是显卡的工作台,工作台越大,能同时摆开的材料越多,干活就越快。 那如果你要做视频剪辑,其实我觉得更好的方法是核显加独显的双显卡组合,它能够大大的加速剪辑的效率。而这三种情况就是在本地运行大模型, 比如说你像在本地啊,去运行一个小 ai 模型来保护隐私,或者在本地来生成图片,那么不废话,我直接给你一个简单的估算方法,用模型的参数量乘以二,大概就是你需要的显存的显存,而十四 b 大 概就需要十二到十六 g, 而七十二 b 的 模型如果没有四十 g 以上的显存,根本就跑不动。所以一块能流畅跑中型模型的显卡,价格都在几万甚至是几十万以上。 哪怕是 rtx、 五零九零 d 这种目前消费级最强的显卡,它跑能力足够强的大元模型其实也很吃力。 而如果你用 api 去调用同等能力的云端模型,每个月的费用可能只要几十到几百块。所以啊,除非你有非常特殊的隐私需求,或者每天的调用量大到 api 费用比买卡还要贵,否则都不建议本地去跑 ai 模型。 但是还有个被很多人忽略的问题,就是操作系统 mac 的 这个 m 系列芯片,它用的是统一内存架构, cpu 和 gpu 是 共享同一块内存, 所以一台六十四 g 内存的 mac 可以 直接用来跑七十 b 级别的模型,而且速度还不错。而 windows 机器呢,是做不到这一点的,因为显卡的显存和系统内存是分开的,你有六十四 g 的 系统内存,但是显卡只有十六 g 的 显存大模型还是跑不起来。 还有一个非常重要的问题就是兼容性,绝大多数的 ai 软件 mac 和 windows 都支持,但是 mac 在 兼容性上甚至要略好一点,很多工具在 mac 上的体验会更流畅,而且更新也更及时。 如果你是 windows, 想用老电脑,那么一定要注意 win 七以下呀,现在几乎所有的主流 ai 软件都不支持了, win 十是最基础的要求,但是强烈建议升级到 win 十一,因为随着时间的推移,越来越多的工具会把 win 十一作为最低的要求。 如果你近期有换电脑或者是重装系统的计划,直接上 win 十一,不要犹豫。最后给大家总结一下啊,如果你是用网页版或者客户端工具,普通电脑就够,用本地智能体工具做代码文档类的任务的话,那么十六 g 内存起步,三十二 g 更好。显卡要求不高, 如果做视频剪辑,做音频识别,那么核显加独显的双显卡组合最实用。本地跑大元模型,那么 mac 比 windows 要更有优势。操作系统方面 mac 的 兼容性要略好。 windows 一定要用 win 十一,而 win 七以下直接放弃。赶紧转发给需要的朋友吧!我是 c 哥,点赞关注,咱们下期见!

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

大家都说 open club 很好安装,但真正自己上手的时候还是很容易因为各种小问题卡住,最后看起来像是安装失败了。所以今天这条视频我就用零基础也能听懂的方式,带你从头开始,一步一步操作, 你不用自己研究原理,也不用担心哪里看不懂,跟着我无脑作,最后就能把 open core 跑起来。第一步,先打开 power shell, 输入 node version, 如果能看到版本号,说明 node 已经装好了,可以继续。 如果提示找不到 no 也不用慌,这说明你的电脑还没装 no 或者环境电量没配好,你可以先继续跑 opencloud 的 安装命令,很多时候它会自动处理,如果不行就先把 no 装好,再重新打开 powershell, 检查一次版本号。 第二步,执行安装命令,接着在 powershell 里输入官方安装命令,运行之后它会开始安装 opencloud, 并进入首次出场流程。 第三步,安装跑到这里的时候会自动进入这个命令,这一步就是 openclock 的 首次出场向导,简单理解就是软件装完以后第一次带你做配置。 看到这里先不用慌,后面虽然会出现模型、默认配置这些选项,但第一次我们不用全配完,先把程序本质跑起来最重要。第四步,当它让你选模型或者认证方式的时候,先别急着配,直接选 skip for now。 这不是不用模型,而是先把模型这一步跳过去。因为第一次安装最重要的是先确认 open core 个体能不能正常跑起来。如果你一上来就在这里配模型,反而很容易因为认证或者接口问题把自己搞乱。所以这里先跳过,后面我们再单独接宽, 不按提示,在这里按 ctrl c 退出。这不是安装失败,只是说明 open core 已经装上了,但初步还没全部做完,后面我们继续按更稳的步骤往下配就行。 第六步,先不要急着开 dashboard, 因为现在开了大概率也是这种页面能出来,但其实用不了的状态,原因不是坏了,而是 gateway 还没启动,所以正确顺序是先启动 gateway, 再打开 dashboard。 第七步,接下来就在刚才那个 power shell 窗口里,按顺序执行这三条命令,第一条是补本地运行配置,第二条是切到本地 get 位模式,第三条才是真正把 get 位启动起来。 你可以把它理解成先把环境补齐,再告诉它走本地模式,最后正式启动服务。所以这里不要跳着走,就按照这个顺序一条一条执行。第八步,如果你看到这个 power shell 窗口一直停着不要关, 这不是报错,也不是卡死,而是说明 gateway 已经在正常运行。这个窗口一关, gateway 就 停了,所以这里先让它挂着就行。 第九步,重新开一个 power shell, 别动刚才那个窗口,因为刚才那个窗口要让 gateway 的 token 读出来,看到输出的异常串字符后,直接复制保存好就行。 第十步,现在再去开 dashboard, 因为 gateway 已经在跑了,端口也有了,偷看也拿到了,所以这时候输入 opencloud dashboard 才是正确顺序。记住一句话,先开 gateway, 再开 dashboard。 如果返回的是这种提示,不用慌,这不是报错,也不是安装失败,它说明程序已经跑起来了,只是模型还没配置好,所以暂时不能正常对话。 第十二步,接下来开始配置模型。我这里用的是阿里百炼 a p r, 所以 后面我们直接把 disco 接近 open core, 前面页面能开但不能聊天。不是安装问题,而是还没有把模型真正配好。 第十三步,拿到 api key 之后,先在新的 power shell 里设置这三个环境变量,分别是 api key、 base、 url, 还有模型 id。 这一步的作用就是先把库恩接入需要的基本参数准备好。 第十四步,前面的参数都设置好以后,直接执行这条括号的接入命令。这一步就是把括号正式接近 open core, 命令虽然长,但你不用背,完整复制执行就行。第十五步,最后重启一下 get 位。 因为刚刚改了模型配置,所以要重启服务,让新配置生效。最后说一下,第一次配置完成以后,后面每次启动其实只需要两个命令,先 opencloudgateway, 再 opencloud dashboard。 记住顺序,先 gateway, 后 dashboard。 如果你想要我整理好的,可直接复制版,完整步骤可以直接私信我,也欢迎关注我,后面我会继续更新更多 opencloud 的 使用教程。

最简单的 open cloud 安装方法有两段话的,这个命令就全程让机器人去跑完了。 先说一下我为什么要装本地的 open cloud, 我 其实在这之前也尝试了一些云端的 cloud, 但是就发现一个问题,它有很多命令是针对本机的, 你这个云服务器里空荡荡的,什么也没有,那其实它都发挥不了什么作用。机器人的意义就在于能够操纵本地的文件。先装一个 cloud code, 再用 cloud code 去装 open cloud, 因为 open cloud 有 很多环境调试,自己去搞就很麻烦。 cloud code 本身也是一个 ai 助手,让我们去配置 open cloud 就 变得很简单,一句话就搞定。接下来我就说一下 cloud code 是 怎么安装。首先是要理解 cloud code 或者 opencloud, 它们的运行环境,还有一个命令行窗口,因为有些代码是 linux 或者 gs java script 代码,它需要安装环境才能运行。 c m d 和 power shell 两个都是命令提示行窗口,只不过是 power shell 比 c m d 更加 先进一些,它可以支持对象,可以支持 linux 的 命令,安装命令都是通过这两个命令窗口来实现的。那接下来讲 cloud code 的 安装,首先安装一个前置环境, g t b 就 下载一路去安装就行了,安装完之后安装这个 node g, 下载是安装就按它一路回车就行。安装完之后可以在这个 命令行窗口还看到 note 技师的版本号。安装完环境就可以安装 cloud code 了,就把这个命令复制粘贴到提取行里,然后交回车, 他就可以去安装了。这段命令已经是国内的镜像,所以就不需要魔法,安装完以后就代表安装成功了,安装完成功, 卡的扣的需要绑定一个大模型,打开 deep seek 登录以后就可以去创建一个 k, 随便起个名字创建一个 k 去复制它,这个 api k 只能是你创建的时候 能够复制,之后你就没有办法再去复制它了,所以你复制好以后最好粘贴到一边,防止以后在其他地方再用得上。复制完以后就把这里改成刚才创建的 api k, 然后把这一整段的命令输入到这个梯长里,他搞完以后打开 cloud 就 可以看到给已经显示安装成功了,之前的 deepsea, 记得要在这里去充钱。很多人不喜欢用命令梯长窗口,那我们 最好是有一个图形界面,我们要装一个 vs code 的 这个软件,打开这个网址下载,然后在 vs code 的 这个软件,在这里 搜索 cloud code vs 第一个,这里一般会有一个安装,全是英文,看着不方便,你就创建市场,输入 chinese, 然后安装它, 这样再重启整个的 vs code 就 会变成一个中文版本。安装完之后怎么打开这个 cloud code? 在 这里 右上角打开就可以打开了,那可以让他做一个自我介绍,就代表这个 cloud code 安装成功。如果想切换大模型,就装一个 cloud code 电源 switch 安装完之后,我们在右下角这里就可以去切换,我们可以在这里去修改, 比如说是智普的 g r m 模型,我们可以在这里直接填填入它的 api k, 那 之后就可以在在这里去 去切换,然后保存完以后就可以快速的切换,那如果这些正常了,那我们就可以打开 cloud code, 给它下一个命令,安装 open cloud 检查,把这个命令发给他之后, cloud code 就 会自动的去 一步一步去执行,看看这个过程,等他执行完以后,他会告诉你已经是运行正常了,然后你就可以通过 浏览器打开这个网址,进入到 open club, 但是你最开始进去的时候,他会报错,那聊天就会写有红色的报错,这是因为下边的这个网关令牌生成, open club 的 网关令牌 就在在这里输入,然后点连接它,这里的状态就会变成正常,就可以去对话。但是呢,由于没有绑定大模型,你去发送消息你还是不行的。 绑定大模型怎么办呢?就需要找到 open cloud 的 配置文件,把这个这段代码,然后把它添添加进去。当然 更简单的方式呢是我们直接去跟 home club 对 话,把这段发给他,按照上面的方法重新配置 home club, 这样就可以配置成功了。最后发一段自我介绍,他正常回答就代表 home club 已经配置成功。
![OpenClaw 对接企业微信,实测能跑通 这两天在折腾 OpenClaw,顺手把企业微信机器人也接上了。
中间有些地方还真挺容易卡住,所以我把整个过程录了一下。
如果你也在弄类似的企业微信接入,可以直接照着看。
配置文件参考:
wecom: {
enabled: true,
botId: 'xxxx',
secret: 'xxxx',
allowFrom: [],
dmPolicy: 'pairing',
}
#OpenClaw #企业微信机器人 #企业微信 #AI助手 #智能体](https://p3-pc-sign.douyinpic.com/image-cut-tos-priv/209c93e8c757bfb0bdeb0aebd6af6f0a~tplv-dy-resize-origshort-autoq-75:330.jpeg?lk3s=138a59ce&x-expires=2093274000&x-signature=yixsrYIgXClcBEstNV4pCzPFR2A%3D&from=327834062&s=PackSourceEnum_AWEME_DETAIL&se=false&sc=cover&biz_tag=pcweb_cover&l=202605050125051B1656C4773A48392512)
大家好,我是麦东,今天给大家带来 opencloud 对 接企业微信智能机器人的视频教程。首先我们打开企业微信,点击企业微信工作台,点击智能机器人,选择创建,机器人,选择手动创建。 接下来我们可以先给机器人取个名字, 选择机器人的可见范围, 将机器人的配置界面拉到最下面,点击 api 模式创建 在 api 配置中。连接方式我们默认使用长连接。配置方法里可以看到当前机器人的 bot id 以及 secret, secret 点击即可获取 企业微信的配置。暂告一段落,接下来我们打开 openclaw 的 命令行界面,开始安装企业微信智能机器人的插件。 打开终端,执行以下命令, openclaw plugins install, 摁下回车,等待插件安装即可。 好,插件已经安装完成了,这个时候我们可以先选择重启 open cloud get away 以加载该插件。当然我们也可以选择待会配置好企业微信对接后一并重启。企业微信智能机器人的配置非常简单, 只有如下的几行配置,它会用到我们的 bot id 以及 secret。 我 们回到企业微信,将智能机器人的相关配置粘贴过来, 接下来全选复制所有配置, 打开 opencloud 的 配置界面,点击配置选择绕,找到 china 相关的配置。 如果你之前已经配置了,其他渠道也没有关系,我们在 channels 后面按下回车,将智能机器人的对接配置粘贴过来,不要忘了加上逗号,点击 save。 接下来继续回到终端,重启 open claw get away, 运行 open claw get away restart。 好,重启完成了, 我们可以刷新一下 opencloud 的 配置界面,看到健康状况为正常。接下来我们打开企业微信,保存智能机器人配置,点击去使用,给我们的智能机器人发送第一个打招呼消息。 接下来我们会收到一个配对密钥,我们只需要复制该信息的最后一行,回到终端,粘贴该密令,按下回车即可。 到这一步为止,我们的 open cloud 跟企业微信就已经配对成功了。接下来我们再次回到企业微信智能机器人界面,向 open cloud 发送一个消息, 可以看到 openclaw 那 边已经开始回复了, 可以看到我们已经成功接收到了来自 openclaw 的 回复。到这边为止,我们 openclaw 跟企业微信智能机器人就已经成功完成对接了。工具会变,但方法更重要,我是麦东,下条继续。

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。

最近爆火的 opencurry, 普通人到底能用它来做什么?它能二十四小时帮你提提它价格,寻找最新最前沿的一手 ai 资讯,能把各个平台收藏家,里面内容打好,标签存到知识库,还可以打通 mac、 ipad、 iphone 日程,让你不错过重要的会议来 十分钟学会 opencurry 安装和三大超神玩法视频里面所完成教程配置这些词 skill 都放在这个文档里面喽。 我们先来看看 open curl 到底是什么?一句话总结,概念上, open curl 是 一个可以自己决策、自己行动的 ai agent, 和你电脑上的其他软件一样,装上就可以用。 功能上它接受你聊天输入框输入的指令,然后调用 chgbt、 jimmy n 豆包千万这些大模型作为大脑来决策,在这里拆解步骤,调用你电脑上的其他软件工具来完成你的指令具体的功能。看完我后面的玩法教程你就明白了。 我们普通人要用 open curl, 主要是与服务器部署和本地部署两种方式。与服务器部署别看听起来很唬人哈,这些操作反而更简单,跟小白友好, 因为各家云计算大厂为了争抢这个风口,都尽可能的降低门槛,计算模型、计算配置、教程也都给你写好了,一两个小时就能搞定。与服务器部署入口和教程都放到教程文档里面喽。 但如果想把 open curl 玩出花来,就推荐部署在本地了,尤其是 mac 生态呢,会更丝滑,为官方提供了很多 g 苹果系统的 skill, 拿来就能用,所以 mac 上玩功能呢,更丰富。但一定要注意,最好不要部署在平常办公的电脑上,让 open curl 那 天抽了风,把你的重要文件删光了。 那本地部署主要有四步,一个就是安装 open curl, 在 mac 终端里面输入这行命令就搞定了。第二是配置底层的大木星, 这决定了你养的龙虾的智商。国外的模型功能是 cloud 的, 加的最好用,但也很贵,而且很难获取 api。 其他用的比较多的就是 jimmy、 nike gpt, 国内模型也有不少不错的。现在大部分人是在用 mini max 二点五、 kimi 二点五、智普的 g l m 五这三个。那具体的配置方法我都会在教程文档里面介绍。 第三步是配置机器人,把 open curl 接入你的日常通讯软件,国内的话可以接入飞书、 qq、 钉钉企业微信。配置方法可以参考大长写的这些文档。最后一个就是安装 skill, 给他装一个机票价格,监控 skill, 他 就能够直接帮你监控机票的价格。 我整理了普通人日常必备的几个 skill, 都放到教程文档里面了,大家可以先照着装上。如果你要用其他的 skill, 但不知道去哪里找,那可以直接让他用这个 find skill 帮你找就行。比如说我想监控机票价格,让他帮我搜索相关的 skill, 他 就搜到了监控机票价格的 skill, 我 装上就可以用了。 我估计很多人跟我一样,某书微信收藏必吃亏。 那现在 opencurry 可以 改变收藏及吃亏的尴尬了。比如我自己做了这个整理收藏内容的 skill 给我的 opencurry, 我 现在在某书某号上刷到有价值的内容,直接转发给 bot, 它会自动提取内容的信息,打好标签,然后传到 obsidian 数据库里面, 把之前散落在各平台的收藏夹里面内容汇总到一起。每天早上九点半,我的 opencurry 会根据爱宾浩斯一共取现的规律,算出今天需要回顾的内容,推送给我, 能知道你在第一天、第三天、第七天这些关键的节点去提醒你回顾收藏的内容。比如你收藏了一篇 open curl 高级玩法教程,只是没有动手实践,就可以用这个回顾机制来不断的提醒自己,而不是收藏就忘。或者你收藏的行业知识,就可以通过都是回顾复盘 来加深记忆。如果偶然想起需要用资料,就可以和 boss 对 话,查这些内容。比如我让他调出和 open curl 有 关的内容,整理成表格发给我了,特别的方便, 再也不用去一个个收藏夹一个一个翻了。能让 open curl 实现这样的一个收藏管理的功能,非常简单,你只需要把这样的一个提示词 get bot, 像我们前面说的那样,它会自己创建一个收藏管理的 skill, 然后你边用边调试就可以了。 这些词我都放到教程文档里面了,大家可以直接用哦。你甚至还可以接入 open curl 的 skill 市场, curl up, 还有全球超强资源网站 get up, 让 open curl 在 这些平台上找大佬们已经做好的工具来拓展功能。 比如我做这个收藏系统的时候,遇到一个难题,就是当我把一篇文章的链接发给了 bot, 它只能保存了一张标题和链接地址,不能读到文章的具体内容,但我这内容又是最核心的部分, 那就可以告诉 bot, 在 github 上找一个能读取网页内容的工具吧。那它就在 github 上找到了 x ray 的 这个开源工具,接录之后, bot 就 可以顺利地读取链接里面的中文内容了,再根据正文帮我做好摘药,把标签存进数据库,非常的方便。 opencrew 还有一个很爽的用法,就是做咨询收集。比如我是 air 博主,我希望第一时间知道最近 airm 已经发布行业大佬观点这些一手消息, 这些信息如果靠我自己去刷,非常的耗时间,而且很杂乱。我就把 opencrew 做成了我的情报助理, 二十四小时不停地帮我收集一手猎爱资讯。比如我可以让他搜某个特定的关键词,比如让他找近三天有关上关于 open crow 比较爆的视频,他马上就能把相关的内容收集到给我。他还会反过来问我是否需要帮忙收藏到知识库,需要的话直接加到 opc 店知识库就好了。 高价值信息的搜索收藏,后续按机取现推送给我重温。所以我的时间用 open curl 看这些降噪后的 ai 前沿资讯,真的非常强大好用。要做出这个情报收集功能,你只需要先装上这些 skill, 把这些信息员的 a p i 发送给 bot 就 行了。那这些我都整理到文档里面喽。 我们之前也分享过用 n 八 i 搭这种情报收集工作流,但工作流搭建起来很复杂,门槛还挺高的。用 open curl 的 话,你只需要把信息源的 a p i 给 bought, 它自己就配置好了。 而且前面讲到按关键词搜资讯,这些 open curl 的 灵活性也比 n 八 i 强很多。 open curl 还支持你在 github 里面找开源工具,想要什么你就搜索就行,比你自己去 github 官网搜要高效很多。 比如我让他帮我找 b 站有关的视频下载工具,他很快就找好了,还总结成了表格,方便我对比不同工具的区别,还附上了网页链接,给了我使用建议,真的很细致,很贴心。 更牛的是,这个 open curl 有 hotbeat, 也就是心跳机制,能帮你二十四小时做任务。像我是自媒体博主,需要监控对标账号的更新,这里我就用 open curl 监控了这七个有关博主,每两个小时他会自动检查一次,哪些博主有更新,就会把内容推送给我。你可以看这里的运行记录,他每两小时跑了一次, 之前人工去盯对标账号,费时费力,还容易漏用,这个盯效率高太多了。需要的话,你还可以用这个监控机票、价格等等,你可灵活的设置每小时甚至每分钟帮你检查一次,做情报,实时的收集定价格,非常的方便。 open crow 还可以帮我们搞定日程管理,它能一句话在 mac 上创建日程,然后直接同步到 ipad、 iphone 上。比如我在聊天框里面直接发创建一个会议日程,晚上七点到八点,它会自动帮我识别时间,生成日程标题,创建到 mac 日历, 然后通过 icloud 自动同步到我的 iphone 和 ipad 上。整个过程我就用跟 bot 说一句话,对比一下。之前创建这样一个日程,我得先填各种信息,还挺麻烦的,现在用 open curl 直接一句话搞定我刚分享的这些玩法,只是冰箱一角,大家还可以去各个平台看看到了我们做的各种玩法, 比如这个可以监控你的健康状况,这个可以帮助你培养习惯,监督你打卡,这个可以帮你做市场调研。 open crawl 热门的工具和 skill 平台我都整理到文档里面喽。 那这里是勋酱,关注我,带你解锁更多普通人的 ai 玩法,我们下期见,比比。