opencall 管理仪表盘认证信息泄露漏洞属于高危漏洞。该漏洞呢,是在 opencall 二六年三月二号 啊,一级之前的版本的原生设计缺陷是因为仪表管理仪表盘将网关认证令牌通过 url 查询参数铭文传输未加密存储在浏览器中, 无需复杂的这个攻击就可被盗取。截止到二零二六年的三月份,全球已有九点六万个失利,因该漏洞被非法接管。漏洞配置规则检查 主要是检查配置文件中的这几项就是安全项。一个是汽油令牌加密存储,默认是关闭的,手动配置后生效。令牌过期时间啊,可以推荐十五分钟 禁止令牌通过 u r l 参数传递把这个进行关闭了,对吧?若一项配置存在且设置正确,即使版本卫生巾也可以完全阻断该漏洞。
粉丝7获赞56

手把手带你安装 openclaw 龙虾必备的 skills。 之前我出过一期 openclaw 保姆级安装教程,但装完之后你会发现它其实还只是一只裸龙虾。你让它查看文件,它说没权限,你让它算下天线,它说没联网,属于一同操作猛如虎,另近一看原地图,所以这个视频带你正确配置龙虾,补齐必备技能, 让它真正从能聊天进化成能干活。但在开始之前,我们先熟悉几个会频繁用到的命令,如果你是 windows 系统,就在 power 里输入这些命令,如 mini 是 micro, 二,系统就在终端 terminal 里输入。要开始用 openclaw, 第一步是先把网关启动起来,对应的命令是 openclaw gateway start。 启动后,我们可以打开 openclaw 控制台,也就是它的可式化操作键。面对的命令是 openclaw dashboard。 如果你暂时不用 openclaw 了,也可以把网关停掉。对应的命令是 openclaw gateway stop。 技巧一,本地文件读写从二零二六点三点二版本开始啊。 opencl 默认对本地文件访问权限做了限制,所以如果你想让它读取甚至进一步操作你电脑里的文件,要先把对应权限打开。操作也很简单,打开 opencl 或终端,输入 opencl config set tools, 点 profile for 命令回车执行。 把 opencl 的 工具权限切换成完整版,运行后还需要重启网关,让配置生效。对应的命令是 opencl gateway restart。 搞定以后,你就可以让 opcode 做各种文件提取和修改的操作了,比如批量重命名、文件整理、桌面分析、磁盘空间占用等等。 技巧二,联网搜索 opcode 默认情况下是无法获取网上信息的,所以你问天气、问资讯、问股价,他通通不知道,但我们可以安装一个负责联网搜索的 skill。 skill 可以 理解成是 opcode 的 技能包,本质上是一套针对某类任务的说明和流程, 用来教他在特定场景下该怎么做。比如这就是一个简单的 skill 的 例子, openclaw 有 个官方技能市场 clawhot, 你 能在上面看到很多别人做好的 skill, 可以 直接拿来安装使用。要事先联网搜索,可以搜一个叫 tablie search 的 skill, 这个 scheme 要求从 tiffany 点 com 获取 api 密钥,我们可以稍后设置。安装方法也很简单,我们可以直接复制 call hop 上 tiffany search 的 页面链接,粘贴到和 opcode 的 聊天里,无论是控制台还是飞书这类通讯渠道聊天窗口都行,然后让 opcode 自己帮你安装。 tiffany search 还会用到 api 密钥,所以我们来到 tiffany search 官网 注册登录后啊,就可以直接得到一个密钥,他每个月呢都有免费额度,而且不需要绑卡。拿到之后,我们可以把 api 密钥一起发给 opencall, 让他安装后自行完成配置。 装好之后,我们可以简单测试一下,比如在飞书里问他茅台目前的股票价格是多少,这时候啊, opencall 就 能顺利返回来自互联网的实时信息了。 技巧三,定时任务欧姆克劳支持通过 com 创建定时任务,不需要额外安装 sku。 比如你可以直接对欧姆克劳说,每隔五分钟汇报某只股票当前的价格,他就会创建一个定时任务, 然后按设定的间隔自动运行,帮我们实现对股价的监控。所以啊,不管是每天早上七点发资讯,每周一九点写周报,还是二十分钟后提醒浇花这类定时任务,你都可以直接交给他。 小四,浏览器操作 opcode 本身自带 browser 工具,不需要额外安装 skill, 就 可以读取网页内容。比如可以对他说,帮我看看知乎上现在有什么热点网址是这个,它会自动用浏览器打开网页,读取页面内容,把上面的信息整理出来。而且不只是读网页, 像点击输入之类的基础操作啊,它也能完成。比如让它去 github 上搜索 linux, 然后把排在前三的搜索结果给你, opcode 也能直接搞定。不过它的缺点啊也很明显,第一是比较稍 token, 因为网页内容因为状态,还有每一次工具调用的结果啊,都会不断进入模型的上下文。 第二是执行速度比较慢,因为 opcode 的 工作方式不像程序脚本或 rpa 那 样,流程确定后一次跑完。而 每做一步,都要先看当前页面,理解页面内容,探讨下一步该点哪里,再执行操作,然后再读取结果,继续推理下一步。所以它更像是一个会操作网页的 ai 助手,而不是一个高效率的自动化程序。另外,如果遇到强制登录、扫码、验证码校验,或者比较严格的反爬机制啊,我不靠也容易翻车。 技巧五技能查找 opcode 的 skills 很多,但真正麻烦的是不知道该装哪个。这里推荐两个实用 skill, 一个负责找 skill, 一个负责审 skill。 第一个是 find skills, 它的作用就是根据你的需求去查找合适的 skills。 安装方法和前面一样,直接把链接发给 opcode, 让他自己安装就行。 装好之后,我们可以对 okl 说帮我查找邮件自动化相关的 skills, 他 就会推荐合适的 skill, 这样你就不用自己去技能市场里一个个翻了。但接下来还有一个问题是,他推荐给你的 skill 真的 安全吗?那么我们可以再安装一个 skill better, 它的作用啊,就是在安装前先帮你做一层安全审查, 重点看看有没有权限问题、可疑行为,平常窃取回销代码或者数据外传之类的风险。我们可以再提醒一下 oppo, 安装每个 skill 前用 skillbetter 检查一下,这样后面啊,他在安装新 skill 的 时候就会先审一遍,再决定要不要装 技巧六,既能创建与改进除乱中别人已经写好的 skill, 我 们也可以直接通过自然语言让 opcode 创建新的 skill。 比如可以直接告诉他帮我创建一个 skill, 把新收到的邮件内容提炼成三句话总结。这样一来, opcode 就 能根据你的描述自动创建一个 skill, 让这套流程可以长期服用, 以后再遇到类似任务啊,他就不用每次从零开始了。如果你还想让他越学越聪明,可以再装一个 skill, 叫 self improving agent。 这个 skill 的 作用就是帮 opcode 把错误纠正和新学到的方法都记下来,慢慢沉淀成经验。 具体来说就是有失败的操作时,他会自动记录到 error state, md, 你 纠正他了,或者他学到了更好的方法,会记录到 learning state, md, 你 提了他一个还不会的功能, 会记录到 feature request, 点 md 一 些真正有价值的内容啊,后面还会进一步沉淀到 memory, 点 md 这种长期记忆文件里。那么安装之后, okl 不 止完成当前任务,还会把每次失误和改进建议啊,沉淀下来,自动应用过往经验,变成一个会复盘的助手。那希望以上这些技能补齐之后,你的龙虾能真正下场干活了。如果这个视频对你有帮助,也欢迎点赞和关注,我们下个视频见。

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

这是我刚收到的苹果新款 macbook neo, 用它养龙虾,你觉得靠不靠谱呢? 今天我就用它手把手教大家如何配置 macos 版的 open core, 本地部署步骤呢,很详细,需要一步一步往下看,保证成功。建议呢,先仔细看一遍,再跟着操作。第一步,安装 get 苹果自己家的开发者站点,仔细看,这里 搜索 command line force for xcode, 根据我们现在的系统版本,新的呢是 xcode。 二十六点三,点击箭头,点击安装包,下载到本地后,打开后按提示安装就可以, 直到安装成功。这个时候呢,我们点击右上角放大镜图标输入终端,打开后输入这串命令,看到版本号就是安装成功了。 第二步,安装 homebrew, 我 们需要在终端输入这一行安装命令,提醒一下。接下去呢,出现类似的命令,记得暂停视频,复制后可以在千问豆包等大模型工具问一下,以免复制的时候识别错误。 输入后呢,按回车,他会自动开始安装 homebrew 了,这里会问我们通过什么下载 homebrew, 我 们可以输入一,也就是清华大学这个敲回车,然后会要求我们需要输入开机密码, 输入后直接按回车就可以,这里会问我们是否删除之前这台机器安装的红不入,直接输入 y 回车,他会帮我们自动备份。再接下来呢,我们还要按一次回车开始安装红不入,安装成功后会需要我们再次输入密码,直接输入后回车就可以。 接下来会让我们选择哪个国内镜像,这里我是直接按他提示输入五回车,然后我们等待他安装完成,直到出现安装成功的提示后,我们先关闭一下终端界面,然后呢,在程序屋重新打开它,让配置生效。 这里有个提醒,如果你是 mac os 二六之前的版本,你呢也可以先按照第二步安装 homebrew, 安装完毕了之后呢,再安装 git 就 比较简单了,直接在现在重新打开的终端里输入 pro install git。 回车后呢,它就会帮你自动安装完成了。 第三步,安装 node js 仔细看 node js 官方界面左下角,点击 macos 安装程序,获取后呢,打开安装包,后面按提示安装,直到安装完成。 第四步,安装 open clone, 再次打开终端,输入这个命令回车就可以了,不用管它。再输入这条命令回车,只要输入正确,依然不用管它。之后我们再输入这行命令, 这个时候他会要求我们输入开机密码,回车后他就开始安装了,我们需要稍微等待一下,看到终端里有类似这样的提示,里面的具体数据呢,我们可能会有不同,不用在意。这说明欧邦克洛安装成功了,但是还没完。 第五步,配置 openclore 配置之前,我们需要先输入这行命令,这个命令的作用呢是删除我们本地已经安装过的飞书插件目录,以免后面引起冲突。输入后按回车就可以。接下来还需要输入 openclore on board, 启动 oppco 初识化配置向导,这个时候你就能够看到龙虾的 logo 了。这个呢,有一个官方风险提示,我们要继续只能选择 yes, 可以 用左箭头键选择按回车确认。这里我们只要保持 quick start 模式,直接回车就可以。 这里就是需要我们选择我们的 oppo colo 准备连接的大模型了,基本上覆盖了目前主流的大模型,如果你已经有创建过某个大模型的 api, 就 可以通过上下箭头键选择插播一个大模型 api 密钥配置。 我这里给没有创建过大模型 api 密钥的小伙伴演示一下我自己在用的 kimi 的 mojito ai api 密钥的创建过程。首先是 kimi 开放平台, 然后呢左侧选择 apikey 管理,之后在右侧点击新建给他取个名字,比如 opencore bot 项目,这里选择一个就可以了,然后点击确定,这个时候呢,我们就可以看到密钥了,这个密钥一定要保护好,不要让人看到,要不然被有心的人拿去的话,他用的就是你的额度了。这里不是点确定,而是点击右侧的这个复制按钮。 好,再次回来,我们可以点击程序屋上的终端,这里我们选择刚刚注册的 kimi, 也就是蒙秀的这个敲回车这个位置呢,我们根据实际情况,我们刚刚是注册的国内的,需要选择点 c n, 这个选择好后回车 这里我们因为是直接复制密钥的,所以直接在 face 的 api key 这里回车就可以。 ok command 加微把我们刚刚复制的密钥直接粘贴回车后,我们保持它默认的这个就可以直接回车。 这里会要求我们选择使用哪个聊天软件来通讯。目前呢,我们可以直接用向下箭头选择到最下面的 skip for now, 这里会涉及一些准备步骤,我们可以在视频后面再配置,选择 skip for now 后回车, 如果跳出设置 provide 后,依然先选择最下面的 skip for now。 先跳过回车,这个时候他会问我们是不是现在需要配置 skills 了,我们可以选择 yes 看一下,你用向下箭头键往下看,每一个的后面呢都有详细的场景说明, 如果有你需要的,可以选中它后敲一下空格键,再敲一下就是取消。这里我们依然先选择 skip for now, 反正后面呢还可以配置的空格键选择再敲。回车, 这里有一系列需要我们配置各种平台的密钥的,我们暂时也都可以先选择 no, 如果你的确已经有密钥了,当然也可以选择 yes, ok, 来到这里 hux, 我们也先用空格键选择 skip for now。 回车,这里会跳出一个窗口,我们先选择允许。然后呢,终端这里会问我们用什么方式起用 boot, 我 的建议是 web ui, 对我们普通用户来说也会更直观一点。选择后,回车,这个时候他会自动打开一个界面,这就是和 oppo cola 的 一个聊天界面了,我们可以先和他聊一下,比如我们可以用中文说一句你好,收到他的回复,呵呵,证明我们的配置已经成功了。 原则上来说,我们的小龙虾呢,已经养殖成功了,但是还有一步更重要的,才能够方便我们用聊天软件随时随地的给他下达干活指令。 也就是呢,即使我们在外面,也可以用手机上的聊天软件给他下指令。那么我们用目前口碑相对更好的飞书来举例。第六步,创建飞书机器人。 首先是飞书开放平台,我们可以准备一个个人账号,登录后点击右上角开发者后台,这里呢,点击创建企业自建应用,给他起一个名字描述,这里也随便填写一下, 选择一个图标,或者呢也可以自定义上传一个图标,然后点击右下角创建,这里我们点击添加机器人,暂时点击左侧的权限管理,点击开通权限 搜索框,这里我们输入 i m 冒号,注意这里的冒号呢,是需要切换到英文输入法的冒号的, 这里我们可以把全部都勾选,点击确认开通权限,这个位置有一个提醒,你看一下应用发布后,当前配置方可生效, 我们需要点击提醒这里的创建版本,这里我们输入版本号,按照他的提示,比如一点零点零更新说明,这里呢,我们也可以写上创始人版本下滑,点击保存,点击确认发布。 ok, 飞书机器人创建完毕。第七步,连接 oppo 克洛和飞书, 依然是在终端输入 open core config 回车,这里选择 local, 这里我们选择 channels 回车,然后是选择默认的这个 config link 回车, 这里呢,我们找到飞书回车这个位置,我们得选择 download from npm 回车安装飞书渠道插件这个位置,选择 yes 回车。稍等片刻后,需要输入飞书的 app, 先按一下回车, 之后再是飞书的开放平台左侧,点击凭证与基础信息,点击 app secret 这里的复制键,再是回到终端 command 加 v 粘贴回车,这个时候还要我们输入 app id, 再次在飞书开放平台点击这里的 app id 下面的复制键,然后呢,再到终端 command 加 v 粘贴回车,这里通讯方式选择 web socket 回车飞书这里我们选择 cn 的 这个就可以回车。 是否允许群聊使用?我的建议是选择下面的 open 回车,下一步可以直接用向下箭头键快速下滑到底部,选择 finished 确认配置完成,这里呢,问我们的是配置私信访问策略,这里需要选择 yes 回车之后这个位置,我们可以直接选择 perry 回车,这个菜单里我们可以选择到底部的 continue 回车。 ok, open core 和我们的飞书正式配置完毕。 最后环节,我们在终端输入 open core get away 启用它。再是在飞书开放平台选择左侧的事件与回调,点击订阅方式,这里的按钮 确认是这个默认的长连接,点击保存这里再是点击添加事件,搜索框里输入接收消息,将接收消息勾选,点击添加按钮,再是点击左侧的权限管理,点击开通权限。 搜索框里呢,输入通讯录,把这个获取通讯录基本信息勾选,点击确认开通权限,再次点击右下角的确认,这里依然会看到版本发布后当前修改方可生效的提醒。我们还是点击创建版本,输入新的版本号,比如一点零点一 更新说明,这里呢,我们可以是添加消息,接收能力,下滑到底部,点击保存,点击确认发布。 第八步,与 open core 对 话,我们可以尝试拿起手机飞书,点击开发者小助手下滑,找到我们前面命名的那个应用,点击打开,我们可以给他也发一句问候,比如你好, 这个时候呢,你会收到这样的一个安全配对提示,不是错误,是为了安全起见生成的配对码, 我们只要复制提示里最下面的这行命令,在终端里再次输入回车, ok, 显示配对完成后,回到手机飞书再给他发你好,很快呢,就能够收到他的回复了, 哦吼,正是在我们 mac 上部署完成了 open core, 同时呢,也可以用手机上的飞书,电脑上的飞书,随时随地的给他下指令了。 这就是完整的 macos open core 本地部署教程了,适用所有的苹果电脑 制作,不容易,有用记得点赞分享。接下去呢,还会有如何配置 skill, 如何省托坑等等的一些必备技巧分享,大家记得持续关注。如果大家还想了解如何一键云部署的话呢,也可以留言,需求多的话,我也来做一条详细的教程。

最近爆火的 opencurry, 普通人到底能用它来做什么?它能二十四小时帮你提提它价格,寻找最新最前沿的一手 ai 资讯,能把各个平台收藏家,里面内容打好,标签存到知识库,还可以打通 mac、 ipad、 iphone 日程,让你不错过重要的会议来 十分钟学会 opencurry 安装和三大超神玩法视频里面所完成教程配置这些词 skill 都放在这个文档里面喽。 我们先来看看 open curl 到底是什么?一句话总结,概念上, open curl 是 一个可以自己决策、自己行动的 ai agent, 和你电脑上的其他软件一样,装上就可以用。 功能上它接受你聊天输入框输入的指令,然后调用 chgbt、 jimmy n 豆包千万这些大模型作为大脑来决策,在这里拆解步骤,调用你电脑上的其他软件工具来完成你的指令具体的功能。看完我后面的玩法教程你就明白了。 我们普通人要用 open curl, 主要是与服务器部署和本地部署两种方式。与服务器部署别看听起来很唬人哈,这些操作反而更简单,跟小白友好, 因为各家云计算大厂为了争抢这个风口,都尽可能的降低门槛,计算模型、计算配置、教程也都给你写好了,一两个小时就能搞定。与服务器部署入口和教程都放到教程文档里面喽。 但如果想把 open curl 玩出花来,就推荐部署在本地了,尤其是 mac 生态呢,会更丝滑,为官方提供了很多 g 苹果系统的 skill, 拿来就能用,所以 mac 上玩功能呢,更丰富。但一定要注意,最好不要部署在平常办公的电脑上,让 open curl 那 天抽了风,把你的重要文件删光了。 那本地部署主要有四步,一个就是安装 open curl, 在 mac 终端里面输入这行命令就搞定了。第二是配置底层的大木星, 这决定了你养的龙虾的智商。国外的模型功能是 cloud 的, 加的最好用,但也很贵,而且很难获取 api。 其他用的比较多的就是 jimmy、 nike gpt, 国内模型也有不少不错的。现在大部分人是在用 mini max 二点五、 kimi 二点五、智普的 g l m 五这三个。那具体的配置方法我都会在教程文档里面介绍。 第三步是配置机器人,把 open curl 接入你的日常通讯软件,国内的话可以接入飞书、 qq、 钉钉企业微信。配置方法可以参考大长写的这些文档。最后一个就是安装 skill, 给他装一个机票价格,监控 skill, 他 就能够直接帮你监控机票的价格。 我整理了普通人日常必备的几个 skill, 都放到教程文档里面了,大家可以先照着装上。如果你要用其他的 skill, 但不知道去哪里找,那可以直接让他用这个 find skill 帮你找就行。比如说我想监控机票价格,让他帮我搜索相关的 skill, 他 就搜到了监控机票价格的 skill, 我 装上就可以用了。 我估计很多人跟我一样,某书微信收藏必吃亏。 那现在 opencurry 可以 改变收藏及吃亏的尴尬了。比如我自己做了这个整理收藏内容的 skill 给我的 opencurry, 我 现在在某书某号上刷到有价值的内容,直接转发给 bot, 它会自动提取内容的信息,打好标签,然后传到 obsidian 数据库里面, 把之前散落在各平台的收藏夹里面内容汇总到一起。每天早上九点半,我的 opencurry 会根据爱宾浩斯一共取现的规律,算出今天需要回顾的内容,推送给我, 能知道你在第一天、第三天、第七天这些关键的节点去提醒你回顾收藏的内容。比如你收藏了一篇 open curl 高级玩法教程,只是没有动手实践,就可以用这个回顾机制来不断的提醒自己,而不是收藏就忘。或者你收藏的行业知识,就可以通过都是回顾复盘 来加深记忆。如果偶然想起需要用资料,就可以和 boss 对 话,查这些内容。比如我让他调出和 open curl 有 关的内容,整理成表格发给我了,特别的方便, 再也不用去一个个收藏夹一个一个翻了。能让 open curl 实现这样的一个收藏管理的功能,非常简单,你只需要把这样的一个提示词 get bot, 像我们前面说的那样,它会自己创建一个收藏管理的 skill, 然后你边用边调试就可以了。 这些词我都放到教程文档里面了,大家可以直接用哦。你甚至还可以接入 open curl 的 skill 市场, curl up, 还有全球超强资源网站 get up, 让 open curl 在 这些平台上找大佬们已经做好的工具来拓展功能。 比如我做这个收藏系统的时候,遇到一个难题,就是当我把一篇文章的链接发给了 bot, 它只能保存了一张标题和链接地址,不能读到文章的具体内容,但我这内容又是最核心的部分, 那就可以告诉 bot, 在 github 上找一个能读取网页内容的工具吧。那它就在 github 上找到了 x ray 的 这个开源工具,接录之后, bot 就 可以顺利地读取链接里面的中文内容了,再根据正文帮我做好摘药,把标签存进数据库,非常的方便。 opencrew 还有一个很爽的用法,就是做咨询收集。比如我是 air 博主,我希望第一时间知道最近 airm 已经发布行业大佬观点这些一手消息, 这些信息如果靠我自己去刷,非常的耗时间,而且很杂乱。我就把 opencrew 做成了我的情报助理, 二十四小时不停地帮我收集一手猎爱资讯。比如我可以让他搜某个特定的关键词,比如让他找近三天有关上关于 open crow 比较爆的视频,他马上就能把相关的内容收集到给我。他还会反过来问我是否需要帮忙收藏到知识库,需要的话直接加到 opc 店知识库就好了。 高价值信息的搜索收藏,后续按机取现推送给我重温。所以我的时间用 open curl 看这些降噪后的 ai 前沿资讯,真的非常强大好用。要做出这个情报收集功能,你只需要先装上这些 skill, 把这些信息员的 a p i 发送给 bot 就 行了。那这些我都整理到文档里面喽。 我们之前也分享过用 n 八 i 搭这种情报收集工作流,但工作流搭建起来很复杂,门槛还挺高的。用 open curl 的 话,你只需要把信息源的 a p i 给 bought, 它自己就配置好了。 而且前面讲到按关键词搜资讯,这些 open curl 的 灵活性也比 n 八 i 强很多。 open curl 还支持你在 github 里面找开源工具,想要什么你就搜索就行,比你自己去 github 官网搜要高效很多。 比如我让他帮我找 b 站有关的视频下载工具,他很快就找好了,还总结成了表格,方便我对比不同工具的区别,还附上了网页链接,给了我使用建议,真的很细致,很贴心。 更牛的是,这个 open curl 有 hotbeat, 也就是心跳机制,能帮你二十四小时做任务。像我是自媒体博主,需要监控对标账号的更新,这里我就用 open curl 监控了这七个有关博主,每两个小时他会自动检查一次,哪些博主有更新,就会把内容推送给我。你可以看这里的运行记录,他每两小时跑了一次, 之前人工去盯对标账号,费时费力,还容易漏用,这个盯效率高太多了。需要的话,你还可以用这个监控机票、价格等等,你可灵活的设置每小时甚至每分钟帮你检查一次,做情报,实时的收集定价格,非常的方便。 open crow 还可以帮我们搞定日程管理,它能一句话在 mac 上创建日程,然后直接同步到 ipad、 iphone 上。比如我在聊天框里面直接发创建一个会议日程,晚上七点到八点,它会自动帮我识别时间,生成日程标题,创建到 mac 日历, 然后通过 icloud 自动同步到我的 iphone 和 ipad 上。整个过程我就用跟 bot 说一句话,对比一下。之前创建这样一个日程,我得先填各种信息,还挺麻烦的,现在用 open curl 直接一句话搞定我刚分享的这些玩法,只是冰箱一角,大家还可以去各个平台看看到了我们做的各种玩法, 比如这个可以监控你的健康状况,这个可以帮助你培养习惯,监督你打卡,这个可以帮你做市场调研。 open crawl 热门的工具和 skill 平台我都整理到文档里面喽。 那这里是勋酱,关注我,带你解锁更多普通人的 ai 玩法,我们下期见,比比。

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。

你用小龙虾的时候,还在把所有的事情都放在一个窗口里指挥吗?比如我同时要写文章、发小红书、监控资讯维护、网站记账,都放一个窗口里,既浪费偷啃,效果还非常的好。改造成多 a 帧的模式, 才是给小龙虾省钱又提效的正确用法,我是这么做的。以飞书对接小龙虾为例,参考官方文档三个步骤。第一步,专事专办, 给每件事情创建单独的机器人来负责。比如我要记账,我就建一个这样的财务主管,把 opencloud 配置文件里的 channel 字段改成这样的多 account 模式,这两个 account id 记住,后面要用。第二步,多 agent 配置, 我们用这条命令给小龙虾增加一个 finance 的 agent, 等同于我们新招进来一个员工,出土化他的 identity 文件,把它捏成我们想要的形状。接着在 openclaw 配置文件里面增加 bindings 段落, 让不同机器人的消息路由到不同的 agent 上,实现分工的效果。第三步,测试验证 重启 open cloud 的 getaway, 在 飞书上分别给两个机器人询问他们的身份,如果能看到不同的回答, 那就是配置好的。后续还可以给不同的 agent 配置合适的模型,或者让他们互相派发任务。这样的工作模式可以大幅节省 token, 显著提升小龙虾的任务效果。实在是太爽了, 都不需要再雇人了。我加上小龙虾的 agent teams, 就是 超级艺人公司。关注我,带你玩转 open cloud!

opencloud 使用两天踩过的坑?在安装时由于 opencloud 接入 kimi core 时反复出现问题,而且解决不了,因为 opencloud 的 配置模板有问题。这个是 opencloud 的 一个 bug, 只能选 kimi k 二点五这个模型。注意了,这个是 k 二点五的模型才能配置正确啊!第二个的话是 k 二点五的模型才能配置正确啊!第二个的话是 k 二点五的模型才能配置正确啊!第二个的话是 k 二点五的套餐 kimi k 二点五是在 kimi 开放平台申请的套餐,两个平台的网址是不一样的,所以各位在开套餐时就要注意网址了,这个是安装 open cloud 的 两个大坑哦。

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

登录控制台,选择轻应用服务器, 可以看到已购买的服务器,也可以点击创建服务器,可以看到默认会有 open call 服务, 同时可以更换更多的版本,这比自己安装更加省心。 接下来我们开始配置, 点击图标进入配置页面, 点击应用详情, 可以看到我们有配置的引导,一二三步骤,接下去只要按照一步步点击, 再点击配置,初步 配置对应的 kimi 要 不知道的我单独给出说明, 可以看到配置还是很快的。 接下来就可以看到访问的页面, 可以在页面中进行基础的配置,由于平台限制, 我们只能使用摆列模型, 同样点击应用就配置完成。 接下来我们来操作最后一步。

大家好,今天拆解 openclaw workspace 核心配置,这些 markdown 文档是 agent 的 长期记忆加行为配置,决定其人格能力,支撑自主运行 完整。 workspace 包含七个核心, markdown 文件, agents、 bootstrap、 heartbeat、 identity、 soul tools、 user 缺一不可。下面简洁讲解每个文件的核心作用和势力,确保一听就懂。 一、 agents 点 md 明确可用 agents 向花名册 agents 启动时读取,可配置单 agents 或多 agents, 如 coder researcher 并分配工具。 二、 bookshop 点 md 定义 agent 启动步骤,基础五步即可复杂配置,可增加注册工具、监控等步骤,确保正常激活。 三、 heartbeat md 控制 agent 定期执行任务,如检查内存同步状态,高级配置,可定时总结对话同步知识点,实现自主维护。四、 identity 点 m 定义 agent 的 名字、职责和能力及人设。注意指定角色不写规则。 五、搜点 md 核心式行为规则相当于行为准则,明确 agent 做事底线,比如优先使用方案分布思考。六、 to 点 md 定义 agent 可调用工具,如 shell、 python, 只需明确工具能力和用法,不写复杂逻辑。 七、 user 点 m d 存储用户长期偏好,如语言技能,让 agent 更贴合用户需求。 agent 运行部署,加载 identity, 加载 so, 加载 tools, 读取 agents、 加载 user 启动、 heartbeat 四个最佳实践,避坑一点 identity 指定角色。二、 to so 专写规则三、 tools 止写能力。四、 user 只存长期信息。 最后为大家整理了一套生产级模板,可直接套用,有需要的可以评论区留言,今天的讲解就到这,掌握这些就能轻松搭建自己的 openclaw 了。记得关注哦,我们下期见!

敢说如果没有自己详细看过这个 skills 的 人,绝对没有办法养好小龙虾。这个 skills 它是自我进化的一个 skills, 这个是现在目前所有 skills 里面下载量最多的一个, 我们今天来详细看一下这个 skills 它是怎么样构建的,你就会对整个 open curl 和它的一些配置能更加的理解。 它是一个纯英文呢,我就直接让 cloud code 给我做了一下翻译,当然大家如果用其他的也可以,甚至你让它自己把这个逐句翻译了之后,给你保存在一个文件夹里面都是可以的。 ok, 我 们就来看一下它的这个是怎么样的一个东西。 首先它的这个架构就是非常标准的 skills 的 一个架构,有一个 skills 的 文件 markdown, 然后这个原数据就是它的一些版本号啊这些,这个是它自己自带的一个文件夹,其他的这个东西就是它的一些资源。然后 hook 就是 它的可以理解成它的脚本,它会把这个钩子 去放在你的 open curl 的 配置下面。嗯,当 open curl 它在回答一些内容或者调用什么模式,或者告诉你这个任务完成的时候,这个钩子就会去检测这个内容,检测了这个内容,它就会去调用某一些脚本,或者说自动地把一些提示词放到这个 open curl 里面,让 open curl 再去跑一遍它的一个流程, 重点就是让 open curl 去思考一下刚才的任务到底需不需要去进化到它的记忆里面,去进化到一个新的 skills 里面,或者去更新新的 skills。 它主要的功能是这个,这个就是它参考的一些文档,比如说势利啊,比如说这个后壳应该怎么样安装,还有这个的一些知识,这个 script 就是 它的具体的脚本了, 这个脚本基本上就是它后壳的脚本,钩子的脚本。 ok, 我 们来一点一点的看。首先是看这个 skills, 这个 skills 就 标准的 skills 的 格式,首先是它的原数据,这个东西会直接加载到大模型和 opencorp 它的一个上下文中,它才知道什么时候需要用这个 skills, 如果它需要用,它就会自己去看这个东西, 但是这也是一个比较坑的点,你稍微模型差一点的,它根本就不会去看这个东西,因为它会聚焦去完成你的任务,它的注意力是没有那么多的。所以说 你通常如果说想要去进化的时候,你去直接告诉他显示的命令,他让他去完成,去使用这个 skills, 让他去调用这个 skills, 然后下面就是如果他需要调用的时候,他就会去查看下面的东西。 ok, 我 们来一点一点的看这个 skills 的 描述,就是什么样情况下会使用它。其实就是让 open curl 让模型知道什么样的一些特征的时候, 就要使用这个 skills 了,比如说命令操作失败,用户纠正了,然后用户请求不存在的功能, a p i o 失败,其实就是捕获一些关键词,关键的意图的时候,它就会去激活它,就是让模型知道什么时候应该激活这个 skills。 我们来看一下这个就是它的一个 markdown 格式的文档,首先是它是一个什么东西,然后它是一个持续改进的什么内容,参考的信息,它是怎么样存放的?可以看到它把这个地图首先放在了最前面,它是怎么样安装在这个 open curl 里面? 呃,这个我感觉有点广告的嫌疑,你已经安装了之后,还还放在这个 skills 里面,按理来说它应该用一个 readme 会更好一点,这个会造成模型的这个上下文是不需要的, 然后它会告诉这个模型这个 open curl 的 一些信息。 open curl 的 这种工作区的内容就是它的 worker space 这儿它是什么样的一个框架,主要的个这些文件到底是什么格式,它进行更新的时候,它就可以更新这些文件,然后它就能了解到 open curl 它是一个什么样的东西。 它主要分成了三个部分,它会创建了这个 skills 的 时候,它会把这个文件直接复制到哦你的 workspace 里面去。直接会有这个文件夹,其实就是这个 skills, 它去维护这个文件夹里面主要的内容, 首先是学习的一些信息,再就是错误的一些信息,然后就是调用工具的一些信息。事实功能可以看到它就说首先你应该去创建这个文件, 然后去说一下直接复制过去,然后提升的目标是为了让你的一些工作技能可以沉淀到这里面去。 这三个其实就是 open curl 的 一些核心的配置了,可以看到 open curl 里面的核心的配置,这个是属于它自己的一些配置,其实这都是它去了解这个 open curl 是 一些什么东西,怎么样配置的触手化配置这个部分就是有用的,就是下载了这个 skills 的 时候,它应该按照这个过程,先把这个 skills, 把它的这个 open group workspace 的 一些东西先配置了来,可以看到,然后可选这个起用钩子。为什么必须要起用这个钩子?虽然它说是可选,因为我们用的模型往往都不是最强大的模型,比如说 opus, 它对你的指令它是会更加清晰的。但是我们用的这些稍微小一点的模型,像国内的 kimi, k 二点五这些,你不显示地去指挥它去用哪个 skills, 它大概率是不会用的,它的指令遵循是没办法注意到这么多信息的。所以说你必须要起用钩子, 钩子他就会强制的让这个 open curl 去完成某一个功能的时候,他会去思考我到底需不需要去调用这个 skills。 这个就是一个比较大的坑,如果我们是用国内的这种稍微小一点的模型,稍微不好一点的模型, 那么你钩子是必须要起用的,要不然你这个装了之后基本上就感觉没装一样。我相信很多人都已经装了,但是如果你没有仔细去读的话,大概率是没有起用这个钩子的, ok。 然后他也说了一下通用的其他配置,在其他配置里面也可以去创建,像 cloud code index 也可以去创建,这个东西就不太适合这个内容了,其实可以把这些东西删掉,因为他会影响他的上下文。然后就是怎么样去追加你的信息。 首先是学习到的内容应该追加到这个学习的 markdown 的 文件里面,他的格式是什么样的,然后是什么样的东西? 然后就是错误的信息,它的格式是什么样的,是什么样错误的信息,应该怎么样格式去把它说出来,然后它的时间戳这些都要保存下来,但是我是没看到它这个时间是从哪里获取啊?如果说时间是一直放在这个 open curl 里面的话,会自动更新的话,那是不太好的,还会严重的影响这个 k v k h 的 命中率。 还有就是这个功能请求的 markdown 文件应该放些什么东西,然后它的格式是什么,它也说明了一下,然后 id 的 生成应该怎么样放 id, 其实这些都是一些案例事例, free shot 它应该怎么样放在哪个里面?这儿也有 可以放到这种项目记忆的,当一些错误的记忆啊,这种学习的记忆可以广泛使用,而且使用了非常多次的时候,它可以把它直接放在这种文件夹下面。这种比如说 cloud code, 比如说这个 so tools, 比如说这个 so 哈,它是一直会放在 这个 open curl 的 上下文里面的模型上下文里面的,它会全量加载,不像 skills 的 这个文件,它只会加载最前面的那几行,这个东西它是会全量加载的,所以说如果说非常需要经常用的这种规则,就可以直接加在这里面,这个就是他说当一个不是一次性修复,可以把它保存到永久的项目记忆中,就是这个东西。 还有它应该怎么样去检测这些关键词什么时候应该写在什么地方,什么时候它是功能请求,什么时候应该学习,什么时候是一些错误的, 然后优先级的一些指南,这个就是它应该怎么样去放,这个倒没有特别重要,就是它要去做提升的时候应该怎么样写,怎么样去排优先级啊这些,然后最佳实践这些 还可以进行 get, 可以 把它提交上去。其实最最重要的,我个人认为就是这个 hook, 大家一定要把它配置上。如果 你不是用的 opus, 四点六这些模型,一定要把它配置上,就算是用的 opus, 你 也最好把它配置上,因为现在很多这种厂商它都有这种会员套餐,比如说一百块钱,然后一个月基本上你是用不完它的托管的,所以说大家一定要配置这个东西, 这个东西只会多消耗你的托管,但是它能让你的体验感和这个 cf 提升会更加的强,要不然你这个东西装了跟没装一样,因为我们的模型本身不太好。 ok, 那 我们来看一下它其他的一些内容,比如说这个脚本吧,这个就是钩子的一些脚本怎么样去配置,然后它会把这种信息重新发回给这个 open curl, 就是 让 open curl 显示地去说明一下,你需不需要去记录,需不需要去更新一下这个 skills, 然后这个其实大概也是这样,然后这些就是参考的一些资料,比如说怎么样去做修改,然后工作区的结构,比如说 open curl 的 一些知识,工作区的结构应该怎么样去修改,然后有什么特点,有什么规则, 然后这个是钩子应该怎么样去做配置,可以看到应该怎么样去做配置,这是 cloud code 的, 它之前是因为这个开发者,它是一个 cloud code 的 自我提升的一个 skills, 它出来了之后再把它换成的这个 open curl, 它有些是没有改的, 但是大差不差,它只是这种项目跟目录不一样,其实它的逻辑都是一样的。然后这个就是后壳的一些配置,可以看到它 open 或者 cloud code 还有 codex 这种配置都有。 ok, 还有就是 example 了, example 就是 你什么情况下应该去放什么样的内容,以及这个内容 markdown 的 文件应该放什么样的东西,然后它的一些势例, ok, 这也是后壳的一些东西。后,后壳的一些 markdown 的 东西,它这个也跟这个 skills 的 框架一样,我不知道它是因为要先把这个东西发给向后壳执行的时候,它会先把这个东西发给这个 open curl, 可能是这样的,然后后壳的 这个就不是参考的,这是一些资源,它可以直接复制这个技能的一些模板,模板资源,然后学习的这个条目应该直接放在这里面, 应该是什么样的一个格式,它可以直接复制过去,然后我再去做一些修改,然后这个东西就没有了。这个东西它就是让 open curl 把这个东西直接复制到它的 workspace。 总结来讲,这个 skills 就是 专门用于提升的,提升和进化的,只有你真正看了这些 skills 了之后,你才能对这个 o workspace 有 一个比较好的认知。 但是我个人认为哈,我们的后壳甚至不要用它的这种方式,我们可以直接创一个子质人体后壳来调用这个子质人体去更新它的记忆,我觉得这样更加的好,但是这样肯定更消耗头肯,但是如果说按照他这种后后壳再发给 open curl 的 方式的话,它会破坏它的上下文结构, 它会导致上下文的长度会很快就满了,所以说你的这种执行任务的效果就会大打折扣。当 我们买了这种稍微大一点的这种会员套餐的时候,可以建议使用这种子智能体的方式,你专门创一个子智能体来更新记忆,更新这种学习的经验,然后哦后壳跟这个子智能体进行绑定上, ok, 这就是今天的一个分。

现在 open core 正在给我配置防火墙,就是这台可以看到正在执行配置命令。我们来看一下提示词,我们让他通过我自己编写的技能连接华山防火墙,先登录防火墙查看一下当前配置, 然后再告诉他,即一杠零杠一做外网口自动获取 ip 地址,防火墙三口作为档口,并配置档口, ip 地址再发给 opencool, 让他先生成配置。 我们来看一下这就是它生成的配置,基本上都是正确的。 ip 地址,安全区域,还有 dsp 服务器配置,有些地方不太满意的,让它修改一下就行了。 比如这里 nat 配置,我习惯用 nat 奥特曼的,告诉它修改就行了。 脚本修改好以后直接让他配置,配置好以后让他拼一下,二二三点五点五点五,同不同可以看到他自己在登录设备, 然后对设备进行配置,配置好以后根据我们的要求拼一下,二二三点五点五点五,可以看到配置好了,配置好以后它还会输出一个总结 提示,华商防火墙配置完成,联通新测试,无丢包防火墙也可以正常上网,这个效率其实还挺可以的,比我自己编辑脚本还快。

你为裁员不是因为能力不行,是老板发现你还不如一个免费的欧姆克洛。很多人看到欧姆克洛刷屏第一反应都是,这是程序员玩的东西,跟我好像没有什么太大的关系,但是我折腾了一周之后,我发现他是一个普通人,就可以接触门槛最低的 agent 智能体助手。 今天我把踩过的坑、经验和配置的技巧全部分享出来,手把手带你从零搭建一个二十四小时的智能助理。建议呢,先点赞收藏,晚点呢,对着电脑可以一步一步进行操作。先说一说他能具体干什么,就是普通的 ai 助手的逻辑呢,是你问他,他来回答你, office 逻辑呢,是你交代任务,他自己去完成。举个例子啊,你让他帮助你去剪辑一段视频,他发现电脑上没有剪辑软件,他不会跟你说对不起,我不会,他会自己去搜索要装什么软件,自动下载安装,并且把整个流程跑通,剪好的视频直接交给你, 全程不用你来管,这就是 a 阵的核心逻辑。接下来讲讲安装,很多同学呢,来一听部署这个词,两个字就很头大,但其实门槛真的已经很低了,分两种方式啊,首先就是新人推荐直接去腾讯云、阿里云或者是扣子, 他们提供 oppo, 一 键部署,点几下鼠标服务器就会自己跑起来,全程不用敲代码。想体验完整的功能的话,推荐还是各位同学可以在自己电脑上本地安装一个, 虽然要输入是几行的命令,但好处是呢,他直接读取操作你电脑上的文件,这才是 opclaw 真正完整体的状态,不懂的地方可以直接截图扔给他,让他教你怎么具体去做。安装完成之后,需要给 opclaw 接入一个大模型,相当于是给他配一个大脑。很多人卡在这一步,就是不知道选哪个, 我试了下十几种的组合,帮你筛选出了一个最省心的方案,直接抄答案就可以。如果追求最好的效果,那肯定是要去选 cloud 模型,效果最强,但稍微有点贵,性价比的话,就去选 gimni 啊,效果稳定,接入更方便。 日常简单的任务选择 mini max 和 kimi 国内的大模型,还有针对 omklo 专属套餐,最省心新手建议呢,从 kimi 和 mini max 开始开箱即用,几乎零门槛配置。完成之后呢,最关键的一步是把 omklo 接入你的日常通讯工具。我最推荐就是接入飞书,当然也支持 qq 或者钉钉在 omklo 的 后台选择渠道接入。选择飞书的话,按提示绑定,全程大概十分钟左右的时间。 绑定完成之后,你可以呢给他起一个专属的名字,比如说小助手。然后呢,你就拥有了一个二十四小时的专属助理。以 后呢,你在路上突然想查个天气,脑子里边冒出了一个想法,不用去 app 啊,直接给他发消息就可以,他会帮助你进行搜索、整理和回复,把 ai 变成一种随手可得的直觉,这才是真正的降维打击。 他能够做的远不止聊天啊,玩法一呢,就是让他自己去升级自己。 比如呢,他默认不支持语音输入,你直接发消息啊,帮我给自己装一个什么语音的识别功能, 他会自己去搜索需要哪一个模块,自动安装配置好,下次你就能够直接发语音跟他对话了。玩法二就是信息收集。 大家都知道,作为 ai 产品经理,我们需要紧跟 ai 热点,每天需要消耗大量的时间呢,来刷推特,来刷技术的新闻和报告。现在我们直接呢就可以告诉他,每天早上十点帮我收集全网 ai 新闻,总结最热的十条发给我。设置好之后 啊,你的每日日报呢就会自动生成,再也不用手动去刷新闻了。玩法三就是帮你积累个人知识库, 你可以呢随时把灵感想法啊,读书笔记发给他,让他呢每天晚上自动整理汇总啊,同步到 notion 或者说一些其他的笔记工具当中, 坚持三个月,那就是你独一无二的创作素材库了。玩法四就是整理邮件,加上实时监控,让他呢能帮你每天梳理重要的邮件,做汇总,摘药,甚至可以呢监控特定的信息,并定时提醒你。还有很多很多的玩法,大家都可以发挥自己的想象力去探索。 不过呢,老师在这里面还得提醒一句,就欧米克拉虽然好用,权限却很大,可以呢读选你的文件,联网操作。所以有一点要记住,就不要在核心办公电脑上面 存太多的私密的密码或者账号,尽量的在相对于干净的环境里面进行运行。最后一句啊,就是技术这东西呢,更新迭代非常的快,咱们呢不需要当代码大神, 但一定要当那一个会使唤 ai 的 人。安装过程当中呢,有任何卡住的地方,直接在评论区截图留言,我来帮你进行排查。觉得这篇有用的话啊,点赞收藏支持一下。想了解 o'clock 哪一个玩法?评论区告诉我,我们下期再见!

codex gbt 五点四模型啊,终于还是扛不住了,今天呢,频繁报如下这个错误,这个应该是最近使用 codex 五点四这个模型的人太多了,服务器扛不住了, 因为通过订阅方式来使用这个模型确实是比较划算的。就如我一天的使用量来说,如果把 token 折合成 api 请求的价格的话,一天的费用可能就要十几美元了。 但这个错误比较奇怪的是,即便是你的 open clone 中配置了备用模型,它也没有进行自动的切换,这是什么原因呢?主要是因为这个错误呢,虽然是服务器错误,但是它是在任务处理过程中发生的错误, 也就是说,模型正在响应的过程中出现了这样的一个错误提示。这样的话呢, open clone 是 没办法进行模型的切换的, 如果是遇到模型限额或者是第一次请求的时候,就发生了服务器错误,这时候 openclock 还是可以自动去切换到备用模型的。如果还没有配置备用模型的用户呢,可以按照如下这种方式来进行备用模型的配置。 其实对于备用模型呢,我采用的是 open router。 使用 open router 的 好处是,第一,它在国内可以用,第二,它能够使用国际的顶尖模型,像 openai, gpt、 cloud code, gemini 都是可以通过 open router 统一的 api 可以 进行调用 的。还有一个原因是, open router 支持国内的双币信用卡进行支付,但国内银行发行的 visa 卡和万事达卡 是没办法支付 openai 和 arthurric 的 模型的。另外一个支持国内的双币信用卡的模型是界面奶,也就是你订阅了谷 歌的套餐的话,你是可以使用国内的信用卡直接进行美元结算的。好,今天就说这个问题,希望大家都能非常流畅地使用 opencloud, 关注我,持续迭代,无限进化。

问你一个问题啊,为什么别人的 open claw 那 么厉害,而我的 open claw 啊,傻的完全没有办法交流啊,背后的原因是啥?以及怎么样去解决这个问题呢?好,接下来一个视频啊,给你讲清楚。那么前面我们说了,龙虾呢,有三大核心组成部分,除了龙虾 本身之外呢,还有大模型以及技能。而在这三个核心里面啊,大模型它充当的是龙虾大脑的时候,那么大概率 一定是你的模型选错了,你模型用的不好,那么整个龙虾就不好用了。好,问题来了啊,那我想让我这个龙虾好用一点,那怎么办呢?那就是使用顶级的大模型啊。好,那问题来了,那我怎么样给我的龙虾去更换大模型呢?接下来一个视频啊,给你讲清楚。好,我们想要给我们的龙虾更换大模型的话, 我们需要知道三个东西啊,第一个 ok, 你 的 api k 啊,你在哪个平台?你的身份标识是啥? api k 就是 你的身份标识, 因为龙虾呢,使用这个模型是要去付费的。好,那么付费的话,我就需要有一个身份标识来标识,张三是张三,李四是李四,这样的话,我才能够成功地去计费嘛,所以我需要有一个 apik, 然后第二个呢,我需要有一个 base url 啊,因为不同的大模型,它的请求的地址是不一样的, 所以这个就是大模型的请求地址,这是大模型的请求密钥。而第三个是谁啊?大模型的名称,因为即使是一家公司的话,他的大模型也是非常多的,那你到底是调这家公司里面的哪个模型, 你要讲清楚的。好,那么接下来呢,给大家去讲一下,怎么样从零到一的给我的龙虾呢?去更换大模型。好,那么首先咱们需要去找到这三个地方啊,通常情况下,不管是哪家平台, 那么它一定是有说明文档的啊,那这时候呢,咱们可以去打开它的说明文档啊,比如说,比如说随便一个平台吧啊,咱们就可以找到了,它里面有啥呀? open ai 兼容模型的这个列表的请求地址 啊,那么这个地址啊, base u l 给大家来说一下,它通常是以 v e 结束的啊,通常是以 v e 结束的,所以, ok, 咱们去调用的时候, base u l 咱们就找到了啊,这个地址有了,那么地址有了之后,接下来呢就是去调用模型了,然后在他们官方里面也给咱们提供了一个接口,然后这个接口呢去访问,你可以得到所有的 模型名称啊,当然因为它们本身是一个集成站,所以在它里面呢,国内的模型和国外的模型都有,比如说 kimi 二点五呀啊, jama 三点一呀啊, gpt 五点四呀啊,包括豆包一点五呀等等等等,还有 cloud 四点六啊,它们家都能用,而且夸张的是啥呀? 它们有套餐,可以让你的成本可控啊,你可以订阅六块九的,你也可以订阅四百九十九的,根据自己的使用情况来选择相应的模型就 ok 了。好, ok, 那 这时候我就得到了贝斯 u l 了,以及 它的模型名称了,那么第三个是啥呀?第三个是我的 api k 啊,那这时候咱们就去访问后台,在后台里面有一个 api k 啊,这时候呢? ok, 我 可以新建一个 api k 啊,比如说这儿呢,我就新建一个 test 啊,然后点击创建。 ok, 那 这时候 api k 就 有了啊,这个时候咱们三个东西都有了情况下啊,当然所有平台都是一样的,所有平台你就去找这三个东西就行了。 找到这三个东西之后呢,接下来咱们就去对接一下最新的 gpt, 五点四。好, ok, 那 这时候啊,怎么样去对接呀?不管你是 windows 电脑还是 macos, 苹果电脑都是一样的,那么 windows 电脑呢?你就点击视窗键, 然后 cmd 啊,打开你的命令行提示符,如果你是苹果电脑的话,在应用里面去找到终端啊,都是黑色的窗体,然后点击它就行了,然后点击它之后呢? ok, 接下来输入一行这样的一个命令, open cloud configure, 然后输完之后敲回车啊,敲完回车之后呢,咱们选择当前本地的配置,然后确定, 然后在里面去选择 model, 因为接下来我要去更换我的模型嘛,所以点击 model, 然后在这个 model 里面呢? ok, 如果你直接是比如说,哎,我就去对接 kimi, 那 你就去选择 kimi 就 行了啊,但是如果我对接这个平台在这里面没有怎么办? ok, 它底下会有一个自定义模型, 所以你不管是哪个平台,你只要拿到刚才那三个东西,咱们都可以通过自定义的这种配置来进行设置了。好,那刚才那个平台它没有内置啊,那我这时候呢,我就选择自定义的厂商啊,因为它符合 open ai 协议的好。敲回车,然后 敲完回车之后,它要你干嘛?输入 base url, 然后 base url, 刚才咱们找到了呀,啊?它在哪啊?它在这儿,对吧?啊?这个 base url, 它是唯一结束的,大家注意啊,唯一结束了,所以咱们复制这个地址。 好,然后回到咱们这边把它原来带的这个东西呢地址呢?给它删除掉啊?粘贴是吧?好,敲回车,备注 u l 有 了,然后接下来输入啥呀? api k。 好, 输入 api k, api k 是 啥呀?刚才咱们登录到后台,这个 api k 复制啊,然后这时候呢给它粘贴,然后粘贴完了之后呢?哎,敲回车, 传回车之后呢? ok, 你 要去选择协议,那我的这个协议呢,就是 open ai 的 协议,所以我选择第一个 open ai 啊,敲回车,然后这时候他让你输入啥呀? model id, 然后 model id 的 话,刚才咱们从这儿哎得到了所有这个 model 啊,我千万三三点五 plus 啊,然后这些都能用的,那我使用啥呀?这一批题四 啊,我使用顶级的大模型,那它的能力一定是最强的。好,那这时候, ok, 咱们去选择啊,这时候不要胡输啊,一定是平台给你提供的这个 id, 不要自己去输入复制,然后粘贴啊,粘贴完之后呢?敲回车啊,敲完回车,这时候他就该干嘛了?去验证你这些信息到底是不是对的?好,验证完之后他告诉你, ok, 我 可以连接成功,到这,你已经成功百分之八十了啊。好,然后这时候呢,他让你去起一个名字啊,给他起个名字,那默认的这个就可以, 不需要去改的啊,这时候咱们去敲回车就可以了,敲完回车之后呢,它需要有一个别名,是吧?啊,那么这个别名呢?咱们就叫做啊有 club。 好, 完了,配置完了啊,配置完了之后呢,咱们继续啊,这时候咱们重启一下咱们的服务就 ok 了啊,配置完之后, ok, 使用 open club 然后 get 位啊,你如果之前你的服务是启动的,这块使用 restart, 如果你之前已经把它关了,所以我这呢 open club get 位就行了。好, 敲回车啊,敲完回车之后呢,咱们问一下大模型,测一下,看它是不是 gpt 五点四啊?好, ok, 那 我设置完了之后呢?哎,我来到网页那边打开我的 龙虾啊,当然龙虾我没有升级版本,现在版本又发布新版本了,那我就问他,我给你更换了新的大模型,告诉我你是什么大模型。好,然后完了之后呢?点击 send, 咱们来看一下它的回复啊。好,那么经过了一段时间之后呢,它告诉我了它是啥呀? gpt 五点四。好,那到这咱们的模型就更换成功了。 所以呢,最后咱们去总结一下,不管你是哪个平台,咱们只要能找到这三个地址之后,然后使用命令的方式,就可以在不改代码的情况下自己来更换大模型了。我是磊哥,每天分享一个干货内容。