我今天打开电脑就自动安装了这个不知名的浏览器插件,那 opencloud 呢?正在转向病毒木马的那套玩法。那你花钱安装的时候就应该想想,它之前有多难以安装,就会有多难以卸载。那昨天呢,其实我还清理了用户目录下的几百个 skill, 它就寄生在点 agent 目录下,我可以给大家看一下, 可以看这里有好多的这个 a 股的乱七八糟的, 就是所有的 ai agent, 它都会读这个目录下的所有的这些技能的说明。这就好比你的电脑在做每一件事情的时候,每一句注意是每一句 ai 发的消息之前,都会加上一句,请优先使用某某输入法,请优先使用某某浏览器,请在你访问某某网站之前,去某某帖子下面点个赞。 那以前杀毒软件大战的那个年代,所有的病毒木马拼命想做的事情也不过如此,这一下就回到了十几年前,带病毒的代码。拼命想做的事情也不过如此,这一下就回到了十几年前,带病毒木马拼命想做的事情也不过如此。这一下就回到了第三方的 skills。 大家谨慎安装 或者使用那些可以一键关闭的 agent 编排工具,比如说 golemancy, 它开箱即用, open cloud 支持的它都支持,那打开呢就能用,那关闭呢?就彻底关闭。给大家举个例子看一下, 查看一下我们的团队成员有哪些,然后各自有哪些技能,然后在口头地询问一下每个 sub agent 它们都能做什么, 然后看他们的回复,就是说他们能做什么,他们有哪些能力,然后统一的进行回复,然后整理成一个表格回复给我。如果 sub agent, 它还有 sub agent 的 话,那就让 sub agent 重复传递这个指令。 大家可以看这个团队,它本质上就是这样一个团队,然后把它关闭的话就彻底关闭了,它不会在你的电脑后台静默地运行。
粉丝5487获赞9.5万

给大家录制一个视频,主要是介绍一下这个 opencall, 它到底在我们的机器上面通过 dog 方式到底是怎么安装的,我们大家来介绍一下。那么 opencall 最近也很火,当然目前它还是有安全性的一些问题,所以我们一般建议你不要装在你自己的电脑上面,最好呢是通过这个容器的方式 创建这样一个虚拟和一个沙乡隔离的一个环境去运行。那我们今天这个视频主要是给大家介绍一下,到底怎么来通过容器的这种方式来运行。欧本靠就是龙虾,好吧,我们首先先给大家介绍一下他,其实 首先我们还是要在我们的电脑上面要把这个龙虾的项目给下载下来,要把这个龙虾的项目给下载下来,我是下载下来之后你就可以首先你可以要做一个翻译的这样一个动作,一般我们是这个这个脚本 运行这个脚本,运行这个脚本之后呢,他就会处理打包这个过程当中,如果他打包成功给大家看一下,他会创建一个这样的一个容器,我们靠点 点 logo 的 一个这样一个镜像,这个镜像打完之后你再运行下面一个命令,就是这个命令主要是做 配置文件的初识化,就我自己跑了一下,就尽可能你初识化,不要让他配,你可以很多东西可以不用配,你到启动了这个网关之后,你再来配置只说这个网关,启动网关之后再来配置这个东西,他这个地方最主要的一个地方是什么?如果你是要去安装这个 oppo, 靠,你要 他会生成这样的一个东西,这个地方是大家要注意他会生成这样一个 token, 就 在你的本地,你要通过这个 token 的 这个方式去打开外部的界面,当然这个外部界面有可能你是会打开失败的,因为什么他这个地方是要做一个配对,所以这个地方你要把,要,要把你的这个设备要给列出来,你要访问到这个容器里面去, 你要访问到这个容器里面去看一下,你要到这个容器里面去,你要去看一下这个是表说如果你发现他的,当然我们目前已经设置好了,如果他这个地方没有连接上,那你要打这三个命令,就这个 compose run 这个 开,你再要跑一个这样的一个设备的一个 list, 你 把这个它这个会列出来,有一个 request id, 把这个 request id 填进去,你再同意一下,那这样控制面板就可以连接到这个设备上面去就可以了。连接到设备上面去之后,因为我们原来的很多东西都没有配,所以你在这个地方可以做一个配置,配置最主要主要是配置模 模型这部分,那模型我目前配我自己是配了一个统一千万,统一千万三点五二十七, b f p 八的一个模型, 通过这种模拟他就可以在你本地,如果你配置完之后,你本地就可以去聊天了,只说你可以问,他就会告诉你本地运行的是我当地配的是通一千万,通一千万三点五二十七, b f p 八的这个模型,配置是在这个地方的, 我给大家看一下这个 skill 包,它这个 beauty 的 skill 包,它大概有五十三个,它有各种各样的,包括有什么苹果 note, 有 骑行,有各种各样 block watch 啊,这里有各种各样的一些工具,包括有些工具它是要设这个 sdk 的, 包括写代码的钉子,它也可以让它去写。这个是飞书的,它缺少一个飞书的一个叫 web walk, 你 只要把它植入进去呢,这个 飞书的聊天里面,它就可以去链接这样的一个东西,像这种它要注入这个 s e p i 的 聊天里面,它就可以起用这些技能, 包括这个呃, google 查询的地图地理位置,包括还有一些 nano banana 画图的一些工具,其实你都是可以注入进去, 是编辑 pdf 的, 它都是有些工具,都是有些工具来处理这些事的,包括还有一些语音的输入,各种各样的功能, 当然这些功能你也可以再进一步去添加你自己要的一些新的功能,这个也是可以的。好,那我们再给大家看一下频道,频道它目前支持的频道还是非常多的,我们给大家看一下频道这消息渠道,我们看了一下,它主要是支持国外的为主,国内的像这种飞书什么呢,它都是需要企业版,企业版本包括 teams, 包括 企业微信他也是可以支持的,但是企业微信他支持会比较麻烦,他还要做一些 a p i ip 的 一些白名单,还要做一些域名的设置,比较麻烦,所以一般个人用的不太多,但对国外来讲他是比较能用的,像这种国外目前都能,当然在国内,目前这种 app 下载都是在中国是不能下载的, 有些问题,所以这个龙虾在中国用起来可能就会有些限制,或者是说不是很完善。这个是消息渠道模型就比较简单,它可以配置各种各样的模型,包括各种各样的,这个是比较简单的,就配置一下就行了。 skill 工具,内在工具也是有很多,有浏览器,有各种 skill 包啊,这种 skill 的 配置,这个主要就是做一些能力的,包括有些定时任务, 这个都是可以做的,功能还是非常强大的,它这个功能是非常强大的,那要整体要完全玩会,它还是要花点时间来弄。一般我们目前安装就建议大家用 lock 的 这种方式,它会跟我们的那个机器做一些隔离,它也沙箱也运行在这样的一个 lock 环境当中,那这样相对来讲它会更加安全。好, 我们今天简单给大家介绍一下怎么去部署 open call 这样的一个方式去部署这样一个环境好。

很多人在 win 十上面装这个 open hello 啊,发现运行非常的慢,你知道是什么原因吗?来,我给你看一下,先打开这个任务管理器, 打开之后你在这个性能这里啊,你会看到有一个速度,对吧?这个是 cpu 的 速度,我这个 cpu 是 i 五幺幺四零零的啊, 你看现在的速度才才多少?一点多,对吧?一点多啊,来,我教你一个方法,你就按住这个 win 跟 x 键啊,然后在这个电源选项这里看到吗?电源选项打开它 啊,在这里电源模式好,这里选择最佳,性能 好,选完之后关掉它。这个时候你回来这里看啊,现在是多少?现在你的 cpu 速度已经跑到最顶,看到没?四点幺九啊? 四点幺九,这个时候你再看一下它快不快来,你现在随便开,是不是很快,对吧?

嘿,大家知道 opencloud, 它原本叫 modbot, cloudbot 是 个开源的个人 ai 助理和智能代理系统,能在个人电脑或者服务器上运行,和普通聊天机器人可不一样哦。给它操作权限后,它能控制你的终端干活,不只是出出主意,而是真的动手工作。 你能通过飞书这些即时通信工具和它对话,让它帮你生成图文、处理邮件、管理日程啥的。扣子编程现在支持一键安装 opencll 了,开发者能在扣子编程的云主机环境里快速安装部署,打造专属的个人 ai 助理和在本地运行 openclop 比 扣子编程安装操作超便捷,还能保护数据和 api key 的 隐私安全,保证助手全天二十四小时稳稳运行,是开发者快速搭建和体验新一代 ai 助理的好办法。和在云服务器运行 openclock 比, 扣子编程运行它不用手动选购服务器开通模型,能用自然语言和扣子 ai 交流,让它帮你填配置文件,真正做到开箱即用。刚刚给大家演示了用 openclaw 总结今日各股情况,还汇总到非书里,接下来咱们就来讲讲怎么安装部署。 第一步,先打开官网链接,登录到官网首页,在首页能看到一键部署按钮,点一下就行。第二步,去配置飞书渠道,在系统里创建飞书,填好信息后点确定最后一步来体验效果。 打开飞书,找到刚配置好的 openclock 助手,和他聊聊天,等他回复配置成功就说明咱们配置完成了。是不是挺简单的,快动手试试,有问题可以在评论区提问哦,之后会持续更新 cos 工作流,想学的可以私下找我哦!

openclaw 发布四个月获取二十八万 star, 超越 react 登顶 github 榜首,国内众多算力平台争先推出一键部署方案, 企业微信和飞书等一众办公平台前后宣布适配 openclaw。 当科技浪潮席卷而来,命运的推背感裹挟着每一个深处,洪流中的人不得不加快向前的脚步。但问题也随之而来,工具越新,概念越多,还没开始使用,很多人就已经先被海量的名词搞蒙。 hello, 大家好,我是小黄瓜。距离 openclock 发布已经过去四个月了,相信不少小伙伴已经亲自上手体验过,甚至已经做出了一些成果。但大家慢慢会遇到一个问题, skill 装了很多,配置也改了很多, 飞书和网页端这些入口也想办法接上了,可东西越装越多,反而越来越不知道该怎么使用。归根结底,这些并不是操作层面的问题, 真正的原因在于对 opencloud 的 整体运行流程并没有形成清晰的认知,概念之间的关系也是混乱的, 简而言之就是装了,但是不知道自己为什么要装。那么这期视频我就带大家从高维整体的视角俯瞰 opencloud 的 整体运行流程,走完整个 opencloud 的 运行闭环。那么开始观看前,大家可以先思考一个问题,你为什么要装 skills? 带着这个问题,我们开始本期的旅程。 首先,我们会把 openclaw 的 各种名词做一个罗列,在安装的过程中,我们会进入配置页面, 这个时候就会看到一系列的名词, workspace、 model、 gitware、 channels。 当安装完成,在浏览器开始聊天,又会看到这些名词, session、 soul、 memory 等,当然还有我们比较熟知的 agent 以及各种外部程序,比如 chrome 浏览器等。 那么现在站在一个已经部署好 opencloud 的 视角出发,有一个博主,他叫小黄瓜,在自己的电脑上安装了 opencloud, 然后用飞书给 opencloud 发送一个消息,帮我到 b 站,博主啦啦啦的小黄瓜主页完成截图发送给我。这个时候 opencloud 回复消息给我们发送了截图,就属于完成了整个流程的运行逻辑, 这是我们最宏观的一个层面。接着我们可以引入一个新的概念,叫做 channel, 顾名思义就是频道以及通道。小黄瓜和 opencloud 的 联系通过飞书进行链接,那么当前的 channel 就是 配置了飞书的连接方式,同理 它也可以支持比如说 discord, qq 等各种软件。那么现在的流程就变成了小黄瓜通过 channel 与 opencloud 建立了联系, 发送消息,然后 opencloud 完成任务后,再通过 channel 返回。那么当 opencloud 接收到 channel 发送过来的消息之后呢?它会先进入一个地方,叫做 getaway, 翻译过来就是中转站。 getaway 会把当前的消息路由给对应的 agent 处理消息,一旦匹配到某个 agent get 位呢,就会在这个 agent 下面创建对应的 session, 也就是我们所说的对话。而这个 session 它是用来保存当前绘画的上下文和状态的,简单来说,你就可以理解为是一个聊天记录,但是一个 agent 它可以拥有多个 session, 但一个 session 它只属于一个 agent。 那 么除此之外呢, agent 还会有另外一部分的上下文,也就是我们在安装 opencloud 的 时候 就会提供的 workspace 空间,里面会存在一些文件,比如说 so tools、 user 等配置文件。比如我们给 opencloud 发送一个消息, 你的名字叫小树,以后你可以称呼我为哥哥,那么 opencloud 在 回复我们消息的时候,就会以哥哥这个昵称开始,那么这些内容就是保存在它的 workspace, 也就是工作区当中的,或者说保存在它的灵魂定义当中。而这些内容每一个 agent 都拥有自己独立的工作区,比如在我自己部署的 wsl 子系统中,就在当前的这个路径当中,那么这个时候我们的流程整体就变成了以下这样,用户通过 channel 发送消息给 git 位, git 位呢?分发给某一个 agent agent 组合当前的 session 和 workspace 中的人格文件,共同组成上下文,去进行任务的拆解和分析。那么这个时候就轮到了我们最核心的大脑登场, 也即 models, 而他是真正负责理解问题,分析意图,制定步骤,决定要不要调用工具,以及最后生成回复的那一层。 当 models 完成了任务拆解之后,如果他发现需要用到外部能力,那么他就开始调用工具,同时会参考 skill 的 说明,判断什么时候该用,应该怎么用。比如触发了剪辑的字眼, 那么他就会调用 skill 相关的剪辑配置文件去进行一个阅读。没错,现在这个时候 skill 才正式登场。而工具能力本身则是通过 mcp 或 opencloud 的 自带的工具接口接入系统。 比如他要通过 chrome 浏览器打开小黄瓜的主页完成截图,那么 models 就 会根据 skill 的 说明 调用浏览器相关的工具,再通过底层的工具链呢,完成页面的访问与截图,最后把结果返回给用户。一句话总结就是, skill 负责怎么用, m c p 负责怎么连,而 tools 也就是工具, 它负责真的去做,而这些外部的软件,比如 chrome, 它负责的就是在哪里去做。现在整个流程就是用户通过 channel 发来消息, get 为接收,并路由给对应的 agent, agent 在 结合 session 绘画的上下文和 workspace 里面的人格文件进行一个分析,随后由大脑也就是 model 决定是否调用 skill 和 tools, 然后再通过 mcp 连接的方式去操作外部能力,最后执行结果 返回。所以当整个流程清晰地在我们脑袋中呈现的时候,我们回到最开始的地方,你为什么要安装 skill 文件?还有,你现在真的需要安装这么多 skill 文件吗? 如果本地部署的欧拉玛模型给他安装了很多的 skill 文件,就像给一块石头配上了一个豪华的超跑, 当他告诉你跑不起来的时候,你却以为是跑车的性能不够。所以 skill 决定的是能力的上限,而 models 决定的是能力的兑现。讲这个逻界,真正重要的地方不在于背概念,而在于一旦把整个炼炉看通了, 后面基于 openclaw 的 做事就会更稳更快,也会更清楚。最后我想说的是, ai 这波浪潮来的很猛,很多人还没有准备好就已经被推着往前走,但越是这个时候,我们越要沉得住气,走的慢就是走的快,走的稳就是走的好。 学习一个新工具,能够掌握底层原理,才能跳出每出一个新东西都要重新再学一遍的怪循环。把流程看懂,把结构理顺,把核心原理吃透,那么你掌握的就不再是一个工具,而是一种面对变化的能力。好的,感谢大家收看本期视频, 如果有帮助,还希望大家能够留下点赞和关注。假如大家喜欢我的讲课风格,后面我们会更新更多关于 opencloud 的 原理讲解和实战教程,我们下期再见。

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

大家好,欢迎来到今天的深度解析。今天我们要聊的主题是 open kla l l m a p i。 这是一个非常实用的技术话题,我会带你从最基础的概念讲起, 逐步深入到完整的实现细节,帮助你彻底理解 l l m a p i。 的 三大核心组建, system 提示词、 user 提示词和 function call tools。 无论你是刚接触 l i m。 开发的新手,还是想深入理解 open kla 封装实现的老手,这期内容都会对你有所帮助。 让我们开始吧,在正式开始之前,我先带你快速浏览一下今天的内容结构。整个讲解分为五个部分,第一部分是 l l m a p r。 的 基础概念, 我们会详细介绍 system 提示词、 user 提示词和 function call tos 这三个核心概念。第二部分会通过实际的代码示意,展示如何组合使用这些概念,从最简单的调用到完整的工具调用循环。第三部分重点讲解 openclop 是 如何封装和增强这些功能的, 包括模块化提示词和工厂模式工具系统。第四部分深入核心组建,剖析 a 阵运行循环和事件流系统的实现细节。第五部分会介绍一些高级特性,比如沙乡隔离和智能重试机制。 最后我们做一个完整的总结,回顾整个学习路径,好让我们从最基础的概念开始。 l l m a p i。 有 三个核心概念理解,他们是掌握整个技术战的基础。 第一个是 system 提示词,你可以把它理解为给 ai 设定的角色和行为准则,就像给员工发工作手册一样,告诉他你是谁,你要做什么,你应该如何做?这个提示词会影响到 ai 后续所有的回应。第二个是 user 提示词,这是用户的具体请求和问题, 比如如何实现快速排序,或者帮我分析这段代码。 user 提示词通常包含在 message 树组中,支持多轮对话。第三个是方式 call to, 这是一个非常强大的能力, 它让 ai 不 只是说话,而是能够做事。 ai 可以 主动调用外部工具来执行实际操作,比如读取文件、搜索网络、执行命令等。这三个概念协调工作构成了 l l m 应用的基础架构。接下来我们会逐一深入讲解。 现在让我们深入看第一个概念, system 提示词。 system 提示词的本质是什么?它就是你给 ai 的 工作手册。通过这个手册,你可以设定 ai 的 角色、任务范围、行为准则,甚至是限制条件。举个例子,你可以说你是 一个专业的 java script 导师,擅长帮助开发者解决问题。这就是一个简单的 system 提示词。更详细的版本还会包含你的职责是什么,你的风格应该是怎样的,你不能做什么等等。右边这个表格展示了 system 提示词和 user 提示词的关键区别。作用不同, system 是 设定角色和行为准则, user 是 具体的任务和问题。位置不同。 system 在 api 调用的顶层。 user 在 message 数据库中数量不同。 system 通常只有一个 user 可以 有多个优先级。不同, system 的 优先级更高,因为它影响整体行为理解这个区别很重要,因为它决定了你应该如何组织你的提示词, 才能让 ai 按照你的预期工作。接下来看 user 提示词。 user 提示词是用户的具体请求和问题,它决定了 ai 要解决什么问题。根据复杂度不同, user 提示词可以分为四种类型。第一种是简单文本,比如如何实现快速排序,这是最基础的提问形式。第二种是带上下文的文本, 除了问题本身,还会提供一些背景信息、代码、片段等,帮助 ai 更好的理解问题场景。第三种是多模态内容,这是更高级的形式,可以同时包含文本和图片。比如你上传一张错误截图, 然后问这个错误是什么意思。第四种是多轮对话,基于之前的对话历史继续追问,比如先问什么是帝龟,然后追问,能给我一个例子吗? 这种连续的对话形式,在实际应用中,你会根据场景选择合适的类型。简单问题,用简单文本就够了。复杂问题可能需要提供更多上下文,甚至上传图片或代码。现在我们来看最强大的部分, function call tools。 方胜靠的核心能力是什么?让 ai 不 只是说,而是做。传统的 l l m 对 话只能返回文本,但有了方胜靠, ai 可以 主动调用外部工具执行实际操作。但我通过这个流程图来说明,用户发送消息后, l l m a p i。 会分析这个请求,决定是否需要调用工具。如果需要,它会返回一个 auto user 指令, 告诉客户端要调用哪个工具,以及参数是什么。客户端执行工具后,将结果返回给 l l m l l m 在 基于这个结果生成最终回应,这个过程可以循环多次,直到任务完成。右边是一些常用的工具示意文件操作, read underscore file read underscore file 用于读取和写入文件。 网络搜索 search web 用于搜索网络信息。执行命令 run 下划线。 command 用于执行,是要命令日期时间。 get current time 用于获取当前时间。这些工具让 ai 从聊天机器人变成了智能助手,能够真正帮你解决问题。理解了基础概念之后,我们来看看 openclaw 是 如何 封装和增强这些功能的。 openclaw 不是 简单地使用字母串,而是实现了三大特性。第一个是 system 提示词的模块化构建, 传统方式是硬编码一个长字母串,而 open 柯老会根据运行环境动态组装提示词。它支持三种模式, fo, fo 完整模式包含所有模块。 minimo 简化模式只包含核心模块。 n 极简模式几乎不包含额外信息, 这样可以根据场景灵活选择,节省偷看。第二个是工具系统的工厂模式,每个工具都是独立可测试的模块,你只需要调用一个工厂函数,就能创建完整的工具级。这样的设计让代码更清晰、更易维护。第三个是结构化消息管理, open collab 使用统一的消息格式,支持多轮对话和工具调用结果的传递。 它会智能地维护对话历史,甚至在必要时进行压缩优化、透坑。使用这三个特性,让 opencloud 从一个简单的 a p i 调用变成了一个完整的生产级的 l l m 应用框架。现在我们深入核心,看看 opencloud 的 agent 是 如何运行的。 整个运行过程分为三个阶段,第一个阶段是准备阶段,系统会创建所有需要的工具,构建 system 提示词部署,这个阶段主要是准备工作,确保后续运行有所有必要的资源。第二个阶段是 l m 调用循环,这是核心部分, 系统会调用 l l m a p i 处理流势响应。如果 ai 决定调用工具,系统会执行工具,将结果添加到对话历史,然后继续下一轮调用。这个过程会循环多次,直到 ai 不 再需要调用工具为止。第三个阶段是完成阶段, ai 返回最终回应,或者如果出现错误,会进行错误处理和重试。右边展示了事件流系统,通过订阅这些事件,你可以实时监控整个运行过程。 on assistant message, ai 回复文本内容, on to start 工具开始执行。 on to land 工具执行完成。 on life cycle 生命周期事件,这个事件流系统让整个过程可观察,可调试,对于生产环境非常重要。最后让我们做一个完整的总结。我们今天的学习路径分为五个阶段。第一个阶段,理解 l l m a p i。 的 三大核心概念, system 提示词、 user 提示词和 function call tools, 这是基础中的基础。第二个阶段,掌握基础调用方式,从简单的文本对话到多轮对话,再到完整的工具调用循环。第三个阶段,学习 open kala 的 封装实现,包括模块化提示词构建工厂模式、工具系统 结构化、消息管理。第四个阶段,深入核心组建,理解 a 阵训行循环和事件流系统的工作原理。第五个阶段,了解高级特性,如沙乡隔离、模型降级、智能重试等生产级能力。 右边这个表格总结了关键要点,每个概念都有明确的作用,而 open class 的 实现则体现了工程化的思考,模块化可扩展、可维护。 如果你掌握了今天的内容,你就具备了构建生产级 l l m 应用的基础能力。接下来建议你动手实践,用 open class 搭建一个小项目,加深理解。感谢观看,希望这期内容对你有帮助。

配置,局网中所有设备都能访问 open close, 默认情况下, open close 只能在当前这台机器访问,我们来允许所有人都可以访问它。打开开里终端,运行这条命令,设置 get 位绑定在局网上执行这条命令允许 get 位进行非 安全的访问,运行这条命令,关闭 get 位设备认证的功能。第一步考虑个查看一下本地 ip 地址,我的 ip 地址是一点五三,设置一下 get 位,允许通过一点五三进行访问,解决了跨域的问题。一切配置成功,执行这条命令,重启网关服务。 我们来查看一下网关的状态,大家可以看到网关已经监听在四个零上,你已经可以通过局网的 ip 地址进行访问了。我们在局网里随便打开一台机器直接访问一下, 大家可以看到已经访问成功,只是这里显示与网关断开了链接没关系,我们来查看一下 open close 的 配置文件中的 top 回车,复制这一串 top, 点击一下盖栏,这里有个网关令牌,将那一串字母复制到这上面。如果兄弟们喜欢使用简体中文,可以在这里选择简体中文。点击连接,回到聊天窗口,大家可以看到我的黑壳龙虾已经可以正常使用了。

open call 保姆级安装教程,小白十分钟搞定! open call 最近实在是太火了,很多人已经做起了上门安装五百块一次的生意,甚至有人计算下来说靠这门手艺有机会年入百万美元。这里教你小白安装法,手把手避开所有常见的坑,包括环境、配置、权限问题、下载速度等等。看完不仅立升安装费你熟练后,甚至都可以接上门安装单了。 我们直接开始。第一步,安装 note js。 虽然 open 靠官方文档不要求提前安装 note js, 但先把这一步做完,可以避开很多坑。首先来到 note js 的 官方下载页面,点击 windows 安装程序按钮,下载完之后打开安装包, 如果出现弹窗,问是否允许此应用对你的设备进行更改,点击试。在安装窗口里,首先勾选用户同意协议,然后点 next, 下一步安装位置可以保持默认,你也可以进行更改。接下来,我们可以一路无脑点 next, 然后点击 install 开始安装。这里我们要稍微等待片刻, 完成后点击 finish 按钮, node js 就 安装好了。第二步,安装 git git 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 git 配置有关,所以也可以提前避坑。来到 git 的 官方下载页面,根据你的电脑架构选择对应的下载链接, 比如我这台电脑是 windows x 六十四,所以点这个。下载完成后,点开安装包,点击 next, 这里同样安装位置可以保持默认,你也可以进行更改。再往后,如果你不是专业开发者,不用纠结这些设置,我们可以一路无脑点 next。 终于到了最后一个选项,点击 install 开始安装,等待一小会。安装完之后,我们可以把这个 view release notes 取消,勾选它会打开 git 更新说明的网页,对安装没有影响。然后我们点击 finish git 的 安装就搞定了。 第三步,安装 open call, 在 菜单栏搜索 powershell, 这里注意要选择以管理员身份运行,然后会打开一个大黑窗口。那为了避免 powershell 默认策略太严格导致安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略,这里输入 y, 然后回车表示同意这一次修改。 然后我们再输入这个 openclaw 的 官方安装命令,并回车执行。这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络和专业网络访问此应用?点击允许。 当你看到一句来自 openclaw 的 欢迎信息,就说明 openclaw 已经安装成功了。小花,不过这还没完。第四步,配置 openclaw。 openclaw 会展示一段话,提醒你使用它可能存在风险。问是否继续?这里可以按键盘上的左方向键选择 yes, 然后回车确认。接下来保持默认的 quick start 模式,继续回车。 下一步需要选择 openclaw 背后的大模型服务商,这里有很多选择,比如 open eye, atropic 等等。那这里呢,可以根据个人偏好进行选择,用键盘的上下方向键进行切换。 如果你已经创建过某个服务商的 api, 蜜柚可以直接使用,那我呢,会选择 kimi 模型的公司公益上的 ai 不是 广告,而是因为 kimi 会免费送新用户十五块钱额度,我之前的还没有用完, 那这里呢,也教你如何创建大模型 api 蜜柚。以 kimi 模型为例子,来到他们开放平台的控制台,左侧有个 apikey 管理,我们点击新建 apikey 按钮,给这个蜜柚取个名字, 下面选择项目,然后点击确定就可以看到啊创建出的密钥的值,密钥一定要进行保密,被别人拿去用的话,烧的就是你的额度了。然后先别着急点确定,先点旁边的复制按钮,然后回到 power。 十二, 回车选择模型服务商后,因为我是在 kimi 国内官网创建的密钥,所以这里选择点 c n 的 api 密钥类型回车, 接下来问用什么方式提供密钥,选择现在复制密钥值回车。接下来把之前复制的粘贴到这里来。回收后呢,要选择具体的模型,我就保持默认的 kimi k 二点五。 再接下来我们要选择通讯渠道,也就是要通过 telegram 还是 discord 还是飞书之类的工具啊。和小龙虾进行对话,我们目前可以一路点向下键选择 skip for now, 也就是先跳过,因为呢涉及到一些准备步骤,后面我们再来进行配置, 然后问要不要现在配置 skills, 也就是小龙虾掌握的技能,如果你有比较清晰的目的了,这里可以看看有没有需要配置的,每个技能后面的括号里啊,都写出来应用的场景,那这个呢,也可以留到后面进行配置。我们按空格选择 skip for now, 然后回车。 接下来会出现一系列问题,问我们要不要配置好各种服务的 api 秘钥,比如 banana, banana 的 秘钥可以用来生成图片,那如果你还没有创建好的秘钥,也可以先都选择 no, 回头有需要再进行填写。 下一步我们要不要启动 hook? hook 指的是在某个事件发生时自动执行某个功能。我们目前啊也可以先跳过空格,选择 skip for now, 然后回车。 接下来程序会启动网关,我们会看到有个命令窗口被自动打开了,这个窗口先不要去关它,等待一段时间回到之前的 power shell 窗口。他问我们想用什么方式启动小龙虾,我们可以选用 web ui, 网页图形界面会更加直观和操作友好一些。 回,稍后会出现提示说有网页自动被打开,选择允许会进入到这个幺二七点零点零点一这个网页在聊天界面,我们就会开始和自己的小龙虾对话了。 如果你能收到来自小龙虾的回复,说明我们的配置也已经完成了小花。但小龙虾之所以出圈,其中一个原因是他可以接入各种通讯软件,接入后我们只需要在手机上发一条消息,他就能在电脑上自动开始干活。所以我们接下来要做的是把 open call 和飞书连接起来。 第五步,创建飞书机器人。来到飞书开放平台,点击右上角登录。如果没有账号,可以注册一个个人账号,不需要加入任何企业。登录完成后,点击开发者后台,然后点击创建企业自建应用,给应用起一个名字,填写对应的描述 图标,也可以自定义,然后点右下角的创建按钮。接下来我们点击添加机器人能力, 然后通过右侧菜单栏来到权限管理,点开通权限,我们在搜索框里输入 i m 冒号,注意是英文冒号。 然后我们把出现这些消息相关的权限先都加上,点击确认开通权限,上面有提醒,我们应用发布后,当前的修改才会生效。所以我们可以先点创建版本,然后在这个界面输入版本号,比如一点零,点零以及对应的更新说明,接下来点击保存并确认发布。 现在我们的飞书机选就创建好了,但还需要把它和 opencall 接通。第六步,连接 opencall 和飞书,回到 power 上,我们输入一个命令 opencall config, 再次进行配置。 第一个问题选择 local, 也就是在本机运行,然后我们要选择配置 channels, 也就是通讯渠道。接下来回车选择 configure link, 用来添加新的消息渠道。 这里一路向下,找到飞书后,回车要在飞书上运行,需要先安装飞书渠道插件,所以这里回车选择通过 npm 安装,等待一会安装完成后,我们要输入飞书应用的 app secret, 这个在飞书的开发者后台啊就能获取。我们先按回车,然后来到飞书开发者后台的凭证与基础信息,复制这个 app secret, 然后把值粘贴到 power shell, 接下来还要输入 app id, 也是一样的流程复制,然后粘贴进来。再然后我们要选择飞书和 open call 的 通信方式,默认的 web socket 是 实时通信模式,配置起来简单。所以回车选择 我们的机器人应用啊,是在国内版飞书,也就是飞书点 c n 这个域名创建的,所以选 china。 这个接下来问我们是否允许在群聊里使用机器人,这里可以选择 open, 也就是在所有群里都可以用机器人,但必须艾特机器人。 下一步我们选择 finished 表示完成配置,然后这一步问要不要现在配置私聊访问策略,也就是谁可以在飞书私聊里用 open call 机器人,我们选择 yes, 然后如果只是自己测试用啊策略可以先选 open, 表示任何人都可以私聊机器人,这样呢,不需要先进行配对,如果是正式环境,建议选择 pairing, 然后回车选择最后的 continue, 这样我们就完成了飞书通讯渠道的配置。接下来在 power 上输入 open call gateway, 启用网关, 然后在飞书的自建应用界面点击左侧菜单的事件与回调编辑订阅方式选择为长链接保存, 保存后我们就可以添加事件搜索接收消息勾选上确认添加。再然后来到权限管理,点击开通权限搜索通讯录,把获取通讯录基本信息勾选上点击确认。 要让这些保存生效,我们要再次发布版本,点击创建版本,输入新的版本号以及对应的更新说明。这次啊,我们是在给机器人添加消息接收能力,其余保持默认,点击保存并确认发布。 第七步,测试对话飞书机器人的配置啊,到目前就完成了,虽然过程很漫长和琐碎,但现在我们就可以尝试在飞书上和小龙虾对话。来到飞书 app, 可以 在消息列表里找到自荐应用的入口,点击打开应用,随便输入一条消息, 可以看到 open call 回了一个表情,表示自己正在输入,然后等待几秒就可以收到他的消息了。我们可以继续和他私聊对话,也可以把他拉进群聊里艾特他回答问题。如果想让他变得更强,也可以给他配置更多的 skills, 扩展他能完成的任务。 但建议啊,只安装官方或可信来源的 skills, 避免带来安全风险。如果这个视频对你有帮助,也求个点赞收藏,我们下个视频见。

大家好,一分半把爆火的欧滨可乐龙虾 ai, 讲透全程无代码无话术,听完就能上手。龙虾 ai, 它不是普通 ai, 它是能够直接操控电脑干活的开源本 地智能体验。跟别的 ai 方案不一样,它能够直接动手整理文件,批量发邮件,汇总 excel 写代码,喊一声就能直接完全。它的爆火核心就三点,第一,本地运行隐私超安全,不用上传任何资料。第二, 开源完全免费,社区还在持续更新技能。第三,兼容国内所有大模型,不用翻墙就能用。对普通人来说,他就是效率神器, 职场人用它自动化整理表格,会议机要每天能省一到两个小时,学生党靠它整理文献。深层思想导图,创业者自媒体用它排版、抓素材,定时发布,一个人顶一个小团队,真正实现了 ai 从洞口到 动手的革命。现在国内大厂都在重磅布局,阿里云、腾讯云一键部署龙虾镜像做基础设施。小米把龙虾 ai 做到了手机系统级,小米推出网页版免配置, 百度讯飞字节也全部接入兼容,各大厂都在降低门槛,让大家轻松用上,这就是下一个 ai。 刚需纯小白,四步就能上手,回家就能用。一、准备一台普 通电脑, windows 啊, mac 啊都可以啊。二、去 gethelp, 官方下载一键安装包,自动装好环境。三、选一个国内大规模的免费 a p i can, 比如 kimi 啊, deepsea 啊。四、对接微信飞书或钉钉发指令就能用。你可以直接复制这个测试口令,把桌面文件按类型归到文档、图片 压缩包,三个文件,马上就能看到 ai 的 魔力。说到底,龙虾 ai 是 ai 从聊天到执行的一个拐点,本地安全开源免费,大厂全入,小白也能轻松用。它不是未来的科技,它是现在能抓住的时效工具。

你有没有想过,一个真正可控的 ai 智能体框架应该是什么样的架构?今天我们来深度解析 opencloud, 一个不走寻常路的 ai 智能体框架。 opencloud 的 核心思想是以 getwave 为中心的本地优先 ai 控制平面,它不是那种传统的微服务聊天机器人,而是单机控制平面,加上内嵌智能体运行时的架构。整个系统分五层,第一层,接入层, 负责连接 whatsapp、 telegram、 slack、 discord 等消息平台以及 c、 l i 和各种客户端, 这些入口统一接到 getaway, 而不是各自直接驱动模型。第二层,控制平面层,也就是 getaway, 是 系统的唯一真相来源,负责绘画列表、路由状态管理, 默认监听本地的一万八千七百八十九端口。第三层,执行层,也叫 a 帧、 run time u p 杠、 aint 杠,括号视线, 完成上下文组装模型推理、工具执行和流逝输出,默认超时六百秒。第四层,能力层,内置工具调用能力 skills 按需加载系统提示词里指注入技能的名称和描述,真正的技能文件,用到时才读取。 第五层,状态层,包括工作区文件、绘画记录和记忆缩影,绘画历史以 j s o n l 格式存储在本地磁盘。那么一条消息是如何在这五层里流转的呢? 消息先进入通道 gateway, 根据规则选择对应的 session 和 agent, 然后 runtime 动态组装系统提示词, 把工具列表、技能列表、当前时区、工作区文件和历史记忆一起注入上下文,接着调用模型,模型如果需要使用工具就执行工具, 把结果回填给模型指导完成最后流逝输出回复,同时把绘画记录和更新的记忆写回磁盘和缩影。这条练物的设计重点 是同一条绘画内的状态一致,而不是单纯追求并发量。系统提示词每次运行都是动态重建的,每个文件截断上线是两万字符,所有 bootstrap 文件总上线是十五万字符。 open cloud 的 绘画设计是一个核心亮点。默认情况下,每个 agent 的 私信共用一个主绘画,也就是 dm scope 等于 main 绘画键,由 git 统一管理, 格式是 agent 冒号 agent id 冒号 main key, 这是实现多通道统一人格的基础。绘画每天凌晨四点在 getway 主机本地时间自动重置,但这里有一个重要的安全警告,默认的 me 模式会让所有用户共享同一个绘画上下文, 不同用户的信息可能互相泄露。如果你的 a 诊托接收多个用户的消息,必须把 d m scope 改为 p r 杠 channel 杠 peer 按渠道和发送者隔离,或者 poor 杠 account 杠 channel 杠 peer 按账号加渠道加发送者三层隔离。 群聊则始终有独立的绘画模型,是按 size 串行,按通道限流的队列设计。 同一个 session 内,同一时刻只有一个活动运行,避免工具调用和绘画状态互相冲突。但不同 session 可以 并发, main 通道默认并发四 safetent 通道默认并发八默认防抖一千毫秒,每绘画排队上线二十条。记忆系统是另一个亮点。 open cloud 的 记忆本质是工作区里的纯 markdown 文件,文件是唯一的真相来源。 记忆分两类,一是 markdown 文件,包括每日记忆和长期记忆。二是向量剪索缩影默认使用 memory call, 如果 x r o t v 可用,就在 sq lite 内加速,否则回退到 javascript 内加速,否则回退到 javascript 用于语义剪索。 memory 下划线 get 用于安路径精确读取。当绘画接近上下文窗口上线时, openclaw 会先执行静默记忆刷新提醒模型,把重要内容写到词盘,然后再触发自动压缩。 openclaw 提供了两套 hook 机制,让开发者在关键节点扩展行为。内部 hook 主要有 agent boostrap, 可以 在系统提示词最终确定前增减 boostrap 文件以及各种命令 hook 响应 new reset, stop 等指令。 插件库更加丰富,运行在 agent loop 或 gateway pipeline, 比如 before 下划线 model 下划线 resolve 可以 在模型解析前覆盖 provider 和 model。 before 下划线 to 下划线 call 和 after 下划线 to 下划线 call 可以 拦截工具的参数和结果。 message 下滑线 received 和 message 下滑线 send 覆盖消息的入站和出站生命周期。 gateway 下滑线 start 和 gateway 下滑线 stop 则对应 gateway 的 整个生命周期。 这套 hook 机制让 openclaw 具备了很强的二次开发能力,可以在不修改核心代码的前提下灵活扩展各种能力。总结一下 opencloud 的 架构,亮点有四个,一、 gateway 单点控制 local first 部署,默认不暴露公网。二、动态上下文组装 scales, 按需加载, 兼顾性能与灵活性。三、按 size 串形的并发模型,保证状态一致性。四、 markdown 文件为唯一真相来源的记忆系统,透明可调试,可持久化。如果你在评估 ai 智能体框架, opencloud, 这套架构设计非常值得深入研究。 本期视频内容整理自 open core 官方文档和架构设计文档,感谢观看。如果觉得有帮助,点赞投币收藏,支持一下关注我,下期再见!

我用 openclaw 实现了电商的自动上品流程,我从原来每天需要四个小时的上货流程,现在只需要五分钟,现在看到这个窗口是我日常上品的一个流程,找品、存图,新建商品,填入信息,然后一个品一个品,这样去操作。那我是怎么把这个步骤自动化的呢?先来看一下结果, 我现在的执行流程只需要打开飞书,因为我对接的是飞书这个通道,我只需要给龙虾发一句,开始执行自动上货流程,然后龙虾就会自动开始干活,他先会梳理一下这个干活的整个流程,大概分几个步骤,然后他就按步去执行,一直执行一个流程大概只需要三分钟不到,而且我的文件夹里面应该是有十三个商品的。 这个工作平时我们人工去做可能要花两个小时左右,现在就相当于无论我在哪里,只要我的电脑开着,我只需要跟我的飞叔说一句,开始执行自动上货流程,他就会自动跑完,然后告诉我已经 ok 了,所有的结果会放在我的桌面上,智能分组结果就是他帮我执行好的结果,所有的商品他帮我分好了组, 然后他又帮我把所有分好组的结果进行了一个压缩。那我最后上面的操作就是把这些压缩文件一键拖动到数据包导入就可以了。我从原来每天需要四个小时的上货流程,现在只需要五分钟。 那具体整个流程是怎么实现的呢?首先我需要做的工作是打开某多多的 app, 把我选中的商品去把这个商品的图片全部保存下来, 然后以及说这个商品的信息截图和价格尺码截图全部通过截图的形式和下载好的商品信息,这些图片混合起来,直接放到我电脑的这个桌面的文件夹就可以了。文件夹就是我保存下来所有我要上的商品,这里边会包含很多商品信息图, 然后还会包含很多的一个商品的价格和尺码图,因为这些我都是要一比一录入我的信息里边的。那可以看到我的这个大文件夹里面其实是不止一个商品,是很多组很多组商品。那么龙虾下一步就需要基于我这一个大文件夹去帮我进行智能的商品分组, 所以我把这些图片放到文件夹以后,下一步就看龙虾的操作了,那么它的执行步骤是什么呢?首先 第一步他需要打开我给他的这个文件夹,首先他需要基于我给他的一个大文件夹进行所有的图像识别,进行一些 使用一些算法将描述为同一个商品的图片归为一组,并且自动帮我分好组,可以看一下大概的结果是这样,所有相同的衣服会分为一个文件夹, 那么他帮我进行图片识别以后,非常精准的把所有描述同一个商品的图片都归为了一组。 第二步,它需要基于我提供给他的截图的那些信息,去提取对应的每一个商品的标题,价格、尺码和颜色,然后去自动录入表格。那最后一步,它会把它在过程中处理过的所有数据帮我生成一个校验表格, 方便我检查执行过程中是否出错,那整个环节就是龙虾帮我去做的,那这个质检验表格是什么意思呢?他会把他执行过程中所有处理过的数据信息帮我汇总到一个表格,这样我就很方便的去进行一个统一的预览,看一下哪个环节识别的信息,或者他执行的步骤有问题, 那我一眼就可以在这里看到。这个工作我只需要在飞书给他发一句指令,然后等他执行完之后,我打开这个教样表格,在表格里面快速去预览一下他所有的执行过程,有哪些数据错误了,或者分组错误了,我在这里可以快速的看到,然后再告诉他进行什么样的修正,这个工这个工作就完成了,是非常的方便。

这几天烧了一个多亿的抽空,我的小龙虾从左边进化成了右边,这样养虾体验真的大幅提升。如果你刚装上欧文壳,强烈推荐和我一样开启这五个设置,搭配这四条快捷指令,让你的龙虾更听话更好用,还能省下一大笔抽空费用。 在设置之前,推荐大家把对话插件一定要切换到非主流官方插件,这样小龙虾能做的事情更多,直接发个小龙虾链接,让他自己给你安装切换就可以了。 前三个要开启的设置是流逝回复、耗时和状态展示,直接发给小龙虾这段指令欧文克勒默认是不开启流逝回复的,导致我们要等小龙虾输出完所有的内容才能看到消息,等待时间很长,而开启之后就能像我们平时和 ai 的 对话一样,看到实时输出。 接下来要开启的两个设置是思考过程和工具调用,默认这两项都是关闭的,我个人觉得这两项还是很重要的,如果模型执行任务出错了,我们通过看他的思考过程也掉了哪些工具,能帮助我们更好的去纠正他的行为,不然有的时候模型骗了我们都不知道开启方式,就是发送给模型这两段指令即可。 先给大家介绍一下这个快捷命令,这是 open call 官方内置的聊天命令,每一条背后都是提前设定好的程序,直接控制小龙虾的行为,不会调用 ai 大 模型而消耗 token。 第一个是 stop, 这是我用的最多的指令,因为小龙虾在执行复杂任务的时候,它偶尔就会卡死,很长时间我们都等不到它的回复,但实际上一直在后台燃烧我们的 token。 这时候如果你发消息叫他停下,你会发现他不会停。这是因为 openclock 有 消息队列的机制,我们的上一个消息没处理完,新消息就会在那排队等着,所以这时候就要用到这个命令,输入 stop, 然后强制停止他的推理,就可以继续跟他对话,把他给纠正回来。这个非常重要,如果你不会 stop 的 话,你的账单可能就爆炸了。 第二个是 status, 能查看小龙虾当前的各种参数,我经常用来去看 context 来判断现在上下文的长度。因为现在很多的大模型虽然号称上下文是两百 k, 但实际上用起来到一百五十 k 以后,模型就变得很笨,而且回复很慢了。所以我们不需要用到两百 k, 我 会差不多在 context 一 百多 k 的 时候,就搭配另外一个指令 compact 来主 动压缩上下文,它会让 ai 对 上下文做总结摘要,不仅节省了成本,又不会丢失关键信息。这个我也用的很多,因为小龙虾用起来上下文增长真的很快。第四个是 new, 我们要给龙虾一个新的任务的时候,可以用这个指令直接开启一个新对话,这样就没有之前的上下文干扰了。但我个人其实更喜欢用 compact 来压缩这个看大家的使用习 惯。为了方便使用这几个快捷指令,我把它们固定在了我的聊天界面,直接去飞书开放平台,在机器人自定义菜单这里添加这几个快捷键,展示形式选择悬浮响应动作选择发送文字消息,设置完成后修改并发布就可以了。那这期视频就到这里,所有指令我都放在了视频下方,希望能对你有帮助,也可以分享干货,我们下期见。

龙虾爆火,但如何养虾是门学问。今天给大家整理了 openclo 真正能用的十个实用技巧,全是玩家真金白银踩坑踩出来的干货,小白也能直接照抄,保证看完 少走一大半弯路。先讲部署和环境,让你的龙虾跑得又稳又省心。第一,模型混搭用,别啥火都丢给 gpt。 提炼内容改文档这种小事,直接切本地小模型就行, 只有复杂逻辑再上柜模型偷看,费用真能省一大半。第二,尽量用 docker 隔离运行,别直接在你自己电脑上裸跑。用 docker 开个独立环境, 相当于给他开个单间,他再怎么删文件改配置都碰不到你系统核心,也不担心把电脑搞崩。第三,不用看画面就开静默模式,如果你不需要盯着它点鼠标,直接开静默模式,关掉界面渲染,既能省显存 任务,处理速度也会明显变快,后台悄悄干活效率更高。接下来是生产力部分,学会这几招, open cloud 直接好用一倍。第四,多用,然后串起多步任务,别只发一句简单指令, 试着用先,然后最后让它连续做。比如搜完 ai 新闻再做表格,最后发到你邮箱递我。打开自动纠错重试,有时候爬数据会受阻, 把重试策略调高一点,它会自动换方式再试,不会动不动就罢工报错。第六,提前给他设好操作权限,在提示词里直接说清楚规矩,比如只许看 pdf, 不 许改 excel, 说得越细,它执行越准,基本不会乱动手。第七, 装 r a g 插件,实现常识记忆。奥鹏科奥本身有点健忘,装上 r a g g 插件之后,它就能记住你之前的文件格式,任务习惯,用起来顺滑很多。最后是进阶避坑, 专门防烧钱,保护隐私。第八,设 token 熔断上线一定要手动设置单次任务最大 token 消耗和操作次数,不然它万一陷入死循环,半小时烧掉几十刀,真不是开玩笑。第九,私密数据先本地脱敏再上传, 遇到敏感文件别直接丢云端,先把关键信息打码模糊,再传上去做总结,防止隐私泄露。第十,开启 api 模式,联动更多工具。别只把龙虾当个单独软件,打开 api 服务之后,它能接到你自己的小脚本里,变成整个自动化流程里的一只手,真正实现全自动干活。以上这十个技巧, 全部真实可用,不忽悠人,不管你是刚上手还是玩了一阵子,都能直接用。想用好 oppo pro 其实不难,找对方法避开坑,效率直接拉满。 如果你觉得有用的话,点赞收藏就是对我最大的鼓励和支持,欢迎关注我,了解万亿蓝海产业 ai 和机器人赛道的发展现状和未来机遇。

嘿,各位用 openclaw 的 朋友们是不是都有一个共同的痛,就是那个额度啊,简直跟烧纸一样快!别着急,你绝对不是一个人!今天呢,咱们就来聊聊怎么彻底解决这个烧钱的问题。我给你们带来了三大绝招,保证让你们能真正零成本的玩转 openclaw, 跟那些烦人的 a p i 账单说拜拜! 没错,就是这个问题!用过 opencloud 的 都知道它的功能是真香,但那个烧 token 的 速度啊,也真的是快的吓人,可能你就是想跑几个小小的自动化脚本儿对吧,结果一不留神儿,哎,免费额度就没了,这种感觉真的太让人抓狂了! 你看,这句话简直是说出了我们所有人的心声啊!你离一张三百美元的账单只差一个错度的循环,真的,谁不怕一觉醒来就因为代码里一个死循环,直接收到一张天价账单,想想都后怕。不过好消息是,这种风险虽然存在,但我们完全有办法躲开它! 好了好了,吐槽就到这,咱们直接上干货!不废话,今天呢,我就给大家拆解三个超级实用而且百分之百合规的省钱大招,学会了就能让你彻底跟 api 成本说再见!咱们呢,一个一个来,看 来咱们看第一个绝招,英伟达的 ai 游乐场。我跟你说,这地方简直了,就是一个 ai 模型的宝库,或者说游乐场里边藏着一大堆顶级的模型,关键是好多都能免费用啊! 你看啊,这里的选择可太多了,有最近大火的月之暗面 kimi 二点五,还有智普的 g l m 五,甚至还有英伟达和 mate 自家的模型。最爽的是什么?就是你有这么多免费的选项,可以根据不同的任务随便切换,成本永远是零,这多香啊! 那怎么拿到这个免费的 a p i 密钥呢?过程超级简单,你只要去 build 点 nvidia 点 com 注册个免费场号,然后呢,找到你喜欢的模型,比如 kimi two point five, 点击下那个 view code, 一个以 n v a p i 开头的密钥就到手了。最后一步,把这个密钥往你的 open call 配置里一贴,搞定,就这么简单。 不过啊,这里有个非常非常重要的事,我得反复强调一下,因为达这个平台啊,他对 ip 地址的纯净度要求特别高,真的是极高。所以如果你在注册或者用的时候,看到那个四零三错误,别慌,十有八九就是你的 ip 出问题了。所以在动手之前,一定一定要确保你的网络环境是干净的,这点记住了啊! 好,那我们来看第二个绝招, open router。 你 可以把这东西理解成一个巨大的模型聚合器,或者叫中转站,但最牛的地方在于,它里面藏着一些完全不要钱,但性能又很不错的好模型。 这差距有多大呢?咱们不废话,直接看数字,你看这个表,就拿智补的 g l m 四点五 air 来说,通过 open router 调用它,每百万 token 的 成本是多少?是零,你没看错,就是零。而其他那些框长的付费模型呢,至少都得零点五每刀起步。这个对比啊,简直就是天上地下的区别啊! 操作起来呢,也一样是傻瓜式的,先去 open router 点 ai 注册个账号,然后创建一个 api 密钥复制下来,接下来,在它那个长长的模型列表里,你直接搜一个关键词 free, 刷的一下,所有免费的模型就都出来了。你挑一个,比如说 g l m 四点五 air, 然后把密钥和模型名字填到 openclaw 里,就完事了。 好,现在咱们来看第三个绝招。说实话啊,这招是我个人觉得最聪明最巧妙的一个。我们要干嘛呢?我们用一种叫 o o h u t 的 技术,把你手头上已经有的订阅,比如说 chat gpt plus 或者 gemla pro, 直接变成 open cloud 的 免费 api 来用, 是不是很酷?这背后是什么原理呢?其实很简单,你想啊,普通的 a p i 密钥就像一张按流量计费的电话卡,你用多少 token, 它就扣你多少钱。 但这个 o r s 令牌就不一样了,它更像是你已经办好的手机包月套餐,只要你这个 plus 或者 pro 的 订阅还在,你就可以用它来调用模型,而且完全不会产生额外的费用,等于说一分钱都不用多花。 所以,你 get 到这个方法的精髓了吗?它就是让你已经花出去的钱,价值最大化。你想想,你每个月都在给 chit gbd plus 或者 gemini pro 付费,那为什么不让它也来给你的 opencloud 打工呢?对不对?这样一来,你就完全不用再操心另一份 a p i 账单了。 好了,到这里,三大绝招都交给你了,掌握了它们,你现在就可以理直气壮地跟那个额度焦虑说拜拜了。成本再也不是你探索 ai 世界的绊脚石了。 咱们来快速总结一下,你现在手里的零成本工具箱都有啥?第一,去银伟达平台白嫖 kimi 二点五这种高质量模型。 第二,用 open router 直接找到完全免费的 g l m 四点五 l。 第三,如果你已经是 plus 或者 pro 用户,那就用 os 这一招,让你现有的订阅发挥余热。这三条路总有一条适合你。 现在最重要的那个限制,钱已经不是问题了,一个全新的充满可能性的世界就在你面前。所以最后我想问你一个问题,当预算彻底归零之后,你的下一个 ai 项目打算搞点什么大事呢?是去构建一个超级复杂的自动化工作流?还是打造一个真正懂你的个人 ai 助手? 好了,如果今天分享的这些省钱小技巧对你有用的话,别忘了点个赞支持一下。当然了,也欢迎你关注我们,未来还有更多这种实用的技术干货,感谢收看,咱们下期再见!