先说结论,你需要的是一个可以分屏、配置清晰,能显示更多信息的现代化终端软件环境。这期视频 主要介绍现代化的终端软件环境,并且在视频最后,我也会给大家提供一位大神编辑的整套安装脚本,可以一键安装,有需要的小伙伴请点赞关注,耐心看完。我们可以先看一下一个好的终端软件应该是什么样子, 是不是非常的清新,配色也非常舒服,重要的是支持分屏,渲染速度也很快。当 ai 智能越来越强大,它们开始可以自主完成任务,持续运行流程,甚至帮你做决策。这个时候,你和电脑的交互方式 其实已经在悄悄地发生变化。过去我们更多的是在用编辑器,比如 vscode, 比如 cursor, 一 行一行在写代码, 一次只专注一个任务。但是现在你可能需要同时跑多个 agent, 抓取数据的 agent, 生成图像的 agent, 剪辑视频的 agent、 前端代码 agent, 后端代码 agent。 这个时候,单窗口的编辑器开始变得不够用了,你真正需要的是一个多现成的操作界面,可以同时看到多个 agent 的 输出状态,日制,并且随时切换、 干预接管。有些人会想到用远程通信工具,比如飞书或者 telegram 来和 agent 交互,但很快你就会发现几个问题, 通信 app 的 信息流是现行的,很难并行查看, ui 很 重,操作成本很高,连接依赖网络不稳定,本质上是聊天工具,不是工作台,它更像对话窗口,而不是控制面板。所以越来越多的人开始回流到一个看似古老的工具终端软件,但不是传统的那个黑框, 而是一个全新的终端体系。这里先介绍一下完整的终端环境结构,我们要安装的本质上是一套分层架构。第一层, 终端模拟器,这是窗口或者显示内容处理输入输出,可以选择 ghosty 或者 item two 或者 mac os 自带的终端 terminal。 第二层, share, 真正执行命令的解释器,你输入命令,它帮你解释给系统,系统返回结果,它再展示给你。这一层你可以选择 share, share 或者原始的 bash。 share 功能强大,兼容性好, 但是需要配合额外的插件才能达到 facial 的 效果,而 facial 可以 开箱即用,不需要额外的插件就能实现强大的补全查询功能,但是针对某些脚本,兼容性会差一些。第三层, prom 层, 就是命令行前面那一行提示信息,包含路径, get 状态、语言、环境、时间等信息。这一层你可以选择 starship, omg, z s h 或者 power level ten a。 这里我们选择 starship, 由 rush 编写,速度快,支持多种效,兼容各种配色方案。第四层, 终端的配色方案以及字体 copying, 是 目前最流行的终端配色主题,兼容各种终端。 i d e, 我 最喜欢的是摩擦配色,适合长时间编程。字体可以选择 not found, 它提供九千种图标和 powerline 字形。第五层, 应用工具层,比如 f n m, 用来进行 node js 的 版本管理,比如 f j f, 可以 进行模糊查找,以及 f d beat off, yaz, lazy, git 这些终端工具。 先说一下 ghosty, 我 知道 ghosty 这样的现代终端软件是 cloud code 的, 作者 boris 在 twitch 上分享了怎么使用 ghosty 的 分屏功能来管理多个 cloud code 的 绘画,既然大佬都使用这个软件,那肯定没有错,于是我研究了一下,然后就被种草了。 ghosty 是 一个这个语言编写的可以 gpu 加速的终端软件模拟器。为什么用 ghosty 而不用 item two 呢?第一个就是快,它采用 gpu 加速渲染, 启动速度,滚动流畅度,大量日制的输出都要比 item two 更丝滑。第二个就是原声,它在 mac 电脑上 bossy 是 原声应用,用的是 appkit 而不是 electron 套壳,所以更加的清亮。第三就是内置了分频功能,比如 command d 可以 进行水平分频, command shift 加 d 可以 进行垂直分频, command t 可以进行分页显示,而 command 加 w 就 可以关闭所有的分屏或分页。最后一点,它可以通过一个简单的配置文件进行各种配置,这样你就可以方便地将配置文件分享到不同的电脑中。更换电脑后不需要重新配置。 可以看到这个配置文件是非常简单的,当你需要更换电脑或者是共享配置的时候,只需要拷贝这个配置文件就可以。下面再说一下 starship, 它是由 ras 的 语言编写跨 shell 的 一个 prompt 优化方案,它可以支持 bash c shell, face shell 甚至 windows partial 都可以使用。配置也非常简单, 通过一个配置文件就能定制,信息密度高。比如我们进入一个 get 仓库,我们就可以看到它现在在哪个分支,是否有提交,以及它的 get 状态。如果我们进入一个 python 项目的话,我们可以看到 python 现在的版本号。同样的,如果我们进入的是一个 node js 的 项目,那么 node js 的 版本也能够显示, 可以看到整个 prom 的 显示是非常好看和漂亮的。最后说一下终端的配色方案,一个好的配色方案可以带来更低的视觉疲劳,更高的识别度,也能给你带来更好的心情。 在 starfish 中集成了多种配色方案和主题,我们可以我们可以输入命令来查看一下。这里输入 star star ship presetlist。 一 共有这么多种配色的主题和方案,如果想切换它,可以这样输入 star ship preset group box rainbow, 然后输入到它的配置文件夹下,点 config star ship, 你 看它就刚好切换成一个另外一种主题和色调,这种色调也非常好看。我们再切换一种 star ship preset tokyo night。 好,它又切换了一种主题和色调。最后还有一个特别需要注意的就是字体,你需要安装 note ford。 这种字体原理也很简单,它把超过九千种图标全部打包到了编程字体里面,把图标库 做了一个大的集合,所以如果没有安装这个字体的话,命令行就会缺失图标显示,比如这些图标的显示。当然你并不需要手动的一个一个去安装这些软件, 这里要感谢这位大神提供了一个开源的终端安装脚本,可以一键安装上面我介绍的这些软件, 你只需要本地直接克隆和安装这个脚本就可以。而我也会把仓库地址放到飞书资料中,如果你感兴趣的话,可以直接复制这个命令一键安装。好的这期视频就到这里。最后总结一下,当 ai 检测越来越强大,我们和电脑的交互方式 已经发生变化,我们需要的是一个可以分屏、配色清晰、可以显示更多信息的现代化终端环境。关注我 ai, 分享时尚技巧,我们下期见!
粉丝1.2万获赞1.7万

最近啊,因为小龙虾非常的火,很多哥们问我,他说,兄弟我要搞那个小龙虾,我要什么配置比较合适呢? 我这边的技术兄弟测试了一下这个玩意,他跟你的电脑配置关系不大,主要还是跟你的电脑系统挂钩。目前来说,苹果系统、 windows 系统还有乌班图系统全都安装运行了, 其中来说,苹果系统他是最容易安装和使用的,其次就是乌班图系统,然后 windows 的 话是比较难用的,这也是为什么最近 mac 迷你这么火的原因。

今天这个视频不是一个教程,只是一个建议啊,我相信肯定也有朋友跟我一样,自从这个 open club 火了以后,就经常刷到其他人晒出来自己养了一只如何好用的龙虾,给自己解决了什么问题,他自动化工作流有多香之类的视频,然后会因为自己还没用上就感到焦虑 啊,我就是想说啊,咱们也别光焦虑,自己动手部署一个丸,现在网上教程这么多,跟着教程的话,半个小时也差不多就能搞定了。 然后呢,也别担心什么电脑配置不够用啊,也没必要去买一台类似 mac mini 的 这种设备专门来养龙虾。那我给你们看一下我这台电脑的配置,幺四零零 f 四根八 gb 的 二手内存,一个二手的幺零七零显卡,然后固态还是两块拼好盘,这个应该算不上是高配吧。 那么龙虾部署完了之后呢,就可以去找一些试用额度的 token 来玩一玩,它运行的时候就根本不会吃你本地的一个配置。然后就现在很多新东西,我觉得光靠听光靠看是没有用的,还是得自己边学边用,然后在这个过程中找到自己的需求。 我是觉得养龙虾这个养字它其实很生动啊,因为我觉得在我们调教龙虾的过程中,也是在主动梳理自己的一个工作流程,就思考的过程,就比埋头苦干高明多了,对吧?

先说结论,我创建了一个可以自动添加 agent 的 skill, 一 句话就能添加 agent 并且绑定飞书机器人,有需要的小伙伴请点赞关注视频,后面我会提供下载链接和操作方法。大家好,今天这期视频的内容 主要介绍如何让 openclaw 接入飞书,如何申请飞书机器人,然后创建特定的 agent 与之绑定, 如何通过主 agent 调动多个 agent 的 共同写作。这个是我在飞书上建立的 open core 使用文档,以后我会定期在这里分享一些实际操作资料和学习资料,可以方便大家学习。 这篇文档是手动接入飞书并实现多自媒体写作,和接入微信的流程是一样的。首先需要安装飞书插件,即在终端执行这行命令,安装完成后选择新建飞书机器人, 然后使用飞书 app 扫描二维码就绑定成功了。然后可以使用飞书机器人来跟 openclock 进行对话。这里有一些高级配置指令,比如切换到流式输出、设置多任务运行及独立上下文, 这些是常用的诊断命令和问题修复方法。可以在聊天窗口发出飞书 start 指令, 确认是否安装成功,发出飞书 off 指令来批量完成用户的授权。接入飞书以后,可以直接通过跟机器人聊天来完成很多飞书中的操作,比如整理群聊内容、 查看创建日程、读取修改云文档、创建会议机要。又或者把数据账单发送给飞出机器人,让他帮你创建多维表格进行记录。现在说一下当 a 检测的利弊,优点是架构简单,调试容易,适合早期阶段,但随着使用轮次的增加,其能力 也会越来越臃肿,上下文会越来越长,核心系统的题词会不断增加,调用的工具也会越来越多,逻辑越来越复杂,最后就变成 什么都能干,但什么都不精。所有的绘画记录,所有的工具调用 skills 都会加载到一个 agent 的 上下文,就会导致 token 消耗太多,任务执行缓慢且容易失败。什么是多 agent 呢? 你可以理解为把一个当 agent 变成一个团队,团队里面有项目经理、数据爬取专家、文案编辑专家、全案全站工程师等等,每个 agent 只做好一件事,这样带来的第一个优点就是专业化,每个 agent 配置独立的工作空间,有不同的访问策略,独立的职责描述、性格特点,可以使用不同的模型绑定不同的工具,历史绘画隔离,这样可以大大提升工作效率。第二个优点 是可扩展,你可以随时添加新的 agent, 比如添加一个财务分析 agent, 添加一个图像生成 agent 并不会影响其他 agent, 并且可以规划不同 agent 之间的协助。实际应用当中, 我们可以采用一个飞书机器人绑定一个 openclock agent 策略,每个飞书机器人独立管理,互不干扰,使用独立的路由, 独立的绘画,可以灵活控制,并且也可以让主 agent 来调用其他 agent 完成多个 agent 之间的协助。现在来介绍一下整个流程主要分为两步,第一步创建一个飞书机器人,需要访问这个链接,得到 app id 和 app secret。 接下来就是配置 opencloud 的 接收文件,配置路径如下,主要配置的有下面几个部分,一个是 agent list 的 部分,这是主 agent, 这是我添加的数据抓取 agent、 项目经理 agent、 全站工程师 agent。 每个 agent 都有独立的工作空间,并且可以设置不同的模型,这一块呢是工具权限的配置, agent 和 agent 之间可以进行通信, 这个是多账号绘画隔离设置,这个是飞猪的 channel 配置,需要在这里配置 app id 和 app secret 以及 agent 的 名称。这个是飞猪机器人的 open id, 这里是路由绑定 设置,这里是 cloud 中 agent id, 现在是一一对应,可以将如下规则写写入到你的记忆文档中去。为了让主 agent 可以 调度下面三个 agent, 这里需要配备这样一个设置。第 sub agent 允许的 agent 的 id 有 如下几个,这里主要是为了实现主 agent 调动其他 agent。 下面是一个数据抓取 agent 的 一个 through, 参考 主要包括身份、性格、工作原则、表达方式、用户关系边界和目标。这是一个 demo, 其他的 agent 都可以按照这个结构来编辑它的售。 下面我来实际操作一下,这个是我的主 agent, 然后我又分别创建了文案编辑、项目经理、数据抓取和全站工程师这四个 agent。 然后我们还可以继续添加 agent, 我 来实际操作一下, 可以看出手动去配置这些节省文件还是挺复杂的,因此我自己创建了一个可以自动添加 agent 的 skill, 然后通过这个 skill, 我 们可以快速的让 ai 来帮我们配置这些文件。那么我来操作一下。首先第一步创建飞速机器人, 我们可以点击这个网站,比如说我想创建一个财务经理啊,财务分析, 财务分析的机器人,这时候它就会帮你创建一个飞出机器人,然后生成这个 app id 和 app secret, 我 们可以把这个复制过来,先复制这块,这是我写的 skill。 好, 我们已经明白了,这个叫财务飞行的 agent 需要我们添加 app id 和 app secret, 就 把刚才这里申请到的飞出机器人的 app id 拷贝给它。 啊,还需要进行职责描述。 现在 ai 就 可以自动按照我编写的 skill 来帮我们创建这个 agent, 并绑定飞出机器人,它会自动重启 openclock, 所以 有时候你会提醒一下它,这里需要打开私聊跟这个机器人 说一声,发送一个消息,就可以获取这个机器人下面的 open id 了。我们这里打开,打开应用财务分析,打开应用,你好,已经发送消息。 好,现在他应应该是更新配置更新成功了,再检查一下, 他已经接收到了我的消息了,然后他就会回复了。好,说明这个机器人跟这个新的 agent 已经绑定。 新的财务分析的机器人已经跟 openclock 中的新的 agent 已经绑定了,并且可以进行消息的回复。现在我们来测试一下,让主 agent 来调用这几个啊子 agent, 现在,好,现在主 agent 已经可以跟财务分析的绘画已经生成了,得到了筛选 key, 这样的话主 agent 就 可以以后调用这个 财务分析的 agent, 并且它已经把小财这个筛选 key 更新到记忆里面,现在我们来测试一下。 好,这就完成了,由主 a 检测通知财务分析,这个 a 检测去做一个工资表,然后我们看一下是不是做出来了。好,这做出来了,这我们还可以做的更复杂一些,比如啊,我们可以让让项目经理, 然后让权杖工程师编写单。 好,现在让我们来弄一个更复杂一点的,让多 a 级的协助,让项目经理来规划一个前端页面项目,用来显示这个工资表格,然后让全站工程师来编辑代码,看一看他能不能完成 好。项目经理的方案已经完成,全站工程师正在编码中。好,可以看到这个工资页面也已经开发完成了,然后我们远程看一下这个前端的页面员工工资表,员工工资明细说明这个全站工程师已经完成页面的开发。 好的,我们总结一下今天的内容啊,今天主要就介绍这个接入飞书并实现多次人体的协助。然后我这边是在编写了一个 skill, 可以 直接通过这个 skill 来 创建一个 a 卷的,并绑定这个飞书机器人,我会把这个资料放在这个评论区啊,有需要的小伙伴可以自己来取。好的,今天的内容就到这里,我们下期见,关注我 ai, 分享时尚技巧,我们下期见。

这是一个龙虾 u 盘,也叫优克洛,我们就说把完整的龙虾包,还有 n、 p、 m 啊,呃,这些等等的这些插件都放在了这个 u 盘里,也就说现在这个 u 盘插在电脑里,或者插在 mac 上 linux 系统里。啊,那现在都是可以直接运行的, 也就是不需要繁琐的配置,那它的这个安全性以及私密性都有所保护。那,那这个就是我的 u 盘,我现在把这个优克洛打开, 然后我这是一台 mac 嘛,我就选择这个 mac start。 那 那现在这个龙虾就可以自己运行,那免安装嘛?也就是免安装,然后直接打开运行,它就会运行在这个,那现在它就可以进入到这个优可拉的配置中心里,那包括像这个配置面板也是直接就是有的。

打开 open core 官网,这类开源项目在 linux 环境下拥有更加的血统支持,但 windows 更常用,因此我们选择基于 windows 下的 wsl 默认版本 ibun 上进行安装,复制对应的 linux 下的安装命令。打开 wait 终端, 打开 ibun 终端,输入复制的安装命令, 输入当前账号密码。过一段时间安装完成后,我们可以看到这里默认安装了 linux 下的翻译工具 now js 以及 open call。 当前最新版本是二月二十四号的, 注意这里环境变量的配置要记下,否则后面终端运行 open call 会提示找不到。为了方便讲解和理解 open call, 我 们先按最简单的配置方案把流程走完,让 open call 先跑起来。上手指南第一步, 这是安全警告,直接选 yes, 选择快速开始。 先不配置大模型厂商,这里先选择默认模型,这里聊天接入通道也先不配置。进入技能配置这里也先忽略,接下来的几个配置也都选择 eno, 进入 hoops 配置,这四个都选择上 网关,已安装完成,选择启动方式,这里为了方便直观查看效果,选择 y b y 方式。 配置流程完成,我们在浏览器打开这个地址查看效果, 可以看到健康状态正常,可以看到左侧有很多功能可以选择, 也有模型相关的配置,但这里还是建议在命令行下进行配置输入上面命令提示找不到 opencline 命令,修改相关环境变量, 让环境变量生效,重新运行 opencline 配置命令选择本机现在来配置 opencline 的 大脑模型, 选择 google 官方大模型,相对较贵,也可以换成第三方提供的接入地址,找到这个文件,用模板替换里面的内容, 并对替换后的内容进行相关部分的修改,即可 重启 open call。 再测试一下,它只是给自己起了个昵称,并不会告诉到底是哪个大模型, 但可以通过这个命令查看相关模型信息,同时通过频道访问其返回内容,与 web 返回内容同步。

最近好多人都在问我,我是一个新手,这龙虾到底怎样开始养?今天我不讲虚的,直接给你十个必须配的点,每一步都会把真实操作放在视频里,你照着配就行,建议先收藏。第一步,先选模型。 这个其实就是先给龙虾学脑子,如果你是新手,我建议你先用智浦五系列,原因很简单,便宜、稳、够用。智浦有一个 double, 是 国内首个针对 openclaw 这种长对话深度优化的模型,你先别一上来就追最贵的,先把龙虾养活,养顺更重要, 可以像这样。第二步,接渠道。如果你是新手,我建议你先从飞书接起,他相对简单,也更容易先跑起来。记住一句话,先接一个先跑通,不要一上来全接入口和配置文件的位置在这里。 第三步,装 skill 就是 技能包,这一步一定要慎重,全网都在说装上 skill 龙虾就能飞,所以很多人恨不得龙虾一装上就装一大堆技能,我不建议身边好几个朋友都是因为这样把龙虾搞挂了, 因为在你不了解技能包的情况下,很多机率会有插件冲突。官方自带五十个 skill, 基本覆盖了所有的基础技能,所以我建议一个都不要装,先去看官方自带的五十个 skill 里,有没有你能用上的才是最实在的做法。 skill 的 文件路径在这里。 第四步,你的个人 dna。 这一步特别关键,因为它决定了龙虾写出来的东西像不像你。其实做法就是准备八到十五篇你过去写过的文案样本,最好是你自己比较满意,也比较像你真实风格的 整理到一个叫 model 文件里,然后运行 d n, 它会自动提取你的风格、语气、节奏、 样本怎么整理,命令怎么跑,可以像这样。第五步,写记忆。龙虾默认数会失忆了,所以最重要的信息一定要提前写进 md, 至少写这几类。这一步配好之后,它就不用每一次都从零开始重新认识你, marry md。 具体是写什么,可以看我前面的视频。 第六步,设心跳。心跳的作用就是让龙虾定期醒来,主动看事情,比如看邮件、看热点提醒,开会定期汇报,这些都可以写进 habit, 这样他不是每次都等你开口,而是会按照你设定的节奏自己去检查哈比特怎么写,也可以看看我前面的视频。第七步,定闹钟。 如果有些事是要精确到具体的时间去触发的,那就不要只靠心跳,要加抗配置。比如 每天早上八点提醒,每周一发周报提醒,每天固定时间跑一个动作,你记住一句话就行,心跳负责定期抗,抗负责准时做,抗怎么配,命令怎么写,可以像这样。 第八步,守住底线。这一步很多人容易忽略,但其实特别重要,因为龙虾能做的事越多,你越不能让他什么都直接做。所以你要去配置里找到这两个文件。 你要把高风险动作先设成需要确认或者直接禁止,比如删除文件需要确认,发到群里需要确认支付相关禁止。 先把底键守住,后面再慢慢的放权限,具体在哪里改在这里。第九步,盯成本。这个很现实,你要养成一个习惯,每天睡前看一眼,偷啃消耗你不用算的特别细,但你得知道大概花了多少成本,怎么看可以像这样, 第十步做备份,最后一步很多人不是不知道,而是喜欢拖。当真的出问题的时候,你会特别庆幸自己做了, 因为龙虾会学习,会成长,那记忆、 dna、 技能、配置都是你一点一点养出来的。所以我建议你每周固定备份这几个东西,你可以直接丢云盘,也可以放 get 仓库里, 这样哪天真的出问题了,至少还能恢复备份。哪些文件在这里。如果你现在刚开始养龙虾,别着急,上来就让他干大活,先把这食物按顺序配好,你会发现他才能真的开始为你所用。新手开始养龙虾,不是看他能不能干活,或者是有多少技能, 而是看你前面这些基础有没有设置好。如果你现在也打算养龙虾,这条视频你可以先收藏,需要文档的可以在评论区告诉我,后面你就对着文档和画面一步一步配置。关注我,下期有更多关于 open globe 的 干货分享。

想让你的额崩破龙虾更强、更听话、反应更灵敏吗?今天我就手把手教大家怎么给它配置付费的 apikey, 彻底释放它的全能性能。如果你现在还没安装好额崩破,先别看教程了,直接私信我,我先帮你把它跑起来。好,咱们言归正传, 想要额崩破变强,你得先了解付费 apikey 的 两种省钱模式。第一种叫可定 plan, 你 可以把它理解成自助餐,按月收费。 如果你选择基础套餐,每个月定死一个价格,每五个小时给你一定的调用次数,只要你不是二十四小时,不停的疯狂折磨他,这种模式就相当于无限使用,性价比极高。第二种就是开放平台直充,这种方式去超市买菜,充多少用多少, 你往平台里充点钱,生成一个 api key 就 能直接用,每次任务消耗多少特权就从余额里面扣,没钱了再补就可以。这种模式有个好处,只要你累计上到一个档次,一般都是五十块钱,它给你的接口频率就会非常非常高,用起来非常丝滑,而且不用不扣钱。那到底选哪种呢? 如果你追求极致的性价比,选第一种,如果你想随用随取,不差那么点差价,选第二种。接下来咱们直接上实操。先说追求性价比的方案,我推荐大家用 mini max, 我 们先打开电脑,进入 platform, 到 mini max 点 com 这个网址,点击右上角的订阅套餐,选择连续包月 没看到六个档次。如果你只是平时偶尔用用,选最低基础的二十九元一个月就够用到个人最推荐的四十九元那个档次, 这简直就普通人的天花板,完全够用,这六个坑大家别踩上面那几百块的极速版,如果你不是 ai 超级,即刻千万别乱充,那是纯纯浪费钱。这个时候后台会给你发一个 api key, 把它复制下来。如果你想用更聪明的模型,我直接选择第二种方案, 直接充 kimi。 kimi 的 模型在国内是出了名的聪明,而且自带超强的联网搜索。我们来到 platform, 到 miniso 登录之后,去用户中心,点击左侧菜单的账户总览,然后点击充值。 这里我建议大家首次直接充值五十块,充五十之后,你的调用频率限制会大大宽放,用起来不会卡顿,而且首次充值还会送你十五块的代金券。 充完之后,去 apikey 管理创建一个新的 apikey, 同样点击复制。拿到 key 之后,最后一步也是最关键的一步,怎么把它塞进龙虾的脑子里?我们在终端里输入 opencore config, 按回车,这时候会出现一个菜单,让你选 model provider, 也就是模型供应商。你 充的是 kimi 就 选 kimi, 充的是 mini max 就 选 mini max。 需要后直接把该复制的串 apikey 粘贴进去。 接下来的几个选项,大家如果没有特殊要求,就一路选择,无脑跳过就行。等屏幕显示配置成功,你就可以回到额本库的控制端,开始认认真真养一只属于你自己的超强数字员工了。这期视频讲的非常细了, 如果配置过程中有什么卡住的地方,或者你还没有装上额本库,直接私信我,你学会了吗?学会了赶紧去试试,我们下期见!点赞收藏、关注!

这只视频是小白安装 openclaw 这只龙虾的教程,带你一次性搞定安装配置、接入 ai 模型等必要流程。没有代码基础也没有关系,我会把每一步都拆解给你。 opencloud 是 一款能在你本地电脑二十四小时不间断自主运行的 ai 智能体。它由 peter stacker 采用 tabscript 开发,目前还获得了 opencloud 的 官方认可与支持,并作为开源项目进行扶持。安装 opencloud 第一步就是进入它的快速开始页面, 复制官方指令并黏贴到终端执行。整个过程呢大概需要一到两分钟。安装结束后呢,我们就可以进行快速配置,让它顺利启动。如果你是初次使用的,我更推荐直接采取快速开始模式,操作会更简单。 接下来需要为它对接 ai 模型,比如 open ai 的 或者 astropack 的 都可以。我这里以 astropack 为例,使用它的 api key 来完成配置。进入 cloud 的 开发者平台,点击开始构建创建并获取 api key。 记得给密钥设置一个标签,比如命名为 open cloud, 再把密钥复制黏贴回终端里对应的 ethopic api key 输入栏。之后,你还可以选择具体使用的模型。我这里呢选的是 cloud office for。 不 过要提醒一下, opencloud 调用模型的频率是非常高的,使用成本呢可能会迅速增加, token 会烧得很快。 完成模型配置后呢,你还可以设置与 opencloud 通讯渠道,比如 telegram、 whatsapp, 还有就是 skill 配置,包括谷歌地图、 nano banana、 notion 或者 openeye 深层图片等拓展功能。 这里就先不配置占据略过优先,保证系统能正常运行起来,下一期视频会逐步完善更新给大家的。 下面的基础配置都完成后,就到了最后一步选择,你可以通过终端直接使用 openclaw, 也可以选择网页 ui 界面操作, 如果用终端模式,就能在这里直接与它对话了。而我在演示中选择的是网页 ui 会跳转到带画指令的页面,你可以像使用拆 gpt 一 样,轻松便捷的与 openclaw 进行交互。

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

大家好,全网都在聊的龙虾 opencloud 已经火了好几个月了,今天有空我正好本地想要安装一个 opencloud 龙虾来试试,现在我们就基于最新的 opencloud 的 版本来录制一个视频,全程实操无废话,纯干货,大家也可以跟着我的视频一起动手来安装试试。 好了朋友们,我们现在开始进行本地龙虾的部署准备工作,这里呢我准备使用超算互联网平台的模型进行龙虾的配置,因为我看了一下目前市面上价格比较优惠,性价比比较高的超算互联网平台的模型是比较好的, 比如说它这里只百万投款只需要零点一元,那它的价格是比较低廉的,同时它提供的模型也是比较丰富,我们同学们可以根据自己的情况来进行选择。然后呢这里还可以看到它的一些基本情况,比如用量信息,这里我已经充值了一个十元钱的一个费用,然后还可以看到有它的 api k, 我们可以通过这个来对接到我们的模型上。然后这里还有一些基本的接口文档,有需要的同学们也可以通过接口文档来进行基本的调配。现在我们就开始进行我们的前期准备工作,我们要安装我们的龙虾的配置前呢需要先做一个 npm 软件的安装,这里我们直接使用 power 进行安装, 使用管理员权限打开,这里呢我们需要将这几行命令直接复制进去,这个命令是要让电脑能够以命令行的方式进行安装。然后呢我们再进行 npm 软件的安装, 这里稍等片刻,我们就可以看到 npm 完成。先将 npm 下载成功,然后进行安装, 继续回车,这里我们就完成了一个安全码安装,然后关闭这个 powerwell, 然后重新打开一个使用新的黑窗口环境,我们做一下验证, 将这两个命令复制进来,直接回车,可以发现已经输出两个版本号,这里就是我们安装了 npm 相关软件它的一个版本号。 接下来呢我们需要修改一下它的安装源,这个目的呢是为了保证我们在下载安装软件的时候不会出现因为网络问题而导致的无法下载到软件的情况。 好到这里我们就更换好了我们的安装源。紧接着如果我们想要指定我们安装龙虾的位置,需要我们新建一个文件夹在这里我这个电脑只有一个盘,所以只能往 c 盘里面放,如果朋友没有 d 盘或 e 盘等其他盘的话,也可以在指定盘里新建。文件夹好,我们就将我们的龙虾弄到这个位置,然后呢我要把相关的信息告诉到 npm 这个双引号里面呢,同学们可以按照自己的实际情况填写自己对应的路径,路径直接从这里复制即可, 然后再将缓存也修改过来。 这里这个文件我们就不需要新建,直接等到我们的龙虾会它自己新建这个文件, 然后需要我们设置一下环境变量,我们需要告诉整个电脑系统,它新增了一个快速连接这个路径的一个命令, 打开运行,我们输入这个命令,这样我们在高级里选择环境变量这个情况,然后点击 pass 进行编辑,然后新建,将这个目录写到这里,点击确定。 然后呢我们还需要再将这个黑窗口关闭,重新打开, 完全按照我们的文档进行操作。这里我们直接安装最新版的龙虾版本会车,稍等片刻之后呢,我们龙虾就可以在本地安装成功了。 好朋友们,到现在我们可以看到我们电脑中新增了五百零五个包,表示我们的龙虾已在本地安装成功。紧接着呢,我们开始要进行龙虾的配置, 我们使用这行命令, 这里我们可以看到它开始进行了我们的一个前期的配置条件,这里直接选择 yes, 然后呢我们继续 选择快速开始。在这里我们要配置我超速平台的一个模型,所以我直接选择自定义模型,直接选择兼容接口,然后使用 open ai 的 模式,这里直接回车。然后在这里我们需要配置一下它的一个基础 ui, 通过接口文档这里我们可以直接看到它有一个基础 y l 是 这个,我直接复制过来 敲击回车,这里我们需要选择一个模型的 id, 模型的 id 呢,在我们模型列表里边进行选择,我这里直接选择 mini max。 二点五这个模型同样复制回车。这个时候呢它需要我们一个 api k, 这个 api k 同样是我们能够拿到的。 回到原始的桌面,点击 api k, 这时我们可以看到通过创建 api k, 可以 新建一个自己的 k, 这里我已经创建好,就不再重复创建了。选择复制, 然后按照供应商筛选模型, 选择我刚才指定名字以及二点五的这个模型。然后呢,我们可以选择这里使用的插件,有同学如果不想安装的话,可以直接选择跳过,我是后续,因为需要使用到飞书,所以我想再把飞书也安装一下, 同样选择中官方插件,等待下载完成,我的飞书插件就安装完成。 好朋友们,运行到这里,我们需要输入一个飞书的 app id, 回到我的浏览器中,这里我已经登录好了我的飞书,我需要去配置一下我的飞书 id。 选择工作台 这里我们需要在飞书中新创建一个应用,点击开发者后台可以就可以创建我们的第一个应用了。 稍等片刻就可以将我们的新的应用创建出来。这个应用目前不做任何的配置,只简单给它进行一个基础创建,通过凭证与基础信息这一块可以得到它的 a p i d 以及 a p p screen。 然后记得这里还处于待上线状态,所以我需要给它创建一个版本进行上线。 直接输入一个版本号, 点击保存确认发布,很快就将此应用发布出来。然后回到我的基础信息,将 app id 复制进来,回车,然后再加上 swift 复制过来,点击回车,使用国内版插件。 然后在这里我需要选择开放所有权限,直接回车,然后我目前不想配置技能我,所以直接选否。请用钩子点击空格键变成加号,暂时跳过。 这样我的龙虾网管服务就已经要装载在这里。我们可以看到我的浏览器已经跳出了这样的一个页面,但是访问失败是因为它已经自动关闭了我的这个服务,所以我需要新开一个回转口, 使用一个新的 open call 命令, 稍为回车 至此,我们本地龙虾的安装已经完成。然后我给他发送一个消息, 可以发现他给我做了一个回复,说他是 mini max 二点五模型上的 ai 助手,这样我们本地龙虾的基本安装就完成了。好,谢谢大家。

谁能十几年不离不弃,陪你从学生到牛马?答案是腾讯。想当年,还是个初中生的我,起早贪黑在 qq 上养宠物,生怕他饿死。如今成了打工人,我兢兢业在腾讯 qq 上养龙虾,让他们替我干活。为什么养龙虾功底千千万,我独宠 qq 乐,因为他太懂我这种文科出手的小白了,不用配置环境,不用去复杂指令下载 就能用,还能手搓虾,设装感拉满。上手第一步,从好玩的选角开始, qq 乐预设了三位风格迥异的 agent, 谁成想呢,养虾养出了油的感觉。你可以让读车刊稿人无不言用发文文学帮你吐槽。同事找少年编系辅导员 林且曼给你规划工作。相声学院戴克型提到技术问题,当然这很有趣,但还不够懂。我真正的乐趣在于从零开始手搓定义专属的 ai 搭档,包括他的名称、经历、性格。这个过程就像在 o c 圈为你的赛博分身填写设定。做自媒体,最头疼的就是选择题、脚本和起标题, 创建了自媒体内容运营只能 agent 设定。他有六年爆款经验,风格活泼戏精。接着石头大开口,要他策划一个抖音爆款给我前三秒的钩子,完整口播脚本,还有四种不同风格的标题, 结果令人惊喜,口播脚本跃然眼前。不说标题党、干货型等风格的标题任我挑选。他甚至还附赠了一份流量逻辑拆解,告诉我前三秒怎么留人。快塞快塞,正好 我的电商副业刚起步,以前选品、文案、客服事事都需要我来操心。现在我在 qq 捞里创建了一个电商运营智能 agent 设定,他有五年电商经验,风格专业严谨,方案能直接落地,接着下达指令运营下就开工了。他 不仅给出了细致的类目分析和人群画像,还生成了一套从搜索标题、先营业卖点到售前售后的话术,相当于我白嫖了一个二十四小时在线的全能运营, 从市场到执行壁画完成,而且还可以一键连接腾讯文档,电商家输出运营方案后,可以直接在腾讯文档中给你,简直不要太方便。此外,我有点嫌钱,想理财又怕踩坑,需要一个绝对靠谱的助手,所以我创建了金融科普智能 a 阵词 详调期有四年,可不经验,风格通俗易懂,可见他能将专业概念转化成易懂的语言。生成的记账模板框架清晰实用,且全程严格,避开了剑谱和收益承诺,不把我当韭菜收割 这一幕。当然,如果你懒得压根不想手搓, qqlab 的 连这一步都为你简化了。点击对话框下方的找灵感,可以看到,他的灵感广场里预设了近几十个开箱即用的任务模板, 覆盖办公、研究、娱乐、生活等领域。现成龙虾千千万,胃口不对天天换。更好玩的是,这一切操作你都能在 qqlab 的 像素工作室里 看的一清二楚。你的龙虾团队各有工位,摊在沙发上代表待命中,趴在电脑前就是在为你疯狂输出。这不就是养龙虾版的模拟人生吗? 养成一只肉眼可见的数字虾,虾天团的掌控感和成就感远超于一个抽象聊天对话框。这让我感慨,不同于市面上主流的万金油式通用龙虾, qq 捞带来的一群各有神通的专业虾,他们蹲在你的电脑里, 随时听你要钱,让你安全感满满。好的,我的龙虾天团要继续去打工了,你的专属虾正在 qq 捞官网等你认领呢!

开红怎么养龙虾?你装好开红之后,他桌面直接内置了龙虾,然后呢他有龙虾的配置说明,双击这个配置说明他有两个版本,第一个的话就是 字节跳动的火山引擎,第二个的话应该是千问的啊,配置好了之后呢?就这样啊,让他教我做自媒体呢,你看就按照他的这个说明来,一步一步就特别好,大家可以体验一下。

很多人养龙虾呢,其实都忽略了,呃,一个文件,就是 sold md, 把这个文件改了以后呢,才会让龙虾变得聪明一些。 那么我给大家看一下我 sold md 是 怎么配置的啊?大家可以看一下,这就是我 sold md 的 文件,其实里边特别简单,我把原来的龙虾里边那些英文全部去掉了, 然后就简简单单的。这样呢,你会发现你的龙虾非常的聪明,而且呢他的说话风格呢,也偏向于像一个私人的助理,要不然就像一个机器一样,所以养了龙虾还得改这个文件的,马上去改。

装好了 opencube 之后呢,百分之九十的人会发现没有什么神奇的,这其实是你没有正确配置这五个文件,因此呢,卡在这里了。到目前为止呢,我高频呢,使用了两个来月吧,发现大家用小龙虾的差距不再,模型也不是说你用 mac mini 或者是怎么样,而是在于 你有没有把这五个文件配置好,你配置的质量到底是怎么样的?哪五个文件呢? agent, m d so, m d user, m d heartbeat, md 以及很重要的 openglue 点接收文件。那这个视频呢,就带你逐一来拆解一下,这五个文件,也会附带多场景文件配置的模板,你呢,可以拿来就用,当然你也可以在我们社区里面 查看一百八十九日前几天刚发布的啊,这个小龙虾蓝皮书,目前呢已经有近万人在学习了。首先一个问题就是说,为什么 配置文件决定了这个小龙虾 agent 的 上限,因为 openclip 呢?它有一个设计哲学叫做一切皆文本,就是所有配置都是纯 lockdown 或者是 jason, 文件用记事本就能打开就能改,不需要其他任何专有的工具。那这意味着什么呢?就是你写配置有多准确,你的 agent 就有多聪明啊。很多人装玩这个 open clue 呢,往往呢就随便填一下这几个文件,然后就开始了,结果呢,就抱怨说这个 open clue 啊,不够聪明,没有网上说的那么好。那其实真正的问题就是你给他的这个 工作说明书太潦草,太随意了,根本没有认真去思考到底要写什么以及怎么写。这个情况呢,就相当于你招了一个九八五毕业生,但入职培训呢,你只是简单的就说一两句,好好干,那他当然不知道 该怎么办。 openclue 的 核心配置文件呢,一共有五个,分布在 openclue 下面的 workspace 这个目录,下面我们逐一来拆解这五个文件呢。第一个文件呢,是 agent 点 m d 这个文件它是什么呢?就是小龙虾的工作说明书。这个文件作用呢,相当于系统提示词 sister prompt, 它的文件化的版本。每一个 section 启动的时候呢, openclue 都会加载这个文件,它定义了 agent 的 身份 职责,回复风格以及行为边界。所以你能看到,就这个配置文件,它的质量决定了助手的实用性。详细的配置能让 ai 在 每次对话中呢,都有充分的上下文,而如果你配置很简陋,则需要你每次都重复说明很多具体的需求。 下面说一下几个这个配置的要素啊。第一个就是核心的身份 agent, 你 的名字叫什么?做什么的。第二个呢,核心职责具体负责哪些工作,你把工作细致描述一下。第三个呢,回复风格怎么样的?你的语气格式啊,回复的是简略还是非常的详细。第四个呢,叫做行为规则,你要写就是 你的这个权限,比如说你如果配置了这个渠道,你要写渠道的 id 或者是名称。第五个工具使用规则,哪些操作?需要确认的哪些操作呢?小龙虾他可以自己去操作,这给到大家一个通用模板,你直接拿去就可以用。 同时呢,也给大家举几个场景的案例啊,比如说你想让 openglue 当一个自由职业者的全能助手,你就可以这样写啊。再比如说,你想让 openglue 呢,当技术团队 leader 的 开发助手,那你可以这样写。 再或者呢,你想让他当一个学生的学习助手,那你应该这样来。配置 面呢,是几个避坑的提示。第一呢,就是不要把你的个人片号啊写在这个 edit 点 m d 里面,那么这个写在哪里呢?写在 user md 里面,下面我会介绍。第二呢,不要把临时任务 进去 agent md, 它是稳定的操作说明书,不是代办清单啊。再一个呢,角色的定义呢,你要具体,比如说你是一个有用的助手,这句话就等于没说,你要说什么。你是一个专注于 python 后端开发的技术顾问,擅长发自 a p i 和数据库,这才有用。所以能具体呢,就尽量要具体化。第二个文件啊, so 点 md, 这个是小龙虾的灵魂现法,它定义了核心的人格,以及不可违背的价值观啊。它有个特点,就是说你创建这个 md 之后呢, 不应该被后续的对话修改,就不可篡改,那这是 opencube 安全体系的基石。即使有人通过题词的注入 试图改变 angel 的 他的这个人格, so 点 m d 里面的规则呢,依然生效。那我根据国内外开源社区的这个实践,总结了有效的 so 点 m d 的 五大支柱啊,第一个,身份认同就是我是谁,服务于谁。第二个呢,沟通风格,主动的还是被动的?第三呢, 领域知识你要加上,比如说做开发的,技术站的偏好,部署的模式,代码风格。第四呢,决策框架,你可以给他指导选择的一些原则,比如说你可以告诉他,安全性永远大于便利性。 第五个,价值观和优先级,你使用 open cool 的 优化的目标是什么?准确性?实用性?还是隐私?这呢,是通用的模板,你可以直接拿去用啊。说几个场景,比如说,你想让 open cool 呢,是一个高安全需求场景的企业管理者啊,你可以这样写, 那如果你想让他成为一个温暖陪伴型的个人生活助手,你可以这样来写。 那再比如,你想让他成为一个严谨专业型的金融分析助手,那你可以这样写, 再讲几个避坑的提示,要用绝对语言,不要模糊表述,比如说绝不泄露就比尽量避免泄露呢要更有效。再有呢,就是按类别分组的规则,比如说安全、财务操作、用户 交互,方便维护。 software 点 m d 创建之后尽量啊,不要频繁的修改,因为它是现章,现章就意味着长期性,你可以每个月审视一次,但是呢,你不要每天去改它,不要把 software 点 m d 呢当任务清单啊,这会导致 agent 行为不稳定。好,接下来呢,第三个文件啊, user 点 m d 这个呢,顾名思义,就是我们使用者的结构化的信息,让 agent 能够提供针对性的个性化服务啊。每次绘画开始的时候呢,我们工作呢,也会加载这个 user d m d 的 内容到上下文窗口里面。当 ai 从第一句话开始就知道你是谁,你做什么,你喜欢什么,你讨厌什么,所 所以呢, ai 它如果有灵魂,但是不知道你是谁,它效果也是不太好的,等于白搭。相当于说 smart 点 m d 呢,定义了 ai 的 性格,那 user 点 m d 呢?定义了你的偏好,两者就缺一不可。配置要素呢,包括以下这么几点啊,第一个就是基本的信息,你包含称呼,还有你所在的这个时区语言这类 内容呢,很少变动的。再来第二个就是偏好和习惯,包括你的作息,沟通风格啊,你希望的格式偏好这些呢,仅需偶尔的调整。还有第三个就是你常用的这个联系人记录重要人物以及联系方式, 可以按需更新。第四个呢,就是你当前的工作重点,你现在正在推进什么项目,以及这些项目的关键截止日期。哎,这个放进去很有用。 ai 呢,它会在你每次跟他对话的时候联想起这些任务, 可以找出一些你可能自己都没想到的当前的对话,跟你现在做的这些任务之间的关系。所以这一点呢,是建议每周更新的。好,这个呢是通用的模板啊,你可以这样来写,具体呢,给几个案例。比如说你是个创业者,那你可以用这个,如果你是远程的自由职业者呢,你可以这样来写, 那如果你是一个研究生,那你可以这样来写。关于这一点,几个避坑点就是 user 点 md 呢,是变化很快的文件,建议每周花五分钟更新当前工作重点。还有呢,写的要具体,越具体 越好,我喜欢简洁的回复呢,就不如回复限制在三句话以内,使用项目符号,不要问是否还有其他需求等等。不要在 user 点 md 里面啊,写 agent 的 行为规则,这个呢是 agent md 和哨点 md 的 事情。第四个文件 heartbeat 点 md, 这个呢,让 agent 能够主动心跳啊,这是很有名的一个功能。 那么这个 md 文件呢,它定义了这个定时任务,那也是小龙虾非常受欢迎的一个原因,就是这个地方,它让小龙虾在没有用户触发的情况下,能够主动地执行操作。这个呢,也是我现在最常用的功能之一,我设置了好多的这个定时功能啊,每天早上这个全球播客这些内容, 我一醒来他就给我弄好了。那 opencube 的 这个文件,它是心跳啊,是一种周期性意识的机制。在主绘画当中呢,按固定间隔出发检查,让 iint 将多个轻量的地形检查合并到 同一轮里面。当然这个心跳呢,跟定时任务啊有一点点区别啊,比如说心跳呢,能共享主绘画的上下文,而定时任务呢,则是独立运行的,成本上呢,心跳一次可检查多项内容,更加的精细。那定时任务呢,则 每个任务独立消耗 token。 适用场景上,心跳适合监控检查、心跳提醒等场景。定时任务呢,则更适合精准的定时报告、固定时间推送等场景。整体原则是这样的,就是需要精准时间点的使用。这个定时任务需要智能监控的呢,使用心跳通用的模板呢,是这样。 那具体使用的场景呢?比如说,如果你需要做创业者的全天候的监控啊,你可以这样来写。如果你需要做自由职业者的客户管理呢,你可以这样来写。 如果你需要做学生的学习节奏管理呢,你可以这样来写。 那心跳任务呢,会持续地消耗 token, 那 这是很多新手会踩坑啊,这里呢,有几条铁律,第一个,日常检查呢,可以用免费的模型,比如说智普的四点七 flash, 这个模型 完全够用了。第二呢,只有需要高质量输出的任务呢,才用 cloud 系列模型,比如说周报生成,深度分析。再有呢,就是要设置活跃的时间窗口,没必要在这个凌晨三点钟,你还在心跳检查。最后一点呢,就是心跳,这个间隔 不要太短了,你不要设成五分钟啊,心跳一次,一般来说呢,一个小时三十分钟比较合理。好。最后一个重要文件,第五个, openclube index, 全局配置的 中台,那这个接收文件啊,它管理呢?模型选择 a p n 密钥预算控制,网关设置,渠道配置等等核心的参数。如果说前面四个文件定义了这个 agent 是 谁,做什么以及用户是谁,那么 open clue 点接收这个文件呢,定义了 用什么样的工具啊,消息你发到哪里就有渠道,以及花多少钱,具有哪些技能等等。这个阶层文件的核心模块包括以下这些,内容,环境变量模块,用于储存 a p i 的 密钥。 get 位网关负责网关端口配置和认证的管理。 agent 点 default 点 model, 这个非常重要,这个模块用于设置默认模型以及模型降级垫,也就是备用的模型。还有呢, agent 点 default, 用于配置每日 token 与费用上线。还有呢, models 点 provider 这个模块呢,用于定义自定义的模型提供商,因为可能有的朋友他是用的是第三方自定义模型。 下面呢是一些不同场景的这个配置的推荐,你们也可以拿去看一下。 好,以上呢就是这五个文件详细的文件解读,如果你是新手呢,第一次配置 openclue 呢,可以按照这个顺序来。第一个就是 配置 openclue, 点 just, 先确保模型能够跑起来,你要点 a p i 配点这个设置预算。第二步呢,是 so, 点 md, 定义 agent 的 人格和底线,这个文件以后尽量不要改。第三步, agent 点 md, 写清楚 agent 的 职责 和回复风格。第四步呢, user md, 告诉 agent 你 是谁,你现在在推进什么任务。第五步就是心跳,点 md, 配置定时任务,比如说先从每日早报开始。第六步就是测试你发几条消息,看看 agent 的 表现是不是符合你的预期。第七步呢,迭代,根据实际使用体验持续优化配置。 大家要有一个概念,配置呢,不是一次性的事情,最好的 openglue 的 配置呢,是在使用中不断的打磨出来的,每周花五分钟更新 user 点 md 的 里面的工作重点,每个月 审视一次 side md 和 agent md, 你 的小龙虾就会越来越懂你,你也会越来越喜欢用它,并真正解锁其强大的能力。希望呢,这些解读和案例呢,对你有启发,让你真正开始用好小龙虾。也欢迎在社区查看我们的一百八十九页的养虾蓝皮书,我们下一期呢,继续。

一分钟教你拥有多个龙虾!你看了别人有好多龙虾,因为他们搞了很多的耳蜗壳螺。不是大多数情况下就一个耳蜗壳螺,关键在两个词, multi agent 和 sub agent。 先说 multi agent 它是什么?就是你真的多了一个龙虾账号。每个龙虾都有自己的工作目录,自己的配置,甚至可以绑定自己的飞速机器人。怎么创建终端?一个新的指令加一个新的 agent, 剩下基本一路回车就行。 创建完以后呢,你就会看到配置里多了一个 a g 的 列表,网页里面也多了一个新的龙虾。接下来这一步啊,很多人都会卡通讯,如果你想要不同的龙虾分别对接不同的飞出机器人,核心呢,就三件事,第一个,给每个机器人一个独立身份,记住别重名。 第二步,把 a g 的 和机器人绑一起。第三步,测一下能不能单独对话。注意,官方目前不支持多个机器人在同一个群里相互聊。所以呢,别一开始就幻想十只龙虾群哦, 那 serving agent 呢?你可以把它理解成员工,它不是一个独立的龙虾账号,它是某只 multi agent 的 临时叫出来的临时工,开得快用得快,干完就收。一句话总结区别, multi agent 是 指的是独立的个体,适合长期分锅。比如说一个专门写代码,一个专门写文案 service 的,是一个临时员工,适合一次性的任务。比如说这次让他查资料,下次让他改文案。评论区留多龙虾,我把最小的创建流程加飞速绑定要点发你,你更想用多个龙虾做分工,还是想把一个龙虾的工作留跑通?

大家好,了解龙虾的这一部分视频呢,我已经发完了,然后保存在一个合集里,大家想看的话可以去我主页看,如果说看过我前面的视频,然后你也想部署龙虾,我建议大家不要马上就去部署啊,因为有两个非常重要的配置你一定要先确定好, 一个呢是服务器的选择,一个是大模型的选择,剩余其他的内容呢,都是在部署龙虾完成之后才需要考虑的,所以其他的部分我放在后面的视频里。今天我先客观的分享一下服务器的选择。 服务器呢,就是把龙虾这个程序包括它的配置文件啊,日记啊,记忆啊等等这些文件保存的地方。但是服务器不只是用于储存,它还能像电脑一样有运行软件的能力。如果大家经常用电脑的话,你应该能理解,配置比较低的电脑,打开一些软件的时候就会很卡, 比如说我们经常用电脑去操作剪映,有的电脑呢,操作的时候就会很卡,有的电脑就很流畅。其实服务器是一模一样的道理,如果我们打算让龙虾去执行特别复杂的工作,那服务器的配置可能就要稍微高一点。 比如你打算常态化的去制作四 k 的 长视频,如果服务器配置低的话,你的龙虾就会越来越卡。这种卡体现出来的情况呢,就是你发一个信息过去,你要等五分钟甚至十分钟以上,你才能收到回复。 所以我们脑子里需要先明白这个概念,然后再说一下原服务器和本地服务器怎么选择。我先说使用本地服务器的好处, 如果你没有这些需求呢,你可以不考虑本地服务器的。本地服务器主要的特点呢,包括它的私密性很高,因为你所有的数据都保存在你自己的服务器里,只要你的服务器没被黑,你的服务器就很安全。还有本地服务器可以设置成局域网模式,就是你的服务器别人是根本进不去的, 就像一些政务部门的内部网络,你只有从内部网络才可以使用。另外呢,本地服务器是只需要花一次的钱,他不需要像云服务器一样每个月或者每年去付费。本地服务器呢,对平台也没有依赖,你不用考虑这个平台最近稳不稳定啊,他的网速快不快呀? 所以本地服务器部署完之后可以随便折腾,不用再花钱了,这些就是本地服务器的优点。但是本地服务器价格很高,我刚刚看了一下苹果的 mac mini, 十和十六 g 的 价格呢,最便宜的是四千五,如果是配置再高一点呢,我看到有八千多的,最高的有三万的, 如果你是新手的话,这个价格就不是太友好。而且本地服务器呢,运维成本还是需要你自己承担的,比如说一些其他硬件的配置,二十四小时不能断网断电,然后你要自己去负责安全啊,维护啊等等这些。 接下来呢,再说一下云服务器,使用云服务器呢,三至五年内使用成本是低于本地服务器的,但也只是三至五年内,我使用的两盒二 g, 一 年才六十块钱。 我刚才查了一下,火山引擎的龙虾安装礼包,云服务器加康丁 plus 大 模型,一个月才五十块钱,那使用云服务器呢?你是不需要自己去负责运维的,也不用二十四小时开机, 不需要你去考虑安全性,这些都会有厂商去给你做好,云服务器还能满足你随时可以用,在全世界只要有网络的地方你都可以用。而这一点呢,本地服务器的网络延迟相对来说就会高一点,其他的优势劣势还有很多,但是在这里呢,就没有必要拿出来讲了,比如说像网络设备啊, ups 啊,数据库 api 等等这些 我个人建议呢,新手期我们就使用便宜的云服务器就可以了,在以后我们需要高配置的时候再去更换就行了。 那云服务器的配置怎么选择呢?我们可以先考虑自己的龙虾是不是用来执行复杂任务的,任务越复杂需要的配置就越高。我可以给大家分享一个逻辑啊, 执行搜索或者提问任务,类似平时我们像使用豆包啊, deepsea 的 方式,这种是最简单的工作,这种工作使用最低配置的服务器就能够胜任的。然后我们以这种工作为基础,在这种基础之上,再需要龙虾去进行分析,去制作图片,去制作视频, 去操作软件,去操作电脑,去执行一个连续性动作,比如建立一个网站,按照这样的顺序,难度会逐渐增加。 我目前的服务器就是一个最简单的两核,两 g 核和 g 是 什么意思大家不用理解,你只需要知道数字越大代表配置越高就行了。我用的这个服务器呢,是能完成分析和制作一些图片的工作,但是如果想制作视频就需要等很久,这就说明已经很卡了。 所以如果你打算用你的龙虾呢,去做视频甚至更复杂的工作,那就要考虑两盒四 g 以上的服务器了。更复杂的比如说使用一个 opencloud 平台去创建多个 agent 用于办公,这种情况可能需要两盒八 g 甚至更高的配置才行。新手呢,我们直接选择最低配置的服务器,然后在以后有需要的时候再去升级, 升级服务器的时候是不需要重新部署龙虾的。那云服务器的价格呢?商用版本是比较贵的,一年可能要几千,但是目前大部分的服务器平台都有专门针对龙虾使用的小型服务器版本。配置呢也有高有低,我刚刚也查了一下,有两个大厂,最便宜的只要三十多块钱一年,但是配置也相当低, 我建议大家选择呢是一年在一百元到两百元之间的服务器,如果你懂配置贷款的话,你可以自己去对比,不懂的话就不用看配置了,因为不可能出现大厂之间价格相等,然后配置差距很大的情况,行业竞争也是很激烈的,所以我们闭眼入就行了。 不会找的呢,直接去搜索清亮服务器就可以,如果还是不知道怎么找,就去问豆包有哪些清亮服务器平台好。接下来呢,在确定了你的服务器之后,不用着急下单,因为我们还需要确定另一个配置,就是大模型, 我们需要龙虾去做的工作跟大模型是匹配的,而且大模型是可以分为很多类型,针对不同的工作有针对性的类型可以选择,而且呢,有些大模型是可以跟服务器捆绑购买的。那关于大模型的选择呢?我在下个视频里分享给大家。这个视频就聊到这里,我们下个视频见,拜拜。

不会还在有人花钱买 tokyo 养龙虾吧?嗯,看我如何实现本地免费的算力查询一下杭州今明两天的天气, 可以看到现在龙虾已经开始调研工具了。那我是怎么实现的呢?就是本地这台可以跑满血 mini max 二点五的 大模型推理服务器,现在这里已经开始发热了,那么其实并不需要英伟达八张 h 一 百显卡。那么给大家看一下我们这台机器的配置, 我们用的是 k transformer 架构,把所有大模型放在内存里,而实际上只用了一张四零九零显卡就可以实现哦。那么这台本地大模型推理服务器你想拥有吗?

新手必看龙虾 openclaw 大 模型配置保姆级教程零基础配置 openclaw 手把手教你完成 basel a p i t 与 model 配置。在配置大模型时,你一定会反复遇到三个关键词, basel、 a p i t 和 model。 你可以把调用大模型想象成像。一位博学多才的专家写信请教问题。 bash, 也就是基础地址,是大模型服务商提供的 api 接口地址,各大模型平台都会提供,相当于专家的收件地址,没有这个地址,你的问题就无法送达。 a p i p 也就是密钥, 是服务商分配给你的一串唯一字,服用于验证身份和计费,相当于你的专属通行证。专家凭此确认是你发来的请求, 并从你的账户扣除相应费用。请务必妥善保管,切勿泄露给他人。 model age, 也就是模型名称或 id。 同一家服务商旗下通常提供多个不同版本的大模型,你需要明确指定使用哪一个 个服务商平台的模型,列表中均会详细列出相当于你要请教的具体哪一位专家的名字。上面三个参数不仅支持各大服务商 的配置,以上三个参数支持各大服务商接口 中转。 a p i 级本地部署大模型,你可以根据选择的模型平台在对应控制台中获取 a p i t。 同时平台会提供固定的 base or 可选的 model。 opencloud 的 核心设置保存在本地的 excel 文件中,根据你的系统环境,它通常位于用户目录下的隐藏文件夹内。 windows 系统配置文件路径 通常为以上。内容处系统配置文件路径通常为以上。找到该文件后,用记事本 d s q 等文本编辑器打开即可编辑。如果目录下不存在 open call, 可在命令窗口输入 open call setup 进行初步化。在修改任何配置文件之前,请先将原来的 open call 设置一份作为备份, 以便改错后随时恢复。这是一个良好的操作习惯,可以有效避免因误操作导致配置损坏而无法恢复。打开配置文件,将其内容完全替换为官方模板,然后根据你实际的大模型参数进行修改。需要修改四个参数,大模型的纸杯 sir、 大 模型密奥 apikey、 大 模型名称域以及工作空间路径。 windows 和 linux micros 填写不同的路径格式。在配置文件中找到 agents models model primary, 确保其值为你刚才配置的模型路径格式为 custom 零零幺模型 id, 这表示 open core 启动后将默认调用该模行为你服务。如果你目前只需要使用基础对话功能,可以暂时忽略 tools 和 skills 中的 s k x x x x x 占位符。 待日后需要启动图片生成 web 搜索等高级功能时,再前往对应服务商申请密钥并填入即可保存修改后的 open call 送文件,然后关闭并重新启动 open call 程序。完成以上步骤后,你的 open call 二便已成功接入云端大模型,可以正常开始对话。