今天想给大家分享一个如何去利用 cloud code 的 agent 能力来为你的业务流程去赋能的这样一个使用小技巧吧。官方叫做非交互模式,也叫 headless 无头模式, 就是允许 cloud code 在 无需人工交互的情况下去运行。呃, 首先我觉得大家应该都能公认 cloud code 的 agent 的 能力是最强的,在所有大模型里面,不管是推理能力还是执行的质量,交付给你的结果的质量肯定都是所有大模型里面最强的。那 但是呢,这它我们日常去使用会有一个局限,就是需要我人类这个角色去跟 cloud code 在 一个终端里面去对话, 才能够获取这样的 agent 的 能力,才能让 cloud code 给我们输出一个好的结果。但是在很多业务场景下, 我们其实需要的是在我的业务流程里面,在我的代码的运行过程中的某一个环节,我需要像插件一样去调用 cloud code 的 来获取一个高质量的推理结果,获得这个结果之后,我再继续我后面的业务流程,而这整个流程 在某些情况下,其实我们是不需要人在场的。我举个例子,因为我最近在做广告投放的项目 啊,我需要去先去调用 a p i 获取我的广告历史的广告投放数据,我的关键词以及用户的搜索词。那获取完这些数据之后,我希望能够 调用 cloud code 或者调用某个 agent, 能够帮我进行一轮推理分析,然后输出一份数据分析报告啊,然后基于这个报告,我再继续我后面的业务流程。在这样的一个业务场景下面, 它是没有人在场的,不需要人在场,我希望它是能够自动化运行的,那这种情况下非交互模式就非常有用啊,就是你可以把你的 业务,你可以去定义你的输输入和输出,你输入你可以用在你的 prompt 里面, 你可以给给这个 cloud 输入你的数据输入你本地的文件输入你的数据库,输入你的一些背景知识等等,都可以输入变成 prompt 输入给他,然后去启动 cloud code agent 的 推理,那 在这里你也可以去定义输出的格式,方便你后续的流程能够直接对接上。对,然后后面也有很多其他的一些定义,其他的一些自定义的一些标志,你可以选择要,也可以选择不要, 这样做有什么好处呢?第一个就是不需要人工的去交互,这样的话可以让你的业务流程无缝的接入 cloud code 的 agent 的 能力,来实现完全的自动化,不需要任何的人工干预介入,或者是由人类来触发。 第二个好处就是所谓的利用上 cloud code 的 agent 能力,这种 agent 的 能力是指什么呢?就是它不仅能够获取你的输入的提示词,并且当你在 c l i 环 c l i 环境里面去 激活 cloud code 的 时候,它是天然能够看到你本地的各种文件,包括你的数据库,它可以去查看你的历史文档,历史资料, 来获取更丰富的信息,帮助他去做推理,这样的话他的推理过程其实是跟你的业务知识强绑定的, 那相应的也就意味着他的推理结果的质量肯定会更高。第三个就是你不需要去调用啊,各种 api, 包括调用代码的 c l i c l i 的 命令 啊,这样你不用不用付出额外的这个 api 的 调用成本,只要你订阅了 cloud 的 会员,下载安装了 cloud code 的 c l i, 那 你就能 直接的使用 cloud code 的 agent 的 能 agent 的 能力,它会它产生的费用是直接包含在你的订阅计划里面的。 第四个好处就是这种非交互模式是天然可回溯的,因为它就等于是一个 独立的 cloud code 的 一个独立 session, 所以 它天然也支持通过 cloud resume 的 方式去回溯这一次 agent 推理的全过程。那么在这个过程中有任何的问题,你回溯完之后也可以去 啊迭代你的提示词,迭代你的调用他的流程,包括去给他更多的约束等等,来优化这样一个推力的结果,来让他更加符合你的一个业务流程和目标。 所以如果你的业务流程里面也也有这样一些节点,需要比较好的推理的质量和啊需要好的推理能力的话,推荐你们去尝试一下这个非交互模式。
粉丝988获赞5266

openclaw 四月二号更新了,先说个背景, openclaw 是 什么?你可以理解成 ai 助手的万能网关,不管你用微信、 telegram 还是 discord 都能接进来,它在 github 上开源数据都在你自己手上。这次直接从四点一跳到四点二,更新幅度堪比一个大版本。 先说两个破坏性变更,老用户要认真听。第一个, x a i 搜索插件的配置路径变了,之前分散在核心配置里,现在统一归到插件自己的配置向下,顺带把 api key 的 读取方式也规范了。 如果你配过 grok, 搜索,更新后要对齐新路径。第二个, firecrow 网页抓取插件也一样,配置结构做了迁移,官方给出了修复方案,跑一条命令就能自动完成迁移,不需要你手动改文件。这次最重磅的改动是任务流系统的全面重构,官方把它定位成核心任务,编排基础设施。 这次做了三件事,第一,新增两种同步模式,背景任务可以独立运行,不容易因为插件崩溃而中断。 第二,加入了子任务机制,大任务可以拆成小任务并行跑。第三,取消锁定机制,你取消一个大任务时,系统会等子任务平安结束再收尾,而不是强制杀掉。对做自动化工作流和写插件的开发者来说,这次重构直接影响开发体验。 这次修了超过三十个 bug, 大 量集中在连接 ai 模型的那一层,包括传输策略请求头代理路由判断等等, 特别值得注意,堵住了一个安全漏洞,禁止了不安全的 t l s 覆盖,防止中间人攻击。 openclaw 之前主打本地安全,这次是把安全地基又夯实了一层。 其他亮点,非书支持,文档评论协助了 whatsapp 表情反应更丝滑, slack 格式渲染更聪明。 qq 频道修了一个路径穿越漏洞,图片生成统一走了共享 http, 路径配置更干净了。还有个小细节,安卓可以直接用 google assistant。 路径穿越漏洞,图片生成统一走了共享 http, 不 用再点 app。 总结一下,二零二六年四月二日是一个内功版本,没有炸裂新功能,但技术债还了很多,稳定性、安全性、插件开发体验都在上台阶。跟着这个节奏,下一个大版本很值得期待。如果觉得有用,点个赞,我们下期见。

欢迎观看 blender c l i anything 无头渲染实战。今天我们来探索如何使用 c l i anything 为 blender 构建命令型接口,并在无头环境中进行三 d 渲染。 c l i anything 是 opencloud 的 一个技能,它可以为任意 gui 软件生成命令行接口,让 agent 能够通过 c l i 控制这些软件。 我们的核心挑战是在无头服务器环境中没有图形界面, blender 无法直接使用,故意渲染。 第一步,安装 c l i anything。 我 们从 gighub 克隆仓库并将 openclaw 适配器复制到技能目录。 c l i anything 提供了丰富的 blender c l i 功能,包括场景管理、对象操作、材质系统、灯光、相机、动画渲染等。我们创建一个三 d 场景,可识画三角函数,正弦、余弦、正切 场景,包含一百六十三个三 d 对 象。第四步,解决无头渲染问题。我们安装 x v f b 虚拟显示服务器,为 blender 提供虚拟图形界面。 选择合适的渲染引擎很重要。经过测试, cycles 在 无头环境渲染会全黑,而 ev 可以 正常工作。 第六步,修复材质分配问题。原始脚本使用条件判断导致材质未分配,我们改为直接分配材质。 现在执行渲染,使用 blender 后台模式运行脚本渲染时间一分十八秒。技术要点总结, x v f b 是 必须的, ev 引擎优于 cycles, 材质要直接分配。灯光强度建议大于等于五点零。 最终结果一千九百二十乘以一千零八十高清三 d 渲染图清晰展示三条三角函数曲线。结语,通过 c l i nifin 加 x v f b 加 ev, 我 们成功实现了无头环境下的三 d 渲染。感谢观看。

老师们,那个欧本可乐怎么把他里面那无头浏览器?不是,那时候是浏览器的无头模式调成有头模式。就是我现在看他的界面,然后呢我让他登录我的极梦让他帮我去升图让他让他帮我去升视频吧。啊他咔 给我截了个图过来,倒是也没毛病哈,就是他给我截个二维码,我我扫了之后登录就完了呗。但是呢他一些时候经常的 这个这个你看他截个主页的图,要么截个别的图,就是他截不准,我就想说他能不能让他最起码有一个可说话的界面啊。有那个界面之后呢我自己进去然后登录给他完了。嗯,然后让他再去执行任务 对吧?因为他本身自己是大模型吗?他自己就可以处理文本的问题,自己处理这个提示词的问题啊,再给他个参考图啊什么的他就能把这个图做出来了。那你再拿这个图作为手针也好或者参考图也好,就喂到 这个小韵趣也好,或者他的这个呃。 cds 二点零也好,然后让他去升视频,这不一个标准化的流声就出来了吗?这点卡在哪了?这就是就是别扭 别扭。我也看了那些文档啊什么的,有关于什么有头无头的没整明白。就是怎么才能让我们在云服务器啊。我这边是云服务器,不是本地部署,你要本地部署的好说,你可能直接三两下就解决了。就是云服务器上怎么才能 有个可识画的界面,最起码说系统咱看不着。没关系,他登录的那个浏览器咱能看见也行啊,咋整哎求助求助求助。


我自己做了一个摄像头,把它接入了 openclo, 还加上了 yolo 进行人体识别,通过飞速就可以下命令了,看一下公司监控, 然后飞速就会把我的命令传到 openclo 上面, openclo 就 会盗用摄像头拍一张照片,然后返回来给我。我这个监控还有一个云台,可以控制角度, 看一下公司右面,然后云台就会转到右边,给我拍一张照,再返回来给我 open call。 接入互联网才是我们做亲入室的人要玩的东西,我又做了一个实时的人物检测,如果有人物入侵的话,就能立刻通过飞速告诉我 打开公司监控模式。如果我们在外面的话,想知道公司的情况的话,就可以通过远程来监控公司的情况,他的情况过程完全是不消耗 token 的, 只是下命令的时候就消耗一点点, 还有返回的时候也消耗一点点。就是这样子,他看到有人在前面的时候,就立刻通知我,给我发一张照片,关闭公司监控模式, 随时开关,打开公司巡航监控模式,这个模式就好玩了,他就每一秒钟动一下一百八十度的旋转,一直做巡航检测,只要发现有人立刻就通知我,这样子 open club 就 可以帮我看家了, 监控归位,那我后面还会接入更多的互联网的功能到 open club 上面。

想让你的额崩破龙虾更强、更听话、反应更灵敏吗?今天我就手把手教大家怎么给它配置付费的 apikey, 彻底释放它的全能性能。如果你现在还没安装好额崩破,先别看教程了,直接私信我,我先帮你把它跑起来。好,咱们言归正传, 想要额崩破变强,你得先了解付费 apikey 的 两种省钱模式。第一种叫可定 plan, 你 可以把它理解成自助餐,按月收费。 如果你选择基础套餐,每个月定死一个价格,每五个小时给你一定的调用次数,只要你不是二十四小时,不停的疯狂折磨他,这种模式就相当于无限使用,性价比极高。第二种就是开放平台直充,这种方式去超市买菜,充多少用多少, 你往平台里充点钱,生成一个 api key 就 能直接用,每次任务消耗多少特权就从余额里面扣,没钱了再补就可以。这种模式有个好处,只要你累计上到一个档次,一般都是五十块钱,它给你的接口频率就会非常非常高,用起来非常丝滑,而且不用不扣钱。那到底选哪种呢? 如果你追求极致的性价比,选第一种,如果你想随用随取,不差那么点差价,选第二种。接下来咱们直接上实操。先说追求性价比的方案,我推荐大家用 mini max, 我 们先打开电脑,进入 platform, 到 mini max 点 com 这个网址,点击右上角的订阅套餐,选择连续包月 没看到六个档次。如果你只是平时偶尔用用,选最低基础的二十九元一个月就够用到个人最推荐的四十九元那个档次, 这简直就普通人的天花板,完全够用,这六个坑大家别踩上面那几百块的极速版,如果你不是 ai 超级,即刻千万别乱充,那是纯纯浪费钱。这个时候后台会给你发一个 api key, 把它复制下来。如果你想用更聪明的模型,我直接选择第二种方案, 直接充 kimi。 kimi 的 模型在国内是出了名的聪明,而且自带超强的联网搜索。我们来到 platform, 到 miniso 登录之后,去用户中心,点击左侧菜单的账户总览,然后点击充值。 这里我建议大家首次直接充值五十块,充五十之后,你的调用频率限制会大大宽放,用起来不会卡顿,而且首次充值还会送你十五块的代金券。 充完之后,去 apikey 管理创建一个新的 apikey, 同样点击复制。拿到 key 之后,最后一步也是最关键的一步,怎么把它塞进龙虾的脑子里?我们在终端里输入 opencore config, 按回车,这时候会出现一个菜单,让你选 model provider, 也就是模型供应商。你 充的是 kimi 就 选 kimi, 充的是 mini max 就 选 mini max。 需要后直接把该复制的串 apikey 粘贴进去。 接下来的几个选项,大家如果没有特殊要求,就一路选择,无脑跳过就行。等屏幕显示配置成功,你就可以回到额本库的控制端,开始认认真真养一只属于你自己的超强数字员工了。这期视频讲的非常细了, 如果配置过程中有什么卡住的地方,或者你还没有装上额本库,直接私信我,你学会了吗?学会了赶紧去试试,我们下期见!点赞收藏、关注!

十秒钟,我给自己雇了一个二十四小时在线的 ai 助手,他就是 maccloud, 他 随时听从我的拆拷,而且一个月只要三十九块钱,不用担心 token 走得太快。 以前想玩 opencloud 啊,要服务器,要部署环境,要接大模型 api, 还要调一堆参数,说实话,百分之八十的人都卡在了第一步。 我自己啊,也踩过很多坑,现在不一样了, mini map, 刚推出的 map 啊,把最难的部分帮你解决掉了,不用买云服务器,不用配置 a p i, 不 用写一行部署代码,打开网页点开始 结束。更可能是啊,它不仅仅是一个聊天机器人,还是一个可以自动干活的机器。我直接告诉他,我要接入飞书。按照他给的步骤啊,贴上飞书 id 和密钥,一分钟聊天软件啊就直接打通了。 一个全天在线的 ai 助手就上线了,中间有任何卡壳,不懂的地方随时来问我。但真正恐怖的地方在于啊,他能够自己一直跑流程,直到达到你的目标。 如果你还停留在问一句答一句的 ai 阶段,那真的有点浪费 ai 资源了。现在已经是 ai 智能体时代了,让 ai 一 直替你干活,我现在用它干什么呢?做市场调研报告,自动搜索全网高质量的资讯和视频,定时执行开发任务等等。 比如这里,我让他定时的搜集 ai 资讯,现在帮我定时一个任务,每天下午两点半,搜索全网最火的 ai 资讯,并总结十条输出为标题链接和摘要,总结并发送给我的飞书。现在他帮我制定好了, 两点半后,就在我的手机飞车 app 上就能够收到这条 ai 资讯了,而且内容非常的详尽,我们点进去看链接也是完全没问题的。他还告诉我这次的搜索时长过长了,超时了,他把我的时长提高到了六百秒十分钟,真的是非常的贴心。 而且啊,它内置了一千八百多个专家模式,还有官方精选 a 诊,很多场景根本不用自己选 pro 嘛,直接调用就能用了。说说啊,比我自己做的还要专业。那你想让 ai 帮你干什么呢?评论区告诉我, 我已经把 open call 的 核心知识啊分解成了实讲内容,从零开始,小白也能够上手,关注我,带你把 ai 从聊天工具变成生产力系统。

今天跟大家分享一下如何使用 open core 去设定一个多 agent 的 一个模式。首先呢,我们会通过这条命令去添加一个新的 agent, 那 这个名字是根据我们实际需要进行填写的,像我这边需要去 专门弄一个编程专家,那我就会给他起一个叫 call 点。执行这条命令之后,我们会给这个 agent 单独配一个工作空间,就是每个 agent 的 它的工作空间是独立的,它是互不干扰的。 那接下来会给他配一个模型,我这边先用的一个模型进行一个测试,然后接下来就会给它配一个通道,那我这边是采用飞速的方式进行接入的,配置完之后,他在一整台这边就会多了一个叫 call 点了,那除了主规划之外,就是我们这个 call 点就是我们新增的一个 a 整台, 然后在 open curl 的 这个配置文件里面,它这边也会新增相关的配置,然后在这边那 agent 它这边有个,它这边有个 list, 那 这边有个主绘画的一个 agent, 那 这个 call 点是我们新增的一个 agent, 那 配置完之后我们就要去设定这个 agent, agent 一个人格,那我我这边会通过 ai 的 方式来进行一个输出,这个这部分就不用我们自己去设定了,我们就提出我们需求,让它进行一个修改就可以了。 那我这边的提示词是这样写的,我会让他去艾特这篇文章,然后让他了解就是每个 agent 需要 包含的有哪些内容。那这篇文章是在这个网站这边去的,就是每个 agent 它有包含了几个文件,像 agent 点 md, 其实一些操作指令告诉 ai 应该怎么做,那 so 点 md 就是 ai 的 一个 灵魂。告诉 ai 他 是谁? user 就是 我们用户,我们自己用户是谁? i don't care 是 ai 的 一些基本身份, toos 是 一些工具,就是 ai 使用的一些 skill。 那 may may 点 d 是 一些长期需要记忆的,那然后下面有一篇的目录,这个是用来做短期记忆的,每天都会做一个总结。 那这边都有介绍每部分需要编辑的规则是怎样的。那我们看一下我们这边 ai 帮我们实现怎么样呢? 那他就会给出这个基本身份是名字叫 cloud code, 资深前端的软件工程师, ai 助手。前端啊,即 open core, 它的一个定位是把需求变成可维护、可测试的交互。一个软件部分都是 ai 帮我们生成的。那我们来看下一个文件,这个是 ai 的 灵魂, 那现在我们看下一个就是它的 agent, 我 们继续 那用户的画像,说的就是我,我看一下,这个可能比较重要,这是为了更好的写作,不是为了收集隐私,不要记入敏感信息。那基本信息,我叫 oliver, 那 时间就是北京时间, 这是心跳的一个轨迹,周期性的一个工作,我们不需要心跳检查,把本电流空气的起动时保持最小,以免脱口干纹。我们先这样弄,然后要在人格里想画出来,就主要要记住这样 看一下,然后这个 让他再调整一个版本,我们采用飞书测试一下,我们来问一下他,你好,你是谁?我这个需要授权一下。 好像没起来哦,我们重启一下服务,我刚开始可能忘记重启了,再重启一下。 ok, 我 们再测试一下 哦,感受到配置完那个 agent 之后,需要那个重启一下服务。 那另外关于这几个这几个文件的一个介绍,我们在这个网站这边是有个详细的介绍,就是打造 ai 的 一个人格,它有介绍工工作空间一些文件的作用,大家有需要的话可以私信我,我分享给大家,今天分享到这边,谢谢大家。

看看我的 agent 团队们,有写图文的、网站运营的、监控金价的、记账的,还有提供情绪价值的,后面还要增加一个视频剪辑的 open cloud 小 龙虾 用上多 agent 的 模式了吗?但像我这样每个 agent 对 应一个机器人的配置是有点广泛。在飞书上其实有一种更简单的方式,就是通过拉群,实现一个机器人多个 agent 多个群聊分别管理的模式。我们来以选择题、写作和神稿三个事情为例,完整的配置一遍, 一共三个步骤。首先用这样的命令创建多个 agent, 分 别负责不同的工作,然后给每个 agent 的 职责拉一个飞书群,并且把我们的唯一的这一个 飞书机器人添加到群里面。接着把每一个群聊和 agent 绑定起来,在这里查看群的 id, 通过这样的 bindings 配置把两者映设起来。最后不要忘记给飞书 channel 增加这两张配置,开放群聊和群聊中,不需要艾特机器人也能回复。 配置完成之后,在各个群里和 agent 对 话,给他们安排好职责和身份,让他们记录下来,你就可以在不同的群里指挥不同的员工工作了。像这样的流程,先选择题再写作,审稿,审完再改, 最后得到一篇完整的内容就可以发布了。这样做配置简单,效果强大,快来把你的 agent 军团也安排起来吧!关注我,带你玩转 open club!

哈喽,大家好,今天不说 openclaw 基础操作,细数别人很少讲的十个冷知识,听完直接少走半年弯路。一、强制永久记忆。二、技能热存在不用重启。三、沉默触发定时自动任务。 四、常对话智能压缩省 token 防崩。五、三层全线锁,防 ai 乱操作。六、高级模式隐藏命令解锁,底层调试协议嗅探。七、快捷命令别名,在个人设置快捷命令。八、本地 nbd 提速降费。 九技能安全扫描查风险。十、后台保活,二十四小时待命。

opencloud 的 自动化任务全靠节点落地执行,它是任务运行的核心在体,支持 macos、 ios、 android 无头四大形态, 全终端适配,多场景覆盖核心作用,一眼看懂 macos、 ios、 android 节点适配主流终端直连设备,完成本地化自动化操作,贴合日常使用场景,无头节点无图形,界面清亮运行, 适配服务器、云端等后台场景,高效执行批量自动化任务,所有节点统一接收网关指令,分布式运行按需调度,使 openclo 实现全场景自动化的执行核心。

这是我实现的一个通过飞书机器人像部署在云服务器中的 opencloud 发送指令来完成视频从创作到自动发布到抖音的 agent 视频模型,目前采用的是豆包的 cds 一 点五 pro。 首先从飞书聊天窗口向飞书机器人发送视频生成以及发布的指令。 oben 克拉在接收到指令后,便开始通过 api 调用的形式调用 cds 模型来生成视频,因为这里生成视频大约需要五分钟,我们加速跳过。视频生成结束后会通过飞书机器人返回给用户进行预览,并自动开始抖音发布流程。 首先会在云服务器启动一个无头浏览器来实现抖音的自动登录流程。目前采用的是二维码登录,通过轮询检测当前页面包含二维码的元素节点, 并且截图发送给用户来实现扫码登录会在登录后判断是否需要验证码,脚本会在无头浏览器中自动识别到验证码按钮, 并触发验证码发送,随后向用户询问验证码并自动填入来实现一个完整的登录流程。登录成功后, cookie 会做持久化存储,下次发布如果 cookie 没有过期,则会跳过登录流程 直接上传发布。因为是在云服务器中,内存以及运行内存相对较低,所以登录以及上传也会相对较慢。 上传流程会自动传入标题、描述话题以及智能封面选择,随后自动点击发布按钮来实现完整的发布流程。发布流程完成,这里刷新就可以看到我们刚刚创作以及自动发布的视频了,全程自动化,一键搞定。

cloud code 也像 openclaw code, 你 看现在我给他一个指令,他终于没有像之前一样,每一步操作都需要我授权确认,而是直接开始干活,期间只需要我扫码登录。 看来 oslopez 是 被 openclaw 逼急了。就在最近, oslopez 针对 cloud code 以及 cloud co work 连续来了三次重磅征信, auto mode 模式,只需要输入这个指令即可开启。今天我们来实际感受一下。我让他直接打开搜索,搜索 club 的 最新的指令,并输出数据分析,以 excel 表格的形式, 全过程我没有动鼠标,他丝滑的完成了任务,打开浏览器,登录我的小猪账号,搜索 cloud 资讯,并自主滚动浏览,完成了分析,做成了表格,整整齐齐放在我桌面上。你看,这次升级让你的 cloud code 的 干活能力又提升了不少。 如果你没有 cloud 订阅,但你又想体验 cloud code 的 最新功能,那你可以选择接入青牛云 ai 大 模型推理平台,一百三十余款海内外热门大模型都有切换,模型十分丝滑。如何配置的文档我们整理好了 可以找我们领取哦!这波操作下来, cloud code 会杀死 open cloud 吗?后续你更看好谁的发展?欢迎评论区跟我聊一聊,记得点赞关注哦!

华为手机也可以养龙虾了,就在刚刚,小易开放平台新增了 open cloud 模式,可以直接通过小易 app 来生成你的专属智能体了。华为把整个流程梳理了一下,直接可以由用户来创建 open cloud 模式,创建流程也非常简单,你看我的这个开场动画,我是瑶瑶领虾, 有什么可以帮你配置完点上架添加你的设备即可。这下可以通过语音来控制你的手机了,只要你有鸿蒙系统的电脑和手机,就 可以连华为的小 e 都接入了 open cloud。 这下竞争更激烈了,华为也有着丰富的人设加设备,还有着国产最先进的鸿蒙系统。未来的手机厂商 可能拼的不只是参数,而是谁的 ai 更能替用户干活。看来各大手机厂商跟科技公司的行动还是非常迅速的。这个时候问题就来了,在 ai 方面遥遥落后的苹果,这下可怎么办?

各位朋友,今天我要给大家介绍一下我们龙虾的控制中枢纽,之前我给龙虾建了个办公室,现在给他整一个更专业的面板,支持多个模型供应商同时接入感切换模型。 咱们先看看这个面板,面板左边是快速控制龙虾的区域,这里有打开 ypu 的 按键,还有重启哦喷科尔的按钮、检查版本升级以及故障修复的功能。沙箱模式设置了三个等级,包括安全白名单和关闭选项, 最后还有停止服务的按钮。左边控制栏把原本需要在终端操作的采用指令都集成在一起了,上面能看到 cpu 负债、内存占用、存储使用率以及活跃的指令数, 这些都是龙虾运行时硬件的显示磁标。面板下面是整个龙虾的矩阵,要是龙虾的某一带泥被触发,对应的绿色灯就会亮起,等会由我给大家演示一下。 这个面板最大的便利之处在于可以自定义多个接入模型的供应商,你可以在这里填写 r、 p i 进行联通, 连通之后就能看到模型管理界面。在模型管理里,你可以添加自定义的模型,要是有新模型出现,直接搜索就行。 比如我随便添加一个挂孔模型,要是它是多模态模型,点击 v 键就能把模型添加进来, 添加成功后就能看到它已经在列表里了。这里还能无缝切换所有子弹里的模型, 同时可以查看子代理的设定下边界。点击应用之后,日子里面的默认模型就会改成 glm 的 四点七,这样一来就极大地方便了有多个模型供应商接入的情况, 能轻松解决每个子代理的模型切换问题。接下来我给大家测试一下,我们刚刚问了你现在是什么模式,大家可以看到这边的指示灯已经亮了,现在我们使用 ko 的 这个代理,看看他的灯会不会亮。大家看子代理正在运行,他换起了工具,模型也修改了。 现在抠的纸代理开始工作了,他把任务交给纸代理审查了。抠的纸代理主要负责代码相关工作,他更注重代码质量和非速度。以上就是这个控制中控面板的整体情况了,关注我还有更多好玩实用的 skills。