很多人没注意到一件事,曾碾压 linx 的 龙虾,现在养它的人不足百分之零点二。还记得前段时间的龙虾热潮不,五百块上门安装腾讯云线下排大长队,比抢热门奶茶还疯狂。马化腾都亲自下场搞了全系龙虾产品矩阵,本地虾、云端虾全都有。 更厉害的是他的 github 新标,五个月不到就标到三十四万,直接超越了 linux react, 妥妥的。二零二六年春天, ai 顶流可反转来的太快,简直猝不及防。有博主做了个调研,八千七百个互联网圈的好友,就十三个人还在养虾,连百分之零点二都不到。 而且你们发现没,国内那么多厂商跟风做了 kimi、 klo、 小 米、 michael 等各种龙虾产品,却没有一家敢公布用户数、留存率。要知道,在这个行业里,数据好看的话,早就半夜发战报炫耀了。 这种集体沉默,本身就是最真实的答案。其实龙虾凉的这么快,一点都不意外,它就像一阵风, 来的猛,去的更快,根本经不起推敲。说白了,他的爆火从来不是靠实力出圈,全是厂商和用户的风貌共振。厂商怕落后,疯狂跟风布局。我们普通人怕错过风口,跟着凑热闹养虾。 热闹过后才发现,这所谓的全民养虾,不过是一场转瞬即逝的跟风狂欢。这件事你怎么看?
粉丝7.7万获赞7.9万

最新版本的龙虾终于稳定了,现在养龙虾的朋友是不是都有这样的忧虑?第一,不敢升级,每次升级都有一堆 bug。 第二,每次让他干活都得跟他说重复的话,他就像没脑子一样。 今天给大家分享一套组合,可以很好的解决上述问题。最新的 opencool 五点七版本,再加上 yc 创始人甘瑞泰分享的自己在用的 opencool 提示词,这套组合真的绝配。 先说五点七版本,目前体验下来,升级没有 bug, 消息回复回复速度显著提升,我都觉得可以养老了。 再说甘瑞炭分享的提示词只有四条规则,但是威力巨大,这套提示词可以把龙虾从一次性工具变成一次指令永久生效的自动系统。 第一条,禁止一次性工作,任何任务先做到三到十个样本,给你确认满意了自动存进技能库,下次直接调用。第二条,一个任务只能有一个技能负责,不能重复,也不能有空白地带。 第三条才是最狠的,如果你第二次还要问他同一件事,那就算失败。第一次是发现需求,第二次就该自动完成了,不需要你再开口。 第四条,每个新任务他自己从头跑完,完整流程,想方案,做原型,自己评估,写代码加定时跑监控,不用你盯着。 这个提示词相当于给龙虾定了一套自我进化的底层规则,不用教他每一件具体的事, 只需要教他怎么学会做事,把这四条规则复制到 ages 点 md 最前面重启就能生效,从今天起,他就会越用越聪明。

很多人装了 open claw, 却只会聊天,其实龙虾最值钱的东西全藏在 skill 里,没有 skill, 你 的龙虾就是个空壳。今天给你盘五个最近一周下载量疯涨的神级 skill, 五位一体,直接拉满你的数字员工体系。 先说怎么装,一分钟搞定。我们打开永冻虾七二四 claw, 打开后点击右上角的兑换码输入一一一输入后即可免费使用。接着我们点击左边的技能,就可以看到所有的 skill 了。 再说 skill, 首先第一个, tablie search ai 专用搜索,你的龙虾不会上网,装它就行。 专为 ai 定制的搜索引擎,实时拉取最新新闻、文献和互联网数据,所有联网场景的底层基础设施。第二个, summarize, 长文一键压缩,万字论文、会议纪要丢进去,它直接提炼结构化摘要,核心结论秒出。 搜索来的信息太多,看不过来,用它做信息压缩再合适不过。第三个, email management, 智能邮件中书自动分类,摘要草稿回复一条龙,十二万人都在用的邮件管家,搜完资料,摘要完了要发出去,让它帮你搞定所有邮件沟通。 第四个, g o g 全家桶控制器,一个 skill, 打通 gmail 日历、云盘和文档,你只需动嘴下指令,龙虾自动安排日程,整理文件。 装了它,邮件和文档不再是孤立的信息,孤倒。第五个, n eight n workflow, 万能自动化串联,觉得单个 skill 不 够, 它能把前四个串成一条自动管线,连接几百个 app, 搜到摘药后自动整理,发邮件、存云盘,全程不需要你动手。这五个装完,你的龙虾才算真正进化成会干活的数字员工,这波是不是干货?评论区告诉我还想看啥技能,我接着盘。

我用了半个月时间,测试了二百多个龙虾 skill, 最后留下来的只有八个。今天我把这些技能全部免费分享给大家,让你的龙虾能够真正的解决你的痛点。第一个, agent bro, 想爬某个网页,直接说去这个网站,把这个列表给我抓下来, ai 就 能自动打开浏览器操作页面,数据结构化了,返回不需要配环境,也不需要处理,反爬不更不需要维护代码,一句话搞定。第二个, bb pro, 以前让龙虾去小红书发帖,你得先扫码登录,三审过期了还要重新扫。 这个技能能够直接调用你本地浏览器的登录状态,你已经登录过了, ai 直接用你的身份操作,再也不用扫码了。第三个, open c r i, 像 b 站、知乎、小红书、叉这些地方的评论,关注 这些手动操作,全部做成命令行,覆盖十八个平台,一句话就能调用,还能自我迭代,把新的网站做成 c r i, 说牛不牛逼。第四个, skill waiter 技能市场越来越丰富,但是风险也在增加。这个技能就是帮你在安装技能之前 做一遍安全教验,看一下有没有风险,先安检再安装,一定要养成这条习惯。第五个, cellphone agent, 它会自动记录你纠正过的错误,踩过的坑,反复提高的工作习惯,然后整理成知识卡片。在后续任务中,主动就要有不会复盘的龙虾,养多久都是新手。第六个,劳斯莱斯 club, ai 最大的痛点就是失忆,这个技能能把你的对话全部打包成持久化的数据,并且在后台把旧对话打包成树状摘药,控制逃开消耗,龙虾再也不会失忆了。第七个, ctrl 森特儿, 你养了七八个龙虾,每个都失联了,你不知道他们死没死?这个面板解决了,看每个任务消耗了多少通坎,每个龙虾健不健康,有没有被卡住?查看他们的记忆人设任务档案,养龙虾必备。第八个, oppo 可乐班卡, 定时备份整个龙虾的配置文件和记忆库,即使不小心龙虾咬崩了,也能一键回档,配置、记忆、历史对话全都恢复。这个我强烈建议你现在就装上。 工具的价值不在于功能有多,全在于它解决了你的什么痛点。上述所有的技能可以直接发给龙虾,让他直接帮你安装并指导你使用即可。感谢观看,下期见!拜拜!

opencloud 五月十号的大版本更新来了,这次更新内容非常多,一条视频帮你划重点。先说 opencloud 是 什么? 它是一个开源的 ai 私人助手,跑在你自己的设备上,通过 telegram、 slack、 discord、 whatsapp 等十多个聊天平台跟你交互,它能帮你收发邮件、管理日历、浏览网页、执行终端命令,真正的全能型选手,在 github 上已经有三十五万星,是目前最火的开源 ai agent 的 项目之一。 和一般的聊天机器人不同, opencool 是 真正能帮你干活的 ai agent, 不是 一个只会回复文字的玩具。五月十号发布的 v 二零二六年五月十日版本是五月系列更新中最重磅的一个。 这个版本经过了三个 beta 的 代才稳定发布,涉及 telerun 自动化、本地模型,支持 slack 增强、语音诊断插件 sdk 大 清理,还有 codex 深度集成,总共四十多项改动。我挑最核心的六个亮点, telerun 实时 pr、 政局自动化, 这是这次更新中最酷的功能。 open cloud 库欧系统现在可以通过 telegram 自动收集 pr 的 运行证据,包括 comix 租赁凭证、 crapbox 转录、补货、动图预览,还能在 pr 里直接发内联评论。还加了一个 telegram 桌面场景构建器,自动安装 telegram 桌面版,配置网关,录制 v n c 截图和视频。 简单说,你的测试流程现在可以完全在 telegram 自动化完成,不用手动截图和视频。简单说,你的测试流程现在可以完全在 telegram 自动化完成,不用手动截图和视频,直接省掉了大量重复劳动。 第二个亮点,本地模型服务和上下文地图。 open clone 现在支持 provider 级别的 local source 启动,意思是在发 open ai 兼容请求之前,自动拉起本地模型服务器,还带一次性模型探测, 这样你用本地模型的时候体验更丝滑,不用手动管理模型进程,对隐私要求高的场景特别友好,数据完全不出本机。另外新增了 contacts mark 命令,能生成当前绘画上下完工线者的树状图,一眼看清你的 agent 用了哪些数据源和工具,调试的时候特别方便。第三个亮点, slag 四向增强。 这次给 slag 加了四个实用功能,一是 yumfo links 和 yamfo media 配置,可以按账号控制是否展开链接预览,不用找管理员改整个工作区的设置了。二是 reply broadcast 支持 agent, 可以 选择把县城回复广播到主频道。 三是 manch 原数据保留, agent 能区分直接被偶合,被间接唤醒,回复更精准。四是 dm 通道规范化修复,不会再把同一个私聊拆成两个绘画了。 如果你用 slack 做团队协助,这四项改进,每一项都能直接提升日常体验。第四个亮点, discord 实时语音诊断。语音交互一直是 a i a 诊的难点,这次加了说话轮次检测、播放重置打断检测、音频截断分析四项诊断功能。如果你遇到过语音对话突然中断或者答非所问的情况, 这些诊断工具能帮你快速定位问题。还新增了 talk real time instructions 配置,可以自定义实时语音风格,同时默认用纯 gs 的 opscript 解码器,避免人生翻译的麻烦, 需要高性能的用户可以选择性安装原声解码器。定五个亮点,插件 sdk 大 清理 opencore 的 插件生态一直在膨胀,这次做了系统性的 sdk 受申,移除了长期没人用的公共子路径,把提供商特定的认证流程和模型兼容代码迁回了各自的模块, 同时新增了几个实用接口,包括插件绘画、动作定时调度以及基于模型的图片结构化提取,让插件可以直接调用视觉模型做结构化数据提取。这套清理让插件开发更干净,移来更少,维护更容易。对于写插件的开发者来说, s b k 变得更清晰了。 第六个亮点, codex 深度集成 opencore 和 open ai codex 的 集成更进一步了, codex 现在直接拥有工作区编辑、补丁、执行进程和规划工具的所有权, opencore 只保留集成层工具,这样 codex 原生的代码执行能力得到了充分发挥,不再是套了一层壳的感觉。 同时还修复了 codex 上下文丢失、速率限制、刷新等多个实际问题。另外, codex 原生工具执行现在也会正确上报到诊断系统,不再让长时间运行的命令看起来像卡住了。 除了这六个亮点,这次更新还包含大量修复,比如摘秘密模型 id 规范化,用正确的该秘密负三点一减 pro 减 po v 替代了旧的 id 网关重启时的状态同步优化, windows 用户不再被阻塞认证配置持久化修复。之前有些设置保存不上的问题解决了,裁了不染空行、保留非书、消息回落、 whatsapp 绘画密钥、日制托米等等。 g i l 的 引导流程也变得更友好了,每个步骤都会告诉你下一步该做什么。工程包管理也从 p n p m 十升级到了 p n p m 十。一、构建流程更现代化总结一下, open core b 二零二六年五月十日是一个以稳定性和开发者体验为核心的版本。 telegram 自动化让测试流程更高效,本地模型支持降低了使用门槛。插件 s d k 清理让生态更健康。 codex 集成让代码能力更强。 如果你再用 open core, 强烈建议升级到这个版本。升级方式很简单,一行命令搞定。如果你还没用过 open core, 这是一个很好的入手时机。社区有两百多个现成的 agent 模板,可以直接用,从入门到进阶都能覆盖。关注我,下次更新,再见!

今天我们来聊一下 opencloak 的 版本问题,那么 opencloak 的 更新速度是很快的,可能三天两天都在更新,那么我们通过那个 npm 来安装那个 opencloak 的 时候,默认安装的是最新版, 安装最新版以后可能会有各种的一些错误,那么有些版本可能是稳定的,有些版本的话可能就用不了,我们安装有问题的 openclaw 以后是不是就用不了 openclaw 了?那么这个不是的,我们可以通过在安装的时候就是我们指定版本,比如说现在他发布的最新版是那个二零二六点四点一,那么我们可以选择我们需要的版本, 比如说某一个版本比较稳定的话,我们就来安装那个版本,现在的话我们看一下。好,我们打开那个 power show。 好,这里是以那个管理员的身份打开的,那我们来看一下它的版本, openclo, openclo 跟 v。 好, 那我现在安装的这个版本是二零二六四点一,好了,配置一下那个 openclo, 看它有什么问题,那么这个是我安装的那个最新的一个版本 openclo on board。 好, 我们看一下上面这里,那么它这里已经报了错误了,那么这个的话就是我是正常安装以后,就是发现它已经报错了,那么我们往下面再试一下,这里的话,我们选择那个是好,敲回车 一样的,那么下面这里也是有报错的,那么这种的话就会影响我们使用。但是我们用 npm 安装的时候,它默认安装的就是最新版,那么其实我们在安装的时候是可以设定版本号的,我们来看一下怎么操作,我们先退出这一个设置。 好,我们退出来了,那么我们先把那个 open 给它卸载掉,就是我们通过那个官方的指令来把它卸载掉。 好,我们 在这边选择那个中文, 好,选择简体中文。好,我们点一下安装这里,然后再点一下卸载这里,然后我们看一下,就是我们用这种非交互式的,就是我们不用确认它里面的那些内容,我们把这个考过背过来。 好,我们先卸载一下,那么这一步的话就是卸载它的那些配置文件,还有核心的一些东西。好,那么卸载完了以后呢?它这里就把这些给删除掉了,那么接下来的话,我们还要卸载一下,就是那个通过 n p m 安装的那个 c l i n p m install 杠记,因为我们是前局安装的 openclo。 好, 已经卸载完成了。好,我们通过那个 npm 来安装,我们选择一下版本,好, npm i i 的 话就是那个 inshift 的 缩写,那么我们用缩写也行,不用缩写也行,那这里的话我就用那个 inshift。 好, 这里的话是那个杠记,接下来我们要安装那个 openclo。 openclo, 好,接下来这里就比较重要了,我把这个往上拖一点,之前的话我们是到这里就直接敲回去安装了,那么他默认安装的是最新版的那个 openclo, 但是最新版的 openclo 是 有问题的,那么这里的话我们要 就是跳过那个不安装最新版,我们要来安装那个之前我们有过的版本,就是比较稳定的版本,比如说这里的话,我就安装那个三月二十八号的那个版本。好,我们看一下怎么安装,加一个艾特符号,然后写上二零二六点三点二八, 这个是 oppo 的 版本号,它是通过日期来定义的,那么有些软件的话,它就可能是一点零一这种的一个格式,那么这里的话就是我们根据它自己的版本号来进行确定。好,这里的话,如果我敲回车的话,它默认安装的就是那个二零二六点三点二八的版本了,因为我们现在那个 最新版的话是有问题的,那么我们就安装那个没有问题的版本,那么到这里的话就是我们想安装哪个版本,就在那个就是 openclock 后面加上一个艾特符号,加上它的版本号就可以了,那么我们这么写的话就是安装指定的版本,到这里的话就是我们要注意, 比如说我们之前用的是那个某一个老版本,那么我们要到新版本或者是到其他版本的时候,那么我们就在后面指定版本就可以了。好,我们敲回车看一下。 好,我们的 openclaw 安装完成了,那么我们看一下我们安装的版本是哪一个 openclaw 更微。 好到这里的话,我们看到了那个 openclaw 的 版本,就是我们指定的这一个二零二六点三点二八这个版本,那么实际在用的时候,比如说我们 e 的 新版本有问题的时候,我们要切换到老版本的时候,那么我们就指定某一个版本来进行安装,有些时候可能就是你用的某一个版本,你又想换到其他版本的号,那么我们就通过在安装的时候,我们在那个 open color 后面加上艾特,加上版本号就可以了,那么这个是需要注意的一个地方。

先说结论,本地跑大模型硬件性能总是不够用的,真正重要的不是单纯升级硬件,而是不断学习新的方法,尽可能在当前硬件的基础上进行性能优化。大家好,这一期主要分析 在 max studio 上运行 opencross 时,到底会有哪些性能瓶颈,以及应该如何优化本地运行大语言模型。 性能瓶颈主要有三个,第一个,上下文长度。内存的大小决定了上下文的长度,上下文越长越耗费内存。 如果希望 agent 能够进行多轮对话,能够自动完成各种任务,应该尽量满足一百二十八 k 以上的上下文,否则会出现中途任务突然中断、 agent 降智等情况。第二个,首字延迟代表预填充、 profile 阶段、 gpu 变形处理等 性能,代表的是本地的算力速度越快,聊天的时候首字延迟越短。第三个模型输出速度,也就是 token 生成速度,代表解码 decode 的 阶段, 速度越快代表内存内存越高。在 mac 电脑上使用本地模型来养龙虾,首先要保证基础的硬件性能,比如内存容量至少应该有六十四 g 内存,否则加载不了合适的大语言模型。 其次就是内存贷宽,由于 mac mini 的 内存贷宽太小,只有不到三百 g, 这会导致 token 生成速度太慢, agent 交互起来太卡顿,所以 mac mini 适合本地模型 来养龙虾。结合目前市面上常见的设备,最适合本地跑大模型的设备由低到高分别是 m 四 max、 m r ultra、 m 三 ultra。 六十四 g 内存是最低要求,如果可以承受价格,内存当然是越大越好。考虑到性价比,我目前使用的是 m r ultra 六十四 g。 当你在 openclock 中输入你好两个 字,实际大语言模型收到的可能是三万个 token, 即输入是三十二 k 的 上下文。这里面包含了 agent m d 四 o m d two m d 历史绘画、工具调用、长期记忆等内容,而且 随着对话次数的增加,上下文会越来越长。为了优化速度,推理框架会使用 q v catch 来缓存这些上下文,因此会占用大量的内存。 模型处理输入 token 阶段,也就是 perf 预处理阶段,由 g p u 性能决定速度。模型输出 token 阶段,也就是 decode 解码阶段,由内存内存决定速度。这三个地方就对应了硬件的三个瓶颈。下面介绍一下 既可以落地的性能优化方案。第一个优化,使用 m l x 格式模型,因为它是苹果官方的推理模型格式,针对苹果的 mate g p u 可以 有更好的性能,运行速度更快,功耗更低。我使用的是 o m l x 微粒框架,其针对 m l x 模型进行了大量性能优化。第二个优化方案,采用量化模型,比如我现在使用的是千万三点六二十七 b 四比特模型,就是一个四位量化模型, 除了可以减少模型权重的内存占用,还可以减少内存内存的速度。并且经过特殊的优化,四比特量化模型性能上并不会降低太多,完全够用。 第三个优化方案,采用 turboqv catch, 即对缓存的上下文进行量化压缩,根据量化位数的不同, 理论上可以减少百分之六十到百分之七十五的 kv 内存。实际测试中,我使用的是千万三点六二四七 b 是 比特模型,在 m r ultra 六十四 g max studio 中,可以将上下文由六十四 k 提升到一百二十八 k 以上。第四个优化 spec prefview 主要针对 prefview 阶段进行优化,可以大幅度加快预填充速度。核心思路是使用小模型提前生成 draft kv, 而大模型只做验证,这样就可以显著降低 上下文的预填充时间。实际测试中,由于千万三点六零点八 b 系列的小模型还没有出来,我使用的测试模型是千万三点五 二十七 b 四比特这个模型。 drop 模型使用的是千万三点五零点八 b 四比特模型在长上下文时可以将域填充速度提升五到十六倍, 但短上下文时速度没有影响。第五个优化方案是 d flash, 主要优化模型输出速度,传统 l m 一次只能生成一个 token, 因此 gpu 会比较闲置,而 d flash 会让模型一次性并行生成多个 token block, 再由主模型验证,这样会大大提升 token 输出的速度。但需要注意的是,当上下文特别长时,真正的平静会变成而成型 和 k v k h 读取,这时候即使减少 decode 次数,也还是会被超长上下文拖慢。实际测试中,我使用的基本模型是千万三点六二十七 b 士比特模型, drop 模型是千万三点六二十七 b defray 模型,短上下文时 输出速度可以提升一倍,但长上下文时输出速度没有太大变化。最后总结一下, mac studio 上运行本地模型 会有三个瓶颈,第一是内存容量,决定你能跑多长的上下文。第二是 g p u 性能,决定输入 token 时的首次延迟。第三是内存待宽决定 token 输出速度。而应对的优化方案包括,选择 m l x 模型格式,选择量化版本的模型, 使用 turboqant 优化 kv 内存,使用 spec preview 优化手势延迟速度,使用 refresh 优化输出速度。关注我 ai, 分享实战技巧,我们下期见!

哎,我不太建议去折腾 her miss agent 和 open claw。 总结一下最近用爱马仕和 open claw 小 龙虾的这个体验吧。 open claw 呢,我觉得最大问题呢,还是在这个失忆的问题上。我我经常碰到的问题是晚上啊,晚上十一点十二点,我比较上头的时候 就是跟他在聊或者是去调试他,我十一点五十几分说的事情,我在十二点零三分或者十二点十三分左右再去跟他继续聊的时候,他就失忆了,他就问我,哎,你好,牛哥,你要聊什么事情?或者是我引用了前面那条信息,他还是 问我说,你要聊什么事情,你可以把详细情况告诉我吗?所以我就很无语。然后呢,每次到那个点啊,我就真的发生了好几次,我被 open clock 给气坏了。然后呢,是 hermes agent, 他的这个技能封装啊,做的还不错,每次我们 呃聊完一个调试或者是做一些想法的时候,他能把它最后封装成 skill, 他 下次能复用,但是他也是存在这个失忆问题,虽然他的失忆笔 open call 好 一些,但是呢,嗯,应该是上下文压缩的这件事情,他就是会把一部分比较关键的信息,比如说可能这个做,做完这个工作流可能有二十个关键点,他可能会就丢失掉四个这个关键点,比如过个一两天的时候,我重新回来调用这个东西的时候, 他就局部失忆了,所以很烦。然后呢,我这两个 a 阵容呢,我都外接了那个叫 man palace, 生化危机女主角推荐的那个,我接完之后呢,就是我其实也没感觉到好有很多啊, 那该失忆的还在失忆,该记不住的还是记不住,所以我觉得这个解决方案还是不咋 ok 啊。然后,呃,大家说的那个项链,用项链的那个数据库来储存, 我是没接上啊,因为我用这个 manpalace, 我 觉得是免费版嘛,先接上用我看看怎么样?呃,反正我觉得不尽如人意,我最近又把这个 obsidian 也接进来了,我看了那个就是 capace 大 神做那个,嗯, obsidian 的 那个知识库系统,其实它就是一个本地的外接的一个记忆系统,然后我觉得目前来讲的话效果还不错。我做了这么样一件事情啊,我现在主力用 hmse, 然后呢, 让他把 capacity 大 神的这个知识库 wiki l m l l m wiki 系统,再加上还有那个 y c 的 g brain, 还有呃, 这个 obsidian 一 起全接进来,揉到一套系统里面去做我的一个黄金组合系统。啊,那这样用下来的话,关于我自己的一个知识库搭建,我想到什么,我立马就跟这个后面谁一直记录一下,我现在想到有什么事,叭叭叭叭叭,自己的心得体验全部记下来发给他,他立马就能沉淀到 obsidian 里面。 然后呢,呃,我同事呢,在电脑端去查阅调用,再加上梦境报告,他会去帮我去进一步的去沉淀自己,去反思,去,去优化,去关于我这知识库内容还能提炼出哪些点,他每天都会去做这个事情, 我每天新加进去新的知识,晚上呢,他就会去做这样的一个沉淀,一个反思啊。所以目前下来我觉得这个 opc 点的这一套外界系统其实用起来是蛮不错的,推荐大家去使用啊。 最后最后我再总结一下,如果大家真的是新手小白这一类的话,哎,我不太建议去折腾 hermes agent 和 open call, 真的 太费时间了。过去我从应该是从二月底三月份开始玩这两个东西, 到现在我应该百分之七十到八十以上的时间都是在折腾怎么去修复它们,怎么去让它不报错。如果真正是有这种商业逻辑需求的话,还是再等等,先让这些更新的 技术迭代的东西让他再飞一会,让子弹再飞一会。我觉得等到下半年吧,如果是真的想用成熟商业产品的话,下半年可以换成牛奶,这样子大家的效率就会提升更多。

我是不是觉得最近龙虾的回复越来越慢了?我可以给大家解答一下。可能大家是不是会疑惑,是这些大厂他为了去抢客源,现在他的 api 接口分发给了很多用户,然后平摊下来就会有点卡啊?这个确实有一点影响,但是我觉得这个影响不太大,它只在高峰期的时候会有影响。那影响最大的是什么呢?影响最大的是你跟龙虾已经聊了这么长时间, 你的上下文太长了,你给他新发一个指令的时候,他都要调用前面很长很长的一些聊天记录,这个就会导致你的龙虾会特别卡。然后我亲身尝试了一下,我就给他输了一个杠六 n e w 这个命令,哎,他马上就给我相当于给我开个新的一个新的一个绘画,新的绘画的时候,我再问他问题的时候,他快了很多, 那么从这个对比来看,他的慢主要就是在于你跟他聊的前面的东西太多了,他每次都要调用一下前面的内容。好,那有可能有些人他呃就会担心我如果杠六了之后,开了一个新的一个话题,会不会让他失忆。我可以告诉大家不会失忆,他只是说他不会去调用太多的这个,呃,上下文了啊, 他的记忆还是在的存在的本地的这个 memory 啊,这些,呃, md 文档里面呢?如果大家担心你杠六了之后,他确实有很多东西遗忘了,怎么办呢?你可以去杠 compact, 就是 让他压缩一下, 因为你以前跟他聊了很多内容,可能有一些废话有些不想要的,那我试了一下,他把我百分之百的内容压缩成了百分之十一啊,这个也是也是可以让他快很多的。当然我认为这种压缩的方式是一个比较粗暴的方式,还有一个更好的方式是什么呢?你可以这么跟他说,你说我现在想要跟你去清理一下之前我跟你聊天的所有的聊天记录 啊,让他变得更干净一点。那这个时候呢,他会去在后面去跟你总结一下,之前我跟你聊天的所有的是需要你们相互探讨的,需要你授权的,他会给你一个清单。 当然我相信大部分人看到这个清单的时候还是不知道怎么操作的,那我接下来我又想到了个办法,我就说你给我的这一整段清单实在是太多了,我都不知道怎么样去呃,去给你指令,让你去去删减, 你现在就一条一条的告诉我啊,每一次只给我发一条,然后我来评判要不要删,哎,他就真的做到了,他就给我一条一条的发,然后我就一条一条的告诉他怎么删,然后最后这样子的一个精准的删减整理, 是可以达到它既能够压缩很多内容,减轻很多负担,也能够保留一些你想要它一直都记住的内容。然后完了之后你再进行一次 compact 的 压缩,这个时候它能达到的效果是会更好的。 好,然后还有呃,大家可以看一下我的界面,我的界面上是有杠六啊、杠 compact 啊这些呃杠 stop 这些操作的,它就直接延伸在我的这个呃非某书的这个上面,那是怎么做到的呢? 呃,以后我会专门发一期视频啊,给大家讲一下这个在飞书机器人的这个后台里面,是怎么样去把这个上面的这些模块自定义上面的,然后你以后你就不需要每次都要输入一串杠啊什么字母了, 你就直接点一下,他就会按照你点的那个内容去操作。如果大家觉得我讲的内容对大家有帮助的话,关注一下我,我还会持续分享更多更好用的一些关于养龙虾的一些心得。

openclaw 四点十四刚过去没几天,官方又发布了四点十五,接下来的话我们来安装,看一下有没有什么问题。我们先打开命令提示符,要以管理员的身份来进行运行。首先我们看一下 lodges 和 git 安装了没有, note 杠 v, npm 杠 v, git 杠 v, 然后来安装 openclaw nmpi 杠机。 openclaw 敲回车,接下来的话我们要配置 openclaw on board, 这里我们选择 yes 敲回车大拇指这里我选择的是 deep seek, 复制那个 key 过来这里我们用默认的就可以敲回车,这里的选择通道我们跳过,我们继续往下走,搜索引擎服务商也跳过, skills 也跳过,现在正在开始启动网关了。 我们来打开 openclaw, 用命令的方式来打开 openclaw, 它没有自动把我们的浏览器打开,我们通过那个拷贝这一串链接来进行打开就行,这个就是一个四点十四到四点十五又出现了一个 bug, 就是 不会自动把那个浏览器打开, 那么基本上前面的错误也修复了,但是新的错误也有了,我们在用的时候呢,就是可以根据自己的需要,如果要想试一下新版本的话,那么我们就安装那个四点十五,如果是不想试的话,我们还是使用老版本。

近期,俗称龙虾的 ai 智能体 opencloud 异常火爆。在深圳腾讯大厦楼下,可以看到排长队等待领号协助安装龙虾的人群。一些地方政府也开始放水养龙虾,最高补贴达一千万元。 然而,一个月前,工业和信息化部网络安全威胁和漏洞信息共享平台就发布了关于防范 opencloud 开源 ai 智能体安全风险的预警提示。三月十日晚上,工业和信息化部专家再次提示,尽管龙虾智能体已经更新到最新版本,能修复已知安全漏洞, 但这并不意味着完全消除安全风险。在调用大圆模型的时候,可能误解用户指定的内容,导致执行、删除等有害操作。使用被植入恶意代码的技能包可能导致数据泄露或系统受控, 因为将实力暴露于互联网使用管理员权限、铭文存储密要等配置问题。即使升级到最新版本,如果不采取针对性的防范措施,依然存在被攻击的风险。我们呼吁党政机关、企事业单位和个人用户要审慎使用龙虾等智能企。任何网络产品的安全使用, 除了及时进行升级更新外,还必须坚持最小权限、主动防御、持续审计的原则。在部署时,要优先从官方渠道下载最新稳定版, 一定不要将龙虾智能体实力暴露到官网,并且限制访问原地址、使用强密码或证书硬件密要等认证方式。严禁使用管理员权限的账号,只授予完成任务必须的最小权限。对删除文件、发送数据、修改配置等重要操作进行二次确认或人工 审批。党政机关、企事业单位和个人用户可以结合网络安全防护工具、主流杀毒软件进行实时防护。要定期关注欧风少官方安全公告、 工业和信息化部网络安全危险和漏洞信息共享平台等漏洞库的风险预警,及时处置可能存在的安全风险。

新手小白在安装 open 克拉时,是不是经常出现报错的情况?像这样和这样, 要不然就是全都部署完了,随便跑几个小时就瘫痪啊!今天一个视频教会你如何解决我一直在用的七二四克拉涌动虾,直接安装,不用部署,新手小白也能秒上手!安装巨简单,傻瓜式操作,点一下安装 等几分钟就好,不用配环境,非常省事。装完打开后,右上角兑换码数 x x 五零零就能领免费 taco, 而且右下角能随便切换最新大模型,超方便!左边的 skill 是 同步官方的,点一下就能用,不用自己部署,妥妥新手福音!现在我们安装部署完成来试用一 让他帮我随手拍的减脂餐生成一张海报,我们可以看到生成效果很不错,如果你不满意,还可以 一直向他提要求。新手别再在 openclock 上内号了,直接冲七二四夸用豆香!好了,今天的视频就到这里了,点赞关注,带你玩转更多 ai 神器!

恐龙 pop 上数万个技能,大家不要再去无脑安装了。 open 酷洛官方早已表明,技能并不是装的越多越好,只装像自己刚需的技能才是最合理的。本期给大家分享几个能让龙虾自己形成闭环的技能。先说安装方法, 首先打开七二四酷洛涌动虾在官网下载即可,然后在兑换码中输入送福利,可以领取到 tucker 来用。 然后点主界面左边的技能,就可以在这里安装到 clover 上所有的技能了。第一个技能, skill vader, 装所有技能之前,最好都先把这个技能装上,它相当于是杀毒软件,可以检测你装的其他技能有没有带病毒, 是所有人都必装的技能。第二个技能, self improving, 自我进化龙虾要想越来越好用这个技能必须得装。当龙虾某次回答有错或某次回答让你不满意,然后你纠正它一次,后续它就不会再犯相同的错误了。第三个技能, tablie web search, 让龙虾能读取到实时最新消息,比如热点新闻、实时股价什么的。没有它,龙虾就像没有联网一样, 除了读取实时信息,还可以优化龙虾的搜索结果。第四个技能, find skills, 当你让龙虾完成某个任务,但它缺少相对应的能力,它就会自己去找能达到你需求的技能,并把它们做个对比, 给你推荐最合适的来安装。第五个技能, skill creator。 如果社区内实在找不到你需要的技能, 这个技能就可以让龙虾自己写技能,什么技能都可以。这几个技能几乎是必备的,其他技能就根据各位的工作流自行安装了。好了,以上是本期全部内容了,我们下期再见。

最近互联网养龙虾真的是杀疯了,刷十个视频,八个都在养,还有好多小伙伴私信我说刚入手一头雾水,不知道该怎么养,该怎么选,该怎么用,甚至踩了一堆坑。今天咱们就把所有问题一次性说透,从选择到变现,从避坑到省钱,新手看完之后可以直接上手,不花冤枉钱,也不用做无用功。 咱们先回应五个最火的问题,再补充你们比较关心的一些隐藏的疑问,全程干货,记得点赞收藏,避免刷着刷着找不着了。第一个问题,龙虾该怎么选? 这是避坑的第一点。现在市面上各大厂都出了在线安装,一键安装,我实测下来,真心劝大家一定要装原生版的龙虾,那些所谓的什么什么可乐 仿生版龙虾,基本上都是阉割版的,上手感觉跟高版本的扣子没什么太大的区别,功能其实砍了 一大半,大部分是只能处理蚊子型的工作,离真正的原生龙虾真正的感受下来,可以说是差了十万八千里。所以说,新手如果选择要装,最好是装原生版的龙虾,只在装直接装在自己的电脑上。第二个问题,龙虾究竟能干什么?真有那么神吗? 这么说吧,他是真的神,但又不是万能的,他最牛的地方就是能替代你所有重复性、逻辑性的工作,原则上电脑上能干的活,他基本上全都能扛下来。 写文案,剪视频,做表格,整理邮件,生成周报,甚至帮电商卖家二十四小时做客服,监控库存,帮设计师出出稿啊,晒素材,不用你熬夜加班,他二十四小时不停的在工作,那就包括现在他还在我后面这台电脑上一直在工作,就是妥妥的是一个全能的小助理。 而且他能接入微信,接入飞出这些常用的工具啊,不用额外装新的 app, 你 就可以在电脑端直接控制它。 第三个问题,为什么你装的龙虾不好使,跟别人的不一样?嗯,很多人装完之后就犯愁,说他啥也不会啊,其实不是龙虾不行,是你没装,找对方法。 龙虾不是装上之后他就是超人,他需要学习,需要被教育,就像养宠物一样,就像初代的贾维斯一样, 越养他越能干,你不能上来就跟他说,你帮我干活,你帮我去赚五百块。你这个要求太笼统,他听不懂啊,你要具体的告诉他啊,比如说帮我写一篇抖音的口播文案,主题是龙虾壁坑,语气要口语化一分钟左右 啊,指令越具体他越好用,慢慢教他就会越来越贴合你的要求,甚至能记住你的做事风格。 第四个问题,普通人用龙虾变现最快的途径是什么?作为一个做自媒体的来说,我的感受就是变现最快的途径就是做自媒体啊,写公众号图文, 写短视频脚本,做网站,出项目方案,这些活龙虾全都能帮你高效的去完成。原来一个人一天可能只能最多写十篇文案,但是现在有龙虾的帮助, 基本上五十天是打底,你的收入自然而然他就会涨啊。第五个问题,消耗 talk, 也就是算力贵不贵,普通人能不能承担的起?这个是完全可以,别被算力 talk 这些词吓住。普通人买一个 mini max 的 四十九元包月的套餐完全够用 啊。我测试是第一天就靠龙虾帮我写公众号,把四十九块钱的费用就完全已经覆盖掉了啊。更省的方法是,你日常做轻任务可以用免费的模型,用中度任务的话就用 mini max 的 模型啊,重度任务你再换高端的一些模型啊,普通人基本上用不到啊,你像那个 cloud 的 模型, 一次任务执行下来就大几百块甚至上千块。第六个问题,教育龙虾有什么技巧,怎么让他更听话啊?这是很多人关注的一个问题。技巧其实很简单,你就记住两点,一个是指定要具体,第二一个是要定期的清理记忆, 别跟他说笼统的一些话,一定要越具体越好啊。另外是要定期清理他的过期记忆啊,别堆太多没用的内容,这样他响应会更快更精准,还能节省你的 talking, 长期用下来,他就会越来越懂你, 干活也就会越来越高效啊。说一个小要点,就是跟他对话尽量要使用长句,这样会比较节省 tokin 啊,不然你的 tokin 就 会消耗的特别快。第七一个问题,那就是有些人问的,龙虾能帮我剪视频做海报吗? 啊,这个是必须能,你只需要告诉他你常用的风格是什么样的,做什么类型的海报,你的做海报的逻辑是什么,他就能替代你做这些重复性的工作 啊,包括帮你剪视频,修图,做 ppt, 写代码,帮你查看所有的最便宜的机票啊,帮你盯一些所外所谓的啊曲线图都完全可以。 最后再总结一句话就是养龙虾一定要选对版本啊,我建议大家用原生版啊,教对方法,用对套餐,它就是你最省力赚大钱的一个机器。

有很多小伙伴是不是在苦恼费劲装好后,自己的 opencr 在 做任务时总是完成的很慢?今天一个视频给大家解决问题, 我用的是七二四跨涌洞虾,想轻松安装部署的小伙伴可以看我视频主页的置顶,并且右上角输入兑换码 x x 五百,还可以免费领 token。 opencr 完成任务慢,那可能是两点原因, 一是你给他安装了各种各样的 skill, 发出一个问题时,他可能同时触发好多技能,都给小龙虾搞爆炸了。 二是没有搭建工作流,形成多 action 模式,别人的小龙虾都是团队协助,只有你的十单打独斗。那么小龙虾究竟要安装什么 skill 呢? skill one skill vader, 它相当于技能审核员,你在 open class 里面装各种拓展技能时,它会帮你审查代码安不安全,避免恶意脚本偷数据搞破坏。对本地部署注重隐私的人来说,真的非常关键。 skill 啊! find skills find skills 就是 open cloud 的 技能小雷达,你随口说想要什么功能,它立马帮你搜到能用的插件,不用自己翻仓库找半天。并且它可以精准地知道你需要什么技能,帮你自动安装,省心又省事。 skill three tablet web search cavalley web search 就是 opencloud 的 专业联网搜素小能手, ai 想查最新消息全靠它出码。它不止会搜,还会自动晒广告八正文,给你的都是干净能用的真实信息, 不用你自己翻网页找半天。 skill four self improving agent self improving agent 是 opencloud 的 自我进化外挂, 干完活会自己复盘。总结,哪里做得烂就默默改哪里,越用越聪明。 skill five skill create 是 open 克拉内置核心元技能,相当于技能制作工具,不用写代码,靠自然语言就能创建、优化、审核、打包各类自定义技能,把工作流程封装成可附用、可分享的技能,包装完这五个死 q 就 可以让你的龙虾安心工作了。 然后就是多 agent 模式,我直接给他发送一套工作流程,让他帮我自动配置一套 a 肩 t, 以我目前的实际情况帮我改一套 agent。 目前我的工作流程为自媒体视频制作题材和 open coin 相关,平时需要自己写视频脚本,找视频素材剪辑和发布。他就根据我的实际情况自动帮我配置了一套 agent, 效率比单个的 agent 快 很多。 给大家演示一下,我让他帮我写一个 open kala 测评的脚本, 生成速度还是很快的, 内容丰富,调理清楚,并且还有分镜头。 好了,今天的视频就到这里了,点赞关注,带你玩转更多 ai 神器!

养虾人们注意了, open klo 的 精髓就在于各种各样的技能插件,但是很多虾友面对 klo 哈布里上万款插件眼花缭乱,分不清哪些实用,哪些互相冲突,盲目安装不仅卡顿还容易出问题。 那么这期视频今天直接给大家整理出五月近期社区评分顶尖、下载量暴涨的十款刚需核心技能。 先说怎么装,一分钟搞定!我们打开永冻虾七二四 claw, 打开后点击右上角的兑换码输入二二二,输入后即可免费使用。接着我们点击左边的技能,就可以看到所有的 skill 了。 再说 skill, 第一款,必装 skill vendor, 全员前置安全底座,很多人随意安装第三方插件,极易出现密要泄露文件、篡改隐私、毒取等风险。这款技能相当于 ai 安全守门员,安装插件前自动扫描恶意代码、高危权限,精准拦截风险程序,从根源保障本地数据安全, 养虾必备不踩坑!第二款, tivl search, 最强实时联网搜索,解决原生模型知识老旧、信息滞后编造内容的通病。 支持全网精准解锁,自动整合结构化资料,自带权威来源引用、查资讯、做调研、收集行业数据都能精准输出,是日常使用刚需工具。 第三款, self improving agent ai 自我进化神器,普通 ai 反复修改依旧犯错,而它可以自动记录使用习惯,纠错记录文案风格,后台自主复盘优化, 不断调整输出逻辑,越用越贴合个人需求,长期使用能拉开普通用户的使用差距。第四款, permanent memory x 永久长效记忆库,彻底根治 ai 聊完就忘的通病,支持跨绘画、跨周期保存记录, 不管是长期项目文案创作还是人设设定,都能精准调取历史细节,无需反复交代背景,大幅提升写作效率。 第五款, agent browser, 智能自动化浏览器,给 ai 赋予真人操作能力,可自主打开网页,登录账号,填写表单、下载、抓取数据,自动完成报表整理、资料爬取、内容发布,重复性工作全权托管,全天候稳定运行。 第六款, summarize 全能内容提炼工具,适配 pdf 网页、公众号、视频字幕、音频文件, 一键精简融长内容提炼核心要点,几分钟读完几小时的资料学习办公覆盘,省时又省力。第七款, translator, 多语言专业翻译,支持一百三十种以上语言互译,可处理长文档、小说、字幕以及代码注视, 自带术语校准、双语对照功能,适合跨境沟通、出海创作、外文资料整理。第八款, github manager, 开发者专属工具,自动监控项目仓库动态,实时追踪提交记录、漏洞反馈,每日生成数据简报,技术创作者、开源爱好者,无需反复切换网页,全程自动化跟进项目动态。 第九款, imagegen 一 站式 ai 绘图集成文声图图声图高清修复功能,无需切换软件,轻松制作海报、封面、人设插画,满足全部视觉创作需求。 第十款, code interpreter, 简易数据处理工具,无需专业编程基础,一句话即可完成表格整理、数据运算、报表生成,轻松搞定复杂的数据工作。以上十款都是五月最新下载量飙升的十款 skill, 兄弟们放心充!

兄弟们,我们可以零托肯使用小龙虾了,这是我梳理出来的他的技术的一个底层逻辑,其实就是通过要用底层的外包 ipi 的 形式直接治好了我们的骚托肯焦虑。大家听起来可能太神奇,那么耳听为虚,验证为实,我们来实操一下,不会安装了也没关系。我们这里已经梳理出了一个很简明的一个安装指南, 然后照到上面一步步的复制粘贴就可以了,如果大家有需要的话可以在评论区留言。现在我们在做的就是第一步步骤翻译好,这里我们已经做完了。然后第二步就是配置认证,其实这里的话每一步就是一个执行命令,因为里面的脚本我们都已经做好了,直接复制粘贴就可以。 当我们执行完脚本,它自动会把一些豆包, kimi 或者 deepsea 这些的网页给我们弹开,然后我们只需要 用扫码或者是手机登录进去就完成了这个验证。第三步就是起一个浏览器代理,也就是以后我们在用的时候不需要再去用手机验证或者是扫码,国内网页端 ai 的 使用是不费拖沓的。我们来看看我们刚才大家如果登录了,登录上了有哪些的话,就在这下面填哪些序号对应的,比如说我刚才登录了有 dbic, 那 就是三 字幕清言,那就是四,还有 kimi, 选择完之后直接点击回车,一分钟之后我们可以看到好,这里全部都已经授权完毕, 然后这个终端窗口大家不要关闭,重新打开一个新的终端,这里面输入我们最后一步,也就是启动我们龙虾的 get 位,执行完毕之后,它会自动弹出我们的 opencloud 界面,然后我们用斜杠默认去看一下现在目前有哪些可用的大模型,哎,大家可以看到 这里的大模型跟我们用 api 调用的大模型的名字都不一样,它后面都是加了一个,比如说就是一个杠 web 豆包杠 web。 那我们把 openclo 装安装好了,到这个位置我们也没有配置各个大模型平台的一个 api king, 对 吧?那它自然也不会有各个大模型平台的托管计费系统向我们去扣费了。那么有少妇人的问题就来了,你这样搞的大模型能用起来吗?我们就来试一下,我们直接在龙虾的对话框里输入,我们想做一个贪吃蛇的游戏, 看他能不能正常帮我们生成出来,只过了两分钟时间,然后他给了一个链接给我们,我们点进去看一下,打开游戏,然后能正常去玩这个攀枝花游戏,说明他这个是一次性就把我们已经做好了的。通过这个小游戏的制作的话,我们可以知道这个方法既能帮我们完成一些任务,而且又不费任何的拓坑。

哈喽,大家好,锅喷锅在四月二十号发布了最新版本,这次更新啊,主要就是冲着解决那些一直困扰咱们的稳定性问题来的,那么他到底做到了吗?咱们这就来好好聊聊。 哎,说真的,这次更新是不是终于把你烦了好久的小毛病给解决了?比如说程序一加载就白屏,总以为他崩了,或者那个 ai 助手干活干到一半就料条子不干了?来,咱们一起来看看这些问题是不是真的都解决了。好,咱们先从新用户的体验说起,毕竟啊,一上来就体验不好,很可能就把人给劝退了。 所以这次 openclaw 就 从两个大家最常吐槽的地方入手,做了几个关键的改进。大家还记得吧,以前安装的时候,那个安全提示界面又黑又乱,字还多,一不留神就直接忽略了,现在呢,完全不一样了,你看它变成了一个特别醒目的亮黄色警报框,把最重要的起点都给你标出来了,清清楚楚让你一眼就知道要注意什么。 还有一个改进,我敢说解决了好多人的心病,就是那个加载时的白屏问题,以前加载模型列表的时候,屏幕刷一下就白了,我相信很多人第一反应都是完了,程序是不是崩了?现在好了,人家加了一个简单的加载动画,让你能明明白白的看到程序正在努力工作呢,这体验感一下子就好太多了。 好了,说完了这些面子上的事,咱们再来看看里子,也就是对 ai 助手本身的改进,毕竟一个 ai 再强大,要是不靠谱,那也白打对吧?这次更新的目标就是让它变得更值得我们信赖。 以前的 ai 啊,有一个特别让人头疼的毛病,官方教他任务过早完成。说白了就是他在干活的时候,可能干到一半就觉得嗯差不多了,然后就把一个半成品交给你。或者呢,一碰到点小错误,他就直接放弃治疗了。 为了解决这个问题啊,这次更新就给 ai 引入了一套全新的自我修正工作流程。你看啊,整个流程是这样的, ai 先执行任务,但是他不会马上把结果给你。最关键的一步来了,他会自己先检查一遍这个结果,要是他自己觉得哎,这个结果不太行,那他就会自动回去重做一遍,直到他自己确认答案没问题了,才会最终交给你。 多了这么一个自我反思的步骤,这可能性可以说是指数级提升啊。当然了,除了优化体验和 ai 的 核心能力,这次更新还干了件大事,就是修复了一大堆咱们盼了很久的关键 bug 和夸平台问题,让整个程序的稳定性上了一个大台阶。 这个消息对于那些依赖插件的朋友们来说,绝对是个天大的好消息。上个月的四点一四版更新之后啊,很多用来增加 ai 记忆的第三方插件,就比如那个很出名的 lossless claw, 基本上全都废了,这个问题终于给修好了。 除此之外呢,其他平台的一些小毛病也一并解决了。比如在 slack 里发消息老是失败的问题,修好了用 curl 浏览器,要是连不上,它不会再给你一句看不懂的等待标签页了,而是会告诉你具体是哪连不上,还有网页版发图片也不会再被当成是空消息发不出去了。 好,接下来咱们聊聊安全方面的事。还有这次还加了一个新功能,能帮你更好地管住自己的钱包。这次的安全升级啊,主要有两点, 第一,堵上了一个漏洞,以前有人能通过修改配置文件来偷偷改变程序的行为,现在这条路被堵死了。 第二呢,是把设备隔离做的更彻底了,就是说如果你同时连了好几台设备,现在他们之间的数据是完全独立的,一台设备看不到另一台设备的数据,这样安全性就大大提高了。 同时这次还加了个挺实用的新功能,如果你在用 kimi k two 系列的模型,现在费用估算功能已经集成进来了,也就说你的用量统计可以非常准确的显示你在这个模型上到底花了多少钱。好了,说了这么多改进,那咱们回到最开始那个问题,这次更新到底值不值得你马上去点那个升级按钮, 我觉得用官方自己的一句话来总结这次更新是再合适不过了。是,这是一个还清之前欠债的版本,他没有搞什么花里胡哨的新功能,而是踏踏实实的把以前那些不完善、不稳定的地方都给补上了。 不过呢,在大家点升级之前,有件事得提醒一下,目前官方已经确认了一个小问题,就是有些用户升级之后, telegram 渠道会报告一个依赖包找不到的错误, 官方已经知道了,并且很快就会发布补丁来修复。当然了,就算你真碰到了这个问题也别慌,有一个特别简单的临时解决方法,你只需要打开命令行,重新运行一次 openclo update。 这个命令一般来说问题自己就解决了。 所以咱们最后的建议非常明确,升,必须升!这次更新给你带来了更友好的新手体验,一个更靠谱的 ai, 更严格的安全防护,还修复了那些烦了我们很久的关键 bug。 总而言之,这次更新的核心词就两个字,靠谱。它让 openclo 变得前所未有的稳定和可靠。所以,最后的问题就留给你了,你准备好迎接一个体验更好的 openclo 了吗?