最近这个龙虾非常的火,你有没有用呢?我已经把它用到这个辅助科研当中了,目前最基本的一个操作就是我可以让他快速高效的帮我去找文献。操作呢也非常简单,我在手机端直接给他发送条指令就可以了,看我演示 龙虾,查找文献,指定评论文献分享。我是张老师,关注我学习更多高分 s c r 文章写作经验。
粉丝2.1万获赞1.8万

哈喽,大家好,我是吴亦纶,最近大家应该都被这个叫做小龙虾的东西给刷屏了吧,各大官方都在进推,连央妈都被他震惊到,甚至一度将 mac mini 都炒到了新的价格线高度, 那普通大众也想去体验一下,他需要很高的成本。别着急,轮子找到了一个量化版的本地部署方式,让你我不想投入太多成本的人也可以感受一下这道小龙虾的味道。 ok, 话不多说,跟着轮子看 操作。首先打开这个网站 one club, 在这里咱们可以选择是 mac 还是 windows 系统,点击下载保存,打开咱们下载微键,直接点击运行。 好,这就是我咱们一个安装完成的一个页面,点击下一步这块需要咱们去配置服务商,这块咱们选择自定义,咱们选择 zai, 打开这个 big model 智谱的 ai 开放平台,在大模型语言模型里选择咱们的四点七 flash, 这个模型目前使用它的 api 调用头肯是免费的, 点击 apikey, 在 这里咱们创建一个新的 apikey, 给它随意起个名字就叫龙虾吧。好,创建成功,咱们复制 apikey, 回到刚才的页面, 在这里输入咱们 apikey 模型,选择四点七 flash, 验证 好了,这就是咱们现在目前一个配置完成的样子,点击启动好了,这就是咱们配置完成的一个完整的效果。咱们新建一个对话,跟他对话一下 这块他的名字是因为之前我已经配置过,所以给他起过名字了,我们最开始进来的时候,他会需要咱们给他起一个称呼,然后还有呃他的一个身份,包括你想要的一个习惯,咱们再做一个测试, 然后他制作完成了,咱们去看一下这个游戏的效果啊,在这里 整体效果看起来还是可以的。 那下期呢?轮子会带大家解锁更多的玩法,包括它的完整配置、 scale 使用之类的,那么这期就到这里,大家下期见。

打开 https, call 点三六零点 cn 下载客户端等待,下载完即可。打开下载的位置,双击安装包, 点击运行,等待一段时间,等待软件加载完毕。打开安装首页右下角可选择自定义安装目录,选择一个安装位置,确保有二十 g 以上的硬盘空间。 我自己选择 f 盘新建一个文件夹叫三六零 colo, 名称可以自己随意写,不可以是中文,点击确定,点击返回。可以再次点击右下角的自定义安装,确认下安装位置, 点击返回。这里我选择满血版安装,硬盘空间不够的话,这里满血版会显示灰色,无法安装满血版,至少需要二十 g 的 硬盘空间。等待安装这里时间会有点长,受电脑性能影响,一到五分钟不等,我安装了一分钟。 如果电脑之前没有安装过 wsl 的 话,这里还会有个安装 wsl 的 过程,安装过程中根据提示需要重启电脑,重启后安装会自动继续进行。我这里已经安装过 wsl 了,所以安装过程自动跳过了。 下载 u 泵储镜像,二点五 g 左右,下载的时间取决于网速快慢,耐心等待,我下载了一分钟,多一些时间解压有泵储镜像,解压过程很费时间,我解压了大概三分钟, 导入 u 泵储镜像,这个过程也需要一段时间,我运行的时间大概五分钟。 安装结束,等待自动打开龙虾,刚打开龙虾,有可能会显示三六零安全龙虾应用加载失败,等待一段时间,这是龙虾服务没起来, 要是龙虾服务没弹出来,可以在桌面上点击三六零安全龙虾图标,双击即可。点击左上角的加号,新建页面,即可看到龙虾界面,右上角检测显示健康状况正常,代表龙虾安装成功。 点击任意功能,弹出登录对话框,登录三六零账号即可使用安全龙虾,也可以微信扫码绑定三六零账号登录。现在可以使用三六零安全龙虾了, 打开三六零软件管家系统自带的添加或删除程序,也可以搜索找到三六零小龙虾,点击卸载,选择是否删除个人配置的数据, 若后续要重新安装,建议保留。点击卸载,等待卸载完成。卸载完成。

全网大反转来了,前几天大家疯的养龙虾,现在大家都连夜卸载,之前大家都觉得它能省时间查效翻译资料、论文书,结果翻车事件接连爆发,卸载潮直接来袭。很多人跟风中我才发现,这只龙虾不仅巨烧钱, 还造成很大的隐患。这也是大家急着要卸载的核心原因。第一,他默认获取电脑最高权限, 删不干净还会留后门。第二,他误删文件偷看,疯狂烧钱,有人半天就被扣了几百块,留学党存的申请材料可能被一键清空,损失十分惨重。第三,高校已经明确禁用 ai, 你 用它写文书处理申请, 一旦你被查,直接取消录取。从疯狂花钱安装到花钱卸载龙虾, ai 的 翻车事件给大家提个醒,跟风需谨慎,安全才是第一位!评论区跟风,说一说,你有没有跟风养过龙虾?

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

龙虾辅助科研你用了没?如果你还没用的话,看我借助他如何快速高效的找到真实的文献。首先,我在手机上给他发一条指令,让他去查找一些高质量的刊文献,并把这些文献最终推送给我, 稍等片刻后,他就完成了相关内容的操作。而且在这个过程当中,我没有任何额外的干预,我全程让龙虾自己去操作,并把结果发过。我们来看一下这个第一篇的文献,打开之后已发现真实的,第二篇也是真实的,第三篇还是真实的,而且这三篇文献与我自己想要研究的内容密切相关。 这样的话,我去写论文过程中,效率是不是大大提高了?因为我没有花额外的时间去找文献,这些文献的查找梳理都是让龙虾来去处理的,节约了我大量宝贵的时间,赶快去用起来吧。龙虾查找文献指令评论文献查找分享,我是张老师,关注我学习更多高分 s c r 文章写作经验!

小米龙虾你们养了吗?如果还没有养的,今天可以跟着我的步骤一步步来申请。打开我们的小米社区,然后在搜索栏这边搜索 miklo, 进入以后,然后选择小米 miklo 分 册用户申请, 然后拉到中间这个位置有个分册用户报名问卷,开始答题, 同意协议,并开始答题。目前的手机型号是什么?这个时候选择您所对应的手机型号,然后下一题系统的版本。 如果说你不知道你系统的版本的话,你可以去手机里面去查看一下,我这边的话是 beta 版本设置,我的设备在这里面去看。我的是三点零三零四, 三点零三零四。然后下一题, 然后选择上传一个 low 图片,就是这个页面,你给他截图,截图,把这个图片给他上传上去 确定。然后下一题你使用的 ai 相关的产品的频次,我是经常使用选择你 ai 的 功能, 这里边的话你看一下,根据你自己的实际情况去选择下一题啊。使用的大语言模型像比如说我们用过切切的 gdp 啊,文心语言的,最多可以选择三个题型, 平时在什么场景下使用?呃,我是根据个人喜用处嘛,我们去选择,然后小米设计的昵称啊,我的是辉哥,瞎笨的。 然后点击下一题是否分册项目,选择四,下一题,然后想做什么?嗯,这时候根据你自己的日常或者说你的一个想写的啊,我是我们这只是做测试,我就随便填写一个了, 然后下一题 哪些渠道,这个也是根据你自己的喜好随便填吧。文件已经提交了,那这时候就等待着三天的一个审核时间,关注我下期给大家分享一下小米十七前系列 ecm 的 相关报道。

哈喽,大家好,今天继续给大家介绍小龙虾一键快捷部署的这样的一个解决方案的推荐。这几天随着技术的快速的迭代发展,国内的各大厂商竞相发布了自己的一键部署小龙虾的这样的一个产品。 今天给大家推荐的是阿里云团队发布的手机端一键快速部署小龙虾的这样的一个产品, 叫贾维斯克洛,这个阿里云团队也非常给力,快速的发布了第一个手机端的这样的一个产品,我们看到各大商店可以下载,首先我们可以在苹果的应用商店和安卓的应用市场都可以搜索的到贾维斯这个首字母的简写。克洛这样的一个产品 下载完成之后,桌面右下角这样的一个图标的一个界面,我们打开它登录,这个明显能看得到登录界面,还是用这个阿里云的账号来登录的,登录之后我们就可以看得到非常简洁的一个界面,是一键创建的这样的一个 cloud, 不 bot 这样的一个引导的按钮,说我的助理可以选择这样的一个服务器的环境,我们创建相关的这样的一个 lot bot 啊,目前显示在创建, 可以说一下现在这个应用还处于内测阶段,我们下载应用刚才在注册的界面,因为我已经申请过内测的邀请码了,是刚才没有看到那个界面,正常第一次注册的时候,他会让你输入这个内测的邀请码, 然后我们也可以去进行一个申请。像手机端的这样的一个小龙虾创建以后,那就非常的方便了,这个可以通过这样的手机端的部署和操控,直接来进行小龙虾的对话。好了,我们现在已经创建完成, 可以跟我的助理进行对话了。好了,在正式使用之前,我们先看一下他的技能模块,因为整个界面非常简洁,我们用小龙虾这个智能体,他其实主要的靠的就是技能的这样的一个能力,来帮我们提升生产力和效率。 首先我们看一下阿里团队的小伙伴非常贴心,他在技能的前面置顶的两个功能是技能查找,就说这个 app 装完之后,他自带了二十个技能,这二十个技能如果不够用的,可以自己去相关的网站去下载相关的技能,他提供了两个技能查找的渠道, 另外一个还可以自己创建技能,根据我们自己的办公的需求来创建这样的一个自动化的技能。未来在以后的视频中,我会重点介绍这个技能的能力以及如何去创建技能。 其他的能力我们简单看一下,包括记忆的能力,问题诊断的能力,包括自媒体运营专家,浏览器搜索,包括行程助手、财经信息、天气。重点说一下这个大家关心的几个技能来了,因为办公需要,很多人都希望说能够能自动的帮 大家来做 ppt, 因为做 ppt 一 直是比较耗时的工作,这个重点在这里介绍了它生成的是 ppt x 这样的一个可编辑的 ppt 文件。 往下其实有更高级的功能了,包括这个飞书的文档助手给 u i 设计的界面的功能,包括这个文案的策划。昨天就有人在我视频下面留言,就问说能不能调用这个 视频的工具来制作视频,阿里提供了这样的一个视频的解决方案,这叫 remote 视频开发专家提供了这样的视频从新建到优化的这么一个能力, 大家可以把这些能力了解完之后,逐步的进行测试,看看这些能力能不能给我们提供什么样的帮助。好了,今天把阿里的手机版的小龙虾贾维斯 claw, 然后今天就介绍到这里,然后也介绍了他的这个安装啊申请,然后包括他的技能能力下来这个对他这个技能能力的深度探索。我们下一期视频给大家介绍,希望大家点赞关注,感谢大家。

我今天就说一件事,劝你别用小龙虾,你没听错,虽然我是小龙虾的重度用户,也认为它是工具的 a g i, 甚至还推出了可以一键安装、开箱即用的龙虾 ez club。 但我今天还是要劝退你, 因为我发现百分之九十九的人装龙虾纯粹是在浪费钱。如果你今天对 ai 都没什么了解,大家都装,你就装,我建议大家不要装啊。我今天还是这观点,百分九十九的人不适合装这个 ez club 或者 open club 的。 为什么?因为很多人连基础概念都没有,大家装我也装一个,那我真心不介意 他。的确今天还有很多安全性问题,这个大家一定要知道啊。所以如果你连最简单的豆包什么都没用过,没有用过一些基本的智能体,你真的不要装龙虾,我这个劝退大家,我是最早说龙虾不适合百分之九十九的人, 但是呢,我觉得如果你要去学个东西,我觉得是应该去学的。但就像你说物理要不要学也要学,那百分之九十九的人物理学的不好,那不能说物理这个东西不值得学啊。富盛,你这么说是不是在贩卖焦虑啊?我一点不贩卖焦虑,我今天再讲,百分之九十九的人都不适合用。我认为百分之九十九的人他不适合在于比如说他的能力, 今天他从来没用过 ai, 说这东西用了我就能 ai 升天,不可能,能力不适合第二个目标不适合自己,也没想好到底用它干嘛,你用我也得用。你如果没有一个自己的用途的这种需求,就没有需求,没有自己目标,你说你用我也用,那的确就跟风,因为我用我是有很多需求在, 我要去了解竞争对手,我要去了解我们的产品的用户口碑,我要去知道我们的宣传怎么有效,这是我有需求。第三个, 那的确经济实力不太好,也别用这个真心的,有人说用一个晚上就破产了。如果你真的是这样的经济实力,就别用,我觉得别用,再过几个月慢慢等降下来也可以,没问题。如果你要用顶级模型,我也说了,我一天大概用一百到两百美金的模型费用,如果你用国产的,一百块钱可能也得用,这是一个现在实际的情况, 这就是为什么今天绝大部分人不是啊。还有第四个,就是说如果你对计算机都没什么概念,也不愿意花时间去学习这些概念, 那也别用。你可能觉得我说了半天全是劝退,但我想说的其实只有一句话,养龙虾不是跟风,是真的想清楚自己要干嘛,想清楚了任何工具都能用出花来,没想清楚再好的工具也是玩具,你觉得呢?欢迎在评论区讨论。养龙虾就用 ecclo。

最近科技圈突然多了一个奇怪的现象,很多人开始说自己在养龙虾,难道现在流行搞水产吗?但这个龙虾其实不是吃的,而是一个 ai 工具,名字叫 open cloud。 因为它的 logo 长得像龙虾,所以大家干脆就叫它龙虾。 ai 这个东西为什么突然火? 核心原因其实很简单,它不只是会聊天的 ai, 而是一个能真正干活的 ai。 过去这两年,大模型已经很厉害了, 能写文章,能回答问题、能聊天,但本质上他还是一个聊天机器人,你问一句,他答一句,真正的事情还是得你自己去做。但 open club 的 思路不一样,它是一种 ai 智能体框架,简单说就是把 ai 和电脑操作连在一起, 你只要用自然语言下指令,他就能自己去操作电脑,比如整理文件、自动打开网页、抓取数据、做表格,甚至完成一整套工作流程。很多人第一次用的时候,都有一个感觉, ai 终于不只是会说话,而是开始帮人干活了。也正因为这一点, openclaw 一下子成了 ai 圈的热门话题。腾讯已经基于这个生态,做了一个技能社区,专门给国内用户提供工具和技能下载。 阿里云也推出了自己的 openclaw 产品,把这种智能体能力做成更接近普通用户的应用。很多互联网公司其实都在盯着这个方向,因为大家都意识到一件事,如果 ai 真的 能替人完成任务,那未来 ai 的 入口很可能就不只是聊天,而是智能体。 不过,热度归热度,现在的 openclaw 其实还远没有那么成熟,一方面它对普通用户来说,配置门槛还是比较高,并不是那种一键就能用的工具, 甚至卸载都需要比较高的门槛。另一方面, ai 智能体本身也存在一些风险,比如权限太高,操作不可控,甚至可能因为 ai 幻觉导致误操作。 甚至以大胆创新著称的马斯克都不看好说这种将 root 权限彻底交给 ai 的 做法,无异于给猴子递上膛的步枪。 所以很多业内人士的态度其实很理性,这个方向很有想象力,但现在还只是早期阶段。不过有一点很值得注意,过去两年大模型解决的是一个问题, ai 会不会对话, 而像 open cloud 这种智能体开始尝试解决另一个问题, ai 能不能帮你做事。如果这个方向真的跑通,那未来 ai 可能就不只是聊天机器人,而是一个真正能替人工作的数字助手。 所以最近大家讨论龙虾,其实讨论的并不是一个工具,而是 ai 可能正在进入的下一阶段。

我做了一个适合新手小白的国产 oppo klo 有 道龙虾的教程,个人认为呢,这应该是全网最适合新手的教程。这个教程包含文本和视频教程,每章节都有文本,还有详细的实操视频操作, 如果你是新手,一定可以掌握的。使用建议先看这里的五分钟完整版,用两倍速 去播放,了解个大概,然后实操,先看每一节的操作视频,然后再根据文本去操作。遇到问题了怎么办呢?首先是问 i i r, 比如豆包、腾讯元宝等等,解决不了可以在视频下留言,有需要的宝宝子请留言。

红哥在干嘛?我在配置我的多个小龙虾,在一个群里面,你看我这边几只虾,现在我这边有一二三四四只虾。小疯子是我的主管吗?就我的助理, 然后情报员就是帮我去获取信息的内容助理呢?就是帮我去写内容的,你看他们可以群聊了是吧?可以啊可以啊,你看 说小疯子,请安排一下,让情报员去搜集这个 ai 的 最新动态啊,记住三个亮点,然后呢把这个亮点发给这个内容。可以啊,内容这里现在又开始了四个 ai 员工了。对啊,这里面我一天花多少钱啊?这个不贵,一天花个几十块钱吧,几十块是吧?对啊,你看情报员, 然后就说我要去搜集内容了,马上开始。哦,他们开始工作了。对啊,搜集完之后,你看小疯子就已经给情报员发出这个指令了吗?不错不错,完了之后怎么怎么做的,老板教一下。哎呀,你看啊,首先就是我们在飞速里面先创建几个智能企吗?不要讲飞速啊,限我流啊,等下。 嗯,创建好之后呢,第一步。嗯,对,这是第一步的。第二步呢,你看我们就在这边,我们规划一下,这是刚才规划好的啊,第二步呢,你看就是我们要给 oppo 可乐就小龙虾去配置多个 a 证啊,在服务器上面配,对,在服务器上面配, ok, 这就是这就是龙虾的,相当于是他的 本底层的逻辑吗?小分子,情报员,内容助理,对吧?规划好,你这个文档可以分享吗?可以啊可以啊,大家敲一个龙虾分享给大家。 操作难吗?呃,其实还可以吧,只要懂原理了,几分钟就搞定了啊?看一下,主要是四个步骤呗。对,第一步就是非输赢准备吗?第二就是配置多路由啊啊?第三步呢就是给它互相去打通,互相去 ai 之间, ai 正可之间可以互相去聊天,最后呢就是给它每个 灵魂每个智能起给它配这些灵魂。牛逼牛逼牛逼,大家想要的话那个找原封啊,谢谢老板。 ok? 牛不牛?龙虾牛不牛?

马上出发去找我的一个朋友,跟他学一下怎么样养龙虾哦!龙虾这个话题最近太火了,我一开始以为他们聊的是什么海洋产业的事,一秒划走,到最后才发现说的不是海鲜,也不是什么餐饮生意,而是正在部署的一个名叫 opencrowd ai agent。 crow 的 意思就是爪子、钳子,我们把它翻译成龙虾,很形象又好记。科技创新在中国市场真的是充满了活力、包容和试错的空间。 你要是问我,这个龙虾和以前我们聊的 ai 到底有什么区别?简单来说,他现在已经不是什么对话者的角色了,而是可以给我们干活的虚拟员工,是可以用手的,他能操作电脑,执行任务,调接口、跑流程,一天二十四小时自助运营,升级迭代, 那企业就由员工的管理者变成了 ai 的 指挥者,工作效率可以大幅的提升啊。比如说我有一个做餐饮品牌运营的朋友,他跟我分享了龙虾助理的工作啊, 每天早晨八点准时发工作简报,昨天的餐饮行业出了什么大新闻,竞品在搞什么活动,有哪些相关的热门话题等等。那如果店里推出了新菜龙虾,还可以负责文案、视频、各大平台的宣传和推广,以及评论区的回复 和整理摘药。那么跟供应商的信息呢?他也能够及时的回复折扣,活动期间可以提前三天确认物料到位,那每天下班之前还可以总结今天的代办事项等等。 虽然说现在养龙虾还处在一个初级的阶段,但是我们看到前端口的服务行业已经发展成了一门生意了,有卖客的,有远程部署的,还有提供直接上门为你安装服务等等。在美国湾区,服务团队帮企业部署一次要收费大概四万两千块人民币吧, 国内有的远程部署几天就可以赚几十万。看来每一次技术浪潮,最先赚到钱的都不是技术应用本身。 那么说到这个小龙虾的创始人呢?他的名字叫斯坦伯格,是一个奥地利人,他是资深的 iqs 工程开发师,也是大名鼎鼎的 pdf 框架 ps pdfkit 的 创始人。他的代码曾经在超过十亿台设备上运行。 二零二三年的时候,他卖掉了之前持有的所有的股份,实现了财富自由消失,三年环游世界去了,一直到二零二五年才重出江湖。那为什么要养这个龙虾啊? 斯坦伯格的初心是为了做一个小工具,好让他自己在外面吃饭的时候也能通过手机聊天,远程操控自己家里的电脑。哎,没想到这个产品就爆火了。 有意思的是,这个产品它并不是由产业巨头谷歌或者 open ai 成功孵化的,它是靠单靠一个人啊,斯坦伯格的无心之局带火的。 可以说现在龙虾是真正的让 ai 具有手的功能的开源项目,不仅可以陪你聊天,还可以直接通过你获得电脑权限啊,像真人那样的去点击按钮操作 excel, 在 飞书和钉钉里面回复信息,甚至是跨软件的去处理报销的问题 啊。当然还要多说一句,因为你毕竟是把权限交付出去了,还是很有风险的,所以一定要注意数据安全和隐私保护, 你看时代的脚步就是这样的。一个多月之前,很多人都在怀疑龙虾是不是一阵风,有位朋友说得好,它不是一阵风,而是一次平台级的迁移。就像以前 pc 到移动互联网的那场迁移,没有人会问你到底准备好了没有,他只管往前走。

这些人山人海的照片,不是在超市门口排队抢特价鸡蛋,而是前两天在腾讯大门口免费安装 open 可乐的盛况。这是二六年最火的 ai 工具,几乎所有的人都在疯狂的去研究学习,甚至可以直接考察赚钱。但是热闹一个多月了,龙虾到底是什么?能干什么?那么本为一次性给你讲清楚 龙虾。 openclaw 最初呢,是一个奥地利的程序员用一个小时传出来的一个开源项目 github star 呢,四个月冲到了二十五万啊! react 和 linux 这两个超级老前辈,简直就是摁在地上摩擦。 就连黄仁勋都曾经亲自站台说 openclaw 是 当代最重磅最重要的软件发布。如果你到今天还觉得 ai 只是一个陪你聊天的电子宠物,那么这一个月发生的事,可能就会让你感受到真正的 ai 危机感。 小龙虾到底能做什么呢?一句话,它可以让 ai 从原来的动嘴变成现在的动手。简单来说呢,这就是一台豆包电脑,它把豆包在手机上,没有完成的遗愿搬到了电脑上,它可以直接帮你在电脑上干活,可以帮你处理任何电脑上的问题。是的,任何问题。 过去的 ai 呢,本质上是一个问答机器,你打字,他回话,聊天关掉,两不相欠。但是 opencloud 呢,把 ai 变成了一个能够操控你电脑的执行者。你在手机上说一句,把我的邮箱整理了,那它真的就可以自己登录,自己读邮件,自己分类归档,然后你只管验收。而更厉害的是,它搞了一套叫做 skill 的 生态系统。 skill 呢,本质上就是一份儿份儿技能包一类任务呢,就是一个 skill 一 项功能。比如你可以让他给你的电脑、微信的通讯录里的人每人发一份儿独创的新年祝福。这就是一个 skill, 他会告诉 ai 遇到特定的任务该怎么干。那么全球的开发者呢,都会往里贡献各种各样的 skill。 而专门的共享平台上呢,已经积累了几千份 skill, 甚至 ai 自己干完一件事,还可以给自己写一份 skill。 那 么下一次遇到同类的任务呢,可以直接拿来用在黑客帝国当中呢,往尼奥的脑子里面逛着数据,他就能够瞬间学会各种格 格斗。这事呢,在 open claw 线上已经不再是科幻了,以后啊,说不定真的就会有什么泰拳 skill, 散打 skill、 猴子偷桃 skill, 还有闪电五连鞭 skill。 ai 在 龙虾之后,终于从只会动嘴的顾问,变成了能够实打实下地干活的牛马。 这一个月最睡不着觉的人是谁呢?两波人。第一波呢,就是那些在垂直领域里面做 c s 软件的老板们。当 ai 能够像真人一样点开网页,填写表端操作软件的时候,当年那些只靠套个 u i 壳子哎,套一些简单的功能就能够拿来卖钱的软件公司,他们的处境就非常尴尬了。而第二波睡不着的人就是硅谷的巨头们, 但是他们睡不着的原因可能跟你想的还不太一样。从表面上来看呢,大厂们对于小龙虾的态度是安全担忧, mata 的 ai 安全总监呢,就亲自示范过哎,他让 openclaw 处理油箱,结果这玩意就开始疯狂地删邮件,连喊三声 stop 都拦不住啊,最后只能够狂奔过去拔电源。但是你仔细看到各家的操作就会发现, 安全只不过是他们台面上的说辞。谷歌呢,就直接在内部屏蔽了 openclaw 的 访问入口, esrbic 呢,就发了一声措辞客气,但是杀气腾腾的律师喊啊, mad 想要挖创始人,结果没挖动,眼看着人跑去了 open ai。 为什么资本巨头的反应会这么大呢?因为 open cloud 这种开源框架,本质上是在架空巨头们消耗千亿资本精心构建的那个围墙花园。他让用户绕开官方接口,用极低的成本来调用顶级模型,还不被平台抽成 当第三方工具呢,开始分流用户,动摇商业根基的时候,安全漏洞就成为了收网的最佳借口。说白了,不是这个龙虾有毒,而是它动了资本的蛋糕。但是我们中国这边的剧情啊,是完全反着来的,自觉的火山引擎,阿里云、腾讯云啊,几乎在同一时间全面拥抱了小龙虾,小米也发布了手机版的测试产品。 腾讯更绝啊,直接派公司的员工去路边摆摊给大家来装,你以为这是他们的一场算力去库存? 过去一年呢?国产大模型在推理测的消耗一直上不去,低配服务器呢,在仓库里边吃亏,春节搞活动,拉人下载 app, 薅完羊毛就卸载,根本留不住啊。但是现在,小龙虾来了,黄日勋曾经下论断啊,这个智能体会让 token 的 消耗量激增,一项复杂的任务啊,就能够烧掉几十万甚至上百万的 token。 对你来说,这是吞金兽,但是对于云服务商来说,这就是印钞机,用开元社区的项目来养自家模型的钓用量,这一笔账,你闭着眼睛都能算过来。腾讯去摆摊装小龙虾,不是技术不到,这也有可能是云计算摆地摊啊。跟当年运营商们在大学校园里摆摊办手机卡,那是一个逻辑。帮安装的人赚钱了, 做龙虾的人赚钱了,做服务器的人赚钱了,但是只有用龙虾的人在花钱。而更滑稽的是,我们安装它的目的是为了赚钱。这就有点搞笑了,只有一个人受伤的世界达成了。 当然了,现在龙虾还处在一个非常初级的阶段,部署非常复杂,哪怕简单的任务也会消耗大量的头啃。但是它让所有人第一次清清楚楚的看清楚了一个场景, 我们在手机上下发一条指令,发一条消息,在远处就会有个 ai 在 电脑上替你把活干了。福特当初问消费者要什么,回答是一匹更快的马。乔布斯当年掏出 iphone, 所有人都在嘲笑,没有物理键盘怎么打字? 们总是习惯忍受繁琐的现状,却想象不出被重构之后的世界会长什么样子。 ai 的 价值从来不在于它有多聪明,而在于它能够交付什么,能够稳稳当当填好一张报销单的 agent, 它的商业价值就已经远远超过一个能写实的大模型。 这意味着 ai 终于从大脑长出了双手,而且这还仅仅只是这只龙虾出生不到半年的时间,路还没修好,车已经在跑了。虽然车粗糙了一点,方向盘呢,偶尔也自己会乱转,但是一旦坐上去体验过不用走路的感觉,谁还能真的回得去呢?我是你的酒团保安牛顿,记得关注我们,下期再见!

最近 opencry 也有一次大家说的龙虾特别的火,那我也蹭个热点吧。从亚马逊的运营角度来说出我的看法,很多卖家看到这个东西会非常的焦虑,觉得是不是以后他直接帮我们把店铺运营了 闹了。观点,事先不要着急,龙虾他本质上他不是普通的聊天机器人,而是更偏向于帮你去执行任务的一个智能体。那公开资料也确实把它定位成这种带工具啊,可以执行任务的一个个人的 ai 助手吧。但问题在于,亚马逊运营他的核心板块是两块啊,一个是选品,一个是广告。 选品这块呢,他可以辅助你去找一些思路啊,做分析,包括给你提建议。那最后能不能做,其实还是要去看这个市场供应链,包括你的利润,竞争格局, 他不是说是一两句话就能决定的啊,那广告这块更现实,我说实话,限阶段这类工具对新手小白可能确实是有帮助,至少他比完全没有经验的人会强一些。但如果你本身是一个成熟的运营, 那他在广告分析、投放策略,包括预算节奏这些深水区远没有大家想象那么神。真正帮助比较大的反而是 lucy 优化这一块,尤其是文案,他写的确实还不错啊,包括他逻辑表达, su 很多时候都比人工还强, 还有图片和视频的制作,在部分的工作上也确实是替代了一些美工。但问题是呢,亚马逊的运营核心价值,他从来就不是单纯的写文案和作图啊,真正拉开差距的还是推广转化和整体的运营策略啊。所以我的结论很简单,亚马逊卖家不用过于焦虑啊,对于龙虾 那店铺运营确实是有帮助的,但远没有可以取代到运营这个地步。真正好的一个工具一定是让普通人都可以低门槛上手的,就像我们的 office 软件 word, excel 一 样,而不是还没有开始用啊,就先被这个复杂的配置直接劝退了。那现在不少 open core 的 教程也在讲安装配置和上手路径, 这恰恰说明它离真正的大众化还有一段路要走。所以不要去神话它,先把它当成工具,而不是当成老板好吧。

彻底解决龙虾不能操作电脑软件的最后一环。很多人用 openclock 最大的卡点不是他不够聪明, 而是他不会像真正的人一样可以操作电脑上所有的软件。例如你让他明天上午给客户发一条消息, 它可以生成很好的回复内容,但它不能这样操作软件发送消息或者剪辑视频,它可以生成很好的剪辑策略,但是它不能操作剪映帮你剪辑。所以我最近做了一套 openclock 加 rpa 的 联动方案,就是这个 skills, 只要在 excel 配置好什么情况下要用哪些软件操作什么流程, openclock 一 旦识别到对应的任务, 就会自动通过 http 请求调用对应的 rpa 流程完成电脑软件的操作,而且这个操作过程是没有消耗。 tucker 的 总结就是, open call 负责动脑, rpa 负责动手。如果你也需要这套 skills, 可以 跟我要,也可以让 ai 帮你做一个。

只需一人一台电脑就能拥有一个团队,而且团队成员可以二十四小时待命,绝不让你干活。这工作状态多少有点不真实。欢迎来到摩尔建成的龙虾意式厅,这里有一群龙虾员工,他们可不是餐桌上的小龙虾,而是可以高效协助的智能体。 只需几分钟,在摩尔县城 m t t l book 上用 openclaw 搭建专属智能龙虾团队,你也可以获得一人机团队的享受,让高效协助不再只是想象。龙虾已就位,准备开工。 首先我们需要先到飞书平台创建自己的机器人来接入 openclaw, 在 注册后点击右上角进入开发者后台,点击创建应用,填写自定义名称和应用描述,接下来获取自己的应用凭证。 需要注意一下这里的 app id 和 app secret 后面和 opencloud 进行关联时会用到。然后点击添加应用能力,给应用添加机器人, 此时会发现左边多了一个机器人菜单。接下来需要给应用配置权限,在菜单中找到权限管理,点击开通权限,在搜索框中输入 i m, 把即时通讯相关的权限全部开通,并点击确认开通权限。 最后进行版本创建并发布,点击页面上方的创建版本,设置好版本后添加更新说明,其他保持默认后点击申请线上发布,之后来到飞书客户端进行审批,审批同意后会收到当前修改均已发布的通知,表示应用已成功发布。 以我们的龙虾团队为例,目前有八位智能员工,团队就可高效运转。我先在飞书中确定了数字员工的工种和名字,在飞书中创建了八个飞书机器人,进入应用凭证与基础信息,获取每个机器人的 app id 和 app secret。 第三步,我们需要创建 agent, 由于默认已有一个 main agent 在 这里,是管理员小魔,我们需要创建其余七个 agent。 现在我们创建第二个 agent。 初次创建时需要配置工作空间地址,系统会自动为工作空间添加第一位后缀,得到 workspace dm, 直接回车使用默认值即可。接下来配置模型认证,此时选择 no, 直接回车继续配置 chat channels, 同样选择 no, 显示 ready 提示信息后代表配置完成, 再按照相同方式创建其余几个 agent 的 员工即可。员工都添加完后,我们进入 openclock 工作空间目录,确认所有 agent 的 员工的工作空间已创建。 第四步,我们需要给 agent 的 员工配置不同模型,以便用于不同的工作场景。编辑配置文件,找到 agent's list 部分,为不同 agent 分 配合适的模型。接下来我们需要设定 agent 使用的 channel, 依然需要修改 agent 使用的 channel 依然需要修改。 openclock 点 js 文件, 将每个 agent 与对应的飞书机器人绑定。编辑 channels 部分,现在我们需要配置绑定关系, 依然需要修改。 opencloud 点 jess 文件编辑 bindings 部分,将 agent 与 channel 进行绑定。 在重启网关后,我们进入第五步, opencloud 将连接到飞书,此时需要在飞书后台进行二次配置。至此,摩尔现成龙虾团队空壳已搭建完成。接下来需要为每个 agent 注入灵魂及角色设定。在 opencloud 网页中导航至 agents dev files so 点 md 编辑角色文件,这里建议将角色信息放入 so 点 md 文件中,完成所有智能体的角色配置后,恭喜你,你已成功搭建属于自己的一人公司智能团队, 即可正式进入多智能体协助模式。还在等什么?动动手指,用 ai book 加 open cloud 也来搭建你的智能体团队,让智能体员工替你干活吧。

一台便宜的二手迷你小主机,一台有一百二十八 g 内存的 maxplus 三九五他们一起合作, 我们使用本地的 lm studio, 不 但可以运行腾讯的 hymt 一 点五一点八 b 小 模型来处理多个视频流的实时翻译请求,还能同时使用谦问 code next 模型给 openclock 作为本地大模型接入来运行资料,抓取分析和文本拷写的工作。 大家好,我是老白,今天给大家介绍我用便宜的迷你主机连接本地大模型遇到的各种麻烦和解决方法。 这台圣克森特 m 七五 n 三五零零 u 小 主机是我在海选市场六百八十元买回来的,我们已经对它有详细的评测。 同时吉摩克的这台 evo x 二,它有一百二十八 gb 板载高频内存,还有四十 c u 的 radion 八零六零 s 核显,是本地大模型部署的利器。我们在 m 七五 n 上跑 openclock, 访问同在一个局域网内的 evox 二、运行的 lm studio 提供的本地大模型推理服务。 实际上我所理解的 openclock 就是 利用社交软件或者说聊天工具来指挥和操控一台具有 ai 能力的电脑去执行相应的连续性任务。 关键词处是你用自然语言和它沟通,并且下达指令。如果不用自然语言,不用聊天软件,我就觉得 openclaw 完全没有实际意义,不知道和大家的理解是不是一样的。 下面就讲讲我们使用 openclaw 遇到的各种问题和解决办法。一、为什么选择 windows 迷你主机?我们遇到的第一个坑是,为什么不用网上大多数人推荐的 mac mini? 好 吧, 我除了有一台 m 四 mac mini 之外,也有一台十五寸的 m two macbook air, 用它们之一来跑是没有问题的。其次就是我的 x 八六小主机实在是太多了, 随便就能抽出一台来独立的跑 openclock 我 们这些小主机便宜啊,几百元。 mac mini apple silicon 小 主机至少大几千吧。 m 七五 n 是 我很喜欢的迷你主机,用来跑 openclock 我 觉得是物尽其用。 二、安装和启动我在这种低端小主机上安装 openclock 遇到的最大的坑是,千万不要用 windows 十啊, 一定要升级到 windows 十一,然后啊,还一定要用 wsl 来安装。满足这两点之后,你安装好的 openclock 运行在乌班图二十四点零四上,出问题的几率很小。 这小主机我没有接显示器启动后通过远程桌面连接它进行监控,实际上它相当稳定。我是指这台 windows 的 宿主机,如果你把更新暂时关闭之后, windows 不 会来打扰你要求重启啥的。 好在有远程桌面能够做到完全控制这台小主机。当你第一次启动到桌面,你可以打开 linux 的 命令窗口, 等上一会儿,在浏览器里 opencl 界面里就能看到已经连接上了。第三,备份到这里,我请求你一定要打开文件管理窗口,选择 linux 图标,然后我们一路进到这里。实际上这就是 opencl 在 乌班图二十四点零四里的主文件夹。关注这个 opencl 点接收文件, 这几乎是我们最重要的配置文件,你必须随时备份它,每次不管是你手动修改它或者是 open color 自己修改它,造成你的网关错误,导致你连接失败, 或者 telegram 连接出错,你都可以回滚这个文件,达到恢复上一次网关的正常状态。你看我就经常备份它,因为这个配置文件真的任何错误的修改都会导致网关瘫痪,这是 openclock 配置过程的重中之重。 第四,大模型大模型实际上就是 opencloud 的 大脑,如果没有配置大模型,你是无法通过自然语言指挥 opencloud 的。 所以安装中的或者基本配置安装好之后,我们要第一时间配置大模型。这里我们必须说真话的是,无论如何,你应该有一个网络上排名靠前的大模型作为你的主力模型。 不管是国外的玉山家,还是咱们 kimi 的 k 二点五, mini max 的 m 二点五,智补的五点零。 因为有了它们,你可以用自然语言指挥 openclock 干活去配置设置 openclock, 而不是什么都要你自己用手动来配置。设置好一个网上大模型之后,你可以用自然语言通过它添加本地模型。 第五,社交软件。我最后选择了 telegram 作为我的指挥沟通 openclore 的 聊天软件,在这里很重要的就是设置群主,在群主里设置 topic, 也就是话题,你可以通过话题来细分你和大模型之间的功能性沟通,这样你每次需要上传的提示词就会大大减少。 实际上每一个 topic 都有一个二百五十六 k 的 独立上下文,通过 topic 的 细分之后,我的每一个聊天窗口就不会把我和大冒险交流形成的所有上下文去上传,那样就太恐怖了。 第六,添加本地模型我是这样操作的,给他一个我运行的 lm studio 主机地址,让他去抓取你所需要的大模型的名字,让他自己添加到接收文件中去。 你可以设置限制,比如我的限制是告诉他,千万 codext 不 能作为首要模型,也不能作为回滚模型,只需要添加到 provider 列表里以供我们调用。 这样,我们在本地局域网里的特定主机上使用 lm studio 共享的大模型,就可以添加到列表上。然后我自己在需要的群主 topic 里使用斜杠 models, 可以 很自由地给这个 topic 设定背后的大模型。 第七,不得不修改的接收文件。 实际上,我是真不愿意手动修改接收文件。我遇到了这么两种情况,你必须在接收文件里做这样的修改。前面这句是让所有 topic 的 active watching 一 直都处于 always 状态, 否则啊,隔上一天它就自动退回到闷寝,你就必须加上 at 你 的机器人才能指挥它了。 其实是你添加了两个以上的本地大模型,安全级别提高了,你的机器人在群主里的权限就掉了,就没有了,任何回话都包错。这个时候你必须在这里把机器人的用户 id 加上,这是经过很多人的折磨才搞到的经验之谈。 第八,启动本地模型的一个重要设置。在运行千万三 codext 作为本地模型的时候,我发现一个非常恼火的 bug, 就是 我们在做比较大的任务时候,可能上下文提示词比较长, 你上传提示词的时候超过三百秒就会出现上传错误,它试做两次出错就停摆了,然后给你报一个错。我想到了一个临时解决方法,就是设置 k and v catch 的 精度。 正常的时候,它一般是 f 十六,按这个精度,我们上传的提示词的速度就会比较慢,把它们都改为 q 八,上传速度大大加快了, 再也不会出现超过三百秒出错的情况了。 f 十六将为 q 八,对输出的质量和性能应该没有太大的影响。 第九,本地模型的能力我们也认识到,本地模型的能力和网上大模型的能力是有差别的。 我在使用的网络模型是 kimi coding plan k 二 p 五用它输出的最新的 apple macbook pro m 五 pro 和 m 五 max 的 详细介绍文档。相比千万 code next 制作的文档质量要高,错误也要少, 这是模型的质量决定的,所以本地模型一般不会委以重任,只是用来减少网络 token 的 消耗。 第十, x 八六跑 openclaw 的 语音功能最早啊,我看人安利 m 四 mac mini 跑 openclaw 有 一条就是它呢,很方便地进行语音转换, a s r 语音自动识别文字,还有 t t r 文字转换为语音。 我原以为在 windows 下布置很复杂很麻烦,但没有想到我这是给 openclip 下了一条指令,它就自动帮我安装好了 edge 的 tts。 这样我每天早上固定的文字通报,它就自动帮我转换好语音。逐字考,我只需要按一下播放就可以了,效果很不错。机器人脸今日 ai 热点二十四 h 二零二六年三月六日星期五 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日 ai 热点早报 大模型与算法第一条 open ai 年收入突破二百五十亿美元,较二零二五年翻倍增长, chat gpt 用户数持续攀升。据 the information 报道, open ai 截至上月底的年化收入已超过二百五十亿美元。 电机器人脸今日 ai 热点,二十四 h 二报纸今日国际热点,二零二六年三月六日星期五, 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日国际热点早报 中东局势第一条伊朗最高领袖哈梅内伊在梅以联合军事打击中遇害。伊朗方面三月一日证实消息。第二条珍珠党为报复哈梅内伊遇害,三月二日向以色列显微镜今日科技热点科技第七条 卡特比勒在奈克斯波康艾二零二六展示先进攻地技术,扩展 ai 和自主能力第八条 全球科技竞赛加速,从 ai 基础设施、半导体战略到网络安全威胁。这样就我就很简单的解决了语音问题。使用 mac mini 作为 openclock 数处理器的理由又少了一个。 总结一下, openclock 确实能够让你使用自然语言,通过聊天软件操作你的电脑,执行连续动作,不管是编程、写作、查资料、制作文档和 ppt, 但是他还是没有智能化、精细化,达到自动运行、帮我赚钱的地步,甚至辅助我现在的工作功效也不大,他还只是一个辅助工具,不是能送你去远方的交通工具。 但是呢, ai 的 进化是一日千里的,我相信啊,不论是网络大模型还是本地部署的开源大模型,都能通过不停的升级,给我们更好的体验。而 openclock 这样的开源工具, 通过社区的每日迭代,会让我们部署它的迷你电脑具有更多更新的功能。好了,今天就介绍到这里了,我是老白,谢谢大家观看,再见。