有限员仿真小白入门常见十五问必试篇章结果分析与进阶学习类是小白后期的核心疑问,作为仿真小白,不光需要掌握实操技能,同时需要具备仿真结果的判断能力,通过下列问题就能有效帮助小白踩坑。首先第一个问题, 仿真结果出来了,怎么判断结果准不准确?小白做完仿真看不懂结果,也不知道对错,这是普遍问题。判断准确性不用复杂方法分下列三步,一、常识判断结果符合实际物理规律吗? 二、网格独立性验证,稍微加密网格,重新计算两次结果差异不大说明结果可靠,差异大就优化网格。三、对标经验值,对照行业标准、材料、历学经验、公式误差在合理范围百分之五到十内就是准确的。有限员仿真是工程近似,不是 top 精准,只要符合工况,误差合理,就能用于工程参考。其次第二个问题, 自学有限员仿真如何避免踩坑?网上大多数找到的教程都零散不成体系,首选推荐乐坊学院的实操案例视频教程,从零开始演示的完整流程, 跟着一步步操作,比看书高效十倍。避开纯理论讲公式的教程,同时配备练习模型,都整理好了,需要的六六六报走。随后第三个问题, 想进阶提升,该重点学哪些内容,掌握基础进历学模态分析后,想提升职场竞争力,按以下方向进阶,一、基础进阶,疲劳分析、震动分析、热力学分析,覆盖大部分企业日常需求。二、模块进阶,接触分析、装配题仿真非限性分析、 化变形塑性材料适配复杂工况。三、技能提升仿真报告转载结果优化模型轻量化网格精细化划分。四、行业深耕,结合目标行业,学行业专属仿真场景核心进阶,不要贪多,先精通一到二个模块,再拓展其他内容,打造核心技能优势。 最后一个问题,有限员仿真学习容易犯的错误有哪些?如何有效规避小白高频踩坑错误理论迟迟不动手,越学越迷茫。 二、模型不简化,带着所有细节建模,导致网格报错,计算缓慢。三、追求完美网格,过度纠结网格精度,忽略工况贴合度。 四、乱加载荷约束,不结合实际工况随意设置参数。五、急于学高阶内容,基础流程没跑通,就学非限性动力学 接济,优先实操,养成简化模型的习惯以及需要贴合实际工况,不能急于求成,慢就是快,先基础后进阶,先实操后理论,多列案例,少啃书本,坚持一到三个月就能独立完成基础仿真工作。屏幕前的同学有任何问题欢迎在评论区讨论。
粉丝4.9万获赞12.2万

在演示之前呢,先给大家看一下我们今天的测试材料,我们今天的测试材料他完全模拟了企业的真实投研财务分析的一个场景,他的测试材料是完全由脱敏的五十页跨国企业年度财报,大家可以看一下,里面有中英混牌的专业文本, 多级嵌套的财务表格,跨页关联的一个柱状图、饼状图,折线图,还有很多专业术语和辅助说明,甚至还有扫描件格式化的表报表,它的复杂程度可以说是拉满了,也是我们大家日常用智能体的时候最容易处理,也最容易翻车的一个场景。 那我们今天的任务呢,是完全复刻企业里的一个真实的工作需求,就是拿到一份企业财报,然后输出一份完整的分析报告。在整个过程,我们就用大家平常在 open cloud 里常规的操作方式,直接把财报文件发给智能体,让他自己理解分析并完成报告。 让我们来看一下,在接入了圆三零凹叉之后,这个智能体能不能真正的像是分析师一样把这个事情完整的做下来。那么现在我将通过飞书平台把我这五十页的财报文件发送给 openclaw。 好 的,我们可以看到 openclaw 已经在这个智能体对话框中已经开始执行了,这个飞书中已经开始显示 openclaw 在 已经敲键盘了。 其实这已经触发了我们已经预先设计好的一个工作流,他主要分为以下三步,第一步就是我们智能体会自动识别到文件的上传,启动文档解析的工作流。第二步会通过我们封装的原三点零 arch 专家工具,对文档进行逐页的多级多模态解析, 提取文本表格图标里的核心信息。第三步,也就是根据我们的指令完成跨页数据的交叉分析和逻辑推理,最终生成一份分析报告。现在整个任务已经在我们的 open class 中执行起来了,我们可以稍微等待一下结果。 我们现在这个分析报告还在进行中,我们可以先看一下,就是我们将同一份财报分别交给两个不同的大模型来做分析的一个结果。首先先看左边的模型 a, 他生成的是一份比较完整的分析报告,比如有他有这个报告概要业务结构, 这个财务状况、风险,还有未来展望等等这样一些章节,他的整体呢,更像一个研究员写的一个深度报告,所以从这个结构的完整性上来看,他的表现是比较好的。 然后我们来看一下右边的这个模型 b 生成的一篇报告,这个模型 b 的 特点呢,就是啊信心的整理能力非常强,你会看到他在这个报告中生成了非常多的表格和数据,比如说收入的增长, 呃毛利率的变化,区域的表现等,这个数据结构是非常清晰的,但他的问题呢,就在于呃逻辑分析比较弱,他更多的是像在做逻辑数据的一个逻列,缺少像数据到原因再到商业影响这样的一个分析链路。 所以来说总结一下的话,模型 a 更像是一个分析型的模型,适合生成呃一个完整的报告。而模型 b 呢,它像是一个数据整理的模型,适合做信息提取, 如果做一个简单评分的话,那么这个模型 a 在 结构和分析度上更强,而模型 b 在 数据准确的一个处理性上,还有这个信息整理方面,它会更加的好一些。我们可以在 open class 中看到 我们的分析报告已经生成了,那么我们现在来看一下这篇分析报告吧。呃,其实原三点零模型最大的不同的是,它生成的这个并不是一个简单的总结啊,我们可以看到它是一个非常标准的研究报告的一个结构,而且它的章节顺序是按照给大家展示一下, 是按照公司概括财务分析,然后区域市场运营效率,最后是一些投资的建议这样一个结构来展开的,所以这个结构是非是很多券商研究报告中的一个标准的框架。 原三二零 ultra 模型更加突出的一点是,它能把这两个是把模型 a 和模型 b 这两个模型做的事情给它结合起来,它生成的并不仅仅是一个简单的摘药,而是更像是一份真正的一个财务研究报告,既有完整的结构,也有分析逻辑。 那么我们再和模型 a 做一个对比, 我们可以看到啊,这个从目录章节上来看,模型 a 整体的章节只分为了五部分,整体细节上可能还存,还有待打磨。其次我们可以看一下具体章节的一个内容, 模型 a 呢,生成的大多都是这个大段的一个文字分析,虽然篇幅足够,但是可能包含的要点还是略显单薄。那么我再来看一下我们的原三二零的分析报告, 我们可以在这个报告中随意找点数据,看我们的原文是否能够找到吧。这里我们复制一个这个运营现金流 到我们的原始报告中,看它是否有能和我们对应起来。哎,可以看到,实际上我们的这个呃,在在最终的报告中,它所展示出来的数据能够在我们的原始年报里一一找到对应。 也就是说呢,我们的这个大模型,它并不是凭空的去产生一些数据,而是基于这些原文去生成的准确的一个提取。 所以从结果上来看,这份报告首先保证了数据来源是有依据的,关键指标的性能是应对应上的。 更重要的是,我们的这份报告并没有停留在单纯的数据的一个摘录的个层面,而是在此基础上继续往下做了完整的分析。比如说他不仅告诉我们收入、利润、现金流分别是多少,还会进一步分析这些数据的背后,他的一个增长驱动是什么,利润的变化的原因是什么, 现金流的一个改善说明了什么,以及这些指标之间是怎么相互印证的。所以大家可以看到,这份报告的价值并不只是把年报内容给他提炼了出来,而是在保证数据准确的前提下,进一步形成了完整的分析逻辑和经营判断。 从这次结果来看,语言三点零 ultra 特别适合这类长篇、强结构、重逻辑的企业年报分析任务,它不仅能生成章节完整、层级清晰的标准研究报告,还能在数据基础上即兴往下做这个经营判断、 原因分析和这个财务的一个联动推理。所以如果说这个目标是产出呃一份更接近于专业研究员风格的财务分析报告的话,那么原三点零 ultra 的 综合表现是比较突出的。

大家好,接下来呢给大家录制一个龙虾的使用教程啊,首先当你安装完龙虾之后啊,你这时候就可以通过网页或者是你 对接的一些通讯工具,比如说飞书啊,进行指令的下达了啊,这时候你就可以和龙虾聊天啊,让龙虾帮你去做事了。但是你刚安装完的这个龙虾,它的功能是非常有限的啊,很多人觉得说,哎,我把龙虾安装之后啊, 我就可以像其他的博主那样啊,帮我去炒股啊啊,帮我去剪视频啊啊,帮我进行自动发布啊等等等等,这些是不可以的啊,就是你安装的这个龙虾只是具备了一个基础的功能, 那么像其他博主那样,他可以做很多事情,是因为他给这个龙虾装了很多的技能啊,所以大家一定要清楚啊,你安装的这个龙虾刚安装完之后,你是只有基础功能的,像很多复杂的功能他都是执行不了的。 那好,那怎么样让我的龙虾能够干更多的活,这个技能又该怎么样去找,怎么样安装呢?接下来呢和大家聊聊这个事情啊,首先我们龙虾安装的技能 都在右侧的有个 skills 啊,这个就是技能的意思,点击它, ok, 在 这底下,这里面呢是你安装的所有的技能,龙虾之所以能干活,就是因为你给他装了技能包,这个技能包就是啥呀,操作手册啊,比如说我让龙虾去生成视频的时候,他这时候会首先去检查我有没有生成视频的技能, 如果有的话,他才知道啊,因为在技能包里面给龙虾告诉龙虾了,你生成视频的时候应该怎么样去做?第一步干嘛?第二步干嘛?第三步干嘛?你有了这个技能包之后,那么龙虾才能做的, 那如果你没有这个技能包,那么这时候你的龙虾是生成不了视频,所以大家一定要记着啊,你的龙虾之所以能干活,就是因为它 装了对应的这个技能的啊,好,我们所有的技能呢,是在这里显示的啊,然后如果是绿色的,他表示的就是可以用的,那么如果是黄色的啊,那么代表就是不能使用的。那好,问题来了,这个技能在哪找啊?那么龙虾配套的有一个网站啊,这个网站里面呢,目前有一万多个技能,那么 这时候呢,比如说啊,我要去操作,假设啊,我现在要让龙虾去操作 ppt, 但是默认他操作不了 ppt, 那 这时候你可以干嘛?你可以在龙虾的技能站里面,然后搜索一下 ppt, 然后搜索完成之后呢, ok, 拿到这个技能,点击进去,把它下载到本地啊,这时候你就可以用了,那么这是一种比较原始的,还需要你自己去找原始,那有没有适合大部分人的一种操作方式啊?是有的, 这时候呢, ok, 你 需要给你的龙虾去安装一个技能,它的技能叫做啊, fend skills 的 这个技能 啊,当然咱们通常情况下再去安装龙虾的时候呢,都会给它安装这个 fend skills 的 技能。呃,有很多同学他会找我付费去安装啊,那么我安装的龙虾一定是会装这个技能的,所以经过我手的龙虾, ok, 你 就不用去看这个技能了,一定是有的,如果没有的同学呢,你可以先装这个技能啊,那么这个技能装完之后呢,那么龙虾它就 遇到一个问题的时候,他就会自己去网站去找技能了啊,所以这时候你只需要去告诉龙虾,在聊天儿里面去告诉龙虾,比如说我现在我要去操作 ppt 了,那我是知道的,在我的这个技能 技能里面并没有关于 ppt 的 技能,那没有 ppt 的 技能他是操作不了的。好,那这时候你在聊天里面告诉他,我需要你帮助我生成和获取 ppt, 这是你的目标。先告诉龙虾你的目标是啥,然后完了之后呢,再告诉他执行的路径是啥,对吧?好,然后接下来呢,告诉他 使用查找技能的技能,先去查询关于 ppt 生成和制作的技能,并且把它安装到当前的系统里面。好, ok, 这是第一步, 比如说我在操作一个功能的时候,我首先先得让龙虾先获得这个技能才行,然后这个技能的获得呢,我可以手动的去找,找完之后呢, ok, 我 可以手动的把这个链接直接丢给龙虾啊你,你直接找到之后,你把龙虾,你把这个链接给到龙虾,告诉他,让龙虾把这个技能安装到当前的系统里面, 他这样的话也能做啊,你如果觉得这样比较麻烦,那这时候你只需要大白话,告诉他,我需要生成和提取 ppt, 然后你使用查找技能的技能啊,或者说,呃,你这时候给他写死叫做这个 final skills 啊,然后去查询 ppt 生成和制作的技能,然后把它装在当前的系统里面,那么因为官方提供了一万多个技能啊,当然还有其他的网站可能会有七万多个技能啊,这些技能都是通用的, 我也可以直接呃去找这个技能,然后拿到这个地址之后啊,把这个地址给到龙虾,让龙虾去学习和下载到自己的本地也是没有问题的,对吧?啊?他的官网虽然说只有一万多个,但是其他的地方可能有很多个,而这些技能都是通用的啊,他遵循的都是相应的一个规范。好,那这时候我说完之后呢,我就可以去发送了 啊,发送完了之后呢,这个时候龙虾就依靠大模型的能力来尝试去查找关于 ppt 生成和读取的技能了,然后这时候呢,它会自动地帮咱们进行安装啊,当然安装完了之后呢,可能啊,就可能它是需要你配合它来去做一些事情的,比如说生成 ppt 的 时候,它 有可能会需要你登录啊,去某个网站登录之后获取 api k 啊,那这时候呢,他会告诉你, ok, 我 已经帮你装好了,但是呢,装好之后呢,我需要 api k, 那 你去哪个网站?第一步啊,先去注册,注册完之后第二步先去拿,拿到这个 api k, 然后拿到之后呢,你把这个 api k 给到龙虾,龙虾就能自动帮你去配置了,然后配置完成之后呢, ok, 你 就可以去用了啊,那么这就是龙虾再去使用的时候它的一个基本的流程,当然那么有一些技能我们是可以在技能战里面去找到的, 那么还有一些比较复杂的技能在技能站里面找不到,这时候怎么办?这时候就需要去找专业的 ai 团队来帮你去定做了啊,这个时候可能要去写一些代码,然后在技能里面是可以去写代码的,但是这个呢? ok, 市面上没有现成的。那你啊,就找到专业的 ai 团队去定做你的技能就 ok 了啊,当然咱们再去查找安装这个过程时间是比较长的,你这时候只需要去等就行了。还有另外一个呢,是龙虾在执行任务的时候呢,它是一个任务,一个任务去执行的,所以当上一个任务没有执行完的时候,那么第二个任务你输入给它的时候,它是 会放到队列里面排队执行的啊。所以有些人就会说,哎,李哥,我为什么过了一段时间之后,我给他发消息,他没有任何反馈啊?这时候有可能就是要么是你的大模型调用欠费了啊,你先确定一下,如果没有的话,那么 ok, 可能是他在执行其他的任务,那就你去等一会就行,对吧?好, 那么除了这个网页我们可以这样去使用和操作龙虾之外,那,那比如说我现在我没有在电脑上,我没有办法去打开这个网页去访问,这时候怎么办? ok, 你 可以去对接,比如说像飞书啊这样的一个平台。 ok, 那 么你把,呃龙虾对接好了之后呢? ok, 你 这时候在手机上去下载一个某书,然后找到你的龙虾,这时候去下达任务就可以了,这时候就实现了在任何地方都和龙虾能够进行交流和沟通的一个功能了。 好, ok, 那 么这是基本的一个使用的一个逻辑啊,当然我的模型呢,现在还正在执行当中啊,那咱们就就不等了啊,就大概使用的一个流程,就这样的一个流程。好,那么最后呢给大家去说一下注意事项啊,当你的龙虾安装好了之后呢,这个黑色的命令窗口是不能关的 啊,这个代表的是龙虾的服务,你如果把这个服务关掉了,那么龙虾他就不能用了,他就不能运行了,所以呢,你的电脑 啊,你当前的这个电脑是要保持一直开机的方式的,包括你都不能让它休眠,也是不行的,所以这时候你你装龙虾的这个服务,你想让它二十四小时运行,那么就要去设置一下,让它永远不要待机的 啊,永远不要休眠的啊,然后这个窗口的不要关。那如果你不小心把这个窗口关了之后怎么办啊?或者说我第二天我我我怎么样去找到我这个龙虾啊?给大家来说一下怎么找呢? windows 系统的话, ok, 你 就 呃按这个 win 键啊, windows 键,然后会出来一个搜索的窗口,然后在里面呢去输入一个 cmd 啊,这时候呢,它会有一个命令提示符,对吧?点击它,然后点击它,完了之后呢,好,然后输入启动龙虾的命令。 启动龙虾的命令呢,目前市面上有两个啊,如果你安装的是原版的龙虾,那么启动的命令呢?就是 open claw, 然后 get v 啊,然后敲回车,它就启动了,但是有一些它安装的是中文版的,那么中文版就你使用这样的一个命令,它就会显示没有此命令了啊,如果是中文版的同学呢,怎么办啊?这个 就启动了之后呢就不要管它了啊,如果是中文版的同学呢,你输入的就是 open claw, 然后杠 c n, 然后 get v, 然后敲回车就行了, 这样的话, ok, 就 启动了你的龙虾了,敲完会车,然后你就可以去使用了啊,使用的地方呢,你要么就是你的通讯工具,你要么呢就是你本地的这个页面啊, 那么当然,我这呢显示的是服务离线,那就说明我的服务是没有启动的,当你的服务启动之后呢,它是一个绿色的,对吧?好,那么这就是关于龙虾的一个基本的使用了,所以大家一定要记着龙虾,刚装的龙虾他不是无所不能的啊,龙虾要干活,一定要去安装技能的,而技能怎么样去安装啊,你就可以通过和龙虾的对话,让他自己去找或让他自己去 做技能,通过不断地和他聊天,修正,让他安装好对应的技能包之后,技能之后你才能去使用的,而不是直接下载了龙虾之后就能用啊。好,那本期内容到这里就结束。
![OpenClaw的无限记忆:底层揭秘 史上首个能‘左脚踩右脚’、自我进化的 AI 系统!OpenClaw 到底是凭什么‘越用越聪明’的? [评论区自取架构图]
#Openclaw #AI #程序员](https://p9-pc-sign.douyinpic.com/image-cut-tos-priv/d19e601f8e54033ef8b6c85f5462c058~tplv-dy-resize-origshort-autoq-75:330.jpeg?lk3s=138a59ce&x-expires=2090106000&x-signature=CE3E3w5h0MRfu8Xq%2Bl4RsOJ3X4s%3D&from=327834062&s=PackSourceEnum_AWEME_DETAIL&se=false&sc=cover&biz_tag=pcweb_cover&l=20260329091403737D21E2759977851F9B)
大家好啊,大家可能都听说过 openclaw 这个 ai 代理,都说它有个超级厉害的功能,就是差不多无限的记忆力。但这到底是怎么回事呢?它究竟是怎么做到的?今天啊,咱们就来一起把它底层的秘密给扒一半儿。 我们先来聊一个大家可能都碰到过的问题,你想想现在这些 ai 是 不是很聪明?没错,但他们都有个通病,就是特别健忘。你跟他聊了半天,过一会他可能就把前面说的关键信息给忘了。那么问题来了, open call 是 怎么解决这个老大难问题的呢? 好,那咱们今天就分几步走,把这说缩清楚。首先我们得明白这个所谓的无限记忆到底难在哪。然后呢,我们会深入看看他的两大核心策略,一个是对话栽秧压缩,另一个是混合记忆解锁。 最后还会给大家分享一个进阶玩法,叫分主题记忆,咱们一步步来。好,咱们先看第一部分 这个挑战,也就是为什么 ai 会忘事儿。这其实是所有强大 ai 模型都绕不开的一个坎儿。这个问题的根源呐,其实就出在一个叫上下文框的东西上, 你可以把它想象成 ai 的 短期记忆,或者说就像一块儿小黑板,能记的东西就那么多。 if 是 有限的,一旦写满了,要想记新的东西,就必须得把最旧的那些给擦掉,这就是 ai 健忘的根本原因。 那好,既然上下文窗口这个小老忘事, open chloe 是 怎么应对的呢? 它的第一招就是所谓的对话栽药压缩,这个技术全名叫绘画压缩,说白了,它其实是在模仿我们人脑的工作方式, 你想想,我们自己也不会把上周的每句话都记得一清二楚,对吧?我们记住的是大概意思是核心内容。嗯, open quote 做的就是这个事儿, 这里面有个特别关键的数字,就是百分之七十。你看,当这个对话越来越长,马上就要把那个小黑板写满了, openclo 不 会简单粗暴地把最开始的内容擦掉,它会做一件更聪明的事,它会把最早的那百分之七十的对话内容自动生成一个摘药。 所以你看,整个过程其实就这四步非常清晰。第一步,对话越来越长,快到极限了。第二步,系统自动定位到最早的那百分之七十的消息。 第三步, ai 自己给这部分内容写个总结。最后一步,也是最关键的一步,用这个短短的总结替换掉原来那一大段对话。你看,这样一来,空间不就腾出来了吗?而且关键信息还没丢,对话还能继续下去。 好,刚才说的那个方法解决了当下的记忆问题,但还有一个更难的呢,就是怎么记住几周甚至几个月前我们聊过的事。光靠压缩对话肯定是不够的,这时候就需要一个更强大的东西了,也就是他的长期记忆系统。 这句话其实点透了 open cloud 的 设计哲学,你看,他们不觉得记忆这事光靠写几个聪明的体式词就能搞定。不,他们把它看成一个基础设施问题,也就是说,得给 ai 搭一个专门用来存东西、找东西的系统,一个真正坚固的系统。 具体是怎么做的呢?你看,它会把长期记忆存在一个文件里,就好像一个数字日记本,但如果这个日记本越写越厚,比如超过了五万个词源,那每次都从头到尾读一遍,也太慢了,对吧?所以系统这时候就会换个策略,它不读了, 改成在里面搜索需要的信息。而且它的搜索方式也不是普普通通的搜索,而是所谓的混合搜索。这算是它的一个秘密武器了,它把两种搜索方式结合在了一起。一种呢,就是我们很熟悉的关键词搜索,你要找个特定的名字呀,代码呀,用这个最准。 但另一种就更高级了,叫语义搜索,它不是找一模一样的词,而是去理解你这句话背后的意思和概念。 那这两种搜索方式怎么配合呢?诀窍就在于这个权重分配。你看他把七十百分之的权重给了能理解意思的语义搜索,然后把三十百分之的权重给了找精确词语的关键词搜索,就是这么个七十三十的黄金比例,让他讲回来的心系又准又相关。 好到这短期记忆和长起记忆的问题都解决了,但还没完,咱们再来看一个更高级的玩法, 这个技巧能让整个记忆系统从一个乱糟糟的笔记推变成一个井井有条的图书馆。你想啊,就算搜索功能再强,如果所有的记忆,不管是什么内容,全都堆在一个文件里,时间长了肯定会出问题。 就就好比你把工作、学习、生活所有科目的笔记都记在同一个本子上,最后的结果就是找东西又慢又费劲,还老是翻到一些不相干的内容。 所以 openclo 提供了一个特别简单但又非常强大的升级方案,就是别再用一个大文件了,把它拆开,你可以建一个专门放记忆的文件夹,然后按不同主题创建不同的文件。 比如一个文件专门记项目 a 的 资料,另一个文件记浏览器自动化的笔记。你看,之前是所有东西混在一起,现在呢,分门别类,一目了然。 这么做的好处可以说是立竿见影的。首先,命中率高了,因为它只在相关的那个小文件里找。 其次,速度也快了,不用加载那个庞大的主机文件,而且每个主题的知识可以独立增加,互不干扰,管理起来也方便多了。这就好比你从大海捞针变成了去图书馆按分类号找书,效率完全不是一个量级。 所以咱们来回顾一下。 opencloud 的 无限记忆其实是一个三层组合拳,第一层用绘画压缩来解决短期记忆的燃眉之急。第二层用混合检查来打造一个精准强大的长记记忆库。 第三层再用分主题记忆这个高级技巧,把整个记忆库整理得井井有条。这三者结合起来,就构成了一个动态的、多层次的、能和你一起成长的记忆系统。 那么这一切其实把我们引向了一个更大的思考,当 ai 真的 拥有了近乎完美的记忆力之后,下一个重大的技术突破会是什么呢? 试想一下,如果你的 ai 伙伴真的能记住你们之间所有的一切,从不遗忘,那我们和技术互动的方式又会发生怎样翻天覆地的变化呢?这个问题留给大家一起思考,感谢收看!

欢迎来到 openclock 技能系统的设计分享。本套 ppt 将深入解析一个可插拔能力层的核心架构,它通过统一的技能目录与原数据规范,实现工具使用方式、前置条件与安全约束的声明化管理。这是一个让系统既能灵活扩展,又能严格控制的精妙设计。 这张图展示了 openclock 技能系统的核心思想,声明式能力管理系统通过统一技能目录,将工具安全约束、前置条件标准化, 经过运行时的加载与过滤,最终注入到系统提示中。这种设计让能力扩展变得声明化、可控化,形成了一个完整的闭环技能发现是整个系统的起点。系统从六个来源收集、技能内置、受管、工作区、个人共享、插件提供以及配置指定的目录。 加载过程有严格的安全控制,包括路径与规模约束,防止路径越界和符号链接逃逸。 同名技能会按优先级覆盖,确保本地和工作区的技能优先原数据解析是将技能文件转化为结构化信息的关键步骤。 系统会解析出系统平台依赖文件环境、变量、配置开关等信息,并进行格式与安全校验。同时还会计算调用策略,判断技能是否允许用户直接调用或模型主动触发 这些信息,为后续的命令暴露和提示注入提供了依据。资格评估就像一个严格的过滤器,系统将技能原数据与当前运行环境进行多为匹配,包括操作系统、二进字、文件环境变量、配置开关等。 对于内置技能还有白名单控制,如果有远端节点能力,还会引入远端能力信息进行判断,最终输出的是经过严格过滤的可用技能列表。提示注入是技能系统与模型交互的核心。 可用技能会被格式化为系统提示中的技能区块,并要求模型先选择最适合的技能,再读取说明,降低误用风险。 系统还通过技能数量和制服数的硬性上限控制提示长度,并提供快照机制缓存技能提示与环境需求,避免重复扫描。安装与安全控制是技能生态的安全保障, 既能声明安装方式后,系统会在安装前进行安全扫描并提示风险。下载类安装被限制在独立工具目录,防止 s s r f 路径穿越和解压逃逸。环境变量注入也受到强限制,敏感变量必须显示声明,并在运行结束后 自动回滚。命令暴露,让符合条件的技能可以直接作为命令调用,实现确定性的执行,而非模型推理。网关层提供了查询技能状态汇总所需二帧至 安装与更新配置等接口,便于 ui 或自动化工具管理技能的整个生命周期,这让技能管理变得可式化和可操作化。 openclock 技能系统通过五个阶段的精心设计,实现了可扩展但可控的目标。多元加载与严格过滤实现能力聚合。结构化。原数据与资格评估实现可用性判断。提示注入与快照,实现稳定的模型引导安装与环境安全控制,降低系统风险。 这就是一个既开放又安全的技能生态。感谢您的聆听! openclaw 的 技能系统设计展示了如何在灵活性与安全性之间找到平衡点。通过声明式能力管理、严格的多阶段过滤和运行时出入, 他为我们构建了一个可扩展但可控的技能生态。希望这套设计思路能给您带来启发。我这有二零二六年最新 ai 大 模型应用和 ai 编程路线图,需要可以领一下。

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

好的,昨天我的朋友和我提到了 openclaw, 我 也很感兴趣。呃,所以呢,我就让 deepsea 给了我一些 openclaw 的 使用和安装的教程。 呃,那么 deepsea 它给了我三种方案。第一种呢,也是现在大家使用 openclaw 最多的一种方式, 就是直接付费,就是每个月花一点钱,像 kimi klo 啊,或者说像这个阿里云, 它也有嫁接这个 open klo 的 这个服务的产品,那么每个月费用可能在一百到两百元不等。 那么但是呢,这个方案它有一个弊端,就是相当于你可以很快速的使用这个 open k 二点五模型的一些强大的功能, 但是他控制权不在自己的手上,因为相当于你需要把指令发到云服务器上,然后由这个比如说 kimi 在 云服务器上的这个呃模型来进行这个工作,再给你反馈结果。 那么这个呢?第一个是数据隐私的问题。呃,比如说我的职业是律师,那我对于用户的数据保密的工作是要求非常高的,这也是为什么我一直很少使用 ai 智能工具的原因。 第二个呢,就是控制权不在自己的手上,如果有一天这个云服务器上他因为这个模块更新,或者说因为这个呃数据泄露的问题,如果嗯发生了这种问题, 这个自己是控制不了的。呃,那么呃,而且呢,包括就是你的这个数据和你所训练出来的这个呃 open call 也有可能会被别人去窃取。 呃,那么第二种方案的话呢,就是进行本地化部署,那这个的话呢,就是 deepsea 他 强调是需要有一定的呃,这个就是软件方面的编程方面的一些基础,基础 按理说我是没有的,但是呢,我还是想试一下。那很幸运,就是最后我还是完成了本地化部署。 它相当于是首先你要先用这个,呃微软的 power share 去输入一些指令去安装 plo, 然后呢再去拉取一些这个模型,比如说,呃,用奥拉玛去拉取这个,呃,千问千问,呃,比如说二点五,三点零, 呃,我选择的呢是 moonlight, 就是 也是 kimi, 但只不过我和他们的区别就在于我的控制权在本地,我呢是先注册了一个 api 的, 一个就是一个账户,呃,然后呢,我,嗯 会发送指令,然后呢也是由这个这个 kimi 的 这个二点五的模型来帮我去工作,但是呢,我的控制权在本地,包括我的数据也在本地,数据是不会上传到云服务器的啊,这是第一个区别,第二个区别就是我是没有固定的费用的。

哎,你有没有想过拥有一个完完全全属于你自己的 ai 助理花的钱呢?可能比你每天那杯咖啡还少。今天啊,咱们就来揭秘一下,怎么轻松把它搞到手。 这么说吧,如果我告诉你,每个月就花个二十九块钱,也就是一顿午饭钱,你就能拥有一个超级强大,七乘二十四小时线上,而且还不用翻墙的 ai 助理。你是不是觉得我在吹牛?哎,这还真不是幻象, 有一个叫 open cloud 的 开源项目就能让这事变成现实。今天啊,我就把这个独家秘籍分享给你,整个过程啊,简单到你不敢信, 是不是已经有点迫不及待了?好,那咱们就别光说了,直接上手跟着我六分钟,就六分钟,我们就能在云端把它跑起来。准备好了吗?我们开始 第一步特别简单,就是给你的 ai 在 网上安个家,你去阿里云这种地方买一台清亮应用服务器就行。哦,对了,记得啊,一定要选那个已经预装好 opencloud 的 应用镜像,这样最省事。 哎,这个有个重点听好了啊,这个服务器的内存啊,至少得是二 g, 这一点你可千万别省,不然你的 ai 跑起来可能会卡,那就体验不好了。记住,二 g 是 最低门槛。 好了,服务器买完之后出场就更简单了,人家云服务商都帮你把路铺好了,你只要点进应用详细页面,跟着那个一二三的步骤,点击下鼠标,这事就办完了。 ok, 最后一步,也是最关键的一步,就是给咱的 ai 大 脑加燃料,也就是配置一个 api 密钥。那问题就来了,上哪找又便宜又好用的燃料呢? 别急,这就要说到咱们今天的独家秘籍了,一个叫做 coding plan 的 神奇玩意儿, 你可以把这个 coding plan 想成什么呢?嗯,就好像是给你的 ai 大 脑办了一张手机卡,还是那种无限流量的月度套餐。这么一说,是不是一下就懂了?按月付费,本地直联,没有漫游费,想怎么用就怎么用。 那用这玩意儿的好处简直不要太明显!首先,便宜,便宜到什么程度?一个月二十九块钱起。其次,快,不用开什么 vpn, 国内网络嗖嗖的,延迟超低。 最后,选择还多,你定一个套餐,好几个 ai 大 模型就能随便你换着用,简直太爽了! 你可能会想,听着,这么好,设置起来肯定特麻烦吧?完全不会!我跟你说,不管你用谁家的服务,来来回回就这么三步,买套餐,拿到密钥和地址,然后把这两东西填到配置文件里,最后选个你喜欢的模型搞定。 那么市面上这么多家,到底哪家的手机套餐卡最适合你呢?来,我们快速对比一下几个最热门的, 来看这张选购指南。如果你喜欢尝鲜,想玩遍各种不同的 ai 模型,那阿里云有八个以上模型绝对是你的首选。 如果你像我一样有点懒,希望系统自动帮你搞定一线,那火山引擎的 auto 模式就是为你准备的。当然了,如果你追求的是一个极致性价比,那没得说, minimax 二十九块钱包月,闭眼入就对了。 这句话真的说的太对了,你仔细算算每个月省下来的那点 ipi 费用,跟你每天被那些重复无聊的工作浪费掉的时间比,哪个更重要?这笔账啊,其实咱们心里都清楚。 当然了,再厉害的技术,有时候也难免会闹点小脾气。不过别担心,万一真出问题了,我这也给你准备了一份快速排错指南, 如果你辛辛苦苦把 api 秘笈都设置好了,结果一运行,诶,报错了,先别慌,也别砸电脑,十有八九就是下面这三个小问题之一。 来,跟着我检查一下。第一,那个 base url, 你 看看最后是不是带了杠勾定杠这个小尾巴,大部分服务商都要带的。第二,模型名字你是不是从官网一个字儿一个字儿复制过来的?差一个字母一个大写都不行。 第三,也是最多人犯错的那个 api 密钥前面的 s k space 杠这部分你是不是给漏了?赶紧看看。如果你是个高级玩家啊,还想玩点花的 opencloak, 甚至允许你再配置一个备用的服务商, 这样以来啊,就算主力的偶尔罢工,备用的也能马上顶上,保证你的 ai 永远在线。 好了,说到这,你发现了吗?拥有一个私人 ai 助理的门槛,现在基本上已经可以说是没有了。 二十九块钱,你想想现在二十九块钱能干嘛?可能就是两杯奶茶的钱,但现在呢,你可以用它换来一个全年无休七乘二十四小时待命的 ai 伙伴,帮你写邮件,做研究,处理各种烦人的工作,这简直太划算了! 好了,方法工具,所有的钥匙今天我都交给你了,现在就轮到你了,你会用这把钥匙去开启一个怎样的新世界,去创造点什么好玩的东西呢?我很期待以上,你 get 了吗?

一台便宜的二手迷你小主机,一台有一百二十八 g 内存的 maxplus 三九五他们一起合作, 我们使用本地的 lm studio, 不 但可以运行腾讯的 hymt 一 点五一点八 b 小 模型来处理多个视频流的实时翻译请求,还能同时使用谦问 code next 模型给 openclock 作为本地大模型接入来运行资料,抓取分析和文本拷写的工作。 大家好,我是老白,今天给大家介绍我用便宜的迷你主机连接本地大模型遇到的各种麻烦和解决方法。 这台圣克森特 m 七五 n 三五零零 u 小 主机是我在海选市场六百八十元买回来的,我们已经对它有详细的评测。 同时吉摩克的这台 evo x 二,它有一百二十八 gb 板载高频内存,还有四十 c u 的 radion 八零六零 s 核显,是本地大模型部署的利器。我们在 m 七五 n 上跑 openclock, 访问同在一个局域网内的 evox 二、运行的 lm studio 提供的本地大模型推理服务。 实际上我所理解的 openclock 就是 利用社交软件或者说聊天工具来指挥和操控一台具有 ai 能力的电脑去执行相应的连续性任务。 关键词处是你用自然语言和它沟通,并且下达指令。如果不用自然语言,不用聊天软件,我就觉得 openclaw 完全没有实际意义,不知道和大家的理解是不是一样的。 下面就讲讲我们使用 openclaw 遇到的各种问题和解决办法。一、为什么选择 windows 迷你主机?我们遇到的第一个坑是,为什么不用网上大多数人推荐的 mac mini? 好 吧, 我除了有一台 m 四 mac mini 之外,也有一台十五寸的 m two macbook air, 用它们之一来跑是没有问题的。其次就是我的 x 八六小主机实在是太多了, 随便就能抽出一台来独立的跑 openclock 我 们这些小主机便宜啊,几百元。 mac mini apple silicon 小 主机至少大几千吧。 m 七五 n 是 我很喜欢的迷你主机,用来跑 openclock 我 觉得是物尽其用。 二、安装和启动我在这种低端小主机上安装 openclock 遇到的最大的坑是,千万不要用 windows 十啊, 一定要升级到 windows 十一,然后啊,还一定要用 wsl 来安装。满足这两点之后,你安装好的 openclock 运行在乌班图二十四点零四上,出问题的几率很小。 这小主机我没有接显示器启动后通过远程桌面连接它进行监控,实际上它相当稳定。我是指这台 windows 的 宿主机,如果你把更新暂时关闭之后, windows 不 会来打扰你要求重启啥的。 好在有远程桌面能够做到完全控制这台小主机。当你第一次启动到桌面,你可以打开 linux 的 命令窗口, 等上一会儿,在浏览器里 opencl 界面里就能看到已经连接上了。第三,备份到这里,我请求你一定要打开文件管理窗口,选择 linux 图标,然后我们一路进到这里。实际上这就是 opencl 在 乌班图二十四点零四里的主文件夹。关注这个 opencl 点接收文件, 这几乎是我们最重要的配置文件,你必须随时备份它,每次不管是你手动修改它或者是 open color 自己修改它,造成你的网关错误,导致你连接失败, 或者 telegram 连接出错,你都可以回滚这个文件,达到恢复上一次网关的正常状态。你看我就经常备份它,因为这个配置文件真的任何错误的修改都会导致网关瘫痪,这是 openclock 配置过程的重中之重。 第四,大模型大模型实际上就是 opencloud 的 大脑,如果没有配置大模型,你是无法通过自然语言指挥 opencloud 的。 所以安装中的或者基本配置安装好之后,我们要第一时间配置大模型。这里我们必须说真话的是,无论如何,你应该有一个网络上排名靠前的大模型作为你的主力模型。 不管是国外的玉山家,还是咱们 kimi 的 k 二点五, mini max 的 m 二点五,智补的五点零。 因为有了它们,你可以用自然语言指挥 openclock 干活去配置设置 openclock, 而不是什么都要你自己用手动来配置。设置好一个网上大模型之后,你可以用自然语言通过它添加本地模型。 第五,社交软件。我最后选择了 telegram 作为我的指挥沟通 openclore 的 聊天软件,在这里很重要的就是设置群主,在群主里设置 topic, 也就是话题,你可以通过话题来细分你和大模型之间的功能性沟通,这样你每次需要上传的提示词就会大大减少。 实际上每一个 topic 都有一个二百五十六 k 的 独立上下文,通过 topic 的 细分之后,我的每一个聊天窗口就不会把我和大冒险交流形成的所有上下文去上传,那样就太恐怖了。 第六,添加本地模型我是这样操作的,给他一个我运行的 lm studio 主机地址,让他去抓取你所需要的大模型的名字,让他自己添加到接收文件中去。 你可以设置限制,比如我的限制是告诉他,千万 codext 不 能作为首要模型,也不能作为回滚模型,只需要添加到 provider 列表里以供我们调用。 这样,我们在本地局域网里的特定主机上使用 lm studio 共享的大模型,就可以添加到列表上。然后我自己在需要的群主 topic 里使用斜杠 models, 可以 很自由地给这个 topic 设定背后的大模型。 第七,不得不修改的接收文件。 实际上,我是真不愿意手动修改接收文件。我遇到了这么两种情况,你必须在接收文件里做这样的修改。前面这句是让所有 topic 的 active watching 一 直都处于 always 状态, 否则啊,隔上一天它就自动退回到闷寝,你就必须加上 at 你 的机器人才能指挥它了。 其实是你添加了两个以上的本地大模型,安全级别提高了,你的机器人在群主里的权限就掉了,就没有了,任何回话都包错。这个时候你必须在这里把机器人的用户 id 加上,这是经过很多人的折磨才搞到的经验之谈。 第八,启动本地模型的一个重要设置。在运行千万三 codext 作为本地模型的时候,我发现一个非常恼火的 bug, 就是 我们在做比较大的任务时候,可能上下文提示词比较长, 你上传提示词的时候超过三百秒就会出现上传错误,它试做两次出错就停摆了,然后给你报一个错。我想到了一个临时解决方法,就是设置 k and v catch 的 精度。 正常的时候,它一般是 f 十六,按这个精度,我们上传的提示词的速度就会比较慢,把它们都改为 q 八,上传速度大大加快了, 再也不会出现超过三百秒出错的情况了。 f 十六将为 q 八,对输出的质量和性能应该没有太大的影响。 第九,本地模型的能力我们也认识到,本地模型的能力和网上大模型的能力是有差别的。 我在使用的网络模型是 kimi coding plan k 二 p 五用它输出的最新的 apple macbook pro m 五 pro 和 m 五 max 的 详细介绍文档。相比千万 code next 制作的文档质量要高,错误也要少, 这是模型的质量决定的,所以本地模型一般不会委以重任,只是用来减少网络 token 的 消耗。 第十, x 八六跑 openclaw 的 语音功能最早啊,我看人安利 m 四 mac mini 跑 openclaw 有 一条就是它呢,很方便地进行语音转换, a s r 语音自动识别文字,还有 t t r 文字转换为语音。 我原以为在 windows 下布置很复杂很麻烦,但没有想到我这是给 openclip 下了一条指令,它就自动帮我安装好了 edge 的 tts。 这样我每天早上固定的文字通报,它就自动帮我转换好语音。逐字考,我只需要按一下播放就可以了,效果很不错。机器人脸今日 ai 热点二十四 h 二零二六年三月六日星期五 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日 ai 热点早报 大模型与算法第一条 open ai 年收入突破二百五十亿美元,较二零二五年翻倍增长, chat gpt 用户数持续攀升。据 the information 报道, open ai 截至上月底的年化收入已超过二百五十亿美元。 电机器人脸今日 ai 热点,二十四 h 二报纸今日国际热点,二零二六年三月六日星期五, 各位听众早上好,今天是二零二六年三月六日星期五,欢迎收听今日国际热点早报 中东局势第一条伊朗最高领袖哈梅内伊在梅以联合军事打击中遇害。伊朗方面三月一日证实消息。第二条珍珠党为报复哈梅内伊遇害,三月二日向以色列显微镜今日科技热点科技第七条 卡特比勒在奈克斯波康艾二零二六展示先进攻地技术,扩展 ai 和自主能力第八条 全球科技竞赛加速,从 ai 基础设施、半导体战略到网络安全威胁。这样就我就很简单的解决了语音问题。使用 mac mini 作为 openclock 数处理器的理由又少了一个。 总结一下, openclock 确实能够让你使用自然语言,通过聊天软件操作你的电脑,执行连续动作,不管是编程、写作、查资料、制作文档和 ppt, 但是他还是没有智能化、精细化,达到自动运行、帮我赚钱的地步,甚至辅助我现在的工作功效也不大,他还只是一个辅助工具,不是能送你去远方的交通工具。 但是呢, ai 的 进化是一日千里的,我相信啊,不论是网络大模型还是本地部署的开源大模型,都能通过不停的升级,给我们更好的体验。而 openclock 这样的开源工具, 通过社区的每日迭代,会让我们部署它的迷你电脑具有更多更新的功能。好了,今天就介绍到这里了,我是老白,谢谢大家观看,再见。

可口可乐大龙虾,他是云端好还是本地好?那他们两者之间的成本有什么样的差异,以及他们实现的效果,功能上面有没有区别?那今天一条视频给大家讲清楚,哦,对了, 还有适用的一些人群啊。我先说云端,现在目前你部署一个大龙虾到云端上面,你需要花费的成本大概在五百以内啊,不会太高,因为现在阿里、腾讯 各大云厂它都出了这种 opencloud 的 一个镜像,你只要是买一个清亮云服务器,买了之后呢,自动就给你它部署好了,这个界面就是云端的界面了,对吧?自己配一个模型, 一个通道,以及它的技能数啊, skill 就 完了,非常简单,傻瓜似的,这个东西部署的时间也就在二十分钟以内,就这么快的一个时间,它适合什么呢?咱们本地没有什么设备啊,并且呢,我本地是需要关机的嘛, 所以我在云端上面就能七乘二十四小时不间断的让它去运行。那说完云端的好处优势,那我们再说一下本地,难道本地真的是那么一无是处吗?啊,倒也不是,因为现在网上但凡你去搜一下,现在有很多那种 opencloud 的 一体机啊,说实话是之前那种 魔改的一些机器,因为云端的优势刚也说了,但他的劣势也挺明显,就是他的核心以及他的内存不会给你很大,你像你花个两三百,可能买个四合八 g 的 都都都这种都很难逃了,一般是二二合四 g 的 这种样子。这就来说对大龙虾的这个本地发挥就有限制,他不能去做多现成的这种任务,可能会因为自己的深度思考,然后卡死, 也不能调用太多,那我们在本地部署的时候,当然硬件就没有什么限制了,那限制的可能就是一些什么你的贷款,对吧?网络波动 以及你本地化的一些环境搭建,这个就是一些进阶玩家的啊,这么一个操作了,你需要在一个纯净的系统上面。当然这里建议不要拿你自己的主力机,比如说像我现在用的这台 windows, 我 有很多里面自己的资料,我不 能说把大龙虾装在里面,那他万一抽风删掉了我本地的一些资料怎么办呢?那后悔莫及,追悔莫及,那对我造成了一定的损失。但凡事都有两面性,所以呢,一般的解决问题呢,我就会在我本地的这个机器里面再装一个沙盒系统, 也就是在 windows 里面再开一个 windows, 让它在沙河里运行。那这个时候问题又来了,那你在沙河里面运行,你得关机,你不能说二十四小时一直开着对吧?但大龙虾就需要二十四小时开着,所以大家都在网上疯狂的抢那个 mac mini, 就是 因为它足够让大龙虾去运行, 单独为大龙虾装这么一个硬件,那剩下就是看怎么去用了,而且 mac mini 可以 多个这么组建起来,然后让它的性能再一步去提升。但是现在也有很多那种伪 windows 的, 就是大龙虾一体机,也是以前的上古, 但是整体来说比云端的这个无论是从核心数来说,还是内存来说,还是你的硬盘来说,要宽裕太多了,足够让大龙虾多开几个浏览器或者多端去运行,深度思考 迭代一些东西。那其实在云端上面我们是适合小白,并且不是那么深度去玩的,就简单配置一下,平常我记个手帐, 运行个文档什么之类的啊,规范化。那如果说我需要大型的一些执行或者复杂一点的话,那就是在本地,但本地呢,更适合我们中高端玩家 diy, 因为要解决环境的问题,包括自定义,包括技能数 skill 的 一些自我的配置,那配置就更多了,每个机器每个机器有不一样的东西, 同时你也得保持这个二十四小时在开着机,它在运行,包括大龙虾的运行的这种情况下,水土不服的情况下,你都要去解决这样的 bug, 所以呢,两者的区分 就非常大了。那大龙虾现在能做什么?就是做一些表格公式之类的,帮你去提醒,帮你去服务一些会员,有的把它接到了一个企业微信里面,去服务一些客户,在客户群里解答一些问题。像我呢,我更多的是把它当成一个我知识库的管理员,但是他之前也建议我说把它当成一个 写脚本的,但是脚本对我来说呢,相对来说这是人该写的东西, ai 写永远没有我自己写本那个味儿, 这个对于 ai 来说是难的。呵,这个是多年的说话习惯或者使用习惯,这个 ai 的 确是做不到,但它能做到就是在我既有的内容之上,它可以自己浏览我的知识库,然后同时呢规划我的知识库更新方向, 以及呢帮我填充一些啊有必要的一些细节,然后作为我的一个助理,二十四小时监管着我的这个知识库的叠带,以及同步的去浏览现在最新的 ai。 啊,那至于他烧多少扑克,你其实也现在到现在也没烧多少,而不是说啊我是要云端好还是本地好呢? 你先跑起来,我觉得是最好的。呃,最后我想说的是在你做这个大龙虾的时候,结合你现在实际的目标去产生价值,这个我认为是你要想清楚的。然后第二步,那接下来就无外乎就是 看那些投产品呗,我投入了多少,然后他输出了多少,因为大龙虾他是可以根据你的过往记录去存储一些他工作的细节,他会一点一点增强他的技能,以及你把他当成一个伙伴搭子的这个适配性。希望对你有所保 好。关注我,阿叶能洗。

没想到啊,距离我制作 open klo 的 详细部署教程已经过去了一个多月,这玩意现在居然火成这个样子,甚至某鱼上都冒出了一堆远程部署的这个付费服务,动不动就收你们几百块钱。我在我那期视频发布之后呢,有的观众也在吐槽模型费用太贵了,那有什么办法能够不花这个模型钱呢? 有的兄弟们,有的本期视频的主题就手把手带你们部署一个属于你自己的大模型,并教会你如何在 open klo 中切换大模型的大模型啊! 不管你是使用像欧拉玛呀还是 l m studio 还是 v o i m 等,都能很方便的接入,从而实现完全离线免费无限制用的 open 可乐。好废话不多说啊,记得先点赞收藏加关注。我们现在开始 我整个教程会分成两大步啊,先搞定本地的大模型部署,再讲欧布可乐的对接配置。但如果你已经部署了本地的大模型,可以直接拖动进度条是吧?跳到对接部分即可。第一步,咱们先搞定本地大模型的部署啊,我这边推荐没有经验的同学优先使用欧拉玛,他几乎是目前全网最简单的本地大模型部署工具,没有之一 啊,支持一键部署市面上绝大多数的一些开源模型啊。然后这里插一水,如果你想要工业级大模型的推理框架 v l l m 的 教程,可以在弹幕当中扣个一人多的话,我后续考虑出个教程。 首先打开浏览器啊,输入欧拉玛的官方地址,我放评论区了,就直接复制在那些就可以。进来之后呢,你是什么系统就点对应的下载是吧? windows 点 windows 麦个点麦个, 下载完成之后呢,麦个就跟安装其他软件一样是吧?然后 windows 也是不断的下一步即可。 好,现在安装完欧拉玛后呢,最关键的一步就是下载并启动本地的大模型。这里要跟大家说清楚,要驱动 open close 这样的 a 卷的系统, 必须选指令遵循度强,上下文长度多的模型,简单来说就是听得懂指挥是吧?记得住你的命令的这种模型。而我这边测试了好几个模型,比较推荐用的就是这个 q 三点五,它有多个尺寸的版本,通常模型越大则性能越强,大家根据自己电脑的显存大小来选就可以了, 最好选不要超过你显存大小容量的模型,也就是 size。 这里我这为了快速演示,我这就使用这个零点八 b 这个小模型展示啊。如果你们有测试更好用的模型,也可以在评论区跟大家分享一下。 确定好模型之后呢,点进去之后,可以直接看到下载模型的指令,此时我们需要打开终端或者这个 power 键麦克打开终端, windows 打开 power 键,然后粘贴这串命令,然后按回车,它会自动下载模型并启动,全程不用你管。经过一段时间下载后呢,它会自动进入对话界面,你可以直接在这跟本地大模型对话,比如说问他,你好。 哎,到这里恭喜你,你已经成功完成了本地大模型的部署。接下来就是将其接入我们的 openclo 中了啊。这里先提一嘴,如果你的电脑还没安装 openclo, 可以 直接去我之前的其零基础啊部署教程,几分钟就能安装好。我这就不重复讲安装步骤了, 我们先讲刚装好的欧拉玛怎么对接。第一步,修改模型的上下文长度。因为欧拉玛本身为了极致的轻量化,如果你电脑显存不大的话,他默认模型的上下文就给你四 k, 你 就这样给 open color 使用的话,你说完这句话他就能忘了上一句。所以我建议把模型的这个上下文设置为至少六十四 k 以上吧。 我们打开这个欧拉玛的软件,然后点击设置,就在这里设置上下文,然后把这个拖到六十四 k 就 可以了。第二步,去 open clone 里做这个配置对接,还是在终端输入这个 open clone config, 进入 open clone 的 配置菜单,然后回车啊配置本地文件,选择 models。 这里呢是 opencolor 给你预设的一些云端模型配置,像什么啊, gpt 啊, jimmy 等等。我们要选择最下方的 custom provide 的 选项,这个呢是自定义模型选项,可以自定义 opencolor 从什么地址去调用模型的服务。而我们这里默认就是幺二七点零点零点幺,这个幺幺四三四端口的 我们不需要修改。然后这里的幺二七点零点零点幺呢,表示从你本地获取。然后这里的幺幺四三四呢,是欧拉玛的这个端口服务,然后再回车输入密钥,这个地方呢可以随便填,因为这是你本地的服务。 然后这里询问我们要接入什么标准的端点协议,我们也默认回车即可。最关键的来了这里,让输入模型的 id, 我 们在这里输入你刚刚下载的模型名称,然后这个样子就是教验,通过回车啊,后面的这些都不用,输入,回车即可。 然后最后选择最下方的这个 ctrl 钮,完成模型的切换。现在你可以回到 openclip 的 控制面板当中,点击代理,看到这个 primary model 是 不是你刚刚选择的模型了。至此,你已经成功在 openclip 当中揭露了本地的大模型。 如果你使用的是 l m studio 或者 v l m 等模型推理框架,步骤跟刚刚几乎没什么差别,只需要将这里的电路地址修改为你所对应架构开放出来的端口即可。比如说像这个 l m studio, 它默认的端口就是一二三四,你这里就写啊,幺二七点零点零点幺一二三四就可以了, 然后 vm 呢则是八千,然后你就把这个端口修改成八千即可。后面的步骤和欧拉玛一模一样是不是?嘎嘎简单?所以我们来 open call 聊天框简单的测试一下,就说帮我查一下北京明天的天气, 哎,如果你的任务比较简单,那是用本地大模型来驱动这个 open call 还是非常 nice 的。 最后本期视频用的所有命令和部署流程我都整理好了,放在这个评论区,大家点赞关注智取即可。 然后上期的这个部署教程和 open klo 的 这个 skill 制作教程我都会放到 open klo 的 合集里头,后续呢也还会更新 open klo 的 其他玩法,不想错过的朋友可以点个收藏和关注啊,咱们下期视频见!

大家好,欢迎回到我的频道,前面几期视频我给大家演示了如何在 v i y 里安装优盘图 linux 处理机,也讲解了如何在优盘图中配置 note g s 和 git 来满足 openclaw 的 运行环境。那这期视频我就来教大家如何在优盘图 linux 操作系统中安装部署 openclaw。 在本期教程里,我们将从 github 下载 openclaw 最新的源代码进行安装。如果你下载不下来,也可以在评论区里留言,我把我下载好的 openclaw github 源代码分享给你。 我现在就在 umber linux v i r 训练机里边,我们打开 firefox, 我 看看 github 好 不好。访问今天为车,今天很幸运可以访问,那我们在这儿搜索一下,在搜索框输入 openclaw 车在这个项目 open club, open club 就是 我们要访问的项目。点击一下,打开它,今天速度还挺快,这是咋回事?我们点击这个绿色的扣按钮,有一个 download zip, 我 们还是下载下来吧,避免安装的时候突然访问不了,挺麻烦的。点击下 download zip 就 开始下载了,下载也很快, 超乎我的想象。好,现在下载好了,那这个应该是最新版本的,如果你要是担心这个最新版本里面有 bug, 因为它是刚刚提交的,有的最近的是三十八分钟内提交的。 那你可以下载这个最新的 release 版,你看这有一个 release open club, 二零二六点三点十三,那最新的 release 版是三月十三号的,我们点击这个链接进去,他就打开了这个页面,那这个页面里边就记录了他都修改了哪些问题。在这最底下有一个 south code, 你 也可以下载这个 最新 release 版的源代码,点击这个链接,它就把最新 release 版这个版本给下载下来了。下载好之后,我们来到这个下载目录,那这两个字库文件都在这了,我先修改一下这个屏幕的分辨率,这样屏幕就文字大一点, 我们看一下这两个版本,那我们还是安装这个三点十三,因为这个是 release 版。右键单机点击提取,解压缩到这个文件夹下,我在我的主文件夹下建立了一个文件夹叫 work, 然后把那个解压缩后的 open class 代码拷贝到这个 work 目录下, 我们右键单机桌面,点击,在终端中打开,打开一个终端窗口,我们再确认一下 node 和 get 的 版本,那 node 是 vr。 二十二点二,十二点一,这个是符合这个要求的,那 get 二点五,一点零,这两个版本是可以的,因为我们从 oppo colo 原代码来安装这个 oppo colo, 它需要 p n p m 这么一个呃命令,所以我们先安装 p n p m, 我 们运行这行命令。 soluo 空格 n p m 空格 install 空格横线 g 空格 p n p m 回车,它需要输入密码, 也就是那个哈喽那个账户的密码,他就开始安装 pmpm 了。好,现在已经安装好了,那我们先运行 npm 杠 v 看一下版本, npm 是 十点九点四,那 pmpm 呢?杠 v, 十点三,二点一, 可以,这个 n p m 和 p n p m 我 们都已经安装好了,那现在我们先来到 open k l 源代码所在的这个目录,我们把这目录地址拷贝一下,回到命令行。好,那现在就到这个目录下了,这个就是这个 open k l 的 原文件。在这个目录下,我们先运行一下这行命令, p n p m install 回车,它就会把依赖的或者需要的那些包全都下载下来,并且安装好。当你看到这些信息, 那就证明需要下载的包都已经安装好了。然后我们再运行另一行命令,就是 pmpm 空格 ui 冒号 build, 这个命令运行很快,当你看到这些信息,就证明这个命令已经运行好了。然后我们还需要运行一下这行命令,也就是 pmpm 空格 build 回车,等这个命令运行好之后,这个 open klo 基本上就安装好了。好,到现在为止, 这个 open colo 就 算安装好了。然后我们还需要运行一下这行命令, p n p m 空格 link, 空格,横线,横线 global, 那 这行命令就会把这个 open colo 这个命令设置为可以直接调用的 c r i 命令, 方便你调用,让它出现一个错误,这个错误是什么原因其实也写清楚了,告诉你怎么改。需要运行 p n p m 空格 set up, 先来创建一下这个 global bin 这个 directory, 那 我们就运行一下, 还要运行 south home hello, 点 best i c 现在已经生效了,现在我们再运行一遍 p n p m 空格令格航线 global, 那 现在这个 openclaw 这个命令就可以直接 在命令行里边调用了。然后我们运行这行命令, openclaw, 空格 unbox, 空格航线航线 install 航线 demo, 那 这行命令就开始设置这个 openclaw, 并且安装后台的守护进程,也就是后台服务, 这个 open 卡拉就会在后台一直运行了。我们看这个命令执行之后,就是这个界面第一个配置界面问你是不是继续,那你就通过这个左右键选择。 yes, 然后按回车,然后 unboxing mode, 就是 是 quick start 按回车 model, 也就是大圆模型,你选择哪个?因为我们使用本地的奥拉玛,所以我们选择奥拉玛,那奥拉玛 base url, 也就是我们这奥拉玛模型的 url 是 多少, 我们现在去看一下。我们在 windows 上打开奥拉玛这个应用程序,点击左上角这个图标,有一个 settings, 点击一下,那在这右边有一个选项叫 expose orama to the network, 这个选项一定要打开,否则奥拉玛是不能够被网络上的其他应用程序访问的。 我们再在 windows 里边打开一个 windows power 或者命令行窗口,运行命令 ip config, 那 我们就可以找到我们这台计算机的 ip 地址, 那我们这 id 是 幺九二点幺六八点二零四点幺,我们在浏览器里边输入这个网址 gdp 幺九二点幺六八点二零四点幺,冒号幺幺四三四,回车之后,如果看到奥拉玛 is running 这个页面,那就证明我们这个奥拉玛是可以通过网络上的其他应用程序来访问的。 我们回到这个 uberto linux 这个虚拟机里边,把这个 alama base url 地址改成幺九二点幺六八点二零四点幺,冒号幺幺四三四,回车会让你选择一下 alama 的 mode 是 cloud 加 local, 那 么选择第一个回车, 然后它有提示让你登录进 alama cloud, 我 们就把这个链接拷贝一下,点击 connect, 连接成功了,我们再回到这个命令行, 他问你是否登录进去了。 yes, 我 们回车。现在你就可以选择这个大语言模型,具体使用哪个,那我们就使用缺少的 kimi 二点五这个云端的模型就可以了。按回车,再让你选择那个 china, 就是 你用哪个聊天软件去管理这个 opencloud。 我 们先不用这个了, 我们会在以后讲,我们选择 skip now 回车,选择第一个路由 search, 因为我没有这个路由 search 的 api key, 所以 路由 search 就 不能使用,但是你可以去到这个网址去获取 ikey, 可以 以后再配置,现在它让你选择 skill, 问你是不是配置 skill, 我 们可以选择 yes 啊,回车用上下键来选择,选中之后按一下空格键,这变量就把它选着了。 回车这个 homebrew 我 们也可以安装一下,选择 yes 回车 google api key, 这个我没有,就选择 no, 全都 选中就可以了。 hook, 这个我们也先 skip 它,就开始安装这个 getaway, 也就是这个网关 getaway 已经装好了,他问你想怎么去跟这个机器人聊天,或者机器人互动,我们就选 open the web ui, 那这样他就会打开一个浏览器,你可以在浏览器里边跟他聊。第一个是 tui, 就是 基于文本的那个用户界面,我们还是用外部 ui, 那 现在当你看到这个界面,就说明这个 oppo cola 已经安装好了,这些信息都还是比较重要的,所以我建议你最好把一些重要的信息保存下来, 比如说这 ctrl u i, 也就是我们刚才不是选择基于 web 来管理这个机器人,所以它有一个链接地址,通过这个地址是可以打开这个管理界面的, 那这个地址我们把它拷贝出来,在这个浏览器里边粘贴进去,那这个就是 open k l o 的 这个控制台,当然这个我都跟他聊过一点了, 所以有这些信息。那我跟他说个你好,他巴拉巴拉说了一大堆,我问他现在都能干些什么?他回答了一大堆,好像感觉他非常能干。这些东西都怎么做?以后我可以给大家做视频,来演示一下他怎么才能做到这些功能。

万万没想到,让当下最火爆的 open clone 帮我们赚钱,结果他却要我们先花钱给他充 talking! 本期视频就来教你白嫖上千万 talking 的 神操作!首先打开这个网站,下滑找到这个输入输出都是零元的 deep secret, 轻轻一点它就会弹出详情页,点击打开这个 a p i 文档后,直接在 post 栏下复制这串网站的域名 url, 然后我们打开电脑自带的命令提示, 以管理员身份运行后,我们下滑找到龙虾的 api 配置页面,把刚才的 url 域名复制到下面后,回车,龙虾就会问我们索要 apikey, 此时我们再回到刚才的网站,找到 apikey 秘钥栏,新建一个自己的 apikey 后,我们点击复制,然后粘贴到龙虾的 apikey 索要栏下,继续回车, 等它提示我们输入模型 id, 再回到 deepseki 的 详情页的最顶端,点击这个复制符号,模型 id 就 已经到手。 此时只用粘贴到输入窗口,然后回车,一个无限 talking 的 龙虾就已经配置完毕,此时随便给他发布什么任务,等他完成后,我们进入消耗后台,可以看到我们已经消耗了十二万的 talking, 却没有花一分钱。

那本次演示的呢,是一个对产品手册、操作手册等系列产品文档的一个问答场景,这个呢也是我们在企业中经常遇到的一个高频使用场景,比如当我们与客户交流的时候,客户突然问起某产品具体的参数规格,或者当我们在客户现场实施过程中 遇到了突发的异常情况,那在这些场景下呢,都需要我们能够快速、准确、及时的给出精准的回答和解决方案。那么接下来呢,我来演示一个多知识库联合查询的视例。首先,呃,我们来设置一下知识库的解锁范围, 这这里面呢,呃,我会添加两个我预制好的知识库。 嗯,好的,那接下来呢,我会问一个关于产品安装的解决方案和最佳操作实践的问题。 呃,在等待模型回答的过程中呢,我来简单的介绍一下 rek 系统的三个主要挑战。那首先呢,是要识别准,那在企业中呢, 知识呢,通常会以文本、图片、声音、视频等各种形式存储在不同的媒体中,那么如何准确的进行知识提取,这是一个很大的工程条件。那第二个呢,呃,是要查询准 如何能够精准的识别用户意图,快速且准确的找到相关知识进行反馈,这是第二个核心挑战。最后呢就是回答准,考验的呢,是一个模型在海量知识中能够准确的解锁有效信息,并且回答, 呃,并且组织回答,同时能够避免幻觉产生的一个综合能力。好的呃,我们看现在的模型的答案已经,呃已经生成完成,那让我们来一起看一下这个答案是否准确?那在我的问题中呢, 呃是包含了两个小问题,那第一个呢,是要回答一下对于不同类型安装的差异,那第二个呢,是要回答安装时的一个操作标准。那大家可以看到,在模型回答的上半段呢, 是不仅了不仅解释了安装差异的原因,还在下面列出了每种类型的具体安装的内容。那下半段呢,就是解释了我的第二问在安装时的一个操作标准。那并且大家可以看到呢, 模型呢,不仅给出了正确的答案,还将相关的溯源信息进行了输出。在本次演示前呢,我们预制好了。呃,一个模拟的企业销售数据库,里面包含了一些虚拟的客户信息,订单信息,还有销售数据等。 呃,接下来我们来问几个在企业中会高频出现的问题,看看实际的回答效果。 呃,第一个场景呢,是一个单表查询的简单例子,询问了是各个订单的状态,数量和占比,让我们来看一下。 呃,可以看到,大家可以看到模型已经给出了呃回答,我们检查一下这个 circle, 呃,的确是一个单表查询的 circle, 并且这个查询结果也能够正正确输出。那么接下来呢,我来切换一下。呃,另外一个模型 model a 来做一下对比。 好,大家可以看到啊,对于同样的一个问题啊, model a 也是可以正常的输出的,并且这个结果和上面这个结果也是一样的。 但是呢,大家可以看到啊,这个 model a 的 速度是明显的慢于原三点零的,这个就是我们前面提到的一个呃意志思考带来的一个效率的提升,那么第二个场景呢?是一个呃多表联合查询的例子, 就是稍微复杂一些的 circle 的 场景,让我们先演示一下 啊,大家可以看到模型原三点零这个模型也是很快的就给出了回答,我们检查一下 circle, 这也是联合了两张表去查询,有个照样操作。 好,那我们再切回到这个呃 model a, 再用同样的问题测试一下。 呃,因为这个 circle 可能会比较复杂一些啊,所以它的这个时间会稍微长一点,那我们可以看到啊,就是呃 在意志思考在原三点零引入了意志思考之后,它的这个响应的效率是有很大提升的。那我们可以想象一下, 通过这个意志意志思考,如果我们可以使一个智能体的响应速度加快百分之十,那么在一个具备多系多智能体的系统中,那他的整体的效率提升会是指数级别的。

大家好,欢迎回来,今天咱们来聊聊 openclo 平台最近的一次大动作,版本号二零二六点三点二四的更新。说实话,这可不仅仅是小修小补,这次更新几乎可以说是对平台未来的一个重要宣言,咱们一起来看看它到底带来了哪些让人眼前一亮的东西? ai 助手的未来到底会长什么样?嗯,这可能现在每个人都在琢磨的问题。而 openclar 这个最新版本呢,它就想从实际行动上给出自己的答案。所以说这次更新绝对不只是加了几个功能那么简单,它是在试着重新划定 ai 助手的能力边界。 好的,今天我们会从这五个方面来把它掰开揉碎了看。首先这次重大升级到底是个什么概念,然后我们会深入聊聊他在 ai 智能化和集成方面的大动作,接着是团队协助的加强, 还有用户体验的打磨,最后再看看他那个更稳更强的底层核心。好,咱们这就开始 好,我们先来看第一部分,就是这次重大升级背后的一个战略思考,你要是把它看成是简单的加了几个功能,那就太小看它了,这其实是一次经过深思熟虑的战略飞跃。 那么这个二零二六点三点二四版本,它到底在关注些什么关键点呢?其实核心思想特别清楚,就三个词,更智能、连接性更强、体验更精致。 而且这三个词儿啊,它不是自己估自己的,它们是相互关联的,可以说整个更新的所有细节都是围绕着这三个原则来做的。 接下来是第二部分,说实话,也就是我个人觉得这次更新里最亮眼的地方,更智能的 ai 和集成。简单来说,就是 open claw 不 再是自己玩儿自己的了,它开始真正地走出去,跟外面更广阔的科技世界去对话,去合作了。 要想明白这次更新有多牛,咱们得先搞懂一个词,叫 api 兼容性。 你可以把它想象成是软件世界里的一种通用语言。你想啊,一旦大家都会说同一种语言了,那沟通起来不就完全没障碍了吗?你只要明白了这一点,马上就会知道接下来的变化有多重要。 你看这张对比图,简直是一目了然。以前呢, open call 有 点像个孤岛,能支持的课后端不多。现在呢,它直接实现了跟 open ai 和 r a g 的 广泛兼容。这个 r a g 啊,全称是解锁增强生成,现在基本上是所有知识问答应用的主流技术。 这就等于说, open call 一下子就学会了 ai 世界里最流行的一门外语。那这具体意味着什么呢? 这就意味着,所有的开发者现在都能通过这些标准的跟 open ai 兼容的端点,把市面上成千上万的 ai 工具啊、客户端啊,还有 r a g 应用啊,无缝地对接到 open call 平台上来。 这已经不只是简单的扩张了,这简直就是给 open call 开了一条通往整个 ai 生态的超级高速公路啊! 有了这么强大的连接能力打底,咱们再来看第三部分团队协助的增强,也就是 openclaw 不 再只是一个孤零零的工具了,它现在可以特别顺滑地融入到你每天都用的那些办公软件里。 你看看他在 microsoft teams 里的体验升级就知道了一个核心变化就是他不再像个冷冰冰的机器人。你看他有流势回复,有带提示语的欢迎卡片,甚至还有我们都特别熟悉的那个对方正在输入的提示。 他在努力让自己变成一个更自然、更懂你的智能同事,让你们每一次互动都变得特别高效。 那么对于 slack 用户来说呢?这次更新的目标是恢复直接交付的丰富回复对等性。这句话听起来有点绕口,说白了就是让你在 slack 里跟 openclaw 聊天的时候,体验能跟其他平台完全一样,功能一样丰富,互动一样流畅,绝对不会再有任何被区别对待的感觉。 disker 这边呢,体验有变得更聪明了,现在它可以调用大语言模型,给那些自动创建的讨论串生成一个又简洁又清楚的标题,这对保持社区讨论的条理性和清晰度来说,真的非常有帮助。 好,看完了,它怎么跟外部世界连接?现在咱们把目光收回来,看看它内部的变化。第四部分,用户体验的优化。因为一个再强大的工具也必须得好用,对吧?这次 openclaw 在 日常操作的直观性和功能性上可以说是下了大功夫。 就拿这个控制界面的技能管理来说吧,以前所有的技能都乱糟糟的挤在一块,现在呢,不光是有了清清楚楚的点击看详细的弹窗,技能的状态也用标签页给你分好了, 全部就绪,待设置已禁用。这么一来,你一眼就能看明白哪个技能能用,哪个需要配置管理效率一下子就上来了, macos 应用的导航栏也来了一次彻透彻尾的净化,跟过去那种挤在一起的水平标签说再见了,现在换成了一个特别清爽可以折叠的树状侧边栏,这种结构啊,不仅让现在的功能看起来一目了然, 更重要的是它给未来加更多新功能,留足了空间。当然了,魔鬼都在细节里嘛。这次还有好多这种改善生活质量的小提升, 比如说你可以直接预览 md 文件了,可以一键获取技能秘钥了。还有就是对咱们这些用命定行的朋友指引更清楚了,对容器的支持也更好了。就是这些看起来不起眼的小改动加在一起,才构成了更顺滑、更贴心的用户体验。 好了,最后咱们来看第五部分,一个更强大更贴心的用户体验。好了,最后咱们来看第五部分,一个坚实的底座撑着 这次更新就包含了大量针对安全性、可信和性能的关键修复,超过十五项。你没看错,这不是小打小闹,这是这次发布里包含的重大错误修复和稳定性改进的数量。 光是这个数字就足以说明开发团队对平台基础的稳定性有多重视了。这些关键修复主要集中在三个方面,首先是安全,懂上了一个纱箱绕过的漏洞,让代理程序运行得更安全。 然后是可信,增加了一个重启哨兵机制,这个直观重要,它能保证网关重启之后一条回复都不会丢。 最后是连接性,它现在可以隔离启动失败,这样就不会因为一个小问题导致整个系统都瘫痪了, 所以绕了一圈,咱们又回到了最初的总结, openclo 二零二六点三点二四的核心故事就是这三个词,更智能、连接性更强、体验更精致。这次更新不只是它自己的一次能力飞跃,更重要的是它为自己,也为我们所有的 ai 生态系统的大门。 这次更新把 open claw 和整个世界连在了一起,现在可以说舞台已经搭好了,那么下一个问题就要留给在座的每一位了,你打算把它连接到哪里去,创造点什么呢?我们拭目以待,感谢大家的收看!

大家好,我是月创,那我们今天要录一下 opencloud 的。 呃, mac 电脑的部署,后面我也会录一个 windows 下面的部署的教程。今天的视频很长,我为了录了这个视频呢,把 mac 电脑怎么说呢,格式化了, 也就是重装系统了一下,所以是全新的 mac 系统来模拟真正的没有接触过计算机的人小白了啊。那么来看一下怎么安装吧。那今天我会按我这个教程来一步步操作。好吧, 你们如果要教程链接的话,评论区一键三连,之后加关注,私信找我要。好吧, ok, 我 们来开始吧,我们全程录制。好吧,全程录制会很长,我们接重点打开终端执行这条命令啊, 它会安装我们一些相关的 mac 电脑上面的需要的依赖。好吧,终端直接对接受一下就行。终端好,就这个你也可以自己去找。好吧, 打开之后我们可以直接 ctrl 加加号,可以把它放大一点。啊,我为什么要说出来呢?是来干扰你们吗?不是,你们也可以稍微学一下怎么用这个终端怎么放大吧,是不是? ok, 回车,那这个时候呢,它会弹出来一个安装的窗口,点击安装,那这个时候点击同意,那这个时间就取决于你的网速。就这样一条命令,我们就安装了我们必备的 get, 还有一些其他 需要的基础软件,所以说 mac 电脑还是有天然的优势的。好吧,我们等待它安装完成一下, 然后等到安装完成之前呢,我们可以继续往下看。哪一步可以继续往下操作吗?看,接下来就是说 home brand new 来安装它,那这个这个是确实需要等待它安装完成,那我这个时候要穿插一下。 好,我这里呢会给你们提供一个百度网盘的链接,就是安装包,这里面会有一个什么呢? 会有一个梯子相关的,你们自己看官方教程去安装。好吧,安装包已经提供给你了。我的粉丝们啊,如果以前有取消过的 啊,你们就不用再来找我了,因为你们取消过了,就是那种记利利益既得者吗?就是就有需要的时候关注,不需要的时候就取消关注,都是有记录的。好吧,那这个福利你们就领取不了了, 我的粉丝们,跟着这个教程的人呢?小白们,他们没有梯子。那怎么办呢?我这边粉丝我可以提供一个月让你来去使用。我会提供一个订阅链接啊,订阅链接 啊,这个链接肯定会会被我删掉啊,我先给你们演示一下,打开浏览器,然后点击这个什么订阅,然后呢把它导入进来 就可以了。导入进来之后啊,你的代理可以测速一下,绿色越速度数字越小的表明越快。 那我们要,我们待会我们要安装什么?安装 open cloud, 所以 这个地方呢,我们要选择的是什么呢?选择虚拟网卡,但是虚拟网卡没有安装,是不是有两种方法,一种在这里点击这个安装服务, 或者是说设置里面也有一个虚拟网卡安装服,这两个是同一个,点击就可以安装了,然后输入你的电脑的开机密码。好吧, 输入开机密码之后你就可以干嘛打开虚拟网卡啊,这样的话就 ok 了,接下来呢,所有的网络都会走着的。代理,好吧, ok, 代理,我就讲到这里,好吧,其他的你们自己去研究。网络出现问题重新来一下嘛。那重新来怎么来?就是命令直接来,因为我开了那个代理嘛。 ok, 他 弹出来了,他提示我安装,我同意,好吧, ok, 我 们等他安装一下。 代理就是要全剧打开,这样的话呢,我们后面去安装任何东西的时候说不会不会那么容易出错,好吧, 所以粉丝呢,按要求操作之后截图发给我,然后我会给你发你的专属三十天定位链接。注意,我这里不做任何盈利啊不做任何盈利好吧,就是为了方便你们自己去安装,好吧,不做任何盈利。 正在下载软件,然后只能等他下载完了。 代理已经加了啊,那么到时候自己去配置一下。 ok, 我 们继续。那这里就已经显示软件已经安装完成,你可以在这里直接输入 get, 如果他没有反应的话,你就把这个终端啊,直接右键退出,再去打开一个新的终端 进行尝试就可以了。啊,我这里就已经有了。 ok, get 已经安装成功,我们来进行下一步的安装。那输入命令,那优先输入第一条命令。好吧, 如果这条命令不行,实在不行你就用下面,下面就是国内的镜像,比较快一点,但是这是官方的,官方比较稳定,官方会比较新啊,比较好一点,所以说我都是推荐官方的。那直接回车就行。好,我来全屏。 好,这个时候会提示你输入开机密码啊,输入开机密码,注意,你输入开机密码的时候它不会有任何提示,你就输入完之后直接回车就行,然后出现说请按回车,那我就按回车就可以继续安装了,明白吧? ok, 那 这个时候呢,时间也是取决于你的网络环境以及有没有安装的刚刚说的梯子啊,等待它安装完成就可以了, 不要觉得他卡住了啊,这是要耗费时间的,除非你等了真的一个小时两个小时,不然的话呢,他是需要一定时间去下载去安装的。 那这个书呢,强调一下,保证你的梯子是选择速度比较快的啊,比如我现在是自动选择,你可以选择美丽国。好吧,美丽国也是可以的,然后必须是什么?那个,嗯, 怎么来的我也给忘了,突然怎么说来就是你必须选择这虚拟网卡模式啊, t u n 啊 t u n。 然后这里就已经进入到下一步正在下载安装了,非常的快。好吧,取决你自己的网络,我全程这是新的系统,所以说等于你们的新电脑,也等于以前没有做过任何编程的你, 咱有编程经验的人可以往后跳,看后面的教程,然后这里就已经安装完成了,如果他提示这几条命令的话,那很简单,你就依次的啊,复制粘贴回车 啊,复制粘贴回车,复制 粘贴回车啊,这样就可以了,你只要把这三条命令进行这样执行就没有问题了。好吧,那我这个教程里面也有,你看也很详细啊,密码呀,然后等待回车啊,是不是然后他有提示的话,我们要执行嘛,明白吧?所以说你自己 可以结合我的视频加上我的教程来进行一步步安装。好吧, ok, brand new 已经安装完成的话,我们接下来要做什么呢?我们接下来要做的就是安装梯子。那安装梯子这里已经讲过了,我就不讲了。好吧,我们再来, 我们这回 brand new 已经安装成功,我们可以输入。 br 嗯,杠 v, 它可以把返回你的版本号,就是 home brand new 这个版本。 ok, 那 我们现在来安装 node js, 这也是官方说必须用到的 node js, 并且是二十二版本之后的才可以,所以我们就 b r e w i n s t l l n o d e 当然你们命令你可以直接去复制好吧,直接去啊,文档里面去复制也可以直接打好,现在就等待它下载完成就可以了。 这个速度还是取决于你自己网络好吧,但凡你打开了那个虚拟网卡模式,也就 t u n 模式,那就一般来说会比较快,也比较没有问题。然后宽带的话,我还是建议你们如果有条件的话都换成中国电信,它对于外网的 优化是比较好的,但也是老牌的,以前早期早期的那种座机都是中国电信的,所以不言而喻。好吧,不用选择什么联通,不用选择移动。好吧,移动真的是最垃圾的啊。反正有条件的话,你可以换成中国电信,一般五百兆宽带就可以了。 然后我的路由器用的是华为的, 等待它下载完成。 好,已经安装完成了,非常的快。我们可以输入 not 杠 v 啊,查看版本号,如果没有的话,一样啊,你就自己去这个中命令。行,这终端,这里 就是这个怎么控制栏,这里右键鼠标右键退出啊,然后再重新打开一个终端,那版本号出来,然后再输入 npm 杠 v 查看版本号。 好,斑马号也出来了,摆明安装成功。那这个时候我要补充一下小白啊。小白,那有些不是小白的,有可能也不知道苹果不是默认就有这右键的。好吧,不会,不是默认就有的。怎么办?怎么去开?你自己去设置这里面啊,设置, 然后设置这里,设置这里呢?去选择什么鼠标,然后呢?把这个辅助点按打开,如果不会的话,你就按我这个屏幕上的这系统这个界面直接去设置,参考我的设置就可以。好吧。 ok, 我 们再来。那 note g s 已经安装完成了,我们再往下,我们接下来就安装 open curl 了。好吧,那安装 get 不 用安装了,因为我们刚刚前面已经安装了,已经包含给它,非常方便,很丝滑。然后呢? open curl 官网往下滑,它有命令吗?好吧,那我们就直接复制这条综合的命令进行安装就可以了, 粘贴回车。好,那他会检测你的环境。我为了录制这个视频啊,我已经网养龙虾好久了,因为前面是几天喉咙发炎嘛,没办法录制,所以一直在写这文章 啊,我就心痒。大家都在研究 skills, 在 研究养龙虾,而我因为要等这台电脑去录制,所以 今天之后我就可以养龙虾了,到时候会发更多的教程,你们可以去看一下,他们说有安全性问题。是的,所有的事情都有安全性问题, 所以说取决于你怎么去用它,用的好,它就是很牛逼的。所以我还是建议你们去体验,在一个技术越没有成熟的时候,你越融入进去,就是因为他为什么没有成熟?没有成熟就是在初期,初期就比较简单,那就比较好理解,那就算小白你参与进去,去研究,他,去 使用,他也会比较轻松,轻松但成等等他完善了之后再加入,可不可以呢?可以是比较完善,但是他变得复杂了, 你有可能理解就是成本了,但正因为是完善的状态下,也有可能也是节约了一点成本,所以说这是两面性。当然我还是建议你,如果你有机会了,还是伴随着一个技术去投入进去,去研究,去学习。那这个时候其实怎么说呢?到当下这个时时刻 你没有技术,你是文科生也没有关系,明白吧?因为什么?因为我们可以 web coding 啊,自然原对话的编程,所以什么都可以去学,所以现在什么文科理科,我是文科生,不再是你们的借口了。好吧, ok, 等待他下载。那这个地方就取决于你的网速啦,一样的,也是要等的。好吧,那这个命令比较好的地方就是他会检测你的环境是否符合他。然后呢?非常强烈,你们推推荐你们去使用 mac 系统去安装,然后 windows 的 话用 wsl。 我 们 教程里面我教程也在写啊,那这教程我会持续更新的。好吧,就我后面会用到什么,我也会写出来,当然你们可以关注这个链接,然后呢,我和这会这边目录也会持续的去添加。 ok, 等待它安装。这个地方我写了,说换原,如果你实在安装不成功,你可以考虑换原,就很久很久的话,但一般不要换原最好,因为最新版本在国内的话同步是需要时间的,明白吧?它有可能我现在录视频,有可能它就更新了,我们可以去官网看一下。 好,我们看一下下面这个 github, 你看三月八号更新了,三天之前啊,之前我在写教程的时候,我刚写他就更新版本了,所以说没有什么绝对的一模一样的教程,你要学会的是把我这个教程都掌握到,那你就没有什么问题了,明白吧? ok, 你 这样做成功了,它会自动进入这个配置环境。好吧,那我们接下来接下来就是要给它配置一下,选择 yes, 然后 click start, 然后呢?我们这地方先用字谱啊,字谱 ai, 然后呢选择这个 c n 或者说 coding print c n 都可以。好吧,选择 c n, 然后呢我们去 api key, 要去 复制一个,那这个地方呢?注意了啊,我这教程当中有邀请链接,可以去用我的邀请链接去注册,它就会得到一个免费的两千万 token。 好 吧,我们可以去打开我们的字谱, 我们我扫码吧,扫码登录一下。 好, ok, 这是邀请链接嘛,你们自己去弄。然后呢,点击右边的这个财务,然后点击这个资源包管理,点击我的资源包,这个地方一定要去确认就是 他们送的资源包,你能用哪个模型?这里说了 g l m 四点五 a r r 啊,你每个账号有可能都不一样,你自己去看。看完了之后呢,待会要选模型嘛,就选这个模型,然后呢我们选择 api 这里 api, 然后去创建一个新的 api 啊啊,录视频,好吧, 复制啊,复制,然后回来进行粘贴就可以了,回车,然后呢,模型就不是保持了,只要选择刚刚我们看见的 g l m 四点五 a i r ok。 然后呢?通讯软件啊,我这里要强调一下,你在这个 tegram, whatsapp app 这两个我觉得非常好用啊,你们可以去配字我,我也演示一下。好吧,我们要先去下载我们的 tegram。 呃,当然了,呃,注册我就不会教了。好吧,注册就没有必要教了,直接用手机号就可以注册。但是 tegram 的 话,你一定要注意一个点啊, 就是国内手机号是可以的,但有时候他注册的时候是需要你开会员的,所以说你可以时不时的一有时间就去 top 逛一逛,注册一下, 没准哪一天注册成成功了呢,是不是?所以说这个地方是我想说的一个细,细细就是细节。好吧, 我接下来我会演演示怎么创建那个机器人,然后怎么去绑定这个机器人,好好 点击进行安装一下。那 mac 安装软件很简单,这不用我教吧,拖起来就好了。好,右键退出。 就我觉得这国外的软件的板凳也是比较轻松简单的,没有那么复杂,而且本身它就支持嘛。好,把安装包删除。 那接下来我们来打开 啊, techgram 的 话和 whatsapp app 的 这两个教程我没有,还没有更新在我的这个教程里面啊,所以你们可以以视频为主。好吧,以视频为主秘钥我也是一步步有写教程。好吧,你们自己去看。好吧。然后每一步的配置都有, 然后选择大模型,然后通讯工具,这个是可以选择跳过的其实,但是我为了让大家看这个视频是比较完整 take on whatsapp app 啊,这两个至少,然后还有一个飞书,飞书是我们的重点好吧, ok, 好, 他说扫码就可以登录了。好吧,那么扫码一下吧, 它是需要设置那个代理的。好吧,这里点击这个,然后把 percy 进行添加,这里就按我的代理了,你自己按你的代理,二二二七点。好,这样就可以了。 好,这样代理就激活了。哎,有了二维码出来了啊,我登录一下,这样应该就登录成功了。对,然后这个地方就说输入什么 pass 我, 我有没有设置,真的试一下。好,可以有了。 ok, 有 了啊,怎么这么小,拉开就可以了。好,那接下来呢,我们来进行配置,你可以点击这个链接啊,这个文档教程里面我有放这个链接。 点击了 botfader, 然后呢?点打开 take ground, 然后呢,我们来进行输入啊,输入什么?斜杠 new board, 然后它会让你设置名称嘛名称,我们就来一个嘛名称。就是比如说 ai 乐创大龙虾 啊,小月串嘛,小月吧,小月大龙虾。好吧, ok, 他 就说 ok, good, 然后让你设置那个 id, 那 就是比如说,呃,小, 比如说月串吧月串,然后 直接把 brown forest, 就是 我的网站名称 brown forest, 然后呢,它必须要有一个 b o t 结尾,你不一定要用这下划线。好吧,名字有没有啊?已经被用过了。好吧,我等下再换一个名字。 因为我是 c n 嘛,点 c n, 所以 就直接写的 c n 吧。 ok, 创建成功了。好吧,我待会会把这个秘钥重置,你们不用担心。好吧,我现在就是完全不打码,让你们能完全掌握。好吧, 这是我们的密钥吗?好吧,然后他点击可以复制啊,以前我还傻傻的一直干嘛你知道吧?就就是一直。呃,就是选中复制。好吧, ok, 然后我们就回来啊,回到我们的配置页面里面在灌, 必须是这种,在灌的话你要注意,因为我觉得不方便的一个就是你必须一直开局代理或者说 t u n 模式才可以啊。然后呢?我们选择它, 等待他反应 好。然后呢?他说 take ground button 是 不是 ok, 我 们刚复制的放进来回车啊, ok, 成功了。 good, 然后他说是不是要配置搜索,那这些我们后面研究到我们才去配置,我们现在不配置。好吧,挑过然后呢? skill, 那 这个地方一次性达到 yes, 然后呢? 不用我说了吧,空格选中,然后呢?全选,除了第一个不选啊。第一个是跳过吗?你选的话他就真的全部跳过了。那注意啊, windows 的 电脑安装的话很多是安装会失败的,因为他很多是要配备 linux 系统或者是说 mac 系统的。好回车 npm。 好, 等待他安装完成了。好吧。啊,我们等待他安装完成一下, 在整这个插件录制的就是安装的过程当中呢,我还是想补充一个我比较常用的苹果系统,比较喜欢用的终端。好吧,文档里没有写,但是我放在百度网盘里面了。然后这 install, install 都是安装成功的啊,正在安装后面的 那百度网盘里面我放了这个 item two, 然后呢?一个配置文件,一个这压缩包,压缩包下载之后呢,你就可以直接双击苹果电脑啊,直接双击就解压了, 把这 app 直接拖到应用程序安装完成好吧。啊,我这里安装过哎,那我替换一下吧。 ok, 这样就安装完成了,然后 i t e r m i t 就是 它先打开它,然后打开, 然后呢? cips no 八 tips, 哎,这样的话,这的终端比苹果自带的终端好用。好吧,那怎么达到和我的配置类似呢?很简单点击这个软件啊,前提是在这个软件窗口的时候,左上角这里有一个设置啊, i 键 two, 设置 profile, 然后这个时候呢,你就把它把我的那个配置啊下载下来。我还没下载,我现在就下载一下,把我的配置下载下来。下载下来之后呢,直接这里 import jason 啊, 选择它双击就可以,然后把这个设为默认的把这个删除啊,然后呢,就可以了,这时候你重启就可以了,把它关掉。 ok, 然后直接重启。我平时用的都比较多的就是 item two, 它的功能选项也比较多,然后这个还不是最终完善的,我们点击这个窗口之后啊,左上角这里变成 items item two 了,然后 settings, 然后呢,我们就选择什么呢?嗯,我一般是把这个,哎,这个也 from doc, 先不问它,我是问把这些都勾选上,然后把 types 也勾选上,好吧, 对,勾选上,其他的就还好吧。对, 然后我就把它关了,再重启一下吧,你不重启也行,你看,其实这里已经出来了啊,很方便。好吧,那苹果自带的终端是 control 加 t 嘛?这也是支持的,然后呢,它支持你鼠标啊,妙控鼠标,直接单只手指进行切换,这是我觉得比较方便的一个点吧, 我比较喜欢用它。 ok, 好, 我们再来看一下它装完成了没有?还没有安装完成,我们继续等待。好吧, 就中间这个小插曲你可以跳过。好吧,你也可以向我讲安装一下,我是推荐你们去安装,后面都用那个终端,就不用苹果自带的终端了。 ok, 到这里就已经下载完成了,中间没有任何报错,如果中间有什么报错的话,你可以去看一下我的文章,文章里面其实也有提到有一些是会报错的,那有一些会报错是因为有一些是系统不支持的原因 导致的。好吧,所以说我们就不说了,那谷歌的这些我们就先不配置,后期我们需要我们就再配置。还有图片生成 open color 又有哪些功能取决于它背后的大模型,它能不能生成图片也取决于你有没有配置它图片生成的 api。 好 吧,我们后面都会讲把这三个都选择上 好,它是正在启动和安装完光好点击允许它。一般来说在 mac 电脑情况下会自动弹开你的默认浏览器好吧, 然后呢? open the web y 就 可以弹出浏览器,你看就可以对话了是不是?你好,我们现在用的是字谱的大模型好吧, opencloud。 呃,回复的速度取决于你的问题,或者说大模型网络情况等等。啊啊,可以正常使用好吧,都是可以正常使用的好吧, 他现在还在回答好吧,比较慢一点。 ok, 让他在读这些东西,然后呢?还在显示 stop, 他 显示 stop 就 等于说还没回复成功吧。应该是这样的意思。 ok, 反正他是已经成功回复了。你看还在读取还在读取啊,你看 就是他在读自己的角色设定等等嘛,表明这样就没有问题呢啊,他就回答了,这回才是正式回答,然后呢,变成 new session, 并不是 stop。 ok, 好, 这表明成功了嘛。好吧,那我们现在先用 taggram 看一下这里面配置,那我们去搜一下这个这个机器人,好吧,直接这里搜索,直接 at, 然后呢,后面这个就可以,小月大龙虾加入进来,点击 start 就 可以,然后呢,它弹出了一个什么 配置?好吧,配置,也就是说它有一个码,你这码要去 那个什么呀? open core 里面去配置,我们来配置一下。好吧,它其实已经给你命令了, open core print 什么什么 type, 我 们这个你直接复制过来,然后直接在终端这里粘贴回车就可以了 啊,这样就配置了。它配置成功了,然后我们来,你好,它显示 taping 表明就正常了,明白吧?啊,就正常了 啊, taping 就 正常了,等到他回复啊,回来了,出去了,我电脑桌面有什么文件,问一下,看看权限有没有 啊,他说是否允许嘛,那我们就允许呗。 他让他又主动问,我说很高兴认识你这里你看啊,有了有了,出来了,你看百度网盘,然后里面内容 都有了啊,代理订阅链接什么的都有了,好吧,我们说它正常, ok, 好, 那我们接下来 taggram 已经配置完成了,我们接下来要去进一步配置。好吧,进一步配置,进一步配置什么呢?我们接下来要配置它的 whatsapp app。 whatsapp app 的 话也很简单,先下载安装包, 中国手机号也是可以的啊,点击下载自己注册啊,注册就不做教程了。好, whatsapp 也是一样的,进行打开, 然后呢,进行拖拽进去就可以安装成功啦。 ok, 我 们打开 whatsapp, 当然这种下载安装麦一般都会提示说互联网下载是否要打开嘛。好吧,打开嘛就行了, 继续一样的啊,扫码。那我就扫码一下这个。呃,注册就不录了。好吧,不然这样太长了。已经讲了很多其实 比较多的其他了,但是这也是比较重要的,我觉得还有我个人常用的,市面上应该没有这么细的。没有这么氪金。我们这玩 k 跟就是认真独特啊。 那是扫码关联,然后呢?手机屏幕不要关屏。 好, 这样关联了就可以啦。啊,关联了就可以了,那现在怎么绑定呢?我们去终端啊, open curl channels add 就 可以了,回车它就会让我们进入到那个通讯软件的配置,他说适合配置,我说 yes, 然后这里就是已经有了嘛,我们就 whatsapp 来必须打开全局代理或者是说虚拟网卡模式啊,不然二维码是看不见的。好吧,我们就 default, 然后 yes。 然后呢?扫描这二维码就可以了。好吧, 它只能关联四个设备。那我不知道摄像头有没有找到。只能关联四个设备,所以我现在得删掉一台设备才可以。 所以把 windows 的 麦这个 openclaw 删除吧。我关联一个新的设备,删除之后就可以扫码。好吧,扫码,它必须保持打开的状态。好吧。 好,已经好了。你说 this is my personal phone number。 就是 自己的嘛,然后输入自己手机号码。好吧,加八六啊,国内的是不是。 然后这样就配置好了嘛。然后呢?选好,然后选择 finished 就 可以了。然后说添加什么 names account。 哎,这个英文不好。很简单啊。我也不好啊。让 gpt 翻译一下 什么意思? 其实现在什么你说你是文科生啊,你说你英语不好都不是重点好吧,是否为这些账户添加可显示的名称。 嗯,那我就设置一个名称嘛,就类似于别名嘛。 yes, 我 就是说 ai, 乐创 iphone 可以 吧, 然后这是什么?所以你看这也是我刚刚遇到,我在写教程的时候没有遇到过。我在之前配置也没有遇到过,知道吧,所以你们要学会就是理解它的意思或者说它的功能或者意图,这是非常重要。 直接提问 gpt 帮我翻译一下, 他说是否今天已经配置的渠道账户跑到 ai 的 智能题。 那先绑定嘛,他们同时绑定嘛。我要继续很想很好奇。知道吧,就 mail 吧。 ok, 这样就搞定了。好,我们来试一下吧,我先保证。嗯,现在是不是离线了是吧。 啊,好了,刷进来就好了。好吧,我再问一下。网页版保证配所有的配置所有平台都是正常的。好吧,你好好,可以,然后我们再 taggram 试一下。 你好, 然后我们再 whatsapp whatsapp 的 话就是找到自己给自己发信息。好吧,所以我们要发给自己。好吧,然后这里是选用过了,我再试一下。那也好了,看看能不能都回复 好。我电脑桌面有什么 等待他回复一下。刚才 好没有问题,他也回复了,所以说我们的 tegram, whatsapp, app 都配置成功了。好吧, ok, 那 剩下的我们以后再去研究。我们现在要去配置的是什么呢?飞书啊,飞书才是我们的一个重头戏啊。重头戏。 ok, 那 飞书的话,首先啊,你得先有个飞书的应用嘛。好吧,那我们先把飞书的那个 客户端安装一下好吧,账号密码你自己注册。好吧,这个也不用交了,如果这个也用交的话,这种这就麻烦了。好吧,而且现在工作的话大部分都要用到飞书。好吧。 嗯,另一截另一样。好吧,这个反正就是在线的,反正在线的功能肯定会被限制,还是本地自己部属是最好的,然后我们自己可以用一个闲置的。好吧,下载飞书。 飞书 mac os 的 客户端。好吧, apple 芯片,当然了。呃,我不知道 apple store 里面有没有,我们搜一下吧。我的没有的话我也把这个安装包也上传上去吧。 哦,飞书我安装过了。好吧,那如果你 apple store 不 会没有搜到这里的话,我把它上传上去。好吧,飞书嘛?通讯软件包嘛? 飞书。好吧,那如果你安装包不知道怎么下载,你就用我的百度网盘里面的。我这个也是官方去下载下来的啊。 ok, 上传完成再来。 飞书的话那就不用说了,先登录,我先发。先把飞书登录一下吧。 好,那你自己把飞书登录一下,然后扫码。飞书的好处。好处就是你不用电脑上开代理,然后手机也不用开代理,这是比较好的地方。 好,我已经登录了,待会我们会用到。好吧,那我们再去按官方的来试一下。官方又更新了文档嘛。安装安装方法已经改变了。那我们来试一下,我接运行试一下它里面。 哦。下面说什么哦。飞速扫码直接创建机器人。那我们是什么?看来我当时写教程的时候已经变化很多了。都不用手动创建机器人了吗?太令人惊讶了吧, 我要把手机投屏过来。好吧,幸好我是 iphone 哈哈哈。 哎呀,扫码你看看啊,玩家宝的智能助手,那就是小月 大龙虾。靠,我前面教程啊,正在创建,就这么简单了吗? 真的是我前面教程啊,我还是得吐槽一下前面教程,一步步的创建机器人。那没有问题,然后到这里一步步的去去写了配置飞书嘛, 那一步步很全很全哈哈哈,结果现在就给我换了一个安装方法,直接扫码就可以,真的很方便飞书 啊,当然了,比相较于之前就很方便,也是非常好的啊。他现在要查看审核进度。那其实就是和刚刚一样,原本是要自己去创建,现在扫码就可以创建,然后进入管理后台。 哇,这两个会不会同名啊。两个都叫小月大龙虾,应该没事吧。审核吧, 然后通过机器的能力也有了。啥都有了吗?目前来看应该是什么都不用,配置。那就好了,刷新一下看看 好带上线是吧,看看正在审核中。不是已经急用了吗?那这样就可以了吗?打开应用 小雨打龙虾是吧,我试一下,你好 有反应吗?我看下后台, 他说可以运行它一下来应用这个修改嘛,那我就应用一下,也就是前面创建好了,他让我运行这条命令, open file dr 杠杠 fix。 好 吧,你们也可以运行一下。 好,现在不知道有没有运行成功,看看试试啊。 我先看网页版正不正常嘛,是不是别网页版不正常,那我等有什么用啊。网页版应该是正常的,等等看 好可以 有。目前来看是正常的嘛。然后那我这边呢?哎,有了有了, 我确认一下是不是我这台电脑了,我现在电脑桌面有什么文件 看一下。所以现在飞书创建非常方便,都不用自己去创建七技能了,你只要运行在安装命令之后直接扫码就可以了。 ok, 真的 是太令人激动了,但我的为我的教程感到惋惜,因为他用了新的方法就可以了。 好,没错,就是这个 open curl。 好 吧, open curl 等于非输绑定已经完成了。好吧,非输绑定已经完成了。 表明我们今天的这个教程啊,到这里就已经完成了,这后面这些其实都可以跳过了。好吧,他们已经更新了这个插件,我这个教程我还得再更新一下,就把那个非输绑定这教程重新编写一下。 ok, 那当然其他的你们也可以去参考一下。我觉得也也可以参考一下看看。 ok, ok, 那 剩下的 windows 安装我们下一期视频再来。 ok, 我 们到这里就结束了,咱们有问题的话评论区见。好吧, 一键三连加关注可以找我加粉丝群。要要要。百度网盘链接以及教程链接。 ok, 咱们下一期再见了,拜拜。

上一期我们已经讲清楚了什么是资源,今天这一条,直接把他的终极格局、未来规模和你我的真实关系一次性讲透。资源就是 ai 时代的数字源,油加算力货币。他不是一个小概念、小风口,而是一个十万亿级别的超级主赛道, 今年整体规模就会迈入万亿大关。到二零三零年,整个资源相关产业保守会冲击三十万亿以上,增速远远超过房地产、传统金融大部分制造业。 在国民经济里,他的地位只会越来越重。未来五到十年,资源产业链占 gdp 的 比重会从现在几乎可以忽略不计,一路提升到百分之五甚至更高,相当于今天新能源加高端制造的战略分量, 成为国家真正的核心支柱产业。而更关键的是全球格局,资源出口会成为中国最重要的数字贸易业务,电力不出境,算力卖全球。 未来中国资源出口规模有望达到数千亿美元级别,成为继商品服务之后全新的全球贸易硬通货。很多人会问,这么大的赛道,跟我一个普通人有什么关系?关系非常大, 资源越普及,成本越低, ai 就 越深入每一个行业,同时会诞生一大批全新职业,比如资源标注师、资源交易师、 ai 提示工程师、智能体训练师、 算力调度师、 ai 应用架构师。这些岗位现在刚起步,未来全是极度抢手的稀缺人才。收入高、需求大, 是普通人转行进阶抓红利的黄金方向。对大多数人来说,哪怕不做技术,你也会受益于更便宜、更强大的 ai 工具,办公效率翻倍,创业成本大幅降低,副业机会变多,生活服务更智能。 资源本质上就是在降低整个社会的智能成本。未来的逻辑很简单,资源是数字源油算力是数字油田, ai 应用是数字经济的一切场景,谁先理解资源,用好资源,布局资源相关的能力,谁就能抓住这一轮 ai 时代最大的结构性红利。资源会改变哪些产业,又会诞生哪些新职业?评论区我们探讨。

我引用了两亿的免费托盘来养龙虾,前两天发的关于免费养龙虾就是 open globe 的 视频火了,呃,很多朋友私信我,我也帮很多朋友解决问题。那今天答应大家出一个完整的视频教程,我是用的 mac os 的 系统,然后呢,接下来是以 mac 教学为准,而 windows 的 话呢,可能大家可以问问豆包或 tipisk, 一 步一步截图问它都能解决的。 那可以看到这里我是消耗的是零元,对,然后我之前的 a p i k, 嗯,网络速度也慢了,不好意思啊。对,你看到也是零元的状态。嗯,然后我们进入到那个 opencode 的 官方网站,对,它其实是 opencode 点 ai, 然后有个文档,上面呢,其实会有一些安装的说明, 因为我已经装过了。看,这是我的小龙虾的 space 状态,可以看到它是正常的一个状态。所以说我们这边重新带大家走一下那个新手引导的一个配置,然后其实我只要复制这个命令,然后打开终端里面, 然后输入这样一个重置的新数引导,那就相当于会进入到配置过程,它是麦上的终端,终端 app 搜索一下就可以了。然后我们重新进入引导,快速引导,然后更,这里因为我之前配置过,所以说会有之前的配置,那我们这里选更新配置, 到这一步呢,就会选 model, 就 模型的供应商啊,它这里有 open ai, 有 mini max, 也有谷歌,那我们是 open rota, 免费的模型就选 open rota, 这里有,然后大家可以看到有这样,这里有这样多非常多的模型,而我们的模型是什么呢?就是, 呃,叫做那个 jason 星辰就 stay fun 三 new flash 就 free。 呃,它其实是这样一个模型 id, 哎,复制一下。对,它现在在那个,呃小龙虾的榜单上,哇 啊,可以看到,就是已经消耗了一点五四五 t 的 图片,免费的。对,就是排名了很多天的第一。那么回到刚刚的配置界面, 呃,这里呢,其实是可以通过那个方向键就上下左右的上下来控制,因为它太很多,就是你一个一个找到肯定能找到的。但是呢,它这里提供了一个就是输入,对,输入 enter model。 那 我们这里选进去之后呢,把之前的这里删掉,因为要留一个 open road 的 默认的前缀,所以说我们这里,哎,对,输入进去, 这样就 ok 了。呃,我之前设置这里到这个环节呢,是设置那个我们用哪个 i m 去控制去连接?我们这里先跳过,然后这里的搜索呢?其实也可以先跳过, 然后跳过之后呢?就是,是不是那个呃,调调成近的,那我们这里选择一直跳过,然后这里是 no, 对, no, no, 这些是一些具体的一些设像,我们选 no, 但有需要的话呢,大家可以呃,就说 自己去设置。那我们只是今天先讲模型的过程,那我们选重启。哎,对,然后这个,呃,小龙虾的服务就在重启,我们刚刚重新走了一遍新手的设置。那,那我们现在等待它重启。对, 好,它就这里重启成功了,然后那我选择打开网页, open the web y, 哎,它就会自动打开网页,对,就刚刚的网页重置了,然后我们这里输入一个 states, 相当于就是可以看到它当前的一个状态, 然后返回一个当前的状态。 哦,好像说错了秘密了,应该是 s t a u t s? 不好意思 啊,反正没关系,它好像识别了。嗯,对,可以看到我这里配置的是基于新成的模型,因为 p i k 呢,其实我之前已经配置过了,所以说它,呃,不会让我重新再配置。 对,这里显示一些中文。对,然后这里的模型的配置呢?其实我们就回到 openroot 点 ai 这个网站,然后呢去创建一个新的 a p i k, 比如说我们今天是来自于抖音,嗯,点抖音,然后这里的信用额度限制呢,我们选个零点一美金,相当于其实花钱的话也 最多就七毛钱。然后这个额度的重置呢,我们不用不用管它永久都是零点一美金,就是七八毛钱,过期时间一年。那相当于我们就会有一个 a 四值大小按钮。很多朋友也都问我怎么复制, 哎,这就复制好了。这个 k 呢,其实是是在刚刚的配置环境里面,选模型的环境里面,它会让你有一步调配置的,因为我刚是已经配过了。然后呢,如果是你已经是正常的模型了,其实本质上你已经配过小龙虾的话,你在这里输,输 k 给他,然后输模型给他,然后把那个 open source 这个网站输给他,其实也能切换,正如正如我刚上一个视频讲的, 还有就是说,呃,我们在那个呃 open note 的 这个网站呢,它不光,它不光有很多的那个付费模型,它其实是我们在 mod 这里去输的话,你输 free, 它除了接下来三点五,还有很多免费的模型, 对,包括之前的智普的四点五的 air 是 免费的。英文答,有很多模型其实都是免费的,包括 open air、 gpt。 其实也有免费的模型开源的,包括千问。啊,这个千问三呢?其实是,这是一个专门用来编程的一个模型,也是免费的。其实有很多,大家其实可以是一个个去找。对, 然后技能商店的话呢?呃,腾讯最近两天出了一个,呃,中国版的 skill hub, 呃,它本质上呢,其实是在可融 hub 技术上呢,其实做了一个技巧战,呃,这个其实也不错的,然后,呃,你也可以去那个可融 hub 去下载一些技能。呃,腾讯这个专为中国用户呢,它会有个榜单, 你相当于就是你看这里有一段话,看见没有,相当于就复制下来。呃,发给小龙虾,对,他就会去检查,帮你安装这个技能商店,然后你就可以和小龙虾对话,去在里面找更多技能去安装了。我是之前已经安装过了。对,那我们今天就这样。