好,我再跟大家说一下我的第三个小龙虾是什么?第三个小龙虾的时候,我终于找到一个比较聪明的大模型,我发现这个国产的大模型,还有这个纤维的大模型三点五 plus, 然后这两个大模型还是比较聪明的,那我就优先选择了这两个大模型。那我以为我的小龙虾就 很好了,就可以永远的帮我干活下去了,但是我想想那小龙虾,不对啊,那小龙虾,嗯,他活下去肯定有一个技能,对吧? cels, 我 当时就把网站上的两千八百多个 cels 直接 丢给他,我跟小龙虾说一学,我说你把这些全部学一遍,我想想吧,不就是一台呃,这个电脑吗?大不了我耗电费,他是一个空白电脑。反正人学的多,能干的多嘛,我就全部就喂给他了,结果对人来说借多不加钱,但是对机器来说多了会把它搞死的。
粉丝613获赞1528

最适合 oppo 酷路的一个天选基座模型,我想除了阶梯五点四应该没谁了吧?一个优秀的一个 ag 的 基座模型, 我的理解是需要三个方面都比较优秀,一个是代码能力,一个是世界知识,一个是多模态理解。当这三个都能达到 s o t a 的 时候,那它几乎必然是一个最流的 ag 的 模型。当然还有一个重要的因素,那就是使用的一个价格。在过去的话,酷路的 oppo s 四点六,它几乎是 ag 的 模型的一个代名词,因为它在上述三个方面都特别的强, 但是它的一个使用价格真的很高,所以使用起来真的很肉疼。而这一次 g p t。 五点四的一个出现,真的就补齐了这个短板。 g p t 五点四,它在代码能力方面是和 g p t。 五点三 code x 是 齐平的,然后在世界知识方面,它比 g p t。 五点二要更加强大,同时它还能使用订阅额度,二十刀就能让你使用的超级爽。可以看这张图,在八个评估指标里面, 五个它都是达到一个最优的。总结一下, g p t 五点三,更强的一个视觉支持,加上更多的一个工具模型调度能力 机,超级便宜的 codex 额度,这四样加在一起,这就是一个完美的 code cool 的 一个天选基座模型,所以现在在使用 open cool 的 你们,可以尝试把模型换成 gpt 五点四,我相信你会发现一个新的大陆。

打死我也没想到, open curl 最适合的模型是这个,最近出来了一个小龙虾的评测精准, peter 也是为他点了个赞,他是专门用于评估小龙虾在一些实际的场景,到底他的效果怎么样, 今天我们来看一下。首先他的评测任务里面有二十三个,然后基本上都是日常常见的一些任务,然后他就评估了非常多的,我们直接来看一下他的排行榜,打死你也猜不到。 最适合的是这个 jimmy 三 flash 这个模型,它的准确度达到百分之九十五。然后第二个是这个 mini max m 二点一,但是 mini max m 二点五已经出来了,但是它没有评估。可以看到像这个 oppo 的 四点六,四点五,还有 jimmy 三 pro 都排在后面, 还有 kimi, kimi 也排在了第三位。最最重要的是这个 jammy 三 flash 排在了最前面,我不知道它是为什么,最最重要的它的成功率是最高的。还有其他的一些评测榜单,这个就不说了,因为它完全没有考虑成功率,它没有一个综合的榜单,我们直接看它的准确率。但是毫无疑问的, 这个 jammy 三 flash 它的价格也是很便宜的,而且速度也是肯定是很快的。但是有没有 mini max 应该是比 mini max 要稍微快一点的,因为本身不光是模型的问题,还有一些服务器的问题。这个 jammy flash 肯定是更快的,而且它的准确度也高,成本也低, 虽然还是没有这个 mini max 更低,因为它是有一个汇率差存在,所以说 mini max 会更便宜点。这个 kimi k 二点五也是真真是想不到。 其实这个项目还可以拿来做一些什么?这个基本都是开源的,其实还可以拿来做一些模型的评估,评估了之后可以拿来做这种模型的路由, 什么模型适合做什么样的任务,什么模型适合做什么样的任务,同时兼顾准确度的情况下,又兼顾了他的一个成本和速度,这个还是有的做的,有这样的,如果有这样的一个项目,他应该应用场景还是挺大的。

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。

你有没有跟 ai 聊天越聊越崩溃的时候?昨天啊,刚跟他聊过的一些事,重启对话框,他立马装失忆,反复问你是谁,半点之前的对话痕迹都没留下。明明刚教导完的设置,踩过的坑退出再打开,一切归零。 在深度玩过龙虾之后啊,分享给大家一套 ai 记忆系统,让你的助手从此告别失忆。 很多人搞不懂,为什么 ai 这么聪明却记不住事?普通的 ai 大 模型,没有本地持久化记忆的底层功能,他只会临时保留当前绘画的内容, 就像在沙滩上写字绘画一结束,程序一重启,相当于海浪打过来,所有的对话配置信息全被重墨,不留痕迹。这不是 ai 故意忘事,是底层机制限制。 想要他记住啊,咱们就得给他搭一个外置本地记忆库,把信息刻在石头上,也就是咱们的本地文件,彻底绕开原生记忆缺陷。 其实最基础的一步啊,就是需要先有个 memory 文件夹,这个就是个人文档,固定不变的重要信息全放在这里。昵称、核心配置、晋级要求,重启多少次啊,都不会丢。 就好比流水账,当天的操作,踩坑、临时事项随手记,后续想查哪天的内容,直接找对应日期,本档一目了然。 这里啊,要注意,像 overclock 呢,是可以直接要求他把信息录入这两个文件的,相当于啊,给他安装记忆库,给大家演示一下就清楚了。 好,这里我给他一个指令,让他记住这句话。 接下来他会找到 memory 文件夹,打开记忆文档,将这段指令记录在里面。 ok, 他 提示完成了。 就这么简单,靠本地文件存储,不靠 ai 临时记忆,重启之后啊,照样记得清清楚楚,再也不用重复交代了。 现在我们有了记忆库,但是你的龙虾很懒,除非啊,你去它,它才会去给你搜索记忆。这里啊,再给大家神奇 skills 这个技能书,可以让你的龙虾拥有一个主动翻找记忆库的能力。 当你问一个问题的时候啊,它会自动联想,就像有一个大脑在背后做记忆解锁,而不是啊,临时去翻文件夹,大大缩短搜索链路。 那么随着我们使用龙虾的时间越来越长,我们存储的记忆文件呢,也会越来越多,或者说,你是需要查大量资料的从业者,大量参考文件的学生, 那就要用到 abc 点这个本地知识整理工具,专门啊,把零散碎片变成体系化知识,把海量的文本资料变成龙虾专属知识库, 给大家看一下它的核心能力。笔记之间啊,互相引用,问题和解决方案直接绑定,再也不用零散找内容了。 还有啊,关系图谱功能,所有笔记的关系格式化呈现,上一张知识地图,一眼看清所有内容的关联,彻底告别碎片信息。 这样就能实现让 openclaw 负责实时记录, obsidian 负责整理规范,各司其职。其实啊,整个龙虾的记忆逻辑就是分成三层,打个比方, memory 文件是档案柜, delete 技能就是一个会主动翻资料的脑子。 obsidian 呢,就是给龙虾造一个图书馆。 这套三层式的记忆宫殿,本质就是给 ai 配了一个可以书写下去的记事本,并且每一页都有清晰的标签和目录,重要信息写进本地文件就忘不掉,并且能够快速提取出来。 它能让 ai 记住你的所有偏好,不再重复犯错,每一次沟通都能不断积累经验,学习进步,成为你的得力小帮手。好,本期视频就到这里,我是爱分享 ai 的 阿月,我们下期再见!

装了 openclaw, 但发现它什么也干不了,甚至有点蠢。除了需要配置各种插件和 skill 之外,它最需要的是一颗足够聪明的大脑。今天来分享我的配置方案,用 mini max m 二点五驱动 openclaw, 性能逼近 cloud 的 up 四点六,但成本只有它的十分之一。走订阅制,每个月一杯奶茶钱,非常适合在 openclaw 中使用。 接下来给大家展示我是如何用 opencll 来提升我的工作效率的。第一个,接入飞书,通过手机帮我剪辑口播视频,现在我直接在手机上发给 opencll, 一 句话就搞定了。帮我剪掉所有停顿重复的地方,然后导出发给我。它会自动调用语音识别,定位无效片段精准剪切。 以前剪一条口播至少要两个小时,现在三分钟出片。装了 opencll, 但发现它什么也干不了,甚至有点蠢。 除了需要配置各种插件和 skill 之外,它最需要的是一颗足够聪明的大脑。第二个,帮我整理文档,自动上传到飞书知识库 ai 时代,每个人都应该建立一套属于自己的知识库,有了 openclaw, 就 可以实现知识文档自动分类,自动入库。 我设定了一个定时任务,每天生成的文档自动识别内容,并根据分类上传到对应的知识库中。比如我今天写了一篇关于 openclaw 闭装 skill 的 笔记,它会自动识别内容,归档到 ai 开发知识库的 openclaw 分 类一下。第三个,帮我打开浏览器,注册各种账号,获取 api k。 当时我需要一个文本转语音的 api k, 正常流程是我自己打开浏览器注册登录,找到 k 页面,然后复制,但我就跟他说了一句,帮我注册 eleven lives, 拿个 api k, 他 就真的自己打开浏览器填表注册成功拿到了 k。 那一刻我是真的被他的执行力震惊到了,为什么每个都能这么顺?两个原因,一, mini max 二点五,自带的任务拆解和工具调用能力,他能真正理解你的意图,拆解有逐步执行。二,题词给的足够清晰,你不需要会写代码,但你需要学会把需求说明白。

大家好,在你装完 openclip 之后啊,第一件事要做的事情就是去选择一个模型,那模型作为 openclip 的 大脑,它起到一个非常关键的作用,那这么多模型,那他们之间有什么区别呢? 那为什么你的模型只能识别文字,不能识别图片呢?那本期视频呢,就跟大家讲一下不同的模型之间能力的区别,以及怎么去配置模型。那对于一款模型来说,它的能力有接收信息,那信息类型啊,有可能是文字,也有可能是图片, 也可能是视频、音频或者其他就是你发的信息的内容可能包含这些类型。那么大模型在接收到你这些信息之后,他对你的信息进行回复,也有可能有这些类型,比如说他回复文字,给你回复图片,给你生成一张图片,或者说做出来一个视频, 或者说做出来一个音频音乐,那么也有可能是进行一个网页的搜索,你让他调用了搜索的工具进行一个网页的实时搜索, 那么这这两个东西就是一个输入和一个输出,那不同的模型之间的差异啊,就表现在接收和回复这个信息的内容区别上。那么 open core 官方呢, 截止目前也统计了一个模型的一个使用的一个排行榜,那么这个排行榜里面的模型的排名,不是说我们传统意义上那种模型的一个综合排名,它更多强调的是在 open core 里面的任务的完成的成功率和这一个排名,大家可以看一下, 就是平均的一个排名,就是比如说第一的是 gemini flash, 那 么第二的是 mini max 二,二点一,那么对于 mini max 它现在已经发布到二点五了,但是二点五的表现是在这个排行榜是比较差的, 这个也是非常奇怪的。那么前面还有这个 kimi 的 k 二点五,就这些模型在任务完成的成功率是比较高的,所以这也可以作为啊模型选择的一个参考。 接下来我们就来说一下不同模型在接收信息和返回信息之间的差异,大家可以去选择。就是你在完成任务的时候,为什么有些模型处理的不好,那比如说我们 dbisc, 那目前 v 三点二版本它只支持一个文本的输入和文本的输出,那么对于千万三点五 plus 来说,它能接收文本,也能发图片,它也能去理解这个图片是什么。比如说在我的这个 openclip 的 这个非书的聊天里面,我上传一张图片,那模型来识别一下图片中的文字, 如果你的配置的模型它不支持这种啊图片的识别,那么它出来的结果就是跟实际的结果是有很大的差异的, 那么可以看到它识别出来了这个图片里面的所有信息是完全非常准确的。那么在刚刚的演示里面,我们可以看到千万三点五 plus 它是有一个图片理解能,所以大家在用的时候一定要注意自己的业务的场景 啊,选择正确的模型。那么这里边除了图片理解呢,这边还有一个网页搜索,就是说它本身模型它本身支不支持这种搜索这种内容,因为对于模型来说,知识库它是有一个截止时间的,比如说你可能你 模型的训练数据可能只是截止到二零二五年,但是你现在搜索二零二六年的,那就有些模型他是具备这样的网页搜索能力,他就可以调用这种 实时搜索能力,那么有些是不支持的,那就要配置这样的 m c p, 官方也出了这样的工具,比如像豆包系列,二点零最新的模型也是一样支持文本和图片,那么他这边也是可以单独去开通网页搜索的能力啊。 那我们可以看一下,就是啊这几款国产的,比如说 mini max m 二点五、 m 系列和这个智普的五点零,他们这个图片的识别是需要单独去配置 mcp 的, 不然的话他是没办法去识别的。 那 timi k 二点五的话是原生就支持图片识别,那么国外的模型,比如说 colossal 四点六和 jpeg 五点四,还有 jimmy 的 三点一 pro, 那 么它们都支持图片识别,也支持这种啊网页的实时搜索,那算是这个综合能力算是比较好。那其他的比如说你要去让模型去申请个图片, 那基本上我们现在用到的这主流的这个啊主模型啊都不具备,那么你就可以去调用他们专门的图片模型。比如说像千万,他有专门的万象系列的生成图片的,那么都包括有纪梦相关的模型,那么像 jimmy 的 话,有专门的这个深图的模型也是可以的。就是这些 又需要去单独去配置,在你去生成图片的时候去告诉他去调用这个模型去做这个事情,那像这个火山,这个 cds, 二点零系列都是可以去生成视频的,那么这个就是一定要知道,就是一款模型,它不是万能的, 你可能需要不同的模型来配合去完成你的业务的场景,所以一定要一定要弄清楚你的业务场景里面涉及到了文本、图片、视频、音频, 就把这个东西先想明白了,再去找对应的模型配置好,就才能去把整个东西,整个东西串起来。选好模型之后,很多模型厂商都会有两种购买方式,一种叫做按 token 购买,就是 按用量购买,用多少啊你就付多少,这种方式是比较自由的,它是不受任何限制的。那么第二种就是按这种 coding plan, 就是 套餐的方式,那这种套餐是什么样子呢?一般是有 有限制,比如一个月能用多少次,然后一周能用多少次,然后五小时能用多少次,它是有一个这样的一个限制,会每隔五小时会刷新,每一周会刷新,然后总流量是不超过啊,每个月总流量那么像智普啊, mini max, 豆包,还有这个千万 都出了相关的这种啊这种代码的套餐啊,就是可以可以编码,又可以用在 openclo 里面,那每一个套餐这个量是不一样,大家一定要注意去看,它可能在官方的介绍里面会说啊多少多少次请求,但是要换成就是你的一次对话,就是你跟 openclo 对 话一次,可能要 调用很多这样的一个请求,那么这样的次数是没有他说那么多的。最后呢,就是我们选择好了模型之后啊,我们怎么去配置?第一种方法就是啊原声的就是它 openclo, 它本身你在配置的,你在安装的时候它是有模型的一个列表的,比如说你输入这个 openclo config menu, 那 么 到这一步的时候,你选择这个 model, 就是 你需要去配置这个模型这边的话就会选择很多啊,它本身的支持这个 pro i 的, 就是它本身已经内置了这这些模型的链接,那么你点进去之后,你就可以去输入你的 a p i t, 或者说输入你的这个认证授权的一个链接啊,那这能快速的去完成。那还有一,还有一些它可能是不在这里面的,比如说像千万千万的这个 codeplain, 还有一些其他的这种模型的配置啊,那么你就可以使用这种 cc switch, 那 这款软件,那这款软件呢?有一个单独的一个菜单,那么点进去之后你可以去进行配置,也是一个图形化的界面。那接下来就是这种比较繁琐的,就是去编辑这个这个 配置文件,那这个是 openclip 的 一个啊,总的一个配置文件,那这里面的话,你就要去修改这个 providers agents 里面的内容。一般是 如果你选择哪个模型厂商的话,它会提供这样的配置文件修改的,这个啊完整的字幕串,你直接去给它修改掉就行了。那么如果你自己改这个接线文件,因为这个接线文件非常大, 嗯,不太方便了,你可以借助这个 ai 编程工具,比如像 tree 啊,像 cos 啊去帮你去修改它,它这边是可以去给你修改,而且可以去给你修复可能修改出来的问题啊。 那除了这上面的方法之外,那就可以用它自己的这个外部端里面的设置里面找到这个 modus 的 节点啊,但是它这个说实话非常非常难用啊, 我觉得用上面的方法都比它这个官方这个界面用的会可能会更简单一点。那你如果配置完之后啊,最好是重启一下,那么你在页面上可以点去重启,或者说输入这个 open curl, get away restart 这些命令去重启,重启完之后,那么你就可以去使用新配的模型了。 ok, 那 本期视频到这,希望这个视频对你有所帮助。

一个视频告诉你龙虾欧根库奥背后的原理到底是什么。如果你拿大模型给他发一个消息,那么他就会根据你的消息给你一个回复,这样你就得到了一个最原始的 ai 聊天工具。然而,大模型只能根据你发送信息进行单次的回应。你们聊了这一句,忘了上一句,压根无法进行有效的对话。 于是你灵机一动,每次发送新消息时,都会把旧的聊天记录打包一起发过去。有了上下文,模型终于有了记忆,你们终于可以愉快的聊天了。可你很快又发现了一个问题,虽然此时的模型有了记忆,但仍然没有改变你一句我一句的聊天形式。只要你不主动给他发消息,他就原地挂机,不会理你。 可你不可能一天二十四小时守在电脑前给他写提示词。这样一来,他就只能帮你做一些琐碎的小事,无法自动帮你完成一些长期复杂的任务。当然,这也难不倒聪明的你,既然你没办法盯着他干活,那么设置一段程序自动盯着不就好了吗? 于是你动手写了一段简单循环脚本,每次大模型输出后,都让他自己判断任务是否完成。如果判断任务还未完成,那么脚本就自动把刚才的对话记录重新喂给他,让他继续思考。直到模型认为自己已经大功告成,在输出中调用 finish 结束函数,整个循环才停下了。 当然, ai 偶尔也会脑子抽筋,陷入死循环或者疯狂报错。于是你又顺手给脚本加了最大循环次数限制,脚本终于稳定了下来。 这样你就得到了一个简易的 agent, 它可以在你离开电脑时也能独立的思考工作。可新的问题又随之出现,模型累积的上下文越来越长,眼看着就要达到模型的输入上限了, 如果继续循环下去,模型就再也无法正常工作了。你思来想去,突然想到大模型可以提炼长文本的信息,生成简洁的摘药。 于是你在脚本中加入了一个新的机制,如果当前的对话长度逼近红线,就立刻触发压缩机制,通过提示此要求,模型将对话框中几千字废话浓缩成高度精炼的摘药。 这下终于不用担心模型被超长的上下文撑爆了。不过对话框中的上下文虽然被凝练了,但凝练前的那几千字原声记录你也不舍得删,万一里面有啥重要信息以后用的到呢? 于是你让脚本新建了一个 markdown 格式的绘画保存文件,将这段超长对话一字不落的写入该文件,并保存在绘画文件架。 现在对话框只剩下被凝练后的摘药了, ai 又可以愉快的干活了。但你认为这些摘药也是极其重要的信息。你又按照日期新建了一个 markdown 日制文件,将每次凝练后的摘药也存入了进去。 从此以后,你每天都会按日期新建一个日记文件,专门存储明面后的摘药。如此一来,脚本每次调用模型时,只需要将最近两天的日记文件加入提示词,就能立刻唤醒他的近期记忆了。 就这样,模型拥有了自己的短期记忆。可是光有两天的短期记忆还不够,你想要给它完整一生。于是你又新建了一个叫 memory 点 m d 的 长期记忆文件,将摘录中的那些长期结晶,如用户的私人偏好、项目、重大决策给抽取出来,写入其中, ai 就 拥有了它的长期记忆。 你的脚本只需要带着近期日记和长期记忆去唤醒 ai, 它就能自然流畅的进行长期任务了。而你所保存的完整绘画记录也不会闲着,如果需要 ai 回忆某个久远的细节,它就能去绘画文件夹里一字不落的搜索出来。 有了这套丝滑的记忆系统,你再也不用担心 ai 失忆了,它们就保存在你的硬盘里,直到永远。现在 ai 的 记忆问题解决了,但还有一个问题让你头疼,模型只会输出文本,你该如何让它操控电脑干活呢?一开始你想的简单粗暴, 计算机的底层不过是一些代码命令行,那么直接丢给 ai 一个最高权限的射奥终端,让他直接生成底层的命令,不就能操控电脑了吗?可真正尝试后才发现,这是一场惨不忍睹的灾难。目前的 ai 并不可靠,一个小小的幻觉都会让你的电脑崩溃, 无奈你只好放弃这条危险的底层直连。你想到之前工作时写过一些简单的功能性程序,比如发送邮件、抓取网页的脚本,这些脚本由确定的程序编写,只需要输入相应的参数,就能自动执行并返回确定的结果。于是你灵机一动,将这些写好的程序整合到了你的平台中。 现在你不需要 ai 直接敲代码,只需要让它根据不同的任务脚本生成对应格式的 jc 参数,就能通过这些脚本间接操控你的电脑,不管是浏览网页、整理表格,还是直接读取屏幕、操控鼠标, ai 都能轻松完成。同时,你也给这些脚本起了一个响亮的名字, skill! 一个极其清亮、即插即用的技能拓展框架。未来你还打算将平台全面开源,这样全世界的开发者都能编辑上传各种各样的 skill, 你 的 ai 也将会越来越强。 最后,为了能够让 ai 随时随地的在电脑上接受你的指令,你将平台的网关打通,让模型通过 api 接口与主流的聊天工具对接。 现在,你只需要掏出手机,就能像和朋友聊天一样,在手机上和你的 ai 助手沟通了。恭喜你发明了开源的自主 ai 智能体 openclo, 你 知道他可能还不够完美,但你不会放弃优化,相信终有一天你能做出像人类一样工作的 ai 助手。

二零二六年初,我的手机就被 openclaw 刷屏了。于是我满怀好奇,开始探索这到底是什么。 如果传统 ai 模型是帮你答疑解惑的思索者,那 openclaw 是 指用工具的执行者。但它并不是一个全新的模型,而是一个工具调用框架,它的大脑依然要接入大模型来思考和规划。 通过拓展 skills 和 tools, openclaw 应用范围更广泛。而它的上下文记忆机制能让你不丢失历史信息,配合训练引导,不断学习,实时进化突破。 还可以把它对接飞书或 telegram 等通讯软件,方便用手机随地下打指令。我尝试让他写一个页游放在我的桌面。我使用的千问模型答复很快,接下来检查一下,他按照我的要求直接保存在了桌面。 这是个需要双人操作的五子棋夜游。当然,这种工作为了节省 token, 可以 自己来复制代码。这只是一个小测试,但我的新鲜感还没褪去, token 额度却先消耗殆尽。 受硬件限制,本地只能用笨拙的小模型,不仅响应慢,工作质量也完全不达标。我没有购买 token, 学习便止步于此。

一起来做个测试吧!你要不要每月花一百五十块来订阅 ai 模型? jamie jpt cloud 今天我们不做横屏,我会用三个真实场景带你亲手测出哪个 ai 最适合你。 测试一, ai 拿到你的需求后第一次回答的质量打开三个模型的网页或者客户端,准备一份你真实的工作或者学习的材料,然后按照我的这个结构来写提示词。注意哦,这里都选择最新的旗舰版模型来做。 为什么只看第一轮测试呢?因为你在真实的工作或者学习当中,你不可能每次都花十分钟反反复复的去调教 ai, 而且你在反复的等待的这个过程当中,是非常的浪费时间,浪费你自己的注意力的。 好,答案出来了,如果这是一个实习生交给你的作业,一到十分,你打几分?把三个模型的答案记下来吧。 测试二,能不能接住你的模糊表达?在第一轮提问的基础上,你再用一句模糊的话去追问,比如感觉还不够有策略感,你再想想,就像平常你领导对你说的话那样, 他改完之后,你觉得和第一轮相比好了多少?打个分吧。到这里,两轮纯文字的测试已经做完了,相信你对 jimmy 叉 jimmy 七, cloud 如何帮助你更好的工作学习已经有了一个简单的了解,接下来我会对比三个模型我个人认为最有亮点的几个功能。 先说 cloud, 如果让我用一个词来形容它,我觉得是优雅。它有三个我非常喜欢的点。首先是文字,同样的提示词, cloud 写出来的东西是三家里面 ai 的 味道最淡的, 它不会莫名其妙的就开始用比喻,或者用那种很小众的那种词语,然后我觉得它的讨好型人格比其他两个 ai 也稍微轻一点。 其次是界面,它的工作区跟它对话区完全是分开的,整个页面呢,非常的清爽。如果你也是做创意类的工作的话,我觉得 called 跟其他两家的体验是完全不一样的。 接下来 deep research 这是我自己使用频率非常高的一个功能。简单来说呢,就是你给 ai 去下一个收集资料的需求,它会自己像一个研究员一样 去全网搜索啊阅读界面,最终产出一份待引用来的报告。我以前做广告行业的时候呢,要经常搜集品牌资讯,行业动态,每次都是翻好几个这种公众号或者是软文,自己再去整理汇总。 deep research 相当于有人帮你把这个事情全干了。 语音功能这三家都有,但是 cloud 现在是目前是只支持英文的,而且它是只支持语音转文字的,它听不懂你语气里面的这种启程转盒。我起不来床的时候,我就会召唤 ai, 告诉它我要做什么。它就会让我先坐起来,然后掀被子, 然后一只脚伸到地上,再两只脚穿上鞋子往外面走。这个场景下,我自己是更加喜欢 check gbt 多一些。最后聊一下生态和性价比,那这一块呢,毋庸置疑就是 jamie 是 最强的深图深视频写代码做研究, 但是深图深视频哦,我说实话,我觉得国内豆包就足够了,所以 jamna 它性价比确实是很高,但至于你能不能用上你这个性价比,就看你自己的一个工作场景了,三轮全部结束,最后我们来做一道选择题,刚才哪个功能最让你心动?写作和文件整理选 cloud, 深度研究报告选 check gpt。 性价比或者推理类的工作选 jamna。 最后,不管你买不买,你都应该花一点点成本完整体验一次最顶尖的 ai。 我用 ai 赚到的第一笔钱是在二三年 meghan 刚出的时候,帮人画迪士尼风格头像,当时是三十块钱一个。 现在这种效果已经成为所有的修图软件里面的一键滤镜了。两年前的顶尖就是现在的标配。别用上一次的体验判断现在的 ai, 这里是进化。小河,保持好奇,下次见。

训练一个大模型,你知道最贵的成本是什么呢?不是服务器,不是电费,是人,是那些懂怎么调参数、找 bug、 做评测的 ai 工程师。全球抢着要,薪资高到离谱。 但我今天要告诉你一个事,以后这活可能不用人来干了,因为今天 mini max 官宣了 m 二点七这个模型能参与自己的训练,自己找问题,自己优化,自己跑得超过一百轮循环,内部评测效果涨了百分之三十,全程没有任何工程师动它, ai 开始训练更好的 ai 了。 这不是科幻,是今天刚上线的事儿。大家好,我是杜宇,带你看懂 ai 赛道的前和事儿。先说新模型干了啥? m 二点七最核心的事儿啊,官方叫模型自我进化,翻 译成人话就是,以前训练 ai 得靠人工程师,哎,每天盯着改参数,查 bug、 跑评测。现在 m 二点七自己建了一套 agent harness 体系,你可以把它理解成 ai 的 工具手册箱。装上这一套工具之后啊,那模型能自己参与自己的 bug 排查一条龙,自己搞定 官方的数据库啊。在部分研发场景里, m 二点七已经能扛下百分之三十到百分之五十的工作量。更觉得是啊,它能连续跑超过一百轮分析、改进、验证的循环,自己调参数,自己优化策略,内部评测级效果提升了约百分之三十。 你肯定在想,这和我有什么关系,哎,先别急,我待会专门讲普通人的机会,我保证那个角度你没想到过,听完你都会有点慌,哎。但是好的那种话先继续说亮点,编程能力这一块啊,第三方专门做了一个测试,就是拿真实的工程向我们让 ai 去 找 bug, 修 bug, 提交代码,看能搞定多少。 m 二点七在这个测试里的完成率跟 open ai 的 gpt 五点三 codex 基本打平,跟 anthon 的 cloud open 四点六也在同一水平线上。欸,什么概念?就是国产开源模型已经在编程这件事情上正面刚赢了硅谷顶配的闭源模型, 办公场景这边也不差处理 word、 excel、 ppt 这种复杂文档的能力啊。第三方评出来,在所有开源模型里排第一,还超过了 gpt 五点三。另外有个数据我觉得特别直观啊,同时交代给他四十件复杂的事,他能保持百分之九十七的完成率, 四十件事只漏掉不到一件,哎,你让你的真人助理试试,大概也得漏个七八件吧。然后说说大家最近很熟的 openclore, 就是 那个龙虾,哎。对了,如果你关注 ai 群啊, 最近养虾这两个字应该是刷烂了你的信息流了。 open 可乐是一个开源的 ai 一 人框架, logo 是 一只红色的这个龙虾,所以大家叫它龙虾玩 open 可乐叫赛博养虾。 它的核心逻辑是让 ai 不 只是会聊天,还能动手干活,帮你移文件,改表格,操作软件,像一个真正的数字员工。 m 二点七跟 open 可乐的关系,用官方的话叫深度适配, 具体体现在两点,第一, memex 有 个专门针对 openclaw 场景的测试,叫 mmclaw, m 二点七在这个测试里拿了百分之六十二点七,已经非常接近 clodson 四点六的水平了。第二, m 二点七整合了 openclaw 的 长期记忆框架,说白了就是龙虾养得越久,它就越懂你。哎, 记得住你的偏好啊,历史任务啊,工作风格,这个是非常实用的能力啊。对了,这也是我刚出的新书的核心主题,养龙虾 openclaw 与 ai 智能体时代,这本书就是帮你搞懂怎么用好这套生态的, 从部署到实战,从个人体校到商业变现,感兴趣的可以去看一下。好,现在讲最重要的是 mini max 这一路到底是怎么进化过来的,以及后面会走向哪呢?我给你做个快速的复盘啊。 去年六月 m 一 发布,是个基础版本,去年十月 m 二发布,开始主打编程和 a 制能力开源啊。去年十二月底, m 二点一针对多元编程做的优化。 今年二月 m 二点五成本低到一美元,可以让一个 agent 跑一个小时,从 m 二到 m 二点五一百零八天,然后就是今天 m 二点七。重点呢,从我能干多少活,跳到了我能自己训练自己。这条进化曲线有一个非常清晰的方向,就是每 每一代的核心能力,从语言到代码到 agent, 再到自我进化,而且迭代周期越来越短,成本越来越低,性能越来越强。那这个趋势推演下一步是什么呢?我觉得是全流程的自动化,不只是代码,是数据采集、模型训练、评测、优化整条研发链路。 ai 都能自己跑到那一步啊, ai 厂商的研发成本会出现断崖式下降,同 同时性能会以我们现在很难想象的速度提升。最后讲普通人的机会,我说一个我觉得很少人真正能想的清楚的角度啊。大家看到这些消息通常有两种反应,一种是,哇,好厉害,然后划走。另一种是哎呀,要取代我了,好慌。但这两种反应都是错的,真正的机会窗口是在这。哎,成本塌陷了。 m 二点五那会儿一万美元,理论上可以支撑四个 a 整,连续工作整整一年。现在到了 m 二点七,能力又进了一步,价格还在往下走,这意味着什么呢?意味着以前只有大公司才玩得起的 a 整自动化,现在个人就能搭起来。 我自己看了不少投资项目啊。最近创业圈有个很典型的现象,那些用 open 可乐加上 m 二点五、 m 二点七这类模型搭的垂直 a 整工具, 有些团队就两三个人,能做出以前十几个人才能撑起来的工具产品。不是因为他们更聪明,是因为他们把模型当成了团队成员来用。所以我的建议是,现在最稀缺的能力不是写代码,是想清楚 ai 能帮我在哪个环节省掉什么成本,然后去搭它,测它,把它跑通。这事门槛低到你想不到, 但懂得做的人还是少数。欸,这也是我为什么写养龙虾 open 可乐与 ai 智能体时代,不是给享用 ai 真正赚到钱的普通人写的实战手册。 又说一句啊,今天 m 二点五的发布,我觉得最值得记住的不是某一个跑分数字,而是模型开始参与自己的训练。这件事本身人类花了几十年搞清楚怎么训练 ai, 现在 ai 开始入局了,这个变化比任何一条跑分都要深邃点。关注不迷路, ai 搞钱,我带路,我是杜宇,咱们下期见!

本期我们分享让龙虾变聪明的技巧,我们费尽心思装好了,结果发现它什么也不能用,现在安装的新版本它的权限是比较严格的, 本期我们分享一个设置和四个必装的 skill, 让 ai 助手从笨笨的变得聪明又勤快。当你部署好了之后,是不是也遇到了下面这些问题,就是他只会对话聊天,其他的什么也做不了,让他查资料,写代码,改文件,他说没有这个能力, 他没有权限,感觉他有点笨,不像别人分享的那么智能,明明是同样的东西,为什么我的不好用?本期我们将带着大家解决这四个疑问的问题,就出现在了这里,就是现在新版本我们默认部署的他只开启了基础的消息功能,他的工具能力被限制了。 在这里我们可以在用户名目录下面根据这个路径找到,我们可唠点 jason, 然后我们搜索 tos 这个配置,然后找到 profile, 然后把这个 profile 里面的这个 message 改为 f u l l。 修改好之后,然后我们再重启一下服务,这时候我们就可以开启完整的工具功能,我们可以测试一下, 如果还是不行,现在的新版本有可能还是不行,那么我们就直接删除这个兔子的这个配置,删除的时候我们要注意一下,要选择正确,在这里防止修改错误导致无法运行。我们修改之前我们先把文件去备份一下,然后再去删除。 看书的时候要注意它是一个成对的内容,这是被限制的解决方法。我们这样修改之后,我们就可以让它去读代码文件,执行命令,还有自动查找资料,然后全能的 ai 助手,下面我们来分享一下四个必装的 skills。 第一个就是 find skills, 就是当我们遇到无法胜任的任务时,会它就会自动去查找并学习相关技能,无,无需我们手动去寻找,它就会自己去部署。第二个就是 self improving agent, 它是持续自我进化的一个功能,它可以将学习成果和错误去记录到文件, 不断提升解决问题的能力。然后第三个就是 scale weather, 它是一个安全审查工具,就是检查技能中的危险信号、权限范围和可疑模式,它可以把安全隐患挡在门外。 然后第四个就是 scale creator, 它可以自动生成 scale 文件,我们只需要输入提示词,就能帮我们去快速创建自定义的技能, 可以解放双手。这是四个必装 skills, 下面我们做一下简单的总结,只需两步就可以焕然一新。第一步就是修改配置文件,找到 tos 里面的 profile, 我 们改为 for, 或者是直接删除 tos 里面的字段内容。 第二个我们分享了四个必装的 skills, 可以 让我们的 ai 助手变得更加勤快,大家这样处理之后,从此就会拥有一个聪明勤快,安全易用的 ai 助手。呃,本期内容分享就到这里,后面我们会分享更多的一个使用技巧和设置方法,我们下期再见。

如何给自己的 open claw 更换新的模型呢?很多同学觉得自己的模型不好用,或者说有些同学他想使用一些国际顶级的大模型,但是自己的网络却存在一些问题, 那么接下来磊哥就教你,在合法合规的前提下,我们可以去使用六百多种大模型,而且不需要解决网络问题,怎么用呢?接下来一个视频啊,给你讲清楚。 首先咱们想要换 openclaw 的 模型呢,咱们这时候打开命令行窗口啊,也就是 cmd, 那 么 windows 和 linux 呢,同样打开你的终端就行了,然后打开之后呢输入这行命令啊, openclaw configure, 好, 那这时候它就会开启 openclaw 的 配置,然后在里面咱们选择当前的机器的配置。好,在里面呢去选择 model 这个选项啊,敲回车。 好,那这里面呢就是模型了啊,我就可以去换了,那比如说我现在想要换 deep seek, 或者是我想要换其他的国际模型,又不想解决网络的问题,怎么办?这时候咱们是可以使用大模型的集成站的,那么这个大模型的集成站呢,几乎你想用的所有的模型都有,比如说像 deep seek 呀,豆包呀,还有国际大模型啊,都有的。好,那这时候 ok, 咱们就可以去选择它,然后敲回车,敲完回车之后呢,它是需要输入 api k 的。 好,这时候咱们就去获取 api k, 也就是来到它的这个 case 里面, 然后呢去创建一个 a p i k 啊,它支持的模型呢,大概给大家来看一下吧,这里面的模型相对来说还是比较丰富的,当然也有一些免费的模型,我们也可以用啊,但质量呢就不能保证了, 像国内的这些模型啊, mini, max 呀, kimi 啊啊,质朴的一些模型啊,还有国外的一些模型啊,都有的啊,当然我们目前呢总共是有六百多个模型的,当然我们也可以去搜索我们想要的模型 k 都是有的,几乎你想用的模型呢,他们家都有,但是这些模型的话是需要付费的,所以大家呢也注意自己的钱包啊。 好,然后完了之后我们要去配 k 的 话,这时候呢我们就去点击 k, 好, 然后 create 一个 k 啊,随便去起一个名字,比如说我就叫做,呃, demo 啊,这个无所谓,等会我就删了啊,然后点击 create, 然后就来到了呃,这个 api k 了。好,复制这个 api k 呢,到咱们配置页面啊,然后把它进行粘贴,然后粘贴完了之后呢,可以看到这边就有很多模型,我们是可以去选的, 然后这时候我们就可以去选择我们想要去使用的一些模型了,比如说国际的模型,我们可以往下去拉,那这时候我可以去选择一个,呃,国际模型,然后选择完成之后呢,咱们可以去敲空格啊,然后它变成加号了,就说明你已经选择了。选择完之后呢,敲回车啊,敲回车, ok, 然后继续啊,这时候 重新去启动你的 get v 服务啊,这时候它就变成了新模型了。好,那么接下来呢,咱们来看一下,输入一个 open, 然后 get v 敲回收好,可以看到了,在启动里面他的 model 已经换了,看到没?那这时候你就可以去使用你想用的六百多种模型了,但是大家一定要注意啊,大部分模型是需要收费的,所以大家一定要量力而行啊。我是磊哥,每天分享一个干货内容。

哈喽,大家好,如果你刚刚装好 openclaw, 可能马上就会遇到一个嗯,一个特别常见,也特别头疼的问题。没错,就是这个,我到底该用哪个模型啊?这个问题听起来好像很简单,但真的选对了。你的 openclaw 简直就是个神队友,干活又快又好,可要是选错了呢?哎,那他就可能变成个猪队友,经常犯迷糊,又慢又烧钱。 所以啊,在咱们开始选之前,得先扭转一个观念。很多人觉得选模型嘛,不就跟选汽车发动机一样,马力越大越好。其实这个想法大错错错,选模型它更像是给自己找一个工作搭档, 你想想,你需要的肯定是一个能跟你配合默契的伙伴,对吧?而不是一个指挥使蛮力的家伙。对,咱们今天就来聊聊,这个选模型真的不只是选个发动机那么简单,它还会彻彻底底的影响 opencloud 的 整个工作风格。 这么说吧,有的模型呢,就像一个经验老道,特别稳重的助理,但有的呢,就跟个急性子一样,特别适合干那种快节奏的活。 所以你看,这就引出了一个常见的误区,很多人一上来就想找那个所谓的最强模式,这个想法我完全理解,谁不想一步到位呢?但是咱们得记住,我们的目标绝对不是找一个在排行榜上考分最高的学霸模式。 那我们应该怎么做呢?其实很简单,换个思路,咱们要关注的是在实际工作中真真正正重要的四件事,搞明白了这四点,你就能做出一个更聪明,也更适合你自己的选择了。你看,这句话说的就特别好,模型不是拿来应付排行榜考试的,它是要拿来长期干活的。这句话我觉得就是核心, 尤其是在 open class 这种场景下,一个模型实不实用,远远比它在理论上有多强大要重要得多。那这四件重要的事具体是啥呢?来我们一个一个看。第一,就是这个模型听不听话,说白了就是它能不能准确地理解你的指令,然后照做做。 第二,稳不稳定?他的表现是不是一直很可靠,还是说会时好时坏,跟抽奖似的?第三,贵不贵?嗯,这个很现实,成本你得扛得住。最后,也是最关键的一点,他到底适不适合你手头上的活?好,了解了这四个标准之后,我们就可以开始动手搭建一个真正属于你自己的模型团队了。 你没听错,我说的是团队,而不是一个孤军奋战的单兵。那么这第一步该干嘛呢?记住,千万别急着去看什么模型排行榜。 第一步是先问问你自己,你平时用 opencolor 到底主要想让它干什么活?是搞技术的活多呢?还是处理内容的活多? 大家可以对照着屏幕上的分类来看一看。比方说,如果你主要是写代码,调试程序,查日期,分析项目代码,那很明显你需要的模型,它的代码能力要强调,用工具要稳。但反过来,如果你主要是做一些资料研究、信息总结,或者写写稿子,润色文案,那这个模型的理解能力、归类能力和文字功底就变得更重要了。 好,现在你已经明确了自己的主要任务类型,那么接下来第二步就是选择怎么去接入和使用这些模型,说 的通俗点儿就是你是想自己动手丰衣足食呢?还是用别人打包好的现成方袋。这个比喻我觉得真的太贴切了。你看直接用 api 接口,就像是自己去菜市场买菜,回家做饭,自由度超级高,你想怎么搭配,想做什么菜都行, 特别适合那些想长期深度使用的朋友。而用现成的 cookie plan 呢,就好像办了一张自主餐卡,办好了进去就能吃,什么都给你准备好了,特别省心,对新手来说简直是福音 好。不管你选了哪条路,咱们现在来到第三步,也是一个更聪明的玩法。这个思路就是千万不要把所有的任务都压在一个模型身上,我们可以把它拆分成一个三层结构的团队。你看这个结构,第一层是你的主力模型, 他就是你团队里的核心大将,专门负责处理那些最复杂最关键的任务。对他来说啊,稳定性和理解能力是第一位的。 然后第二层是轻量模型,这就像是团队里负责跑腿打杂的,专门干那些简单重复的活,对他的要求很简单快,而且省钱。最后第三层是很多人都会忽略的备用模型,他就像你车里的备胎,平时你可能感觉不到他的存在,但万一主力模型出了问题,他就能在关键时刻顶上,保证你的工作不掉链子。 ok! 讲完了团队搭建,接下来这一点我要特别强调一下,这真的非常非常重要,尤其是在 open globe 这个场景里,大家一定要记住一个道理,一个模型会说,不代表他就会做, 所以这句话大家一定要刻在脑子里,别只看他答的好不好看,要看他干的漂不漂亮。记住, openclaw 是 一个行动派的工具,它不是一个陪你聊天的窗口。有些模型啊,跟他聊天,那真是天花乱坠,什么都懂。可你真让他去干活,他就手忙脚乱了。咱们需要的是那种做事干脆利落、执行精准的实干家。 那问题来了,怎么才能知道一个模型是不是真正的实干家呢?其实方法特别简单,你别去问他什么人生啊、宇宙啊那些虚头巴脑的问题, 就直接拿你平时真实的工作任务去折腾他。你看屏幕上这些例子,扔给他一堆资料,让他整理,让他去读一篇技术文档,让他帮你改一小段代码,或者把一个大任务拆分成小步骤,再或者让他严格按照你指定的格式输出。结果。这么几轮下来,哪个模型用的最省心,哪个最听话,你心里马上就清清楚楚了。 好,说了这么多,咱们来总结一下,给出一个最实际、最适合绝大多数朋友的起步建议。核心就一句话,从简单开始,聪明的工作, 如果你是刚上手,我求求你,千万别一上来就想着配个什么模型。全家桶,没必要最朴素也是最有效的方案就是这样,准备一个靠谱的强模型当你的主力,然后再配一个便宜的轻量模型,专门干杂活,相信我,这样就完全够用了。 对,就这个数字。二,你先把这两个模型用熟用好,这远比你一上来就接入五六个,结果把自己都搞晕了要强的多的多。记住,先让系统跑起来,先找到感觉,这比什么都重要。 最后,我想用这句话来结束咱们今天的分享。一个 open 扣用起来最舒服的状态,从来都不是因为它堆砌了多么昂贵的模型配置,而是因为你心里清楚的知道什么活该交给谁去干。 当你能做到这一点的时候,它就不再是一个昂贵又有点任性的玩具了,而是一个真正能帮你解决问题、提升效率的一个强大的工作系统。

相信大家已经安装好了自己的 openclare, 但是你有没有想过你每一次的 openclare 的 使用都会消耗你的 tokyo, 这个 tokyo 的 话就是需要大家去花钱去买, 那有没有办法能够免费的使用 opencloud? 如果说你也想要免费使用 opencloud 安装 olemma 模型,那一定要点个关注,点个收藏,不然的话你下次就刷不到了。那我们进入正题,我们直接啊百度搜索一下 olemma, 然后在这个右上角位置点击下载, 这边的话选择自己电脑系统,然后点击一下,直接点下载就可以了。 ok, 下载好了之后,我们直接正常安装啊,就会进入到这个页面,然后右下角我们要选择一个模型,正常来说一般是选择这个 gpt 二十 b, 也可以选择千问,三点五千问。 ok, 我 们在这个位置选择好了之后,你发一个消息,你比如说我选一个,我没下载的,我发个一,你发一个消息之后,他就会开始自动下载这个模型。 好,我们直接进行下一步。欧莱玛下载好之后,我们直接通过这个运行安装向导重新把 openclock 跑一遍, 因为之前你们装过 deepseek 的 模型,然后这个配置处理的话,选择更新值, 在这个模型认证供应商这里选择 olemma, 本地本地本地,然后它会有一个模型 id, 例如 deepsea 杠 r 一 比八币,我们再打开你的 olemma, 看一下你的右下角, 就是把这个名字输入进去, 我们用的是这个二十币, 这个的话直接回车就可以了。 这个聊天通道的问题,因为之前已经跟大家讲过了,我们就直接挑过了, 我们把网关打开,等这个 opencloud 的 正常运行。 ok 啊,大家在运用这个 oemma 本地模型的时候,它是不需要花钱的,但是它是基于你电脑来去做的本地模型,那是什么意思呢?就是说它直接消耗的是你电脑的性能, 比如说我们在这个内存 gpu 直接消耗你的电脑性能,比如说你的电脑越好,那它运算速度就会越快,大家这么说能理解吗? 还有就是这个欧莱玛上面的模型,它对应的有一些,比如说它这个二十 b 的 模型,它是 比较推荐八到十六 g 的 这个显存的显卡,然后才去使用,然后有一些是呃,一百 二十币的支持二十四 g 或者三十六 g 的 显存的显卡才能去使用的,也就是说他直接消耗的是你电脑本身的性能。 ok, 如果说大家感兴趣的话,可以自己去装一下试试。