噔噔噔噔,这个就是我给家里部署的麦克斯六六本地大模型服务器,用来跑 open klo 是 一个什么样的效果呢?我这几天研究的很疯狂,然后把我的结论告诉。首先我大概介绍一下这两台机器, 下面的这台机器是我的老机器三十二 gb 的 m 一 max, 上面的这台机器是这个最新的 m 三要求的二百五十六 gb, 因为我觉得二百五十 gb 跑绝大多数大模型完全没问题。我给你看一下我大概跑了一些什么模型,可以看到我有各种容量的,各种大小的, 各种版本的大模型,其实我目前用的最多的就是这个 mini max 的。 然后如果追求速度的话,那这个千万的这个最新的三点五是非常不错的, 同时扣的模型也是非常不错的。那实际它真正运用这个本地大模型和我们线上模型在体验上有什么区别的啊?现在模型大家都体验过,我就不用多说了,那本地模型它非常的安全,你完全你所有的内容都不会处在, 完全在你本地跑,那很多人就会担心了,那我本地这个模型去跑的话,速度会不会非常慢?然后说一句话,大概要个几分钟?并不是的,我给大家演示一下,我们可以分三个问题来测试,比如说第一个问他可以做什么, 看一下啊他的反应,你看他开始思考了,已经开始输出了,看到他可以做很多很多很多事情,但我现在是用电脑操作,方便大家看未来使用的话,其实都是用手机 imessage 信息或者是微信直接让他回复,这样的话你不用盯着这样的屏幕,我现在只是为了给大家去展示, 你看他可以做很多事情,反应基本上跟线上是一样的。那比如说我让他推荐一下二零二五年的高分韩剧,因为这个问题就比较复杂了,他不能基于他的知识库了,他必须联网去搜索看一下这边模型已经开始在思考了。他去 网上去搜索的二零二五年的高分韩剧,然后是在豆瓣上去搜索的,说明哪怕我们这个是用的本地服务器,他依然具有网络的功能,同时你的这些内容只包含你。 呃,这个问的问题,但是实际你的真实数据是不会被传到网上的,比如说相对比较安全。如果你用网上的线上 a p s。 用 open club, 我 觉得毫无价值,因为你在出卖你的隐私。既然我们用到了 open club, 你 就必须要保证你的内容绝对的安全。现在是四点零六分, 可以看到是四点零六分,我这个问题是四点零五分问的,一分钟就可以得到一个被他优化过的一个啊,回复可以看到非常的细, 他也不是简单的随便给你说一下,那比如说这个片子啊,你看我后一个问题,比如说下载第一个到我的迅雷,其实这个就涉及到一个工具调用,就不是简单的一个大模型的一个对话,他是真正操作我的电脑啊,而且我的迅雷之前告诉他是在我的纳斯里面的, 因为这个操作就相当于复杂了,他要在我的 nas 里面去找迅雷,同时帮我找刚刚的第一个 这个电影的内容种子资源找了之后还得迅雷去下载,大家可以记录一下时间啊,我发过去是四点零六分,看一下他大概要多久处理完这个任务, 目前他已经找到了这个资源的名字。 ok, 可以 看到他这个片子他现在已经添加成功了,而且进度是百分之百的。问题是因为我之前可能测试已经下过啊, 现在的时间大概是你看过去的两到三分钟,他通过这个需求帮我去找电影,同时帮我下载成功,然后帮我监测进度,帮我查现在的进度, 整个流程大概三分钟可以搞定,线上我测试了大概是两分钟可以搞定,这个数据差距其实并不大,你要知道线上像这样的一个操作,你可能呃一个人民币就没有了,但是如果是本地,你可以无纸巾的使用,他上十年都没有任何问题, 而且他可以一直在后台给你做这么多事情。所以说我觉得如果你在乎隐私,又喜欢 open 这种没有纸巾的偷看的使用,那本地部署大模型就是最终的解决方案。 刚刚给大家分享完的就是我这个顶配机器的使用体验,那下面的这台机器就是我三十二 gb 的 体验,下一期给大家分享。如果我没有三十二 gb 的 跑小模型,速度又怎么样了?
粉丝2.3万获赞10.3万

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

好,兄弟们,今天借着这个 open class 讲一讲这个 skills 还有 mcp, 它们是什么东西啊? skills 是 个技能,就是赋予大模型本身所能够使用的这个技能, 比如说查找一个网页,然后抓取一些信息,这是大模型能够学习到的技能。 mcp 呢? mcp 是 一种工具,就相当于说大模型技能可以调用某一个工具来做某些事情,这样子被称为这个 mcp。 讲完了技能之后,我们看一看这些技能收集的网站,这个是给 open klo 用的,叫 klohab, 这上面有这个安装的命令啊什么的。 我们再来看另外一个网站,叫做 skills, 点 h h, 这个网站里面收集了 github 上面很多有用的这个 skills, 我 们看第一个怎么安装啊?直接点开一个,然后复制这个命令,直接就可以安装了,特别简单。而且在安装的时候,它会让你选择是否给 open claw 进行安装,所以这个网站和那个 claw hub 啊,它们是一样的,只不过这个更加的方便一点。

嗯,先问一下最近全网比较火爆的养龙虾具体指的是什么?它其实是饲养 ai 智能体 open club 的 形象说法,因为这个 open club 的 图标是一个龙虾,所以就有了这个称呼, 这也是马年新进的网络热词,核心就是要打造属于自己的专属 ai 智能体。那养龙虾的操作模式是不是和真正养宠物有相似之处?具体是怎么样执行的,相似度还是比较高的。 把 open color 部署到电脑上面,就相当于给这个 ai 智能体安了一个窝。它具备记忆功能,能在和用户的对话中记住用户的使用习惯、各类需求,而且它会自主成长,平时给它喂粮食,其实就是提供 ai 运行的算力,算力投喂的越多,能力就越强, 还能实现自我迭代,同时学习调用他人公开可重复使用的 skill, 要熟练之后,它会自动找活干。嗯,那相比于传统的 ai, openclaw 的 最大优势是什么?传统的 ai 大 部分只具备对话的功能,无法落地完成任务, 但是 openclaw 彻底打破了这个瓶颈,它从单纯的对话工具变成了每个人独一无二的赛博劳动力,真正实现了自主执行各类任务。嗯, 那既然是能干活的赛博劳动力, openclo 具体能完成哪一些任务呢?它的能力覆盖范围还是很广的,小到代码开发调试、私域社群的全自动运营,大到自动炒股、全球预测平台的自动套利。只要用户有相关的想法, 并且给他对应的操作权限,他都能够自主的完成所有的任务。而且操作方式很便捷,用户只需要在手机手表上面通过聊天软件发布指令, 他就可以在后台自动完成业务流程。我已经把二零二六年大模型进阶的最新路线整理好了,如果你也想进阶大模型,我可以给你一份大厂内部必读的文档,里边包含模型原理、产品落地、思维框架,内容非常全面,需要的话我直接安排。

咱们来聊聊摩根斯坦利最新的研报,主要说的是 open cloud 在 中国的机会。你知道 open cloud 是 什么吗?我还真不太清楚,你给我说说。 它是个免费的开源 ai 代理框架,不用依赖云服务器,能在本地运行,还能调用外部的大语言模型。最有意思的是,它主要用即时通讯应用当操作界面,用起来挺方便的。听起来还挺实用,那中国市场为啥增长那么快啊? 摩根斯坦利总结了几个原因。首先是开发者社区的参与度高,大家对这种基于消息的 ai 代理需求挺旺盛的。还有国内的云和基础模型厂商,产品化速度特别快,能快速跟进新技术, 政策方面也有支持吧。没错,国家有 ai 家的创意,深圳、龙岗、无锡、合肥这些地方还有补贴,相当于给企业和开发者搭了顺通车。那国内的公司都是怎么用 open cloud 的 呢? 主要分成两种模式,一种是云托管服务,比如腾讯的 lighthouse openclog, 字节跳动的 rclog, 阿里的 jvs clog, 还有 mini max 的 max clog, 用户不用自己搭建环境,直接用云服务就行。那另一种模式呢? 另一种是本地托管部署应用,比如腾讯的 workbody 和 zda 的 auto club, 适合那些对数据安全要求高的企业,能把系统部署在自己的服务器上。 那这些产品现在的市场表现怎么样啊?摩根士丹利觉得现在这个阶段, openclaw 相关产品还不太可能大规模普及,因为框架本身还处于实验阶段,不是成熟的消费级应用,可用性、可能性和安全性都还有不少问题需要解决。 那他们看好哪些公司呢?他们还是更看好那些有强大基础模型,又能把智能体 ai 集成到自己生态里的公司,比如 minimax、 knowledge、 atlas technology 的 z ai, 还有阿里巴巴的 qn, 这些公司的产品更成熟,也有自己的用户基础。 这么看来, open class 虽然有潜力,但要真正普及,还有一段路要走。没错,现在更多是开发者和企业在尝鲜,普通用户想要用得上用得好,还得等框架再完善完善。不过长远来看,国内的政策和市场需求都在,这机会还是挺多的。 那对于投资者来说,是不是得更关注那些有完整生态的公司?对摩根斯坦利也建议别太急着追 opencloud 的 概念,还是得看公司的基础模型实力和生态布局,毕竟智能体 ai 的 核心还是模型本身,生态能决定产品的落地效果。 这么一说就清楚多了,原来不是所有相关公司都能吃到红利,得看硬实力。没错,研报里也特意提到, openclaw 现在还是个实验性框架,不是成熟应用,那些能把模型和生态结合好的公司,才更有可能在智能体 ai 的 赛道上跑赢。

龙虾 open 可乐用本地算力可以吗?这位朋友有数据安全洁癖,一定要用本地算力做龙虾大模型要极致性价比方案,价格控制在万元以内。那这台机器又请出了咱们的老朋友特斯拉 v 一 百三十二 g 版,刚好可以跑最新的千万三点五三十五 b 版本。那你要问为啥装双显卡, 因为它还需要另外一张显卡,跑知识库的引杯的模型,不用知识库时还能给龙虾加速内存。其实十六 g 就 够了,不过它上到了 ddr 四六十四 g 哦,因为它是金融行业,为了防止龙虾抽风装在了虚拟机里,而且使用时它会同时开 n 个虚拟机, 都调用宿主机的大模型。没错,这就是很多人口中的洋垃圾配置。但是万元以内的本地算力不用洋垃圾还能用什么呢?配置我放评论区里了,有需要的自取。

大家好,最近那个 open cloud 大 龙虾实在是太火了,过年的时候我也研究了一下,并且安装部署在我自己的电脑上。 那这个视频就分享一下我的本地安装部署方案,如果你对这个话题感兴趣,那这个视频会对你很有用。首先这个东西它的实际能力肯定是被媒体夸大的,而且也不是买一个 mac mini 就 能搞定的,但 是它确实是一个好的开始,是一个重要方向。那如果你想学习 ai, 这个 open cloud 非常有必要去实践一下。如果你要用好它,就要给他很强的权限,比如说要他操作你的电脑,你就得给他电脑的文件读写权限。如果你想让他帮你收发邮件,或者 读一些在线文档,那你就得给他一些相关的网络账号的权限。所以呢,为了安全起见,这个 open cloud 最好是部署到一台专用的电脑上,让他操作一些网络资源,这些网络资源的账号最好是专用的。那 那么这个 openclaw 对 苹果系统支持是非常好的,这也是为什么之前很多人都去买 mac mini, 然后专门跑这个大龙虾也是这个原因。但是有 mac mini 还是远远不够的。我说一下我是怎么安装的,我是把 openclaw 安装到这台 mac studio 上边的 这个虚拟机里边啊,这是一个虚拟机麦克 s 啊,虚拟的麦克 s 是 用的这个 pd 虚拟机软件,用虚拟机软件的好处就是你可以安装多种系统,从 linux 到 windows 十十一,然后到麦克 s 都可以随便装,随便折腾,然后每一个系统你可以安多个,安多个都没有问题。 然后这个虚拟机整个就像一个黑盒子一样,无论你在里边怎么折腾,都不会影响到外边这个真正的麦克 s 你 的这个生产力。麦克 s 系统啊,非常的安全,就是安全隔离,然后用虚拟机方式部署。另一个好处就是这个虚拟机的内容啊,这个系统本身实际上就是一个大的镜像文件啊, 就是这 win 十的, win 十一的, macos 的, linux 的, 你可以把这些文件放到移动硬盘上,固态移动硬盘上,我现在就是这么放的,所以不占你本机空间,备份起来也非常方便,你只要把这个文件拷配一下,备份一下就可以了,等你想恢复的时候把它拷回去就行了,非常的方便,很灵活。 然后用虚拟机唯一的缺点,相当于又运行了一个系统啊,所以这个 macos 最少也得给它八 gb 内存,然后我这里是给到了十八 gb 啊,其实基本运行给个八 gb 就 可以了。 其实这个 opencloud 本身呢,它占不了多少内存啊,才占了几百兆内存,它本身不怎么占内存,这也是为什么 mac mini 就 能部署的原因啊啊,真正要求配置高的不是它,它占不了多少内存, 只安装好了 open cloud 还不行,还得有一个 ai 大 模型来配合,无论是在线的还是你本地安装的,你得给大龙虾安装一个脑子,不然这个龙虾它什么都不会干。可以把 open cloud 理解为一个插排啊,上面可以接各种设备啊,可以 给手机充电,充电宝充电,插一个游戏机都可以,但是呢,你要给这个插排供电,它才能使用啊。 的 ai 大 模型呢,就相当于给这个插排供电,所以在你使用 openclaw 读写你电脑上的文件,帮你看在线文档,其实都是后面的 ai 大 模型在起作用。实际上你的 openclaw 可以 使用多种大模型啊,比如说在线的千文模型,然后你也可以安装各种本地的开源模型, 你可以通过 opencloud 点 json 这个配置文件进行配置,当前使用哪一个,在这个配置文件里修改一下就可以了。那建议目前这个 opencloud 实际使用起来比较费 talkin 这个问题呢?呃,很多人还都是安装的本地大模型,在本地运行 ai 大 模型要比 安装运行 opencloud 要求的电脑配置要高一些。那如何把大模型安装部署到你的 mac 上或者 windows 上?我之前发了很多视频, 很久以前就发过,你可以去看一下。我这里呢, openclaw 是 部署在这台 max studio 的 虚拟机软件里,本地部署的大模型呢,也是在 max studio 这台机器上,但是是在这个宿主机,也就是这个机器的系统本身基于苹果电脑,安装本地大模型要给到足够的内存。 我这里用 alama 本地安装了两个模型,我实际上用的就是第一个,第二个,这个你可以看到比较大,激活加载之后比较费内存。 我这台 max 六六一共有九十六 gb 的 物理内存啊,你可以看到现在已使用内存有四十二 gb。 现在大模型还没有加载,因为我本身这台电脑上运行了很多 app 啊,包括那个 macos 虚拟机,占了也不少内存。 你现在看到的是 openclaw 激活那个三十 b 的 千万三模型啊,现在的已使用内存已经到了八十三了。现在麦克 s 虚拟机里边的这个 openclaw 进程实际上没有什么变动啊,还是三百多兆,不到四百兆,所以它是不怎么吃内存的。 如果是日常收发邮件、总结文档这些日常工作内容,它已经够用了。甚至我后边想试一下更小的模型,比如十四 b 的, 呃,这个量级的是不是对所谓 ai 员工的这些操作是不是就够用了?这样可以降低对本地机器这个配置的要求。那 open cloud 和大模型都安装配置好之后呢,作为你的 ai 员工呢,你就可以用你的手机 app 来指挥它,帮你 做一些事情。举一个有用一些的例子啊,比如说你是一个公司的 hr, 那 你们公司正在招聘 ai 工程师,呃,每天都有很多应聘的邮件到你的邮箱里,那你很忙,你就可以让这个 open cloud 帮你每天去筛选一些符合你要求,符合你标准的这个应聘邮件, 然后发送到你的手机上。比如说我这里用的谷歌邮箱,那你要想让 open cloud 去读写这个谷歌邮箱的内容, 你就得配置一个叫做 g o g skew 的 这么一个东西。实际上这个 skew 呢,在 open cloud 里是非常重要的,可以扩展它很多个能力。那如果说把这个 open cloud 比喻成一个插排,那这个 skew 在 里边的角色就是相当于插在这个插排上的各种不同的插头。比 说你插一个手机充电器,那这个插排就可以给你的手机充电,你插上一个,呃, ps 五主机你就可以,那你就可以玩游戏,你插上一个台灯,你就可以照明。所以说这个 openclaw 本身它安装是很简单 的,就官方的那一句话就可以安装啊,如果没有网络问题的话,就是一句话就安装好了。重要的是它的配置。 openclaw 运行在虚拟机里,优点就是安全隔离,它是一个黑箱子,不会破坏你的生产力的这 一些机器。呃,并且方便备份和恢复。呃,本地运行大模型呢,也没有 token 焦虑。这个方案的缺点是要有一定配置的苹果电脑啊,特别是内存要大一些。当然你也可以把 openclaw 部署到一台苹果电脑上, 然后本地大模型部署到另一台苹果电脑上。你也可以用 linux 系统来部署,也可以用 windows 系统来部署。 ok, 这就是本期视频,如果你对 openclaw 或者 ai 话题感兴趣,别忘了点赞关注,后边我也会分享更多的关于 openclaw 的 使用细节和配置。感谢收看,我们下个视频见!拜拜!

兄弟们今天又要学新知识了,就是这个 open core, 那 core 这个嘞,就是我们经常讲的这个小龙虾,它是最近比较火的大模型,今天下午我们看到这个拓维信息的一个异动吧,主要就是因为小龙虾已经可以适配我们国产的软件了。 然后我们看到主要有什么,这个华为啊,比如说下午的这个每日互动啊,还有这个海关信息啊等等的,包括这个云服务器的这个尤克德,这个事情本质上来说还是这个算力,或者我们讲 这个 ai 里面发展的一环嘛,那整体上它这个 ai 智能体,这整个产业链它还是非常长的。那这个事情它的这个逻辑上来说,会比我们昨天讲的这个 led 更硬一点嘛?那我们今天去看这个 led 直接也是有的嘛, 那 led 这个一日游怎么看呢?就是我们可以看到今天早上的时候,五十个亿的这个风单测测测测测测测,一直在测,然后开盘的时候还开,这种事情其实就在以前量化没有 那么主导的这个情况下,是不会出现这种现象的。包括我们昨天也讲到这板块大概率是一日游的这个事情。整体上去看 led 这个事情,我觉得就是大家现在也学聪明了,因为一次两次被量化烫住,那大家可能在这个地方也 比较不会去接这种量化批量造板的情况。包括我们去看市场整体的这个生态,昨天连一个商版都没有,而且还是在这个两万多亿的这个市场,换到以前的市场来说,这个事情根本就不可 出现了变化。作为主力的这个情况下,现在多数人在这个过程已经开始逐步的出现改变,我觉得就是在这个过程里面需要去慢慢的适应这个市场的这个变化。然后我们讲回 openclaw 这个事情, openclaw 的 预期上来说,其实验证了我们之 的一些思路嘛,不管是视频啊还是直播,我们反复有讲到 ai 的 这个上游,他不断的在提高这个资本开支,花了那么大的这个代价去建设,那最终的结果他是需要盈利的,那盈利怎么来呢?最终就是要在这个终端上他要能够赚钱。 就看到了这个今年的 ai 应用实际上是在如火如荼发展的,但是反映到我们 a 股呢,因为它没有盈利,所以它更吃风偏。所以我们看到一月十五号从监管开始打压这个情绪炒作以来, 管是第一波的 ai 应用也好,还是第二波 c、 d、 s 也好,在这个过程都没有反应起来。更多的我还是觉得这个市场整体的这个风偏的这个问题,并不是 讲的这个 ai 应用的这个发展出现了什么样的这个变化。所以我觉得现在在量化的这个生态下,更多的这个短期的不易上来说,更考虑的可能是这个筹码结构。但是比如说我们从 未来来讲,就是下一次,比如说指数出现共振的时候,我觉得这个算力也好,包括应用也好,它最终它还是会出现回归的。那讲回指数,指数我觉得这个地方它就是 置位弃之可惜。那我们在周二的时候已经讲到指数这个地方,它是一个中期的一个调整,那目前来说就是不管是时间上还是 空间上,它的一个调整幅度也不够。包括我们今天去看市场,虽然说出现了一定的这个反弹,它更多的还是外围的一个回暖,以及我们看到今天港股 深科技是长得比较好的,但我们国内的话,像藻盘的这个结构上,我们可以看到是这个画中在长,还有这个电网设备在长,但是真正带市场节奏的这个我们讲的这个硬件以及 这个科技整体上的一个表现来说是一般的。比如说我们拆细一点去看的话,科技这边就是一些局部的行情, 比如说这一波辨识度最高的就是一门控股嘛,今天反包完之后创了新高,但是他后面在这高位有什么很强的这个预期嘛?我觉得在目前的这种环境下,实际上也很难, 更多的还是一种爆款的一种走势。那第二天情绪怎么变?目前来说我觉得相对来说是比较随机的,所以整体上我觉得短期来说指数呢是比较随机的。所以整体上我觉得短期来说还是 昨天的这个观点,这地方大概就是一个一天到三天左右的一个反弹,那反弹完之后他还是需要二次探底,那我觉得大的机会还是在这个二次探底之后才会有一个比较好的一个运气。 ok, 今天就到这。

今天聊一聊,部署了龙虾之后,你应该选哪一种大模型?现在主流的计费方式有三种,第一种是按 token 计费,第二种是订阅值,第三种是本地部署,那本地部署的话,其实就不需要我们每个月去交这个月费了。 首先来看第一种按 token 计费,通俗的理解, token 呢,就是我们说一句话里,这个话里有多少个词,原有多少个字。我们打个比方,比如说一句话里有二十个字,那么按 token 的 话, 一般大模型厂商会给每一个字标一个单价,那么如果每一个字值一分钱,一个二十个字的句子就需要两毛钱。 但是我们用龙虾的时候都知道,龙虾的思考非常的复杂,他不可能只跟你用一句话,或者简简单单的二十个字就完成了一次请求,所以你会看到龙虾的思考啊,虽然他没有说出来,没有声音,也是好托坑的, 而且他思考的越复杂,好的托坑越多,这就是为什么很多人啊,他的龙虾开着跑了一晚上,第二天钱包就没了。 第二种是订阅制,常见的呢,有每个月,比如说六美金或者大陆的供应商啊,可以看到每个月四十块钱这类套餐呢,他会规定你每个月的请求次数,这是什么意思呢?就是你的龙虾思考一次, 还要调用一次大模型,那这算一次请求,这一次请求包含了多少 token 都没关系,它只是算你一次的请求量。所以这种特别适合程序员的同学,因为我们在写代码的时候呢,每一次的请求可能涉及大量的代码往返, 我要放大量的现有代码和需求上去,同时呢,服务器也会返回大量的代码回来,这一来一回,如果走脱困的话,他就会非常的贵。第三种,本地部署啊,我看起来他只需要在我们本地的机器上装一个开源的大源模型就可以了, 那么所有的思考呀,计算都是在我们自己的机器上来做的,因此呢,也就不存在什么给大模型公司交构肯或者订阅费的一个问题。 但是本地部署有一个问题,就是一般的机器很难支撑起来大参数量的模型啊,当你部署的模型参数量不够呢,这个模型的智商就不够, 他会显得很笨。第二点就是参数量小的模型呢,他很有可能没有办法调用本地的工具,所以这种情况更适合于我们,适合于我们的团队作业,或者对于数据的安全要求特别高的情况。因为你如果在本地部署模型呢, 你的龙虾数据存储和计算都是在本地,也就解决了数据可能泄密的一个隐患。模型的订阅方式对模型的能力没有影响,比如如果你用了阿里的模型,那么按 token 或者按月订阅, 他调用的模型都是一样的。那好,你可能马上要问了,到底哪个模型更好呢?其实没有所谓的最好的模型,你要选择最适合你工作场景的模型。我建议大家可以提前用豆包, 用阿里千万以及用腾讯的还原模型。比如我个人的体感会认为千万的模型更适合编程,豆包呢,特别适合来写文章,尤其是做公众号文章的这种拣写质谱呢就会比较综合, 所以最后给大家的建议就是,如果你刚开始上手龙虾,其实可以试一下按 token 计费的方式,让龙虾完成一个小的任务, 这样费不了多少钱,同时你又能感受到龙虾跟传统的这个豆包啊,或者其他的 chatbot 的 区别。当你稳定的使用了龙虾一段时间之后,知道每天让它处理哪些东西, 它跑的这个任务呢很固定了,消耗的播放量也比较多,那这时候你就适合换成按月计费的这种方式。今天的分享就到这里,嘿嘿,有好的故事欢迎告诉我。

面试官问,有人说 openclaw 只是把现有 agent 能力做了工程化整合,没有核心技术创新,请谈谈你的观点。哎,各位同学,听到这个问题千万别慌,这可是现在大模型架构师面试里的深水区题目。 面试官其实不是在考你 open call 的 代码怎么写,它是在考你对 agent 进化逻辑的底层思考。本视频的代码笔记,我整理进了一百万字的 ai 大 模型学习笔记里了,里面包含了传感器架构、 lincoln reag 模型训练与微调、 ai 的 智能体开发等二十多个技术站与一百多个 ai 大 模型企业落地项目实战笔记。 大家好,我是彭宇,好,大家先看屏幕上这张架构图,我们先定个调子。这种说法其实只看出了 openclaw 的 皮毛,却没看透它的骨头。工程化的极致整合本身就是一种降维打击级的创新。 为什么这么说?咱们顺着这张图往下拉,大家看标题栏,这叫架构眼镜。我们先看第一层, l 一 交互接入层。在这里我要问大家一个问题, 为什么 openclaw 这么火?是因为它的模型更聪明吗?并不是,是因为它把 agent 丢进了企微飞书、钉钉这些常用的聊天软件里。这就是它的第一个创新点, a c i, 也就是 agent client interface 的 革命。你想想,以前我们用 agent 得专门打开一个复杂的网页, 现在就像跟朋友聊天一样简单。这种去中心化的接入方式,其实是把 agent 从冰冷的实验室带到了真实的生产生活场景里。 这种交互低损耗带来的用户粘性,才是 agent 真正走向普惠、走向实用的开始。好,重点来了,大家往这看。这是 openclaw 目前最硬核,也是大家一定要掌握的新知识点。 agent skills 技能机制。我想问问大家,以前我们给 ai 写工具,是不是要写一堆复杂的 jason scam, 是 不是稍微错个标点符号模型就识别不了? openclaw 提出了一个天才的想法,使用 skill 点 md 范式, 让 skill 从小众技术变成大众生产力工具。它不再强迫你写那些死板的硬核代码,而是让你用 markdown, 也就是自然语言 去写一份技能说明书。这一份 skill 点 md 里包含了指令、原数据,还有配套的脚本逻辑。为什么这很重要?因为传统的 json 格式对模型来说只是死参数,而 markdown 文档对模型来说是逻辑指南。 他让模型能够通过阅读说明书,自发地学会如何调用复杂工具,甚至学会如何处理异常。而且他还支持原数据栏加载 模型,不需要一次性吃掉所有技能,只有在匹配到需求时才会精准唤醒。这种将玄学的 prompt 转化为可工程化管理的标准化组建, 你说算不算创新?但是能力越强,风险就越大。大家看中间这一层 l 二核心调度层。如果一个 agent 拥有了操作你邮箱,甚至划转你资金的真实权限,他一旦产生幻觉或者被恶意诱导了,怎么办?这可是面试官最喜欢追问的难点。 opencl 给出的方案不是靠模型自觉,而是靠工程上的严密隔离。他引入了 h i t l, 也就是人在回路机制,涉及到删文件、 付钱这些高危操作,他会在聊天窗口弹出一个 y 或者 n 的 确认请求,必须你本人点一下他才敢执行。同时,他支持沙箱执行环境, 哪怕模型由于受到攻击想去格式化你的硬盘。但在 opencloud 沙箱层级,他被锁死在容器里,根本没有权限跃出半步。 这种从物理隔离到人为干预的立体防御体系,才是企业级 agent 敢于真正商业化落地的技术保障。还有一个痛点, agent 跑着跑着就失忆了,任务断了怎么办? openclaw 整合了项链库和 actionlog 回溯,它不只是记住了聊天记录,而是精准记录了自己每一步想了什么和做了什么。这种对思维过程的持久化和可追溯,才是复杂涨任务能百分之百跑通的关键。最后,我们来总结一下,如果面试官这么问你, 你一定要给出这个满分回答的思维框架。第一, openclaw 的 创新不在于底层的算法模型,而在于它定义了 agent 与现实世界连接的一整套标准协议, 把不可控的 ai 行为关进了工程的笼子里。第二,他通过 skill 点 md, 极大地降低了技能开发的门槛, 让全球开发者都能像写文档一样为 ai 贡献大脑碎片,构建起了一个标准化的插件生态。第三,他从架构层面彻底解决了 agent 落地最硬核的两个挑战,一个是安全合规的物理边界,一个是长城任务的状态一致性。同学们一定要记住, 在 ai 时代,单纯的模型聪明已经不稀奇了,能把大模型的能力无缝接近人类的工作流,并且能管好它的安全和权限。这种工程整合能力本身就是当下最高级的硬核技术工程,即艺术,整合即破局。那么下次再见了。

opencarlo 火出圈了, opencarlo 本身不是 ai, 为什么它能够对接飞书,还能够自动干活?大模型、 agent、 token、 queue、 mcp 又是什么?它们和 opencarlo 的 关系是什么?我用一个例子解释明白啊,这是一辆汽车。 opencarlo 是 一辆没有发动机的汽车壳子, 它提供了方向盘,座椅,仪表盘,它负责和驾驶员,也就是你进行沟通,但是它自己跑不起来, 那汽车跑起来需要有发动机。所谓的大模型就是 open cloud 这辆汽车的发动机决定这辆车能够跑多快有多聪明的就是大模型。你可以给 open cloud 装上 cloud 这样的顶级超跑引擎,也可以换上 deepsea 这种高性价比的自吸引擎, 也可以是 jamming 这种混动心脏。当然,用不同的发动机,车的马力那就不一样嘛。我们还忘了件事情啊,发动机的运转需要燃油,那么我们所说的 token 就是 燃油,所以我们经常听到说消耗了多少 token 啊,你说的话越多,模型的回复就越长,油耗就越高。那为什么 ai 会断流呢?是因为你的账户里面没油了。那这里肯定会问啊,我们平时和 ai 对 话也没有要买 token 啊,那这里就是 to b 和 to c 的 区别了。如果你是 c 端用户,你的需求是比较个人的,独立的,不能够成规模的, 所以很多软件对 c 端用户都是用很低的月费,甚至是免费开放的。但是 b 端用户都有了大量的相似用户需求,当他们把某种需求做成一个工具的时候,那就消耗大量的 token, 而这个工具就是我们所说的 agent, 加上了 agent 这样的逻辑呢,这个车就不再是一个死壳子了,它就有自动驾驶的能力了。 给它一个目的地,它会自动规划路线,避开障碍,直到把这个事情办成,直到走到目的地。一个纯车只能跑路,但是遇到复杂的路段啊,它就跑不过去了。但是给这个车加了 skill, 也就是技能,它就无所不能。比如说接上了搜索插件,它就是侦查车, 接上了代码解释器,它就是维修车。这就是为什么两个人用同样的模型,一个 ai 帮你干一堆活,另外一个只会和你聊天的原因,差的就是这些 skill。 jsq, 我 们可能都是用不同的外部工具做出来的,所以接到车上会存在和发动机不兼容的问题。所以最牛的就来了啊,就是 mcp, 你 可以把它理解成为汽车里面有统一的全球零件接口,大家都是统一规格。有了 mcp, 不 管是什么牌子的导航仪啊,传感器啊,只要符合标准,咔嚓一声就能够直接插到你的车子上面去, 相当于 usb 接口出来。以前鼠标、键盘、打印机各用各的接口,买个新的设备,还有专门的现配 m c p, 就 相当于 ai 工具领域的 usb。 奥本克老师,所以这么火是因为它真的能够自动驾驶,但是现在的痛点是燃油太贵,所以我们希望油价能够尽快降下来吧。

今天我们再讲一下收到这个千里通的这个 open class 盒子,我们从零开始 需要的软件是一个是叉校,一个是叉 ftp, 这个是用来登录这个 open class 系统的,这个东西是用来 windows 和这个 open class 系统的,文件可以互传, 在这个地方下载。我们还有这个文件是用来编辑这个 json 文件的,我们从零开始吧,从这个地方下载这个免费的, 点击两个下载,我们从下载开始安装。啊,这个我已经下载了啊,点击安装这个安装都是下一步,下一步,还有这个 今天这个视频我就不剪辑了,主要是针对呃,首次使用的一个用户啊,这个是免费的,这个可以啊,点击后来不用管它。 还有一个这个我们也安装上 这些,直接下一步就可以了 关闭。还有这个软件啊,我这边是已经安装了,如果没有安装的话可以到这里下载 咱们呃,必须要了解一个,就是盒子跟电脑是在同一个路由器环境上面有,我现在用的这台 windows 电脑就是这台电脑,然后路由器,然后这边是一个 opencloud 的 这个盒子, 电脑和盒子必须要在同一个局网,也就同在连在一个路由器上面, 如果没有路由器,或者说我对路由器没有权限怎么办?这种情况就是要盒子这个 open class 盒子,接上显示器,接上键盘,登录进去, 拿到一个 ip 地址,一会我们可以演示一下, 这个是我一个路由器的后台,可能跟你们看到的是不一样的,这这个 ip 就是 我这个 opencloud 的 这个盒子 ip, 它的 ip 是 幺五幺 八八,是我这个网段,我们找到刚才我们安装了这两个,打开,然后这里会有一个新建,这个名字随便写, 这个主机一定要写这个 openclaw 盒子的 ip 地址, 也就是我们在路由器后台看到的这个,然后点击链接,啊,这个名字已经存在啊,我们再创建一个, 在这个地方我们会看到我们刚才创建的这个这个, 然后点链接就可以接受并保存这个用户名和密码。在盒子背后有的用户名是 root, 密码是大写的 a, 小 写的 s, 一 二三四五六七八,这个是注册密码。 购买这个盒子只要通,只要通过这个 ss 工具进来,它进来之后都会看到这样一个界面, 这个是我们盒子的 ip 地址,这个都已经安装好了,这个 opencloud 我 们现在就要学会它怎么配,把这个复制 到浏览器去,打开它这个提示,点击这高级,然后继续前往就可以了。 第一次打开的时候我们可能会看到这个状态是离线,我们点击左边这个控制这个盖栏这里 检查下这个网网关令牌,它是没有的,没有啊,此时我们是可以通过这个把这个 token 复制下来, 然后粘贴到这个网关令牌这里,然后一点击链接它就可以了,这个状态就是正常状态就可以了, 说明现在是呃, opencloud 已经起来了。那么下一步我们怎么配这个大模型?在这个配置这里上面有个 r a w, 这个点击这个 购买。我们这个盒子,我们我默认会给它配了一个千万的大模型,这个这个例子你只需要把这个千万这个大模型 a p i key 写到这里就可以, 这个 key 在 哪里申请呢?我们打开一下这个百炼大模型, 你也可以在网上搜索一下这个阿里云百炼,然后登录自己的账号, 在这个 api 参考这里, 它这里会教你如何获取 k, 我 这个是华为的,我们就点这个 api key 前往 api key 如果没有创建的话,这里是空白的,我们可以创建一个,然后归属的账号是选这个,然后点击确认, 此时我们就创建好一个 key, 我 们把这个 key 复制下来,然后粘贴到这里, 粘贴到这里,然后点保存,然后更新, 此时应该是可以,我们可以在这个聊天窗口这里可以问一下, 如果它能正常回复,说明我们就把这个大模型已经接接通了,你看它是已经正常回复了, 你看它是使用摆链的这个这个模型,这个模型是在哪里呢?我们可以在这个摆链的这个呃,模模型广场这里,它这里会有很多, 我们可以看一下这个模型用量。 在这个地方,它有一些是免费的,有一些是收费的,免费有一些额度,它这个模型它就是前面这里比我刚才用的是, 你随便找一个都可以,只要是有些是免费的,有些是收费的。比如我刚用的是这个模型, 就把这个模型名字复制下来,到这个配置里面,找到这一个 id, 把它替换,如果你想切换其他模型,就切换到这,比如我要切换的切换成这个模型, 每个模型它这里会有介绍的,这个是大语言的模型,它这里好多模型,当然有些它是要收费的,有些是有免费使用额度的,我们把这个模型 替换,只要是这个是这个是说明而已,这个换不换都行,换也可以,换就,呃,好认一点,然后包括下面这个,只要是看到这个就给它替换掉, 把它替换,这个是切换模型的,我们换,换完之后点击保存并且更新。 我们此时再来到这个聊天这里再看一下,刚才我切换了模型,现在,现在是什么模型呢? 那它现在是使用了这个百炼的千问 max, 这个二零二六的零一二三的一个模型, 这个就是呃配置这个模型的这个教程。 还有这个 open club, 每天就经常会更新,就是到目前为止三月十二号它刚更新了一个版本,是三点一一的, 如果更新之后它出现,呃不能使用的,到时候可以因为再联系我们这边, 主要是主要是把这个记住,就是如果如果忘记的话,你可以通过这个 s s 工具登录进来,我们这会有一个提示的, 今天这个视频教程就讲到这里,呃,下次我会写一个做一个接入那个飞书的这个视频教程。

打死我也没想到, open curl 最适合的模型是这个,最近出来了一个小龙虾的评测精准, peter 也是为他点了个赞,他是专门用于评估小龙虾在一些实际的场景,到底他的效果怎么样, 今天我们来看一下。首先他的评测任务里面有二十三个,然后基本上都是日常常见的一些任务,然后他就评估了非常多的,我们直接来看一下他的排行榜,打死你也猜不到。 最适合的是这个 jimmy 三 flash 这个模型,它的准确度达到百分之九十五。然后第二个是这个 mini max m 二点一,但是 mini max m 二点五已经出来了,但是它没有评估。可以看到像这个 oppo 的 四点六,四点五,还有 jimmy 三 pro 都排在后面, 还有 kimi, kimi 也排在了第三位。最最重要的是这个 jammy 三 flash 排在了最前面,我不知道它是为什么,最最重要的它的成功率是最高的。还有其他的一些评测榜单,这个就不说了,因为它完全没有考虑成功率,它没有一个综合的榜单,我们直接看它的准确率。但是毫无疑问的, 这个 jammy 三 flash 它的价格也是很便宜的,而且速度也是肯定是很快的。但是有没有 mini max 应该是比 mini max 要稍微快一点的,因为本身不光是模型的问题,还有一些服务器的问题。这个 jammy flash 肯定是更快的,而且它的准确度也高,成本也低, 虽然还是没有这个 mini max 更低,因为它是有一个汇率差存在,所以说 mini max 会更便宜点。这个 kimi k 二点五也是真真是想不到。 其实这个项目还可以拿来做一些什么?这个基本都是开源的,其实还可以拿来做一些模型的评估,评估了之后可以拿来做这种模型的路由, 什么模型适合做什么样的任务,什么模型适合做什么样的任务,同时兼顾准确度的情况下,又兼顾了他的一个成本和速度,这个还是有的做的,有这样的,如果有这样的一个项目,他应该应用场景还是挺大的。