在演示之前呢,先给大家看一下我们今天的测试材料,我们今天的测试材料他完全模拟了企业的真实投研财务分析的一个场景,他的测试材料是完全由脱敏的五十页跨国企业年度财报,大家可以看一下,里面有中英混牌的专业文本, 多级嵌套的财务表格,跨页关联的一个柱状图、饼状图,折线图,还有很多专业术语和辅助说明,甚至还有扫描件格式化的表报表,它的复杂程度可以说是拉满了,也是我们大家日常用智能体的时候最容易处理,也最容易翻车的一个场景。 那我们今天的任务呢,是完全复刻企业里的一个真实的工作需求,就是拿到一份企业财报,然后输出一份完整的分析报告。在整个过程,我们就用大家平常在 open cloud 里常规的操作方式,直接把财报文件发给智能体,让他自己理解分析并完成报告。 让我们来看一下,在接入了圆三零凹叉之后,这个智能体能不能真正的像是分析师一样把这个事情完整的做下来。那么现在我将通过飞书平台把我这五十页的财报文件发送给 openclaw。 好 的,我们可以看到 openclaw 已经在这个智能体对话框中已经开始执行了,这个飞书中已经开始显示 openclaw 在 已经敲键盘了。 其实这已经触发了我们已经预先设计好的一个工作流,他主要分为以下三步,第一步就是我们智能体会自动识别到文件的上传,启动文档解析的工作流。第二步会通过我们封装的原三点零 arch 专家工具,对文档进行逐页的多级多模态解析, 提取文本表格图标里的核心信息。第三步,也就是根据我们的指令完成跨页数据的交叉分析和逻辑推理,最终生成一份分析报告。现在整个任务已经在我们的 open class 中执行起来了,我们可以稍微等待一下结果。 我们现在这个分析报告还在进行中,我们可以先看一下,就是我们将同一份财报分别交给两个不同的大模型来做分析的一个结果。首先先看左边的模型 a, 他生成的是一份比较完整的分析报告,比如有他有这个报告概要业务结构, 这个财务状况、风险,还有未来展望等等这样一些章节,他的整体呢,更像一个研究员写的一个深度报告,所以从这个结构的完整性上来看,他的表现是比较好的。 然后我们来看一下右边的这个模型 b 生成的一篇报告,这个模型 b 的 特点呢,就是啊信心的整理能力非常强,你会看到他在这个报告中生成了非常多的表格和数据,比如说收入的增长, 呃毛利率的变化,区域的表现等,这个数据结构是非常清晰的,但他的问题呢,就在于呃逻辑分析比较弱,他更多的是像在做逻辑数据的一个逻列,缺少像数据到原因再到商业影响这样的一个分析链路。 所以来说总结一下的话,模型 a 更像是一个分析型的模型,适合生成呃一个完整的报告。而模型 b 呢,它像是一个数据整理的模型,适合做信息提取, 如果做一个简单评分的话,那么这个模型 a 在 结构和分析度上更强,而模型 b 在 数据准确的一个处理性上,还有这个信息整理方面,它会更加的好一些。我们可以在 open class 中看到 我们的分析报告已经生成了,那么我们现在来看一下这篇分析报告吧。呃,其实原三点零模型最大的不同的是,它生成的这个并不是一个简单的总结啊,我们可以看到它是一个非常标准的研究报告的一个结构,而且它的章节顺序是按照给大家展示一下, 是按照公司概括财务分析,然后区域市场运营效率,最后是一些投资的建议这样一个结构来展开的,所以这个结构是非是很多券商研究报告中的一个标准的框架。 原三二零 ultra 模型更加突出的一点是,它能把这两个是把模型 a 和模型 b 这两个模型做的事情给它结合起来,它生成的并不仅仅是一个简单的摘药,而是更像是一份真正的一个财务研究报告,既有完整的结构,也有分析逻辑。 那么我们再和模型 a 做一个对比, 我们可以看到啊,这个从目录章节上来看,模型 a 整体的章节只分为了五部分,整体细节上可能还存,还有待打磨。其次我们可以看一下具体章节的一个内容, 模型 a 呢,生成的大多都是这个大段的一个文字分析,虽然篇幅足够,但是可能包含的要点还是略显单薄。那么我再来看一下我们的原三二零的分析报告, 我们可以在这个报告中随意找点数据,看我们的原文是否能够找到吧。这里我们复制一个这个运营现金流 到我们的原始报告中,看它是否有能和我们对应起来。哎,可以看到,实际上我们的这个呃,在在最终的报告中,它所展示出来的数据能够在我们的原始年报里一一找到对应。 也就是说呢,我们的这个大模型,它并不是凭空的去产生一些数据,而是基于这些原文去生成的准确的一个提取。 所以从结果上来看,这份报告首先保证了数据来源是有依据的,关键指标的性能是应对应上的。 更重要的是,我们的这份报告并没有停留在单纯的数据的一个摘录的个层面,而是在此基础上继续往下做了完整的分析。比如说他不仅告诉我们收入、利润、现金流分别是多少,还会进一步分析这些数据的背后,他的一个增长驱动是什么,利润的变化的原因是什么, 现金流的一个改善说明了什么,以及这些指标之间是怎么相互印证的。所以大家可以看到,这份报告的价值并不只是把年报内容给他提炼了出来,而是在保证数据准确的前提下,进一步形成了完整的分析逻辑和经营判断。 从这次结果来看,语言三点零 ultra 特别适合这类长篇、强结构、重逻辑的企业年报分析任务,它不仅能生成章节完整、层级清晰的标准研究报告,还能在数据基础上即兴往下做这个经营判断、 原因分析和这个财务的一个联动推理。所以如果说这个目标是产出呃一份更接近于专业研究员风格的财务分析报告的话,那么原三点零 ultra 的 综合表现是比较突出的。
粉丝1.7万获赞16.8万

如果你是做电商的,或者是做重复办公室工作的,一定要用这款 ai 智能体 open cloud, 就 也就是现在爆火的小龙虾,它和普通的大模型完全不同,它不只是聊天机器人,而是拥有电脑操作权限的一个执行者,就是直接给你结果的,不是只给你答案, 就他能二十四小时不眠不休的干活,就你只要下达指令,对吧?他就能打开浏览器,然后查竞品,做 excel, 整理数据啊,发邮件啊,抓取行业动态对吧?填财务报表,包括监控,竞能排名啊,全流程他全部自动执行, 哪怕就是一个模糊的指令,他也能就是自己拆解步骤,在各大搜索引擎找到解决方案,像专业员工一样规划路径。 更厉害的是啥呢?这不它能打通商业闭环,就咱们电商运营,对吧?要盯了一些,比如像排名啊,销量啊,控价,包括一些评价,对吧?它全部能自动收集汇总,成为你的真正的专属业务数字分身, 把咱们普通 ai 只能做一些交互的一些问答。而小龙虾呢,它能操控鼠标文件 api, 就 从给建议变成直接的干活,你包括像一些发帖、运营、售后,给你全部搞定,这你受得了吗? 我身边有个兄弟,他让公司的百分之八十员工转岗,就是一百个人,最后精简到二十个人,就我很庆幸这五年我没怎么招人。像客服啊,设计啊,运营岗,小龙虾他全部都能高效的替代。 就我现在做 ip, 包括群内一些问题的一些整理啊,包括视频的分发,然后包括一些话题的一些策划,对吧?全靠他解决。 淘宝一些后台运营啊,竞品一些数据统计,包括一些差评的监控,还有一些客服的售后投诉处理,他两个小时就能干完人工几天的活。现在创业,你千万不要招没有思考能力就只做重复工作的人,公司只需要思考者就是创造者, 按部就班的执行岗,未来肯定都会被 ai 所取代,管理纯粹浪费时间啊。你看一下沟通啊,激励啊,团建啊,其实都没必要用 ai 砍掉所有环节,一个人就能顶一只团队啊。就小龙虾最核心的优势 是打破平台的壁垒,然后抖音刷到爆款,它能自动给你拆解视频啊,核算利润啊,给出可执行的方案, 全程合规操作,而且它能规避平台的一些风险,知道吧?而且它还能跨平台跟你做私域个性化定制,就不断地投喂你的一些业务数据,就他能越来越懂你的业务。 终于迎来咱们真正的属于个人创业时代,就是你只需要掌握核心的能力啊,比如产品开发和一些产品痛点的挖掘,供应链的整合,剩下的执行全部交给 open cloud, 就 一个人能抵过去五百个人的效能, 就别再纠结就业失业率,企业先活下来才是最关键的,就没有人会主动革自己的命,对吧?但是咱们老板必须要主动拥抱这个工具, 这个时代竞争的核心绝对不是说人力了,是工具效率知道吧?不会用 ai 工具,你迟早会被市场淘汰,赶紧把小龙虾用起来,这才是电商和创业的终极破局之道。

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

如何用小龙虾帮我们做交易啊?今天我跟大家稍微演示一下。嗯,我这个就以白啊,我随便选了个票啊,随便选了一个票,然后要他去获取一些数据啊, qq 数据、财务数据,然后利用百度搜索去搜索一些新人,然后进行一个综合的分析。那这里面就用到两个技能,一个是 啊,获取数据的一个技能啊,可信数据,财务数据的一个技能,其实这个技能的话其实还可以自己加,他用的是 ak 二的。呃,数据啊,这里面其实还有很多其他数据,我们都可以加进去。 然后呢?用到了百度搜索技能啊,这个需要 a p r a p r, 你 去申请,然后他一天的话有个一百次的一个免费额度啊,也够用的。 这个是免费的,所以整个用下来除了用头肯花钱以外,其他都免费的。那他给了一个建议啊,包括这个入场的价格啊,目标价格就止盈止损啊,还有风险收益比,这个是越高越好。那他有自己计算那些指标啊,这是他自己自己计算的啊, 这从位置哪里?主力位置哪里?然后呢啊,这是一些财务的一些数据啊,这是新闻的一些数据啊,新闻消极的,积极的,对吧?这是一些内容啊。理由, 那总体来讲的话分析的还比较全,然后他给了我们的一个价格,对吧?一个建议的一个短期的一个价格策略的一个价格, 那你做交易就完全可以根据这个去去做。当然了,我们建议就是说这个地方啊,风险收益比越高越好啊,越高越好。那我简单说一下他这个原理啊,其实他这个其实也很简单,首先我们要去下技能 啊,下 sky 的 话有两个,一个是国外官方的啊,官方的,这里面的话呢,你也可以直接,你把这个直接你就把 sky 名字告诉他,让他去下载安装。第二个是国内的,国内的这个网站啊,腾讯的,对吧?然后这里面呢,你比如说搜索啊,我搜索一下 啊,它它就会有很多相关的 skin, 你 点进去以后,你直接把这个复制给它啊,复制给小龙虾,复制给它以后它就会安装了,安装完以后,然后还有呢,去百百度啊,也可以也也在这里面,你直接复制过去 啊,把它复制过去,然后那就安装了,安装以后你就说让他去继续这些数据和这个搜索,去跟一个答案很简单,然后这个只是做分析,那如果说你要实行智能化交易, 智能化交易我们其实还是要用到量化啊,用到量化,那这里面你包括这些技能啊,对吧? g m t。 你再把复制跟他,那他就是可以用爬山去做一个程序化交易,那其他的一些什么数据啊,这里面都可以去找,还有其他的一些平台啊。但是如果说你的这个呃量化,他这个是必须运行他的一个 一个框架,就是他的程序的话,那就没那么方便了,那只能是叫他帮你写,那就没办法自动化运行了,因为你必须依靠他那个程序去运行, 所以这个用小龙虾去做交易是完全可行的。但是啊,但是他其实还是是,呃,我一直在讲的就是还是是通过啊 pass 一 些程序去实现的,但是啊,他还是通过 pass 这个程序化或者是量化平台啊这些交易接口去实现 的。嗯,所以大家还是先学一点这些量化的知识啊,再去好好利用这个小龙虾。

哈喽,我是严校长,之前几期视频去讲了这个本尼大模型吧,然后很多人就觉得这个本尼大模型在速度上肯定是非常的差的。然后这期视频主要给大家实战演练一下啊,只见我们用录屏的形式看一下。呃,我最近发现这个模型啊,就是刚出的千万三点五三十五 b a 三 b 这个模型, 你看我用的是这个八位的一个量化版本,但这个版本其实跟我们线上去使用的话,差别并不是很大,特别在高峰时期,他不会被压缩。 如果你用线上模型 open color 想省钱不用的话没有意义,你训练的东西没有用,然后你大量使用的话,你的这个开销,特别是多 a 镜头的这种场景,你的成本是相对比较高的。所以说如果你有重度的 open color 依赖的话,可以尝试一下和我一样用麦克斯丢丢 去做本地模型的部署,可以看到我这台机器是二百五十六 gb 的 版本,这个机器目前跑这个东西都是小儿科啊,你看就占用了六十。然后我们来看一下这个本地模型到底速度怎么样, 我们先做个简单的测试啊,比如说你可以做什么?大家重点是关注他这个回复的这个速度,以及这一块他思考的这个时间啊,可以看到这个速度基本上是秒出的呀,可能现在赛文比较小啊,可以看现在能跑到四十七啊,可以跑到四十七 啊,然后这个是八位的啊,这个八位如果我换到四位,我们常用的这个版本的话,可能速能跑到五十多啊。比如说我们来点复杂的,比如说 天气怎么样?因为这个涉及到要一个联网搜搜索嘛,他会在网上去搜啊,他的步骤可能你看现在已经操作了两步了,第三步了啊, ok, 把他读到了我当前地址啊,然后天气都带出来了啊。比如说我再问一下别的地区, 因为这个就要考虑到一次两次的上下文的连连接,而不是简单的常用的这种。呃,人工智能进行一个单次对话,你看他联想到了我后面发的这个深圳的话,他能联想到这个天气的信息。然后我们接着来去 啊,问一个复杂啊,比如说推荐一下二零二五年的高分韩剧啊,这个其实是有点难度的啊,首先他要在网上去扒资源啊,找到有用的信息,然后进行整理。 这个步骤对于本尼达模型其实压力算是很大的,你看一下我们这个目前新出的纤维三点五,在这个本尼达模型上的效果怎么样?可以看到这个速度 其实有很多人应该用过线上的版本,你们又不觉得我这个速度并没有很慢是不是?而且我这个是没有弄虚作假了,这些片子可以看到都是都是新出的,而且刚刚的思考过程都是看得见的。 然后我们来反过来推一下,你看现在上下文是有一定下降的啊,跑到四十五,但是四十五点七 t 肯啊,这个叫 t g 头肯,就是吐字的,这个速度其实是已经很合理了,我们再继续给他一点有难度的啊,比如说这个片子啊,我直接跟他说嘛, 这个具体讲什么?好看吗?啊?你继续进行二次追问这样一个测试方法是很容易测出一个模型以及对于 open klo 的 适应能力,可以看到速度依然可以很快的出来。 然后我们再继续增加难度,比如说这个片子一出来,我觉得你看他,他甚至给我一个建议啊,就是他可以帮我搜磁力链接,这个就很强啊。我说,呃,找找四 k 的 吧 啊,其实这个又又叠加个难度,首先上下文的长度变长了,哎,再加上他对互联网解锁的这种能力就更强了。因为我们用的是巴巴比特这个电话版本吗?如果试比特可能会弱一点,但是他只影响他试错的这种 几率吧。可以看到这种他已经不断的在尝试了,如果你是精度比较低的,他可能试错的次数会多一点,但是基本上都能出结果,而且可以看到我现在的这个显存。 嗯,这点三条文基本上不会有开销。比如说你预算有限的话,你可以入 m 三要求的这个九十六 gb 现存的这个版本,如果你呃预算 大概在两万左右的话,也可以买六十四 gb 的 m 二要求的话,你跑四 b 的 量化体也不会差很多 啊。你看这个,这个他现在就是遇到了问题啊,你看,呃,就说在某个网站上没有找到这个资源 啊,这就是现在本地模型,我目前来测试就是很容易出问题的一个点,但是这个问题我觉得是可以解决的,因为通过你去优化它的 skill, 它可以解决更精准的一些,因为我现在是完全让它呃重新尝试,相当于没有没有教学的部分啊,让它自己去尝试, 那后期你就可以完全用自然语言去沟通,然后他会更了解你的习惯,写出更合适的 skill 啊。这些视频主要是给大家讲,就是关于本地大模型啊,以及这些使用体验上的速率以及性能的问题,可以看到一些正常使用都没问题。 我们再做点哪一点呢?比如说打开浏览器,进入小红书,搜索 back 丢丢,其实这个是有点难度的啊,就哪怕很多线上模型,我们去跑浏览器的自动化,其实都呃不是那么容易成功的。而加加我们现在已经有一些上下文的堆积了,然后我在中间突然插入了一个和上下文完全没关系的 啊,内容其实对他来说是有一定的难度的,可以看到他第一次试错了,他第一次直接用这个,呃,直接去抓了呀,他就是很简单,他打不开浏览器,但是他用了一个其他的方式帮我推出来了这个目前我想找到的东西,也就说他又找了一个别的解决方案啊,但是千万三点五,这个本身是一个小模型啊, 如果我们后期去切到这个 mini max, 你 看它这个,嗯,空间都占用一百三十八,实际跑起来大概占一百八十 gb 的 现存。比如说如果你预算更高一点,大概五万的预算的话,你完全可以入这个二,像我一样二百五十六 gb 的 这个 m 三要求啊,就跑这个 mini max, 像这些什么浏览器啊,以及呃下电影啊这种小科的问题吧,但是它的速度可能就跑不到五十头克,每秒大概有三十头克,但是日常使用完全够了。 ok, 那 下期视频我们会继续分享如何?呃,更高效地使用本地这个大模型,来去跑一些 open klo 的 一些复杂任务。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

我用了一千万拓展去验证最适合 open globe 小 龙虾的模型搭子来了,亨特阿尔法,它目前在 open road 上是一个免费的,是一个另一门公司测试的模型。呃,据传闻它可能是 deep deepsea v 四版本,或者说是智谱,或者说是小米的新一代模型。然后它的特点就是一万亿参数,然后上下文有一百万, 它是相当于,呃可以处理七十五万字的中文或者一百五十万的英文单词,在一个对话框内,那相当于就说它是我们之前推荐的 g 月星辰三点五,就 sleep sleep 三点五 flash 的 四倍,然后专门为了 opencloud 啊小龙虾这种 app 去做了优化,然后它目前也是在 opencloud 上是免费的。然后魔性 id 我 贴在了我们视频的评论区里面, 呃,我让他去呃做了一些安全的测试,就是我们之前上个视频提到的自防护,呃,就相当于模型 agent 的 自防护能力,然后可以看到就是亨特尔法是百分百通过的,然后 sleep 三点五 flash, 然后通过度只有百分之六十五,那相当于就是说这个模型能力上,亨特尔法是远远强于 sleep 三点五 flash 的。 呃, open road 上呢,就是,呃有很多免费的模型,目前是有二十八个,那在第一梯队的呢?相当于就是我们的亨特尔法,它是接近了 g p d 四或是 cloud 的 这种商用模型的能力。呃,后面还有很多其他的特殊的免费模型,比如说多模态啊,视频啊这种,我下一个视频会给大家介绍。 那比如说就是,呃,我们来看就是亨特阿尔法六大模型的横向对比,那从整个的呃就是编程能力来看,肯定是商用的 cologne 最强,然后推理能力和编程能力都是商用的 cologne 最强。然后 agent 的 控制调用呢?嗯,那就是亨特阿尔法这种免费的专门 agent 的 设计,最强,你可以看到远远超过。 嗯,包括那样,就是,呃那个亨特阿尔法的定位,它其实本质上呢,其实是专用呃 a 技能做设计,那它和最强的付费的 a 技能模型呢?那其实是是也各有胜负。对, 那我们看到我这边的 status 状态呢,其实是呃它的上下文,你看我新的窗口采用了百分之四,非常的充裕。 嗯,和那个呃 sleep 三点五 flash 的 对比呢,相当于可以看到 a 技能的能力,然后呃 超文档处理是远远超过的。然后中文能力呢,它其实是属于待验证。因为呃, steve 三点五阶跃星辰呢,他知道是中国公司模型,亨特尔法也知道是中国公司的,所以说中文能力呢,其实属于一个待验证的状态。 然后推理速度呢,因为它有 a t 的 参数,呃,相当于是呃那个参数更大,然后推理说会更慢。呃,但其实是呢,呃,我们其实是等待时间,没有强,很强要求的话,那其实还是这种 a 级的能力上还是远远超过的。 那我们现在可以看到,就是我这边用了那个接近一千万的脱贫去做了验证和测试。对,呃,九九点六百万。 那亨特尔法啊,他现在在那个小龙虾的登陆排行榜上是,呃排名第八。对,然后我之前推荐的 super 三六 flash, 现在是远远排名第一。那,那我觉得后续的话就是亨特尔法,呃,他不管是更,嗯,就是正式发布他名称之后还是怎么样,那我觉得还是一个很大的竞争空间的。对, 然后这是我之前跑了一个测试,用它去跑的一个呃哆啦 a 梦的图像,因为它是纯文本的模型呢,它只能靠文本里面简介和想象,这是用 svg 来绘制的,相比于它的上半部分,其实是已经绘制的非常接近了。 然后整体上的话呢,其实是在呃 log 里面,比如说,呃,或者说我们看到 a p i k 对, 它其实都是免费的,对,都是一直已经切到了那个呃,对,你可以看到我的小龙虾都已经切到了亨特尔反应在用,对。

今天给大家分享一个项目,是香港中文大学发的一个 c l i anything, 专门是给这种 open curl, 把所有的这种软件,所有的这种开源的项目, 只要是你有源码的,它都可以给你转化成 open curl 可以 调用的 api 形式,它什么都不需要安装,只需要一个命令,它会自动把你的这个软件程序打包成 open curl 可以 支持的 api。 本质上这个项目的话,它是一个 cloud code 的 一个插件,其实它是拿 cloud code 做了一些配置和工作流或者子智能体,然后经过这种 编排去把你的一些项目或者仓库代码,仓库直接转化成几个 open curl, 它们可以支持的一些工作流,它会把这种工作流也进行合成集成, 使用起来也是非常简单。你只要有 cloud code, 然后安装这个插件,然后一个命令,把你的这个仓库或者你的这种源代码地址直接告诉他,然后他自己会去扫描源代码,进行设计,进行实现,进行这种文档,最后进行发布。 这种就非常适合你自己有一些源码呀,有这种 github 的 项目,你觉得还不错的,你就可以把它拿下来,做成这种 api 的 形式,可以让 open curl 可以 直接使用。 这个项目还是非常有实用性,但是它是没有达到,比如说你去操控你的软件啊,这些它是达不到的,你必须要有具体的这种代码,原代码你不能是操控微信啊,这种是达不到的。

问你一个问题啊,为什么别人的 open claw 那 么厉害,而我的 open claw 啊,傻的完全没有办法交流啊,背后的原因是啥?以及怎么样去解决这个问题呢?好,接下来一个视频啊,给你讲清楚。那么前面我们说了,龙虾呢,有三大核心组成部分,除了龙虾 本身之外呢,还有大模型以及技能。而在这三个核心里面啊,大模型它充当的是龙虾大脑的时候,那么大概率 一定是你的模型选错了,你模型用的不好,那么整个龙虾就不好用了。好,问题来了啊,那我想让我这个龙虾好用一点,那怎么办呢?那就是使用顶级的大模型啊。好,那问题来了,那我怎么样给我的龙虾去更换大模型呢?接下来一个视频啊,给你讲清楚。好,我们想要给我们的龙虾更换大模型的话, 我们需要知道三个东西啊,第一个 ok, 你 的 api k 啊,你在哪个平台?你的身份标识是啥? api k 就是 你的身份标识, 因为龙虾呢,使用这个模型是要去付费的。好,那么付费的话,我就需要有一个身份标识来标识,张三是张三,李四是李四,这样的话,我才能够成功地去计费嘛,所以我需要有一个 apik, 然后第二个呢,我需要有一个 base url 啊,因为不同的大模型,它的请求的地址是不一样的, 所以这个就是大模型的请求地址,这是大模型的请求密钥。而第三个是谁啊?大模型的名称,因为即使是一家公司的话,他的大模型也是非常多的,那你到底是调这家公司里面的哪个模型, 你要讲清楚的。好,那么接下来呢,给大家去讲一下,怎么样从零到一的给我的龙虾呢?去更换大模型。好,那么首先咱们需要去找到这三个地方啊,通常情况下,不管是哪家平台, 那么它一定是有说明文档的啊,那这时候呢,咱们可以去打开它的说明文档啊,比如说,比如说随便一个平台吧啊,咱们就可以找到了,它里面有啥呀? open ai 兼容模型的这个列表的请求地址 啊,那么这个地址啊, base u l 给大家来说一下,它通常是以 v e 结束的啊,通常是以 v e 结束的,所以, ok, 咱们去调用的时候, base u l 咱们就找到了啊,这个地址有了,那么地址有了之后,接下来呢就是去调用模型了,然后在他们官方里面也给咱们提供了一个接口,然后这个接口呢去访问,你可以得到所有的 模型名称啊,当然因为它们本身是一个集成站,所以在它里面呢,国内的模型和国外的模型都有,比如说 kimi 二点五呀啊, jama 三点一呀啊, gpt 五点四呀啊,包括豆包一点五呀等等等等,还有 cloud 四点六啊,它们家都能用,而且夸张的是啥呀? 它们有套餐,可以让你的成本可控啊,你可以订阅六块九的,你也可以订阅四百九十九的,根据自己的使用情况来选择相应的模型就 ok 了。好, ok, 那 这时候我就得到了贝斯 u l 了,以及 它的模型名称了,那么第三个是啥呀?第三个是我的 api k 啊,那这时候咱们就去访问后台,在后台里面有一个 api k 啊,这时候呢? ok, 我 可以新建一个 api k 啊,比如说这儿呢,我就新建一个 test 啊,然后点击创建。 ok, 那 这时候 api k 就 有了啊,这个时候咱们三个东西都有了情况下啊,当然所有平台都是一样的,所有平台你就去找这三个东西就行了。 找到这三个东西之后呢,接下来咱们就去对接一下最新的 gpt, 五点四。好, ok, 那 这时候啊,怎么样去对接呀?不管你是 windows 电脑还是 macos, 苹果电脑都是一样的,那么 windows 电脑呢?你就点击视窗键, 然后 cmd 啊,打开你的命令行提示符,如果你是苹果电脑的话,在应用里面去找到终端啊,都是黑色的窗体,然后点击它就行了,然后点击它之后呢? ok, 接下来输入一行这样的一个命令, open cloud configure, 然后输完之后敲回车啊,敲完回车之后呢,咱们选择当前本地的配置,然后确定, 然后在里面去选择 model, 因为接下来我要去更换我的模型嘛,所以点击 model, 然后在这个 model 里面呢? ok, 如果你直接是比如说,哎,我就去对接 kimi, 那 你就去选择 kimi 就 行了啊,但是如果我对接这个平台在这里面没有怎么办? ok, 它底下会有一个自定义模型, 所以你不管是哪个平台,你只要拿到刚才那三个东西,咱们都可以通过自定义的这种配置来进行设置了。好,那刚才那个平台它没有内置啊,那我这时候呢,我就选择自定义的厂商啊,因为它符合 open ai 协议的好。敲回车,然后 敲完回车之后,它要你干嘛?输入 base url, 然后 base url, 刚才咱们找到了呀,啊?它在哪啊?它在这儿,对吧?啊?这个 base url, 它是唯一结束的,大家注意啊,唯一结束了,所以咱们复制这个地址。 好,然后回到咱们这边把它原来带的这个东西呢地址呢?给它删除掉啊?粘贴是吧?好,敲回车,备注 u l 有 了,然后接下来输入啥呀? api k。 好, 输入 api k, api k 是 啥呀?刚才咱们登录到后台,这个 api k 复制啊,然后这时候呢给它粘贴,然后粘贴完了之后呢?哎,敲回车, 传回车之后呢? ok, 你 要去选择协议,那我的这个协议呢,就是 open ai 的 协议,所以我选择第一个 open ai 啊,敲回车,然后这时候他让你输入啥呀? model id, 然后 model id 的 话,刚才咱们从这儿哎得到了所有这个 model 啊,我千万三三点五 plus 啊,然后这些都能用的,那我使用啥呀?这一批题四 啊,我使用顶级的大模型,那它的能力一定是最强的。好,那这时候, ok, 咱们去选择啊,这时候不要胡输啊,一定是平台给你提供的这个 id, 不要自己去输入复制,然后粘贴啊,粘贴完之后呢?敲回车啊,敲完回车,这时候他就该干嘛了?去验证你这些信息到底是不是对的?好,验证完之后他告诉你, ok, 我 可以连接成功,到这,你已经成功百分之八十了啊。好,然后这时候呢,他让你去起一个名字啊,给他起个名字,那默认的这个就可以, 不需要去改的啊,这时候咱们去敲回车就可以了,敲完回车之后呢,它需要有一个别名,是吧?啊,那么这个别名呢?咱们就叫做啊有 club。 好, 完了,配置完了啊,配置完了之后呢,咱们继续啊,这时候咱们重启一下咱们的服务就 ok 了啊,配置完之后, ok, 使用 open club 然后 get 位啊,你如果之前你的服务是启动的,这块使用 restart, 如果你之前已经把它关了,所以我这呢 open club get 位就行了。好, 敲回车啊,敲完回车之后呢,咱们问一下大模型,测一下,看它是不是 gpt 五点四啊?好, ok, 那 我设置完了之后呢?哎,我来到网页那边打开我的 龙虾啊,当然龙虾我没有升级版本,现在版本又发布新版本了,那我就问他,我给你更换了新的大模型,告诉我你是什么大模型。好,然后完了之后呢?点击 send, 咱们来看一下它的回复啊。好,那么经过了一段时间之后呢,它告诉我了它是啥呀? gpt 五点四。好,那到这咱们的模型就更换成功了。 所以呢,最后咱们去总结一下,不管你是哪个平台,咱们只要能找到这三个地址之后,然后使用命令的方式,就可以在不改代码的情况下自己来更换大模型了。我是磊哥,每天分享一个干货内容。

在 openclaw 当中,如何免费地使用顶级大模型呢?我们知道 openclaw 本身是比较消耗 talking 的, 原因是在于当你和 openclaw 聊天的时候,它会使用上下文的 talking 调用大模型,从而导致我们使用 openclaw 会消耗大量的 talking。 问题来了,免费的大模型不好用,付费的大模型又用不起,那有没有折中的方案可以让我免费的使用顶级的大模型啊?答案还真有,那么接下来就给大家分享一个价值几千甚至上万的方式,可以让你免费的使用大模型,少花很多钱,所以大家先点赞再观看吧。那么怎么免费用啊?这里呢就给大家去说一下。 我们只需要去 n 平台,然后 n 平台里面是提供了很多顶级的大模型的,而这些大模型都是可以免费去调用的, 大家来看看都有哪些啊?比如说像国内的顶级的 mini max 最新版二点一可以免费的调用,还有像智普的四点七的满血版也可以免费调用。那么像 deep sync, 三点二、 kimi 等模型更不用说了,全部都是免费的。那么我们只需要去 n 平台申请一个 api k, 有 了这个 api k 之后呢,接下来将这个 api k 的 方式使用 open a 的 方式啊,配置到你的龙虾的配置文件里面就行了。 龙虾的配置文件在哪呢?给大家说一下啊。龙虾的配置文件呢,是在当前的用户底下有一个 opencloud 的 文件夹,然后在这个文件夹底下呢,有一个 opencloud 的 json, 然后这时候打开你的 json 啊,因为它内置是不支持这个平台的部署的,所以我们手动去配置它就行了。 手动配置呢,总共有三处地方啊,那么第一个地方呢,就是咱们在 models 供应商里面去添加一个名称,这个名称呢,其实叫啥都无所谓啊,只要后面和咱们的 agent 去对应起来就行了。然后在里面呢, ok, 去写他们家的地址。然后呢,重点这块来了,要去写你的 api k 的 换成你自己的, 用 open ai 的 方式进行调用。然后你调的模型是啥啊?那比如说我这儿呢,就是 mini max 二点一的最新版本。好,然后底下呢进行一个设置啊,这是第一处,先把它进行设置,然后设置完了之后呢,接下来第二处啊,导到你的 agents 里面, 然后将你的 default model 设置成你要调用的模型啊。设置完了之后呢, ok, 在 models 里面同样把这个名称再进行赋值一下就行了。这三个地方全部设置完成之后, ok, 这时候回到咱们的 open cloud 里面,将服务关掉,然后这时候使用命令 open cloud get v 重启你的服务啊。重启完你的服务之后呢,接下来你就可以去问一下你的龙虾你使用的模型到底是啥了。好,那这时候呢,咱们回到龙虾的 使用界面啊,那么咱们去问一下他,我为你设置了新的大模型,告诉我你使用的大模型是啥,咱们来看一下这个大模型 是否是我设置的那个大模型呢?好啊,咱们等待片刻,看到没啊,这就是我设置的 n 公司的 minimax 二点一了,那么到这咱们就可以免费的白嫖顶级的大模型了。我是磊哥,每天分享一个干货内容。

这是我的一人公司的五个 ai 智能体,现在已经到货了,连我这两台已经完全不够用了,那么我买这么多 max studio 做本地智能体本地大模型到底是为了做什么呢?我之前是一个二百五十六 gb 显存的 max studio, 这个非常的强啊, 但是我会发现在使用 opencloud 的 时候,我有多个 agent, 因为一个是我的 ceo, 还有几个我的财务主管,还有我的运营总监,那么他们全部用我这一个智能器,就会导致我这个达摩型压力非常的大,哪怕我有这么大的显存,但是它的内存贷款已经受限了,所以说我安排这么多这个 max 六六, 这样就可以让我的一个智能体就用一个大脑,那样我有五个大脑,加上我之前的两个大脑,就有七个大脑,完成我的自动化工作流,自动帮我做视频,自动帮我找资料,自动帮我汇总我的财务数据,这样的话我只用给我一个主的 agent, 就是 我这台机器二百五十六 gb 的 这个大模型去发号指令, 就可以控制我所有的 a 经理帮我去干活,二十四小时不停歇。再给大家分享一下我是如何配置的。首先这个英伟达新出的这个它的能力是非常强的,我准备用它去做我的核心 ceo 的 大佬,然后这 g m l 就 有点弱了,然后这个负责我的编程,因为有时候我会做一些开发, 那么我就会让我上面这个弱一点的这个去做一些基础的开发,帮我去做一下报表啊,一些很基础的一些呃 erp 的 软件的设计。然后这个 mini max, 我 觉得它的文案能力特别强,像我的运营总监,我就准备用这个 mini max, 但是它的缺点也很强啊,它占用一百三十八 gb 的 这个容量,所以说显存的话,一跑的话基本上占到我一百八十 b, 所以 说我会优先用我这个二百五十六 gb 的 这个下面的去跑这个呃我的主 a 镜头, 然后这两个 agent 配合去做我的一些主要工作,完全没问题。至于这样的一些模型,比如说下面这个 vl 啊,千万三的 vl, 它就跑到我这一台三十二 g 的 显存完全足够,因为它主要是帮我分析图片,特别是啊抖音呐,小红书啊,它上面一些图片帮我看一看, 以及一些呃新闻,还有一些带图的这样的资讯,用它就完全够了。然后下面还有个 gbt 的 这个一百二十 b 的, 它的裸机推演能力是特别强的,所以说我可以用这一台六十四 g 的 这个显存的机器 去跑我的这个模型。那他主要做什么呢?就是有一些关于财务报表啊,一些呃网上的一些黄金啊,股票信息,用它来分析是绝对没问题的。这样的话我大概有七个机器去跑,我七个不一样的模型完成不一样的分工,他们独立的 agent 我 也会给他们配置好, 包括它的这个工具使用,我全部都给它配置好,每一个 agent 有 独立的,它的工具,它的灵魂,它的 agent 设定,以及它的我的用户的一些账户密码全部都在这个里面,而且这一切全部都是要本地, 我完全不需要任何线上 a p i 平台,就算是 mini max 和千万这些平台全部倒闭,我家里这些 agent 和大模型永远为我服务。这样的拥有感和归属感才是本地大模型真正的玩法。配合 open call 一 人公司这样就搞定了。

账单来了,账单来了,兄弟们,二月二十四号开始用小龙虾,第一天的免费额度一千一千千是一百万,一百万个 token 第一天就烧完了, 然后从二十四号到二十八号用了。 哇,这是多少?一万千一千万个头肯,然后多少钱呢? 钱在这里,三十五块钱啊,总共花了三十五块钱。三十五块钱,小助手给我干了些什么事情呢? 就是这个女人形象,还有这个小龙虾形象,还有这一个小虾形象,就这么五天,小虾就干了这么点活, 花了三十五块钱。这个 open claw 你 说好玩吗?也没什么好玩的,费钱不?感觉好像有点费钱。

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。

大家好,在你装完 openclip 之后啊,第一件事要做的事情就是去选择一个模型,那模型作为 openclip 的 大脑,它起到一个非常关键的作用,那这么多模型,那他们之间有什么区别呢? 那为什么你的模型只能识别文字,不能识别图片呢?那本期视频呢,就跟大家讲一下不同的模型之间能力的区别,以及怎么去配置模型。那对于一款模型来说,它的能力有接收信息,那信息类型啊,有可能是文字,也有可能是图片, 也可能是视频、音频或者其他就是你发的信息的内容可能包含这些类型。那么大模型在接收到你这些信息之后,他对你的信息进行回复,也有可能有这些类型,比如说他回复文字,给你回复图片,给你生成一张图片,或者说做出来一个视频, 或者说做出来一个音频音乐,那么也有可能是进行一个网页的搜索,你让他调用了搜索的工具进行一个网页的实时搜索, 那么这这两个东西就是一个输入和一个输出,那不同的模型之间的差异啊,就表现在接收和回复这个信息的内容区别上。那么 open core 官方呢, 截止目前也统计了一个模型的一个使用的一个排行榜,那么这个排行榜里面的模型的排名,不是说我们传统意义上那种模型的一个综合排名,它更多强调的是在 open core 里面的任务的完成的成功率和这一个排名,大家可以看一下, 就是平均的一个排名,就是比如说第一的是 gemini flash, 那 么第二的是 mini max 二,二点一,那么对于 mini max 它现在已经发布到二点五了,但是二点五的表现是在这个排行榜是比较差的, 这个也是非常奇怪的。那么前面还有这个 kimi 的 k 二点五,就这些模型在任务完成的成功率是比较高的,所以这也可以作为啊模型选择的一个参考。 接下来我们就来说一下不同模型在接收信息和返回信息之间的差异,大家可以去选择。就是你在完成任务的时候,为什么有些模型处理的不好,那比如说我们 dbisc, 那目前 v 三点二版本它只支持一个文本的输入和文本的输出,那么对于千万三点五 plus 来说,它能接收文本,也能发图片,它也能去理解这个图片是什么。比如说在我的这个 openclip 的 这个非书的聊天里面,我上传一张图片,那模型来识别一下图片中的文字, 如果你的配置的模型它不支持这种啊图片的识别,那么它出来的结果就是跟实际的结果是有很大的差异的, 那么可以看到它识别出来了这个图片里面的所有信息是完全非常准确的。那么在刚刚的演示里面,我们可以看到千万三点五 plus 它是有一个图片理解能,所以大家在用的时候一定要注意自己的业务的场景 啊,选择正确的模型。那么这里边除了图片理解呢,这边还有一个网页搜索,就是说它本身模型它本身支不支持这种搜索这种内容,因为对于模型来说,知识库它是有一个截止时间的,比如说你可能你 模型的训练数据可能只是截止到二零二五年,但是你现在搜索二零二六年的,那就有些模型他是具备这样的网页搜索能力,他就可以调用这种 实时搜索能力,那么有些是不支持的,那就要配置这样的 m c p, 官方也出了这样的工具,比如像豆包系列,二点零最新的模型也是一样支持文本和图片,那么他这边也是可以单独去开通网页搜索的能力啊。 那我们可以看一下,就是啊这几款国产的,比如说 mini max m 二点五、 m 系列和这个智普的五点零,他们这个图片的识别是需要单独去配置 mcp 的, 不然的话他是没办法去识别的。 那 timi k 二点五的话是原生就支持图片识别,那么国外的模型,比如说 colossal 四点六和 jpeg 五点四,还有 jimmy 的 三点一 pro, 那 么它们都支持图片识别,也支持这种啊网页的实时搜索,那算是这个综合能力算是比较好。那其他的比如说你要去让模型去申请个图片, 那基本上我们现在用到的这主流的这个啊主模型啊都不具备,那么你就可以去调用他们专门的图片模型。比如说像千万,他有专门的万象系列的生成图片的,那么都包括有纪梦相关的模型,那么像 jimmy 的 话,有专门的这个深图的模型也是可以的。就是这些 又需要去单独去配置,在你去生成图片的时候去告诉他去调用这个模型去做这个事情,那像这个火山,这个 cds, 二点零系列都是可以去生成视频的,那么这个就是一定要知道,就是一款模型,它不是万能的, 你可能需要不同的模型来配合去完成你的业务的场景,所以一定要一定要弄清楚你的业务场景里面涉及到了文本、图片、视频、音频, 就把这个东西先想明白了,再去找对应的模型配置好,就才能去把整个东西,整个东西串起来。选好模型之后,很多模型厂商都会有两种购买方式,一种叫做按 token 购买,就是 按用量购买,用多少啊你就付多少,这种方式是比较自由的,它是不受任何限制的。那么第二种就是按这种 coding plan, 就是 套餐的方式,那这种套餐是什么样子呢?一般是有 有限制,比如一个月能用多少次,然后一周能用多少次,然后五小时能用多少次,它是有一个这样的一个限制,会每隔五小时会刷新,每一周会刷新,然后总流量是不超过啊,每个月总流量那么像智普啊, mini max, 豆包,还有这个千万 都出了相关的这种啊这种代码的套餐啊,就是可以可以编码,又可以用在 openclo 里面,那每一个套餐这个量是不一样,大家一定要注意去看,它可能在官方的介绍里面会说啊多少多少次请求,但是要换成就是你的一次对话,就是你跟 openclo 对 话一次,可能要 调用很多这样的一个请求,那么这样的次数是没有他说那么多的。最后呢,就是我们选择好了模型之后啊,我们怎么去配置?第一种方法就是啊原声的就是它 openclo, 它本身你在配置的,你在安装的时候它是有模型的一个列表的,比如说你输入这个 openclo config menu, 那 么 到这一步的时候,你选择这个 model, 就是 你需要去配置这个模型这边的话就会选择很多啊,它本身的支持这个 pro i 的, 就是它本身已经内置了这这些模型的链接,那么你点进去之后,你就可以去输入你的 a p i t, 或者说输入你的这个认证授权的一个链接啊,那这能快速的去完成。那还有一,还有一些它可能是不在这里面的,比如说像千万千万的这个 codeplain, 还有一些其他的这种模型的配置啊,那么你就可以使用这种 cc switch, 那 这款软件,那这款软件呢?有一个单独的一个菜单,那么点进去之后你可以去进行配置,也是一个图形化的界面。那接下来就是这种比较繁琐的,就是去编辑这个这个 配置文件,那这个是 openclip 的 一个啊,总的一个配置文件,那这里面的话,你就要去修改这个 providers agents 里面的内容。一般是 如果你选择哪个模型厂商的话,它会提供这样的配置文件修改的,这个啊完整的字幕串,你直接去给它修改掉就行了。那么如果你自己改这个接线文件,因为这个接线文件非常大, 嗯,不太方便了,你可以借助这个 ai 编程工具,比如像 tree 啊,像 cos 啊去帮你去修改它,它这边是可以去给你修改,而且可以去给你修复可能修改出来的问题啊。 那除了这上面的方法之外,那就可以用它自己的这个外部端里面的设置里面找到这个 modus 的 节点啊,但是它这个说实话非常非常难用啊, 我觉得用上面的方法都比它这个官方这个界面用的会可能会更简单一点。那你如果配置完之后啊,最好是重启一下,那么你在页面上可以点去重启,或者说输入这个 open curl, get away restart 这些命令去重启,重启完之后,那么你就可以去使用新配的模型了。 ok, 那 本期视频到这,希望这个视频对你有所帮助。

你有没有发现啊, open cloud 正在推动大模型呢,去重塑它的能力体系,养成龙虾以后啊,你就会发现,龙虾的任务呢,和普通的聊天任务完全是两回事, 龙虾呢更需要的是工具调用,只能遵循定时和持续的长任务等方面的能力。那就在这两天啊,智府发布了 gm turbo, 那我呢也第一时间呢把它配到了我的 openclaw 当中,让它呢去调度我的龙虾团队。那今天呢,我来分享一下我是怎么用 openclaw 来管理我的自媒体一人公司的,也看一下这样母特布的效果。首先呢,我还是想先说一下 openclaw 的 安装,虽然呢,我之前已经出过安装部署的视频, 但是还是有很多朋友搞不定,其实我也很能理解,所以呢,这一次啊,我就找了一个完全的零基础一键安装的版本澳龙,也就是啊, auto cloud, 这个呢是智普最新发布的龙虾的版本。 那安装的过程啊,这一次真的没有什么可说的了,完全的不用动脑。那完成以后呢,除了自动的装好 open cloud, 澳龙呢还会自带很多实用的 skill, 非常的方便啊。还有一点非常让我喜欢的呢,就是他会自动的去完成飞速的接入,那就是点一下,然后呢,他会自动的去打开一个网页,一步一步的去完成配置,那这个才是真正的吃自己的狗粮,自我的去驱动。 那接下来呢,我就来说一下啊,我的 openclaw 龙虾团队的情况。那作为一个自媒体的博主啊,那我的团队呢,会有一个总管,一个自媒体的助理,一个财务的助理和一个开发的助理,那每一个呢都是独立的 agent 那 但是啊,为什么要用多 agent 呢? 如果是简单使用的话,其实一个 agent 就 足够了,但是啊,如果是深度使用,当你将过多的内容啊放到一个 agent 当中,就会污染它的上下文,人设呢,也很难去调教记忆呢,也不容易啊,去产生有效的进化。 分开独立的 agent 以后呢,那每一个 agent 都有独立的 workspace 啊, agent 点 md 啊, skill 等等这些内容,从而呢就能够实现啊任务的专业化分工和并行的执行, 而且呢还可以节省 token。 后面的势力啊,我也会去介绍。那接下来呢,我也带你去走一下如何去配置这样的龙虾团队,那配置龙虾最好的方法呢,当然是让他自己去搞定。那首先呢,我先去见一个自媒体的助理,一开始呢需求啊,并没有想太细,我就直接呢让他去帮我做一下设计。 这里能看到啊,这两姆特布的表现呢很不错,他会基于现有的情况呢去设计出一个 agent 的 内容,他的理解和规划呢,我觉得在这里啊都是九十分以上的水平。除了这个以外呢,我还要再去创建一个财务的助理和一个开发的助理,那加上最主要的 manager 呢,就会有四个 agent 的 团队。 那团队准备好了以后啊,我们就来测试一下 gm turbo 的 指挥龙虾水平。首先呢我们先在财务助理这里去热一个身啊,我让他呢给我建一个多余表格来去记录发票,那后面我再发给他发票的时候啊,要用本地欧拉玛里运行的模型啊去做 ocr。 然后呢记录发票的内容,还要上传附件, 那表格呢,过一会就能搞好,我这里啊就发一张发票,其实呢,这个过程还是蛮复杂的,为了节省 token 呢,我还要求了用本地的工具去调用,还有飞书的操作。那最后呢,还有上传附件 opencloud 呢,会自己啊去把相关的信息做录入。 那在最后上传发票的这个过程当中啊,其实一开始呢,这昂姆特吧没有成功,但是呢他不断的去尝试不同的方法来解决这个问题。那这点呢,我觉得就非常不错啊,他没有像很多其他模型一样,要求我去完成授权,然后再去重新执行这个任务,而是呢自己啊一点一点的去把这个问题搞定。 那再来看一下自媒体的工作台啊,那我先让他呢去定时的采集一些信息,每小时啊抓取全网的资讯,并且总结五条发给我,再把内容呢写到飞出的文档里,那这个可以说是博主的必备品, 那同时呢要处理搜索文档工具,还有定时执行的情况,那这种情况下呢, gm 特步的表现是不错的,那这个是收集的结果,这里呢已经稳定的运行了一段时间,一直呢没有出现忘记之前操作的内容的情况。那除了资讯以外呢,还有一点必须要做的,就是收集各种视频的灵感, 那我需要每天早上收集 youtube 上五个 ai 方向的热门视频,并且呢去汇总信息。那之后呢,就是使用我自己的一个 skill 去把视频下载下来。 那这里呢,我想分享一个小 tips 啊,因为很多人呢都可能会卡在下载这个环节上,那怎么办呢?那我总是说啊, github 是 一个大宝藏,那咱们呢就去 github 上想想办法, 比如呢,我看到一个项目,他已经实现了视频获取的能力,而且呢我也亲测,还挺好用的,那我呢,就直接把这个项目的链接甩给 opencloud, 让他呢把这个项目作为工具,然后呢自己去分析一下项目应该怎么去使用。那这里可以看到啊, gm 特本呢,会有一个超长的一个尝试过程, 他会研究和测试项目,然后呢就真的一次性的完成了在本地的部署和使用,然后呢,我再让他把这个提炼成一个 skill, 那 以后呢,下载的问题啊,就可以解决了。 那最后呢,也不能漏掉开发的助理啊,那前面啊,我之前一直让 openclaw 去整理每天的日报,那我呢再让开发助理啊去做一个统一的一个门户网站,把每天的日报信息呢统一的做汇总的展示,这样呢就方便我来查看。 那在日报里面呢,我要求他每天去检查所有助理的情况,并且呢用本地运行的一个 gm 四点七的 flash 的 模型啊去做分析, 然后呢更新网站的内容,那这个就是 gm turbo 最终开发的一个成果,在开发方面啊,我觉得效果也是非常不错的,审美和功能啊也都很在线。 那这里还有一个小 tips 啊,就是关于前面说的省钱的。那在 opencloud 当中啊,其实对于一些精度要求不高的任务,是可以单独创建 a 帧的,来使用本地的模型去运行的,或者呢使用云上加本地的组合,那就像我的话呢,比如像 ocr 图像的简单理解,还有日制的分析整理 这些呢,我都专门会去派给本地的模型之行。那有机会的话呢,我都专门会去派给本地的模型之行,怎么样啊?我的龙虾小队各司其职的状态还不错吧。 那我呢也来汇总一下试用 gm turbo 的 一个感受。首先呢, openclaw 最大的场景呢就是工具的调用,其实呢,大部分的时候呢,都在处理各种不同的工具和 skill 的 调用。那这个过程当中啊,能够感受到 gm turbo 的 表现呢,是比较稳定的,比如像前面发票的上传过程当中啊,它会不断的去尝试, 直到能够成功为止。还有呢,像那个 getaham 项目的研究,这个过程呢真的非常的长,中间呢也没有出现过像丢失上下文和不知道应该如何处理的情况。所以呢,能够看出来啊,在适配 openclaw 的 场景方面呢,这样姆特布的效果是很好的。那另外一个我使用起来感受最明显的呢,就是速度快, 大家都知道啊, openclaw 发的 tokyo 呢会比较多,所以呢,在用很多模型的时候都会有卡顿的感觉。目前呢, jimmy turbo 在 使用的时候呢,我能明显的感觉到流畅度的提升,希望呢,这个速度啊,也可以一直保持住。那我觉得呢,在未来一段时间呢,针对龙虾模型的竞争啊,会越来越激烈, 那你觉得 jimmy turbo 在 龙虾当中的表现应该打几分呢?那好了,这里是 it 咖啡馆,我们下次再见。

训练一个大模型,你知道最贵的成本是什么呢?不是服务器,不是电费,是人,是那些懂怎么调参数、找 bug、 做评测的 ai 工程师。全球抢着要,薪资高到离谱。 但我今天要告诉你一个事,以后这活可能不用人来干了,因为今天 mini max 官宣了 m 二点七这个模型能参与自己的训练,自己找问题,自己优化,自己跑得超过一百轮循环,内部评测效果涨了百分之三十,全程没有任何工程师动它, ai 开始训练更好的 ai 了。 这不是科幻,是今天刚上线的事儿。大家好,我是杜宇,带你看懂 ai 赛道的前和事儿。先说新模型干了啥? m 二点七最核心的事儿啊,官方叫模型自我进化,翻 译成人话就是,以前训练 ai 得靠人工程师,哎,每天盯着改参数,查 bug、 跑评测。现在 m 二点七自己建了一套 agent harness 体系,你可以把它理解成 ai 的 工具手册箱。装上这一套工具之后啊,那模型能自己参与自己的 bug 排查一条龙,自己搞定 官方的数据库啊。在部分研发场景里, m 二点七已经能扛下百分之三十到百分之五十的工作量。更觉得是啊,它能连续跑超过一百轮分析、改进、验证的循环,自己调参数,自己优化策略,内部评测级效果提升了约百分之三十。 你肯定在想,这和我有什么关系,哎,先别急,我待会专门讲普通人的机会,我保证那个角度你没想到过,听完你都会有点慌,哎。但是好的那种话先继续说亮点,编程能力这一块啊,第三方专门做了一个测试,就是拿真实的工程向我们让 ai 去 找 bug, 修 bug, 提交代码,看能搞定多少。 m 二点七在这个测试里的完成率跟 open ai 的 gpt 五点三 codex 基本打平,跟 anthon 的 cloud open 四点六也在同一水平线上。欸,什么概念?就是国产开源模型已经在编程这件事情上正面刚赢了硅谷顶配的闭源模型, 办公场景这边也不差处理 word、 excel、 ppt 这种复杂文档的能力啊。第三方评出来,在所有开源模型里排第一,还超过了 gpt 五点三。另外有个数据我觉得特别直观啊,同时交代给他四十件复杂的事,他能保持百分之九十七的完成率, 四十件事只漏掉不到一件,哎,你让你的真人助理试试,大概也得漏个七八件吧。然后说说大家最近很熟的 openclore, 就是 那个龙虾,哎。对了,如果你关注 ai 群啊, 最近养虾这两个字应该是刷烂了你的信息流了。 open 可乐是一个开源的 ai 一 人框架, logo 是 一只红色的这个龙虾,所以大家叫它龙虾玩 open 可乐叫赛博养虾。 它的核心逻辑是让 ai 不 只是会聊天,还能动手干活,帮你移文件,改表格,操作软件,像一个真正的数字员工。 m 二点七跟 open 可乐的关系,用官方的话叫深度适配, 具体体现在两点,第一, memex 有 个专门针对 openclaw 场景的测试,叫 mmclaw, m 二点七在这个测试里拿了百分之六十二点七,已经非常接近 clodson 四点六的水平了。第二, m 二点七整合了 openclaw 的 长期记忆框架,说白了就是龙虾养得越久,它就越懂你。哎, 记得住你的偏好啊,历史任务啊,工作风格,这个是非常实用的能力啊。对了,这也是我刚出的新书的核心主题,养龙虾 openclaw 与 ai 智能体时代,这本书就是帮你搞懂怎么用好这套生态的, 从部署到实战,从个人体校到商业变现,感兴趣的可以去看一下。好,现在讲最重要的是 mini max 这一路到底是怎么进化过来的,以及后面会走向哪呢?我给你做个快速的复盘啊。 去年六月 m 一 发布,是个基础版本,去年十月 m 二发布,开始主打编程和 a 制能力开源啊。去年十二月底, m 二点一针对多元编程做的优化。 今年二月 m 二点五成本低到一美元,可以让一个 agent 跑一个小时,从 m 二到 m 二点五一百零八天,然后就是今天 m 二点七。重点呢,从我能干多少活,跳到了我能自己训练自己。这条进化曲线有一个非常清晰的方向,就是每 每一代的核心能力,从语言到代码到 agent, 再到自我进化,而且迭代周期越来越短,成本越来越低,性能越来越强。那这个趋势推演下一步是什么呢?我觉得是全流程的自动化,不只是代码,是数据采集、模型训练、评测、优化整条研发链路。 ai 都能自己跑到那一步啊, ai 厂商的研发成本会出现断崖式下降,同 同时性能会以我们现在很难想象的速度提升。最后讲普通人的机会,我说一个我觉得很少人真正能想的清楚的角度啊。大家看到这些消息通常有两种反应,一种是,哇,好厉害,然后划走。另一种是哎呀,要取代我了,好慌。但这两种反应都是错的,真正的机会窗口是在这。哎,成本塌陷了。 m 二点五那会儿一万美元,理论上可以支撑四个 a 整,连续工作整整一年。现在到了 m 二点七,能力又进了一步,价格还在往下走,这意味着什么呢?意味着以前只有大公司才玩得起的 a 整自动化,现在个人就能搭起来。 我自己看了不少投资项目啊。最近创业圈有个很典型的现象,那些用 open 可乐加上 m 二点五、 m 二点七这类模型搭的垂直 a 整工具, 有些团队就两三个人,能做出以前十几个人才能撑起来的工具产品。不是因为他们更聪明,是因为他们把模型当成了团队成员来用。所以我的建议是,现在最稀缺的能力不是写代码,是想清楚 ai 能帮我在哪个环节省掉什么成本,然后去搭它,测它,把它跑通。这事门槛低到你想不到, 但懂得做的人还是少数。欸,这也是我为什么写养龙虾 open 可乐与 ai 智能体时代,不是给享用 ai 真正赚到钱的普通人写的实战手册。 又说一句啊,今天 m 二点五的发布,我觉得最值得记住的不是某一个跑分数字,而是模型开始参与自己的训练。这件事本身人类花了几十年搞清楚怎么训练 ai, 现在 ai 开始入局了,这个变化比任何一条跑分都要深邃点。关注不迷路, ai 搞钱,我带路,我是杜宇,咱们下期见!