兄弟们,昨天有一条被严重低估的重磅消息悄悄炸穿了整个智能圈!智谱正式发布了! glm 五点一,国产大模型再出王炸!这几个数据真的是每一个都足够震撼!第一, sw 奔驰 pro 全球登顶 gmp, 五点一直接超越 gpt, 五点四超 超越 cloud office, 四点六拿下全球第一!没错,国产大模型性能正式占上国际之巅!第二,能力边界彻底拉满!二十万 tok 超长上下文,几十万字的书籍文档一口气读完,还能深度拆解。更夸张的是, 它单次自主工作超过八小时,自己规划、自己执行、自己迭代,直接交付工程级完整成果。 第三,国产 gpu 同步跟上,实现了对零适配。发布当天,摩尔现成 m t t s 五千和避震避力 幺六六系列双双完成极致适配。这意味着,国产 gpu 不 再是事后追赶,而是全球顶级大模!新发版即跑硬,实力完全跟上节奏。再看避震的财务数据, 二零二五年营收十点三五亿,同比翻两倍多,现金储备超八十五亿,看懂了吗? 国产 ai 正在进行一场漂亮的三级跳,从能用到好用,再到国际领先,大模型芯片 生态全线发力,这波浪潮里,机会真的是大到难以想象!你觉得 g m 五点一这一波算不算国产大模型真正意义上的翻身仗?未来,你更看好国产模型,还是国外的巨头?评论区聊聊我是可乐,咱们下期见!
粉丝46获赞464

断档第一!就在刚刚,智普 g m 五点一登顶 swbench 等一众硬核榜单,连 happy face 的 ceo 都发文祝贺。在编程能力三项综合测试中, g m 五点一也达成了开源模型第一,国产模型第一的成就直逼 clop 四点六和 g t 五点四 外,网上已经开始疯狂安利了。所以今天六博士就和大家一起拆解这个被称作新晋国产元神的 gm 五点一究竟有什么创新点?他的实战能力到底如何呢?点赞收藏,方便回看!接下来一起进入本期云祖会 gm 五点一的强大可以总结成一个词,长城任务能力。什么是长城任务?简单说就是那些不能靠一句提示词解决,需要跨步骤、跨工具、跨时间持续推进的工作, 比如开发一个完整的应用,或者重构一个老项目。 ai 模型评测机构 m e t r。 研究显示,在编程领域, ai 能完成的任务复杂度呈指数级增长, 每七个月就翻一倍。行业的共识是,单人回答已经不够看了。正如 m i t tech review 和顶级资本所判断的,二零二三至二零二四年的 ai 是 对话者,而二零二六至二零二七年的 ai 正成为执行者。 交付单位正在从一个回答变成一个项目。以前的模型像个聪明但健忘的实习生,走几步就要人提醒,稍微复杂点就丢上下文忘约束你,让他忘了你删不之前说的数据库规范。 而 glm 五点一的目标是让它能独立交付,对最近非常火的 harness engineering 无疑是锦上添花。长城任务能力才是检验模型智能的下一个标准。 口说无凭,我们来实测一下,我们直接拿号称宇宙最强的 cloud opus 四点六和 glm 五点一做对比 来,我们现在开始丛林手搓一个植物大战僵尸。我们可以看到,在搭建整个游戏框架的时候,居然五点一完全自主规划并执行模型,创建了五乘九的方格,按照类别创建植物僵尸并设计游戏机制。来看看,不错啊,感觉有模有样了。 那我们来考验一下他的长城任务能力,让他再优化更新一下游戏输入提示词,增加观察选择、返回菜单按钮功能。 可以看到,虽然整体美工上因为没有着重设计,稍微有些简陋,但在游戏机制和体验上, g o m 五点一完美复现了植物大战僵尸的核心内容。而且体验最好的是它中间遇到翻译报错时能自己查日期,改代码,重新跑通,全程无需人工介入。 反观 core 这边,实在出乎我的意料,一开始点开始游戏进去没画面修正以后,美术风格也不如 g l m 五点一。接着我们来再看其他四个案例的对比, 刚刚看到的四个案例,不论是火山爆发还是月球围绕地球旋转动画, g l m 五点一都是全流程一次过,而 cloud 在 火山喷发和机械表案例第一次喷不出画面。 所以说结果就见仁见智了。至少从以上五个案例上看, g i m 五点一是更好的那个。 为什么 g i m 五点一能扛住长任务,不跑偏,不锻炼核心有三点。第一,更强的长城规划与目标保持 模型,不是你说一步他做一步,而是能把复杂目标拆解为多阶段可执行计划,并在长链路执行中始终围绕最终交付推进,减少跑偏、遗忘、约束或陷入局部坠油。 第二,更稳的多工具协同、代码编辑、环境调试、 api 对 接环节衔接稳定。过去开源模型长任务后半程容易断裂,而现在 g m 五点一能自主排查修复,不用停下来等你。 第三,更好的上下文一致性,这是他能对标 cloud op 四点六的关键点。在多轮交互后期,模型啊仍能稳定追踪已完成的内容,当前阶段和下一步的关键动作,有效解决了上下文中的稀释效应。 这一切的背后,是 g l m 五点一引入了 multi turn 强化学习和过程质量评估体系,它在可能性、自适应、纠错、工具使用与推理三个维度实现了进化。对比 k 二点五等竞品,它不再是需要盯着的聪明应届生,而是给目标就能独立交付的老员工。 试完 g l m 五点一之后,我装那愣了一会。之前编程啊,我更愿意用 cloud, 但这次试了 g l m 五点一之后呢,确实不得不感叹,国产模型的进步啊,真的很大。 以前我觉得 ai 再强,它也只能做碎片化的工作,我作为拆解任务把控权局做决策的人,位置啊是安全的。但当模型啊开始自主规划、自主执行、自主纠错、自主交付时,我突然意识到自己的可替代性啊,在迅速上升。 我并不想呢,贩卖焦虑,但你体验过之后,肯定能明白我想表达的是什么。最后, g m 五点一墙归墙,但你这抠钉 pen 的 速度啊,实在是有一点供不应求了,赶紧给服务器扩扩容吧。

全球最强开源模型,现在属于中国!四月八号,一个叫智普 glm 杠五点一的国产大模型横空出世,一举拿下全球最强的宝座。 而且他还是开源的,谁都能用。以前的 ai 模型就像短时记忆,聊两句就忘,处理不了复杂任务。但这款 glm 杠五点一不一样,他居然能连续工作八个小时,从头到尾帮你做完一件完整的工程大事。中间不断电不掉链子,在权威测试平台更是夺取全球第一, 这背后靠的是什么?是华为升腾算力的超强加持,简单说,就是让 ai 大 脑里的专家们配合的更默契,资源不浪费, 推理速度直接快了百分之三十,你再也不用担心性能带不动,用华为云就能轻松部署去搞定那些以前想都不敢想的复杂智能项目。 不只是个模型升级,更是中国 ai 从跟跑到领跑的里程碑时刻。未来,它将赋能千行百业,重塑我们跟 ai 交互的方式。为国产大模型点赞!关注我心语,持续分享前沿科技的硬核解读!

别再盯着全 g p 的 尾灯看了,国产大模型来了个 g r m 五点一,直接拔高了国内 ai 大 模型的能力。发师之前俊仔也用过多个大模型,最大的痛点是什么?短视,也就是长城任务根本干不了, 要么只能陪你聊聊天,要么执行个简单指令。第三步他就忘了第一步的需求。但智普这次发布的 g r m 五点一核心绝技,就是能拆解任务用的工作记忆和逻辑推理能力,将长城任务拆成阶段目标,一口气把一件复杂的事从头做到尾。来 看这个实测,给他一个需求,搭建一个带用户系统和数据看板的内部工具,看他先花时间规划输出技术方案,然后一个阶段一个阶段推送,中间有一个接口问题,他自己排查修复,全程我没有介入, 最后交付的东西能跑能用。再看看这个实测,以前要做这个,得切好几个软件写半天,现在直接给 g r m 五点一下一个指令。他 不是只给你写一行代码,而是规划了整个工程,从底层逻辑到 u i 设计,他自己在脑子里淘了一遍,然后直接把成品甩给你。这哪是写代码,这是在指挥千军万马。俊仔真觉得技术变迁正在指数级加速啊。当 ai 能处理跨文件、跨时间,甚至能自我纠错完成长城任务时, 程序员仅仅会写代码,不是护城河了。未来区分普通工程师和专家的可能不再是敲键盘的速度,而是你定义问题,驾驭这些超级智能体的能力。智普这一步迈得很大,但也提醒了我们,是时候升级自己的操作系统了,是时候接上智普新发布的 g r m 五点一的 a p i 了,它能颠覆你的工作流。

你能想象吗?刚刚在 swbench pro 这种专门测真实工程能力的基准里,超过 cloud opa 四点六拿到索塔的模型,居然是一个国产模型, 并且它已经开源了,它就是智普的 glm 五点一。那更关键的是什么呢?它这次呢不只是更会写代码了,而是在长城任务处理的这个场景也有了重大的突破。 你可以看到官方的一些测试 case 当中,它可以自己连续工作七八个小时,从拆解需求,写代码,调试优化, 全程都可以自己往下推进。那说起智普呢,其实我从 g l m 四点五这个时代呢,就开始使用它们家的这个产品,从一开始它可以去完成一些小任务,到后来它能够去完成一些中等的复杂一点的这个任务,再到后来它们家的这个 coding plan 直接限售了 啊,我可以明显的感觉到,智普的这个模型呢,确实是越来越强了,在不断的去追赶并且缩小它与海外的这些币源模型,顶级模型的一些差距。那所以说今天这个视频呢,我就想用这个 glm 五点一来做一下真实项目的测试,看一下我们这个国产第一,台元第一到底好不好用。 那这个呢,是我自己在用的一个小工具啊,它是一个视频下载器,平时呢我就拿它来下载某音啊,小破站啊,还有这个油管的视频。所以说今天呢,我就想用这个 g l y 五点一把这个工具网站做成一个完整的副业产品。那视频结束之后呢,这个网站应该会具备 登录注册啊,积分系统,视频下载、文案提取以及 ai 改写这方面的能力,并且呢我想的是在改写这一块啊,用户可以去按照平台啊,字数啊,受众啊风格去定制, 还可以直接去与 ai 对 话进行非常详细的定制化的一个改写。然后啊,就是艾米后台也得一起给我做出来啊,包括这个用户啊,订单啊,积分啊,操作记录等等,这些都可以非常轻松的进行一个管理。所以说这次任务啊,这个视频 g l m 五点一能否顺利完成,我们拭目以待。 那这次呢,我们就在 cursor 当中去使用 g l m 五点一啊,因为我之前用的是这个 pro 套餐,所以说呢,我可以在第一时间去体验它们最新的模型。接下来的话呢,我们就参考这篇文章,把 g l m 五点一啊配置到这个 cursor 里面去,随便说句话,看到回复呢就表明已 经接入成功了,那我们接下来输入这段提示词,那如果有参考图片的话呢,也可以在这个时候直接贴给他。那这边呢,我再跟大家分享一个小技巧,就是不要让它说一下自己对这个需求的理解啊, 以及他目前有哪些地方。是啊,需要和我们二次确认的,看一下他到底能够理解到什么样的一个程度啊,是不是和我们已经对齐了, 那这个阶段我们和 ai 全部拉齐以后呢,再让他继续往下做,整个后面的这个过程啊,就会丝滑很多。那我中途呢,还会去让他帮我想想产品的一个功能有没有什么漏洞啊,有没有闭环啊,包括商业化运作这方面啊,有没有什么不足等等,但凡是在这个产品的开发过程当中,你可以想到的任何问题,你都可以在这个阶段和 ai 沟通, 等到他给出了这个详细的实施方案,完美匹配了你的这个阶段的需求啊,你就可以让他开始工作了。那我们第一阶段确认完毕了之后呢,他这边也没有开始直接写代码啊,而是呢先帮我们拆了一整套完整的这个任务流程。 那这一点呢,我觉得是非常的关键啊,因为真正的这种工程能力啊,其实不在乎你写的有多快,而是你能不能够把一件复杂的事情拆的非常的细致啊,拆的非常的对。那接下来的话呢,我们就让他一块一块的往下做啊,比如说我们可以先做视频下载这一块 啊,他会先去确认我们想要去支持的哪些平台,然后呢给出这个接口设计和处理的一个流程,再到这个文案提取啊,他也会去考虑用什么样的一个方式来解析字幕啊,是直接抓接口啊,还是做 啊这个视频转文本的这样的一个处理。那到了 ai 改写这里呢,他甚至还会去帮我们把这个改写的策略啊设计了出来,我觉得这些其实已经不是单纯的去写代码了,做这个业务实现,对吧?而是他开始在帮你做 啊,非常详细的这种产品的设计啊,在积分系统这一块,其实我一开始也没有给到他一个非常详细的这种扣减的规则, 只是说我希望用户在使用某些功能的时候呢,可以去消耗他的这个积分,然后他自己呢就帮我设计了一整套的这种构建逻辑啊,你比如说下载消耗多少啊?然后改写对话,改写消耗多少?不同的这个模式呢,还会有一个差异化的计费。那虽然说呢,这个也不一定是最终的最完美的这个解决方案吧,但是呢,他至少是 在县级段给了我一个可以直接拿来用的出版整个过程下来,我最大的一个感受就是他不是在等你指挥,而是在主动推进,很多时候我们只需要给他一个方向,然后他自己呢就会去把中间那块给你脑补上。另外我还发现了一个事情,就是我这里面不是会 用到 ai 大 模型做这个改写和对话嘛,那我发现呢,我之前的这个 coding plan 可以 直接拿来用,也就是说我们平时携带嘛,包括这里的 api 调用,都是可以走同一个 plan, 甚至呢我们还可以把这个 g l m 五点一接入到龙虾啊,也是同一个 plan, 性价比特别的高。 那最后呢,我又让它基于现有产品做了一套后台管理系统啊,比如说这个用户列表啊,订单记录啊,积分流水啊,甚至还有这里的改写记录,对吧? 尤其是下面的这个系统配置,这里啊,我们之前的这些改写功能,其实用户选的各种策略,它背后对应的都是提示词,那它增加了很多配置的一个类型,就是尽量让这个配置表可以在未来做到大局通用。那比如说这里的任务类型啊、状态啊、平台啊、风格啊, 其实都是走的刚才的那个配置表。那这一块我觉得还是挺加分的啊,因为很多 ai 它到了这一步可能就开始摆烂了啊,或者是它自己自由发挥了。 那你像这个 glm 五点一呢,它能够在这么长的一个任务当中啊,在你没有明确要求的这种情况下面,把整体的这个系统往可扩展、可维护的这个方向去做设计啊,我觉得是非常的难得。 那比如说你后面如果想要去新增一个品牌,新增一种风格,新增一种改写的策略啊,你直接在这里加一个配置就 ok 了啊,非常的丝滑。那这一点呢,我觉得其实已经有点接近正常后端工程师,它在做 呃系统设计的时候这样的一个思路了啊,就是非常的有怎么说啊,活人感。那当然这个中途呢,也是会出现一些这样或者是那样的 bug 啊,比如说这个视频下载失败了,然后封面无法解析等等等等。但是呢,我们都是可以通过和 ai 描述问题来解决问题的。那 做完这个项目之后呢,我其实有一个挺明显的感受啊,就是 ai 编程这件事情呢,真的是在发生一个很大的变化。以前呢,我们用 ai 可能是让他去帮我们写代码,做代码补全,但是现在的话呢,你是把一个完整的任务直接丢给他, 让他自己去做,从理解需求到拆解步骤,再到执行修问题,最后交付结果。这中间呢,其实我们已经不再是写代码的那个人了啊,而是更像一个分配任务的人。那这也就是大家所说的这个 long horizon, 当 ai 可以 自己去持续工作几个小时甚至更久的时候呢, 它所改变的就不是一个简单的效率问题,而是在颠覆我们整个做软件做项目的一个方式。所以说如果你现在也在做自己的项目,不管是工具还是副业啊,真的是可以去尝试一下这个 g l m 五点一这个最新的模型。 ok, 那 以上呢,就是本期视频的一个全部内容了,感谢大家的收看,我们下个视频再见, peace。

朋友们,今天 ai 圈直接炸穿了两条王炸消息,全是国产的,而且全都硬到不能再硬的干货!首先呢,是智普 最近刚发布了 g r m 杠五点一,直接干到了全球编程机准的第一名, 得分呢是五十八点四分,把 gbt 的 五点四, cloud 的 oops 四点六,包括 gemina 的 三点一, pro 这些曾经的神全都甩在身后了。最狠的是什么呢? 这个七千四百四十亿参数的模型,全程只用了华为升腾芯片训练,没碰一块英伟达的硬件, 它能连续自主跑八个小时,自己规划执行、测试,迭代演示里直接从零搭了一套完整的 linux 桌面系统, 跑了六百五十五次迭代,把向量数据库的吞吐量干到了原来的六点九倍。而且它是 mit 协议开源 api 的, 价格只有 gbt 的 零头。当然啊,这还没完, deep sync 也放了大招,下一代 v 四模型同样完全运行在国产的华为芯片上。 现在呢,已经悄悄上线了快速、专家、视觉三种模式, 早期用户实测专家模式,直接解决了 azrapec 和谷歌都搞不定的逻辑难题。更震撼的还在后面,包括阿里字节,腾讯已经开始批量采购华为即将发布的升腾 九五零 pr, 芯片,总量呢,高达几十万片,直接把芯片的价格推高了百分之二十。以前啊,我们总说 ai 被英伟达掐脖子, 现在你看,国产芯片加国产大模型,已经在编程这个核心赛道实现了反超, 一个完全自主可控的中国 ai 生态正在我们眼前成型。所以说,你们觉得下一个被国产 ai 反超的赛道会是什么呢?评论区一起聊一聊。关注我,每次聊点不一样的。

这个游戏是我用 g l m 五点一刚刚花了四个小时做出来的,这个效果多少有点儿经验了。现在呢,带你从头看这一轮小更新的大效果。上来先给了我十二个关键动作的详细执行计划,不着急写代码,先把框架理清楚,这就是 g l m 五点一长城规划能力。接下来,先写后端 server, 再切到前端的 index, 然后攻克 java script 交互逻辑,最后编写三 d 核心入口文件, make python, html js 多语言无缝切换文件,系统代码变器,多工具稳定衔接。整个过程没有一次的执行中断,没有一次的 逻辑断层。代码写完,自动启动本地服务器准备测试,结果首页挂了。它精准定位到了 fast a p i 版本,兼容性问题,然后回头去修复了三个小时前写的 starbucks 文件,你没有看错哦,三个小时前,在这四小时里啊,它写了上万行代码,跨了几十个文件。但当 bug 出现时,它能够精准召回那段后端逻辑,完成修复, 重新测试,游戏完整交付。这种状态延续和上下文整合能力,我给到一个字,汤,再看一个,体感会更明显。我让他从零开始做一个情绪记录网站。他在五分钟时写了 user 时,定义了用户数据模型,到了十九分钟写 else 时,能够完美调用之前定义的接口。到了三十七分钟写 mood 时,依然记得最开始设定的情绪记录逻辑。 这个是跨越了三十多分钟,十几个文件的上下文一致性跑数据库。说实话,脚本时遇到 g b k 编码冲突, print 语句报错。他先检查数据库文件,发现数据其实已经写进去了,逻辑是通的,只是打印语句报错,然后精准回到了代码里面,修复了那几个 print, 再次执行成功交付项目包含了前后端,实现全程 ai 完成, 而且几乎无 bug。 在 整个的超长绘画里面呢,它能够判断出部分成功的状态,知道不需要从头来,只需要修复那个编码问题。我把这个过程给老程序员看,他们直呼惊艳。但这个还不是 g m 五点一能 的天花板,它更可怕的是,可以用十四个小时完成库达 carner 优化。要知道啊,这个是资深的库达工程师需要数月才能完成的工作,而一个资深的库达工程师,培养周期长达数年,年薪百万起,是全球最稀缺的高性能计算人才。现在呢, ai 十四个小时就能交付这群人的工作成果。艾莉跑到现在那句话我有点信了, why 不 定解决的是让更多人能创造,那 ergative 解决的是让 ai 能够执行。那么 long horizon 要解决的就是让 ai 像一个资深专家一样,持续的工作交付成果。因为真实世界里面最有价值的工作,从来不是一句 promise 能搞定的,它需要跨步骤、跨工具、跨时间的持续推进。这个也是 g l m 五点一诞生的 原因。目前呢,在 artificial analysis 榜单上, g l m 五点一成为了首个突破,五十分的持平。在此之前啊,只有币源的 g p 四 o cloud 能够做 到。现在,开源阵营终于站在了同一水平线。更狠的是, swbench pro 这个榜单是从 github 上拉一个真实的项目,让模型自己读几万行的代码定位问题修复方案,最后还要跑通原项目的测试用力。 g l m 五点一在这个榜单上拿了全球第一, 排在它后面的是 cloud open 四点六、 g p t 五点四、 jimmy 三点一 pro, 这是中国开源模型第一次在最核心的工程能力指标上 引跑全球。去年大家还在说国产模型在追赶,今年已经是被追赶了。要知道一年前国产大模型的厂家还在以降价百分之九十以上来争夺市场份额,不靠价格而靠价值,国产大模型终于走出了那个阶段。

中国的智普直接掀翻了牌桌,他们的 g l m 五点一,七千五百四十亿参数, mit 协议无条件开源性能,直接干翻 gpt 和 cloud opus。 这不是简单的技术迭代,这是对西方闭源霸权的一次核打击。 为什么 entropic 前脚刚宣布封进第三方客户端,后脚中国就甩出了王炸?看看 entropic 那 个吃相,为了控制算力成本,甚至连开发者的订阅都要动刀,这就是闭源模式的死穴。算力太贵,他们养不起,资本逼着他们修墙涨价割韭菜。但质朴的 g l m 五点一呢? 直接把七千五百四十亿参数的底牌亮给你看。在 s w e bench pro 精准测试里,它硬生生比 g p t 五点四高出了几个身位。西方巨头在忙着砌墙收过路费,中国企业在忙着修路搞基建,这就是本质区别。这种降维打击,西方根本没料到。 过去我们总以为 ai 是 只有美国巨头玩得起的烧钱游戏,现在呢? openai 把 gpt 五点四锁在小黑屋里调用一次就是天价。而智普拿着 mit 开源协议告诉全球开发者,代码归你,权重归你,想怎么改就怎么改。 这不仅仅是省了每年几万美元的 api 费,更是把 ai 的 定义权从硅谷手里夺了回来。当美国试图用芯片封锁我们的脖子,我们反手就用开源生态打破了算法垄断。你封锁硬件,我就开源软件这招围魏救赵,高明至极。 这一仗打赢的不只是技术,更是国运,意味着中国程序员拥有了属于自己的武器。开源的中国 ai, 正在告诉世界,未来的智能时代,规则不再由硅谷一家独大。

四月八日,全球大模型第一股质朴发布,并开源了迄今最智能的模型 g l m 五点一。这不仅是在核心工程能力上全面对其 colo oppo 四点六的中国模型,更以单次任务持续工作八小时,自主交付工程及成果的能力,将 ai 从回答问题推向完成项目的新阶段。 一位国内 ai 行业资深分析师认为,开源模型首次在该基准上击败全球最强编程模型,用实打实的测试成绩证明,开源模型完全可以在核心通用能力上笔尖,甚至超越全球顶级碧源旗舰。

那其实智普其实从 今年的加盟五开始,然后后面有五十把,然后有五点一出来,其实会发现整体的都开始说是为 agent 专门设计的大模型,那其实你们会怎么定义这个?这这几个版本,然后怎么定义这个为 agent 专门设计的这个大模型?这个事它有什么样的特点呢? 对,其实这个事情是为什么我们说是去年下半年我们就开始预测这件事情,是在于其实去年的时候我们就开始为这件事做准备。大家可能现在过年期间感感兴趣的或者关注的是 gm 五这个系列,其实我们从去年的七月份发布的 gm 四点五就在为这件事打基础, 因为四点五大家可以去翻一翻之前我们发布的那些稿子,还在啊,那里面其实写到了,就是说四点五开始就是把 智能体能力、推理能力和编程代码的能力首次的把它统一到一个模型里边去增强,并且互相促进,达到一个很平衡、很 呃,这个水平线很高的这样的一个呃状态。其实从那个年那个时候开始,那你想我们七月底发布的四点五,也也就意味着我们至少在三个月以前就开始设计这件事情把,一代模型大概三个月训练需要三个月。 呃,所以其实是在去年我们就在为这个事布局。那到今年年初发布 gm 五,是我们觉得在原来四点几、四点五、四点六、四点七这个基础之上又往上迈进了一个台阶,也就是我们 gm 五系列主打的一个叫 agente engineering 的 这样的一个概念,就是 终于让这个模型的能力又上一个台阶之后,它能够应对长城的复杂的这样的一些自规划的这样的一些任务去解决问题。 所以连续的这三个版本的这个发布,其实是还是沿着我们自己的这个主线在走,只不过是过去的这个半年多的这个积累,到年初的时候又让我们再上一个台阶。 那哎,五,然后五吹风,然后再加上那个五点一这三个他们在整体为什么会选择把他们发为三个版本?他们在整体的能力上有大概什么样的一个进步? 我觉得可能五是一个非常大的一个代际,从那个版本号上你能看出来是个代际上的这个提高,他的参数量更大,能应对的任务更复杂更多。那五 turbo 和五一点五点一这两个版本实际上在五的基础之上,呃,往前走再走一步, 那五 turbo 呢?它可能是一个特异化的版本,它是专门去增强 open coil 相关的这样的一些啊,长城任务和复杂任务推力规划这样的一些能力,那五点一是沿着五的这个方向再往前再进一步啊,所以它讲究的是机座能力的持续的和平衡的这样的一个提升。 所以这两个事情呢,其实我们是想证明说整体上这个脉络的路径还是这个样子,没有太大的变化,只是基于足够强大的基作模型,其实你可以很方便很容易的去做特异化的能力加强 啊,这是我们想证明的一件事情,就是国内现在五点一可能已经是非常非常棒的模型了,那距离国外的最棒的大模型, 从我们真实的角度来讲,他大概还有多少的差距啊?这件事情上,呃,经常大家经常会问这个事情,不同的时间点,不同的问答案,其实我觉得都差不太多, 就是我们现在离世界最顶级的这个模型的差距仍然是在六个月到一年左右的这样的一个时间还是差距有的 啊,尤其是哦,昨天晚上那个安色屁,把他的那个神话放出来,你可以看到说全面碾压式的这个他让他碾压自己上一代的这个这个最强的模型,那也就代表着他基本上碾压了这个,呃,现有的最顶级的这样的一个水平。 所以你会看到说这样的一个技术的差距一直是在这样的一个范围之内,六个月到半年,一年这样的这个时间范围之内,这样的去波动,这也是我一直说的说,呃,其实 在最尖端的最这个基础的这样的一些模型的能力的提升这个方面我们仍然还是处在一个快速追赶的这样的一个状态。

如何借助 ai 为自己赚钱?这期视频看完立刻上手!就在今天,国产大模型智谱发布了 g l m 五点一,它直接刷新了全球开源模型的最佳成绩,甚至在核心能力上追平了 g p p 四 o 和 cl o 的 这些顶尖的闭源模型。这意味着,一个属于我们普通人的超级个体时代真的来了。 今天一个视频给你说清楚,一、 g l m 五点一到底有多强?二、我们到底该怎么抓住这波红利?在开始前先放个深水炸弹, 推出了请护 o p c 社区,只在聚集更多艺人、公司、创业者,助力大家达成互识、互享、互助的机制。加入社区的创业者有机会获得请护前沿馆的独家报道、全网宣发及全方位的创业扶持。感兴趣的朋友留下 o p c 三个字母,现在开始。一、 glm 五点一到底有多强? 第一,他是个能独立工作八小时的超级员工。以前的 ai, 你 问一句,他答一句,稍微复杂点的任务他就断片了。但 glm 五点一能自己规划、自己执行、自己纠错,连续工作八个小时,这意味着什么?意味着你可以在睡前给他布置一个任务,比如把这一百份行业报告读完,给 我总结成一份 ppt, 或者帮我分析过去一年的销售数据,找出问题,你安心睡觉。第二天早上醒来,他已经把一份完整的成果交到你手里了, 这相当于你免费多了一个不知疲倦的助理。第二,他是个顶尖的程序员,他的代码能力已经追平全球最强水平。以前你想做个小程序、小网站,要么得花几年学编程,要么得花几万块找外包。 现在你只需要用大白话告诉他你的想法。比如帮我做一个家庭记账的网页,他就能从零开始,自己写代码,自己调试,甚至自己部署上线。普通人不再需要懂代码,也能把自己的创意变成产品。 二、普通人到底该怎么抓住这波红利?我们给大家指三条明路。首先,从执行者转型为审核者,别再花大量时间去搜索、去筛选信息了,把复杂的任务丢给 g l m 五点一,让他帮你完成信息降噪。 你的角色要从写报告的人变成审核报告的人,把你的精力集中在决策、审美和人际沟通这些 ai 暂时无法替代的领域。 其次,成为超级个体,把想法直接变成产品,不要只学提示词,要学产品思维。你不需要知道代码怎么写,但你需要知道你想做什么。利用 g l m 五点一的编程能力,试着让他帮你写个小游戏,或者一个简单的工具,你会发现你的创意可以直接变现。 最后,利用开源优势搭建你的第二大脑。你可以把 g l m 五点一部署在本地,把你的读书笔记、工作文档、客户资料都喂给他,打造一个完全属于你,只为你服务的专属顾问。 说到最后,只想告诉你,这不仅仅是一个新工具,这是你弯道超车的绝佳机会。点赞、收藏加关注,请护前沿,管世界,前沿在线带你抓住时代红利!

我的天, gmail 五点一也开源了!我记得它三月底才上线,怎么今天就开源了? 最近的 ai 圈是不是要变天了啦?这个模型的代码能力位列全球第一,超越了 g e t 五点四和 cloud opus 四点六,而且官方习册用了八个小时,长时间自救工作从零星成 linux 桌面, 太恐怖了。如何使用 g m m 五点一可以在线调用 a p i 进行聊天或者本地部署。但是 g m m 五点一本地部署的硬件要求实在是太高了,大部分个人电脑的配置都不太行,咱们可以用欧拉玛平台的云端代码示意行。

四月四日晚间,科技焦点中国的 z i i 已经把一套生产级的 ai 代理系统开发教程直接送给开发者。为什么 open ai 融资融得手软,但 t n w 和雅虎财经却在疯狂预警, 因为数据不会撒谎。目前全球 ai 领域那是真的虚火旺盛,投资规模飙到了两千五百八十亿美元。但这笔巨款砸下去,听得响了吗?并没有。华尔街现在最焦虑的就是 roi 投资回报率。 openlight 刚拿完钱,看似风光无限,实则软件股上个季度直接沦为书假。这就是典型的脱石象,虚资本在前面疯狂吹泡沫,技术在后面却连个像样的工程化落地都交不出来。 他们把大把的钱砸进算力黑洞,买英伟达的卡,搞微软的云,搞了一圈封闭生态,最后发现所谓的智能代理还在实验室里做选择题,根本进不了工厂和流水线。 但就在他们还在 ppt 上造梦的时候,东方的质朴已经划破夜空。 z i 这次发布的 g l m 五教程,根本不是简单的代码更新,它是直接把生产就绪这四个字刻进了骨子里。 openai 还在搞封闭围墙,试图用 api 绑定你。 z i i 直接推出了 openai 兼容接口, 这是什么概念?这意味着开发者不需要重写一行代码就能无缝迁移,直接用上中国自主可控的模型。西方巨头还在收过路费,中国技术已经帮你把路修到家门口了。更狠的是, g l m 五直接拿出了 thinking mode 和全站流势处理能力,这在工程化领域是巨大的技术分水岭。 当别人的模型还在因为上下文过长而荡激,或者因为无法调用工具停摆时, z i 已经解决了从思考到执行、从 s、 d、 k 到部署的全流程难题。这不是跟随,这是在工程化能力上的降维反杀,是用硬核技术把玩具变成了工具。这 场博弈,归根结底,不是谁算法更牛的学术竞赛,而是关乎科技主权与普通人未来的生存战。西方巨头想用天价融资筑起高墙,收全世界的洋品牌税,让中国企业永远做下游的打工仔。 而 z i i 这样的中国力量,正在用极致的工程化能力把这道墙给拆了,把路给铺平。我们不再需要在那套昂贵的封闭体系里仰人鼻息, 不再担心哪天接口被卡脖子、数据被窃取。中国科技的胜利,就是让普通人用得起、用得上真正能干活、能创造价值的 ai, 而不是看着资本数字狂欢。当两千五百八十亿美金的泡沫散去,真正能扛起 ai 大 旗的,到底是拿着百亿美金还在画饼的投机者,还是默默把代码写进生产线的中国实干家?

hello 大家,今天呢是一期国产小龙虾的挑选指南,如果你跟我一样看不懂 openclaw, 也没有 mac mini, 但想快速的跟上这波小龙虾疯潮的话呢?可以从零门槛安装的国产小龙虾开始上手。二月以来,大厂到小厂前前后后推出了几十种小龙虾, 普通人到底该怎么去选呢?我挑选了目前最热门的五个国产小龙虾, kimi clone、 mac clone、 auto clone, 还有 q clone, 从安装方式、亮点、优势到性价比这三个维度,带你选出最适合你的小龙虾,记得点赞收藏好这条视频,我们正式开始 open clone 呢。我们都知道是一个开源的 ai 智能体框架,一个会自己干活、自己折腾的做事情。 ai 代码开源意味着谁都能用,但对普通人来说真的很难用,所以就有了国产龙虾家族,它们都是基于 openclock 框架改良出来的小龙虾应用通常具有这三个特性,支持一键部署,从安装到使用基本不超过三分钟,而且 自带常用的技能 skill, 像是什么定时任务啊,捕捉 ai 热点信息啊,都已经预设好了,更靠谱的安全技术,用起来也会更加的放心。这样一同改造之后呢, openclaw 就 从一个粗糙的毛坯房转身变成了一套精装房,还是同样的房型,但给你通好了水,通好了电,直接拎包入住。 那接下来我们就具体展开讲讲这五个国产小龙虾之间有什么样的区别。那你又最适合哪一款小龙虾呢? 按照养它们的方式,可以分为两大类,云端龙虾和本地龙虾。我们先来讲讲云端龙虾,那云端龙虾不需要你安装,打开即用,因为厂商呢,直接把龙虾装好了,养在了它们的云服务器上,二十四小时的全天候运行, 但是不能直接碰你本地电脑里的文件,这种体验就很像你养了一只永远不睡觉的文件。这种体验就很像你养了一只内测版就上线了,成功蹭到了 opencloud 的 第一波流量, 上线七天就登顶了全球模型调用榜的 top 一。 那 kimi k 绑定的是 kimi k? 二点五模型最大的特点就是上下文超长,支持两百万字的上下文窗口, 相当于可以同时装下四百份报告,而且带有四十 gb 的 云组层大空间。所以如果你需要处理大量的文字信息,比如说写论文呐,做报告啊,出分析啊,那 kimi kong 会是一个不错的选择。 timmyclaw 是 没有免费试用的,额度一百九十九,一个月,是五个小龙虾里头门槛最高的。那紧接着呢,二月二十六号, mini max 发布了。 max claw 主打的是一个好用又便宜,它有着媲美 claw 的 索尼三点五模型的能力,但是价格呢,只有不到它的二十分之一。不到一周的时间,又拿到了这一波的全球模型调用宝的逃逸。 那 max claw 呢,也是指定自家的 mini max 模型定位偏向内容创作,有着非常全面的多模态能力,支 持升图、升视频、升音频。所以 maxclock 也是自媒体和内容创作者的爆款工具。而且它支持的对话应用选择最多。除了常见的非主流,钉钉起微还可以连接到 telegram or discord 这些海外社交的平台,可以满足有跨境需求的用户, 在性价比这块儿,它也是没有免费的额度,基础版只要三十九块钱一个月。那对比 kimi 和 mini max, 大 场的动作稍微呢慢了一步, 直到三月九号,字节的火山引擎才推出了阿克洛。那阿克洛的核心优势就是深入的接入飞书系统, 飞书的文档啊,表格啊,会议啊,消息啊等等等等,全部都可以直接让他上手操作,可以说是飞书打工人的本命龙虾。那另外呢,阿克洛有一点比前面两个会更灵活,就是他支持接入其他模型的 a p i, 整体模型的选择会更多。但是阿克洛也没有免费用的额度,最便宜的一档是五十元一个月。 但如果你一分钱都不想花,就想体验一下国产小龙虾的话,那就看接下来的本地龙虾。那什么是本地龙虾呢?就是把龙虾安装在你自己的电脑上,像本地电脑关机了,那龙虾也会跟着休息,没有办法像云端龙虾那样全天候给你干活, 但是你换来的也是更高的操作权限,授权之后可以直接读取你电脑里的文件,使用感也会更贴近原版的 openclaw。 三月十日,智普上线的 autoclaw, 也叫做澳龙,它是国内首个真的已经安装的本地版龙虾,给大家演示一下,从点击下载到安装,那大概只要三十秒钟左右的时间, 跟你下载一个 app 的 体验很像。那 autoclaw 还有浏览器自动化操作,叫做 autoclaw, 就 相当于呢,在浏览器上装一个插件,能够丝滑的给你干活。 在模型上默认是质朴的模型,但是能够支持接入像 deepsea、 kimi、 豆包等等主流的国内大模型。 a p i 模型的选择非常的丰富,你 下载安装之后,它会送你两千的积分,可以免费执行差不多一到两次的任务。如果呢,你想这种原汁原味的体验一把小龙虾的话呢, autoclole 是 一个非常不错的选择。 那最后我们介绍一下腾讯推出的 qoclole, 那 腾讯这次的速度还是挺快的,先是线下千人在腾讯的大楼下面排队安装 openclole, 又集体发布了三款腾讯小龙虾内测, 在三月二十日开始全量开放使用了。那它的安装体验跟 autoclole 很 像啊,都是一键直接安装的。像 qoclole, 它的核心亮点就是能够深入的兼容腾讯的生态,可以直接连接 qq、 微信,你直接发个消息就能远程指挥你的电脑干活。 还有个非常可爱的龙虾工作台,就是你可以直接看到你的小龙虾,是这会是在摸鱼呢,还是在干活,比如说啊,我现在给他发个任务,然后你看我把任务发给他了, 那他就真的起来干活了,还是蛮有意思的,真的就像是有一只跟你远程工作的龙虾搭子,不过他这个工作环境看起来比我还要好。 在安全性这块呢, qq 也是有点东西的,因为本身呢,就是腾讯的电脑管家团队推出的,有安全杀伤和二次确认的安全防护,自带安全基因。在性价比这块,可以说 qq 真的 完胜所有的小龙虾,每天给你四千万免费的头啃。不得不说呢,腾讯还是非常的豪气, 所以真的想不花一分钱玩小龙虾的,可以试试这个 qcloud 的 电子宠物。好,那这五个产品呢,全部就讲完了,再总结一下, 那如果呢,你天天要处理长文章写报告的朋友们推荐 kimicloud, 那 如果呢,你更多的是去做内容创作的朋友们,可以试一下 maccloud。 如果你是用非书办公比较多的打工人,推荐 archcloud, 那 想体验一下原版 opencloud, 喜欢折腾的进阶玩家呢,可以试一下 autocloud。 最后,如果你想零成本尝鲜新手小白可以直接闭眼入 qcloud。 最后呢,还是提醒一下大家,小龙虾产品目前还是比较的初期,稳定性不是特别的好,在复杂任务的处理上面可能跑到一半,经常会跑错,或者是有时候发出去的指令他根本没有执行,这些问题还是非常常见的, 所以很重要的任务不建议在县级段只靠小龙虾去给你完成。好,那今天这期的分享就到这边,欢迎在评论区分享你养的小龙虾体验。那下期我们再聊一聊,装好之后怎么配置 skill, 怎么让你的小龙虾真正的开始替你干活。如果这期视频帮助到你的话呢,记得点赞收藏关注!

你睡觉的这八小时,智普 g l m 在 帮你写代码、跑测试、优化系统,全程不需要你。过去我们评价一个 ai 模型,看的是他有多聪明。但现在有人提出了一个新标准,不是他有多聪明, 使它能独立工作多久。智普刚开源的 g l m。 五点一给出的答案是,八小时,代码能力全球第三,国产第一,开源第一,在最接近真实软件开发的 swybench pro 测试里,直接超过了 g p t。 五点四和 cloud opus。 四点六睡前给他一句话,帮我做一个 linux 桌面系统。 八小时后,他教给你的是,完整桌面窗口管理器、应用程序 vpn 管理器、中文字体支持游戏库执行了一千两百多步,全程没有一个人参与审查, 这相当于四个工程师干了整整一周。另一个场景更夸张,优化一个向量数据库,他自己跑了六百五十五轮迭代,自己定位瓶颈,自己切换策略,最终把查询吞吐量从三千一百零八提到二幺四七二,提升了将近七倍。不是调餐,是他自己想出来的优化路径, 让模型跑八小时不难,难的是第八小时还有效。 glm 五点一做到的是在一条路走不通的时候,主动换方向,继续往前。这不只是一个更强的模型,这是 ai 第一次真的开始替你上班了。如果你能把一个任务甩给 ai, 跑八小时,你最想让它干什么?