粉丝37.9万获赞186.9万

最近 openroot 上那个神秘的 pony 模型效果非常惊人,大家都在猜是谁?有人说是 cloud 的 旗舰模型,也有人说是 deepsea v 四,今天算是破案了,就是智普的 glm 五。那之所以大家会把它错认成是 cloud 模型,主要是因为在实测中,它展示的长城规划和系统工程能力确实是打破了国产开源模型的天花板。 以前我们测试模型呢,喜欢它一句话,生成网页好看但难以落地。而这次的 glm 五新模型对标的是 gbt 五点三、 codex 和 opus 四点六,主打的是解决复杂的工程难题。我呢有幸拿到了内测,并且呢使用它开源了一个前后端打通的项目。那废话不多说,带大家一块来看看它的能力。 这次测试呢,我用的是 cloud code 加 glm 五,我的需求呢,是做一个创作者全能工作台,包括登录健全、数据持久化、后端业务逻辑,以及最容易出错的财务计算。这也是在测试他的一帧 take 能力,看他能不能读懂长文档,能不能在没有人干预的情况下自主规划开发路径。 第一部分是项目骨架的搭建,他先是阅读理解了我的多篇需求文档,然后创建了一个任务列表来跟踪项目的进度。这部分开发呢,比较顺利,中间只出现了一次 prisma 版本不匹配的问题。紧接着在我测试注册功能的时候,数据库链接出了点小问题,就 注册账户时出现错误, ai 排查之后找到了错误,是数据库路径的问题,并进行了修复,最终给出了项目的骨架。那这次再尝试登录,就成功进入了后台。 骨架搭建完毕之后呢,我要求他继续进行下一步的开发,这一步呢,添加了灵感创建的功能,也就是数据库的增删改查,可以筛选规章以及由灵感转换为选择题。不过这次验收的时候呢,出现了新的问题,就是我创建完灵感之后,列表不显示,后端呢,也没有报错。 这时候 g l m 主动添加了一个中间件来打印我的错误日期,也就是通过这个日期,他才发现是分页参数的类型不对,然后进行修复,功能就立刻闭环了。 他遇到这种隐性的 bug 呢,没有瞎猜,没有胡编,而是打印了一个中间件去查真实的日历,那这个才是我们开发中需要的。 那到了下一阶段的选择题模块,得益于卡奥德库德的优秀机制和 glm 五的超长上下文,理解能力非常丝滑,状态机逻辑一次跑通,由灵感转化为选择题的状态流转呢,没有再出现任何问题。新建的选择题呢,也能正常的与后端连通。 接着是商单和财务的部分,这个其实我最担心的,因为之前一直没做,也就是因为他算不准,就是很多模型在这里会有逻辑幻觉。但 glm 五没有让我失望,这块表现的非常稳,他先是建立了客户库关联选择题,最重要的是税务计算, 因为涉及到含税金额、未税金额,税率推算逻辑极其的严密,我认为他确实理解了其中的业务逻辑,没有逻辑幻觉。 m 四阶段呢,是在我们的工作台首页添加一个仪表盘,那为了让数据格式化呢,还在后端编写了聚合的统计接口, 在前端呢展示了我们的收入统计,并且呢它还非常贴心的规划了一下设置页面,里边增加了收入配置和标签管理啊,这个是比较超出我预期的,因为它很详细,里边有返点,税前税后,非常严密。 这个时候呢,就来到了最后一步,打包交付。对于 glm 来说,最复杂的部分已经完成了,所以这部分处理起来就像喝水一样简单。他为我这个工具呢,编辑了项目介绍文档,还创建了一个一键启动脚本。那现在的状态就是所有拿到我这个项目的人 需要一行命令,前后端全自动跑起来,这个就是开源的交付标准。目前这个项目呢,已经上传到 gitup 上了,感兴趣的话可以去看看,检查一下代码质量。那最后我们来做个总结,整个项目呢,从零到一,总共耗时两个半小时,一捆十。在这期间呢,没有新开任何一个聊天窗口,全程就是在 cloud code 中 与 glm 进行一个单程长对话。这种体验带给我的冲击感呢也比较强,像是一个可以协助有逻辑的系统架构师。如果你是一个开发者,或者平时尝试过自己开发项目,应该能明白两个半小时无断点的开发含金量有多高。 但是呢,他的缺点也同样明显,就是他的思考速度实在是太慢了,也就是因为他思考时间变长了,所以导致新模型比旧模型消耗的头肯要多一倍,而且在高峰期的时候,算力好像有点紧张,期间有很多次呢,我都以为他卡住了,想要去购买他们的套餐,竟然还需要抢,难抢就不说了,他还涨价。 不过对比 cloud 来说还是性价比高,非常非常多, cloud 桌面端送的五十美金额度,半个小时就就用完了。总之这个模型呢,有优点也有缺点,各位可以权衡一下。好了,以上就是本期视频的全部内容了,如果对你有所帮助,或者觉得视频做的还不错的话,欢迎给哥哥一箭三连。最后祝各位玩的愉快,我是段峰,我们下期再见!拜拜!

全球大模型超市 openroute 惊现神秘模型 pony alpha 在 平台上搜索第一,而且引发了国内网友热议,为啥呢?首先性能非常强,堪比最新发布的顶级模型 cloud ops 四点六。其次,它的名字 pony, 联想到刚好是马年,取这么个名字怕不是太巧,很多人都猜测这是一款来自中国的模型。先来看性能, 根据 open rota 的 说法,这款模型主打编码推理和角色扮演,针对智能体工作流程进行了优化,有很高的工具调用准确率,具有两百 k 的 上下文窗口。从网友实测来看,最惊艳的应该是模型的前端能力,很多优秀的案例都是一发入魂,比如这位网友做的这个全球收音机直播网站。 再看看这个音乐播放器 workflow 生成平台的前端展示页,可以看到这些作品的 ui 设计、审美、在线、功能完整,交互都很丝滑。至于这款神秘模型究竟是谁家的,目前众说纷纭,说啥的都有,但各位福尔摩斯、猎玩、狐客网友还是从各种蛛丝马迹中找到了答案。 首先,合作方 kilo code 表示,这款模型来自某个全球实验室最受欢迎的开源模型的专项进化版 开源。再考虑到马年和 pony 的 巧合,这大概率是一款国产模型,把范围缩小在一众国产选手中,那么可能性最大的那个答案就是 g l m 五。有网友把 openroute 的 系统提示符改成自定义,然后询问模型型号,他会回答, i m g l m。 还有网友发现, pony alpha 和 g l m 四背后用的是同一套分词器,而且智普在这个月初就官宣了,将在未来两周内发布新模型, 两者的实践也对得上。最后,无论这只小马是不是智普,从目前已经官宣的消息来看, deepsea 千问智普 mini max 这个春节的国产 ai 一定会非常热闹。

重磅的 pony alpha 神秘面纱终于揭开了,果然就是质朴 g l m 五啊!参数达到七百四十四 b, 也就是七千四百四十亿参数激活四百亿,预训练数据二十八点五, t 扣定和 a 阵的能力全都取得开源搜塔啊,使用体感完全是逼进可洛的 opus 四点五。其实就在它还是那个测试模型,大家都在猜,那期间 大家就发现它编程能力直逼可洛的 opus 四点五了。所以现在看来,谁说开源比不了 b 源,而真让这次发布意义翻倍的啊!是海光 d c u 确认了对零的深度适配, 也就是说,中国最强的开源模型,在中国领先的 g p gpu 芯片上发布即可用光伏组织汇聚的超六千家啊!这生态伙伴现在形成的国产算力纵深真金碧玺比了 这一回的对零适配里头,海光 d c u 团队是深度协同智普 ai, 凭借 d t k 这些字眼软件占的优势,重点去优化底层算子和硬件加速,让 glm 五在海光 d c u 上实现高吞吐、低延迟稳定运行。 所以啊,现在咱 ai 大 模型真的正在向着更高参数、更广场景迈进。底层算力的适配能力完全是决定性因素了, 决定模型的落地效率的关键因素。回到模型啊, g l m 五的技术底座同样是非常震撼,全新 slam 一 步强化学习框架 可以怎么样让智能体从长城的交互中持续优化?还首次集成了 deepsea 之前说的那个 sparse attention, 也就是稀疏注意力机制,用这个机制在长文本效果无损的前提下去大幅压缩部署成本,现在开元旗舰都做到这水准了啊,赶紧推啊!所以二零二六春节到, ai 大 战果然是史上最热闹一届!你算吧, defv 一个 v 四这传的啊,千万三点五这基本你都看见了!迷你 max m 二点二会不会全都扎堆登场啊?中国最强的一批大模型,正在同一个窗口期集体亮剑的 glm 杠五怎么样?携手海关 dcu 这支重拳,注定中国 ai 震撼的一声响!

几千台设备的生命周期管理,十二张数据库表的互相关联,完整的 r b a c 的 全员体系加发货单的审批流程。正常来说,这种企业系统呢,至少要三四个人搞一个多月。但是我刚看到智普刚刚发布了 g m l 五啊,说是开元界的第一个系统架构师的模型。行,那别客气了,咱就试一试。这里我用的是 c c switch 加 colossco 的 方式, 把 colossco 的 底座模型呢切换成了 g m l 五,直接把我整理好的这份 pl 文档呢丢给他,从零开始,看他到底能不能接得住。虽然是用 colossco 的 跑的跑的,但核心模块的逻辑呢,还是 g m 五输出的。 能看到,他先是把整个项目呢拆成了四个阶段,先搭什么,后搭什么,前后端怎么配合排的很清楚。这个规划质量和我之前用原生可拉的 office 做项目的体感呢是差不多的。然后呢,他就开始噼里啪啦干活了。首先是构建 spring boot 的 后端架构, 用户认证,设备档案批次管理,一个模块接一个模块往上加,后端搭完了呢,再构建 nexgs 的 前端,因为工程量确实不小啊,这一步他自己足足写了一个多小时。这个小时里呢,我没怎么管他,他自己呢,就在终端里跑, 先后端再前端,最后生成了出纸化数据库的脚本。用过 a g 的 写过代码的朋友都知道,这个节奏呢,是最考验模型脑子乱不乱的, g m 二五呢,全程逻辑在线,这一点呢,十分难得。前端写完了,最终运行的时候呢,报了个错,依赖版本冲突, 我让他看了一眼,这个报错信息呢,他改了个配置文件,重新安装了一遍就 ok 了,也就是说写了这么久,只修改了一次呢,他就能直接撞起来,想想啊,也是很厉害的。最后后端 spring boot 的 启动成功, api 返回正常数据,前端页面呢,也能正常跑起来。十二张关联表,完整的 r b a c 的 权限体系,发货单、审批状态机,这些呢,全都跑通了。 后面其实就和平时开发项目差不多了,遇到问题呢,就让他去定位修复,你会发现,这就跟一个靠谱的开发同事做极速编程啊,没什么区别。到这你可能会觉得这些不都是正常操作吗?对啊,这就是正常操作。但问题是呢,以前做到这些呢,只有可乐和 gpt 一个柜一个闭园,而且随时都有可能会被封号儿。 现在 gm 五作为一个开源的模型呢,也能做到这样的全载工程能力和这样的质量交付,实在是不容易。而且大家别忘了,从算力底座到上层架构,这可是跑在国产芯片万卡级群上的成本呢,那是绝对可控的。所以,这种能掌握在自己手里的生产力,你们不想去试试吗?

又是深夜发布,今天突然发现智浦开源了 glm 五大模型,没想到年前的开源大模型市场还会出来这个网站从前几天 cloud ops 四点六和 gbt 五点三 codex 的 发布可以看得出来,二零二六年商业大模型趋势将从能写代码升级成能构建生产机系统, 没想到的是开源大模型这么快就跟上了,熬夜测试了几个小时,本期视频我们就来看看 glm 五都有哪些亮点,以及都能做些什么事情。 二零二五年使用大模型编程的过程中,我发现虽然 ai 已经可以做出一个个很好看的前端页面了,但是真的让他去做一个生产能用的系统或者是一个庞大的任务,经常写着写着 ai 自己就圆不回来了。 但这次 glm 五真正能做出生产可用而不是单纯好看的系统,并且遇到复杂系统需求会自己拆解,可以长达数小时的不断自动运行完成这个系统不会出现越写偏离越大的情况。我直接拿两个案例来演示一下,工具用的依旧是 copy code 用的是质朴官方这个 model 的 key 配置文件的话,其他都和之前保持一致, 模型替换成 glm 五即可。很多公司应该都有自己内部的企业级后端脚手架,不仅能统一开发规范,并且开发只需要引入对应的依赖和无需关注各种中间件的配置细节就能直接使用。 我之前写过 glm 五来生成 glm 二十一加 spring boot 三的企业级后端脚手架,编辑提示词开始执行,可以看到这次 glm 五在分析完任务之后,会以对话的形式来询问生成项目的细节问题, 宇宙包含哪些模块的 start 给了多个选择,接着询问项目的认证框架,最后确定报名的生成规范,等这些全部完成之后,就开始任务的拆解。 glm 五将脚手架拆分成了十四个大的模块,制定了十五项具体的实施步骤以及最终的验证方式,没问题之后,就开始让 glm 五开始构建系统了。 glm 五这次针对多阶段长步骤的复杂任务的优化做得太好了,整整十五个模块,花了一个多小时全部生成完成。整个过程不需要人去做额外的辅助工作。 除了代码生成之外,当在验证过程中遇到翻译失败的情况,它会自动分析日制,不断修复代码并重复验证,直到全部跑通。我们可以来看看最后的脚手架项目,所有的 start 按模块划分,比如 base 模块定义了统一的异常,统一返回信息, log 模块引入至框架搞定日制生成规范,做好 trace id 生成逻辑以及日制切面等配置。同理,像 mybatics 统一配置 radix mq 的 配置都做成了 start, 要使用直接引入对应的依赖即可,这是真的能很好的用起来的项目了。 接下来再做个全站的业务系统,做一个支持高频发的购票系统,能支持秒杀业务的场景。这次让他把前后端的项目全都生成,前端使用 vivo, 后端使用 jdk 二十一加 spring boot 三。 这里有个比较有意思的点,一开始我在提示词中将 jdk 二十一写错成 jdk 八了, jmm 在 分析需求的时候就发现了这个问题,并给了我几组匹配的 jdk 和 spring boot 的 版本。 手动调整之后, glm 五给出了十分详细的技术报告。整体的代码生成过程还是和之前一样,不需要人去做额外的操作就可以生成出完整真正可用的代码。现在前后端代码就生成完成了,我们来看一下。 先看一下后端代码,秒杀业务的逻辑写的十分严谨,其中高密发解决方案中包含了多级缓存、库存预扣、业务下单、分布式锁结果限流、动态余额等方案。前端页面是一个包含购票和秒杀的 h 五系统,我们来参与一下。秒杀 手速快,直接抢到票。智普在官方公告中提到了国产芯片万卡集训这个概念,意味着这次 gm 不 仅模型能力强, gpu 底座也是国产自己的。 去年过年来了个 deepsea, 今年过年来了个 gm 五,不知道二零二六年大模型究竟能发展到什么地步啊?以上就是本期视频的全部内容了,我是鱼仔,我们下期再见。

最近有网友问我,世界大模型第一股智普的 glm 五发布了,说它是全球最好用的开源模型,编程能力堪比 cloud, 是 真的吗? 先说结论是真的,中国清华系智普最新的 glm 五模型已经在编程能力上比肩 cloud 了,全球开源模型中排名第一,虽然还有微小的差距,但是我们在快速的追赶中, 我是杨乐多大白话讲 ai 这款 glm 五到底强在哪?用三点跟大家说清楚。第一点,开源模型世界领先。目前这款 glm 五在全球的开源排名中,编程能力排名第一,综合能力排名第四, 也就是在全球范围内把代码公开,让大家免费使用的模型里面, g l m 的 编程能力是最强的。第二点,代码能力逼近顶尖水平,目前编程全球最强的就是 cloud 模型,而 g l m 五在编程的使用体感上 已经跟 cloud 相差无几了。第三点,他专门擅长处理复杂的任务逻辑,也就是一个不会代码的人,可以跟他进行多轮对话后生成一个复杂的产品,甚至不用写一行代码就可以实现。 我们客观的看,差距确实还存在,但是你要知道,一年前我们的 ai 代码编程能力比全球顶尖水平差了十倍不止, 而现在我们基本上跟他们近在咫尺了,并且 glm 还是一个开源的模型,开源的模型意味着全球的开发者都可以免费的使用它,并且在上面进行二次创作和修改。 而 cloud 是 闭源模型,只能通过付费调用它的 api 来进行使用,并且不能对其进行二次的修改和调整。做一个比喻啊, cloud 就 像是高墙内的武林高手,没有人知道它是怎么实现的, 他的武功不外传,你们只能看。而 glm 五呢,就像一个武林盟主把所有的武功秘籍全部都公开了,那你想想谁的影响力更大,谁会进步的更快呢? 这就是中国 ai 的 速度,中国至普系的 glm 一 年时间走完了别人三到五年要走完的路,中国在不断的这,这背后就是中国的 ai 的 硬实力,也是中国 ai 选择开元路线的再一次胜利。

我这条视频发了之后,评论区疯了一样猜他是谁家的,最后证实是 glm 五。但你都想不到,至少百分之二十五的人说是 cloud sonic 五, 百分之二十猜是 grog 新版百分之十 do deepsea v 四。于是网友开始破案了,说他是 cloud 的 cloud 在 bros camp 深度搜索测试里跑赢了所有模型,包括 cloud。 cloud 呢?他在 lm erina 几百万真实用户盲品里,文本和代码双榜都拿了开源第一,跟 cloud opus 和 jamble 打平手, 从来没到过这个段位。为什么也不是 deepsea v 四?因为它在 s w e 办起多语言编程测试里,直接超过了 g p t 五点二。而 deepsea 编程强项一直在中文场景。多语言这么猛,不像它的风格。排除到最后,有人注意到,魔性的 api 调用特征和响应模式,跟质朴的技术站高度吻合 揭晓。但说实话,好分,赢了谁,对普通人来说啥也不是。 g l m 五真正干的事,是把编程范式从氛围编程推向了智能体工程。这样个概念你要分清楚。具体来说,有四个你能直接感知到的关键。第一,更聪明,但更便宜。因为 g l m 五 引入了一种选择性注意力机制,不再像以前那样把每个字都同等对待,而是自动识别哪些信息重要把算力集中在关键内容上,对你来说就是同样处理二十万字的超长文档,速度更快, 成本更低。第二,训练效率大幅提升。以前训练 ai, ai 的 深层轨迹和模型更新是串行的,一步短一步, gpu 大 量空转,现在完全一步并行, gpu 利用率直接拉满。第三,能干长活。上一代学 ai 的 能力主要靠看标准答案。 glm 五换了一种方式,让 ai 在 真实环境里反 试错,自己摸索怎么做才对,尤其是需要长时间规划的任务。稳定版型二测试里模拟经营一整年的自动售货机, glm 五最终余额四千四百三十二美元,排员第一。这种长城规划能力就是分为编程和智能体工程 本质的分界线。第四,国产芯片直接能跑,这是上一代完全没有的能力。 glm 五从第一天就适配了华为、升腾、摩尔、现成、海光等七大国产硬件,也能跑出同等甚至更好的效果,部署成本直接降百分之五十。 一个匿名模型骗过了全球开发者的眼睛,这件事本身就是最好的评测。不过跑分会过时,排名会刷新。真正不可逆的是一个方向, g l m 四点五证明了 ai 能写代码, g l m 五证明了 ai 能当工程师。下一步呢?你只需要学会提需求,剩下的交给智能题。

就在刚刚,智浦扔出一枚重磅炸弹,旗舰大模型 glm 五正式发布并开源。更炸裂的是,海光 dcu 居然实现了地灵同步适配!模型刚出炉,国产算力就已经跑起来了, 这可不是简单的能用,而是深度协同底层打通 glm 五啊!参数膨胀至七百四十四倍, 训练数据堆到二十八点五 t 更首次集成了 deepsea 稀疏注意力机制,部署成本大幅跳水脱坑,效率直冲云霄。这还是我们熟悉的国产模型吗?但最让我惊讶的不是 g l m 五本身,而是它旁边的算力伙伴海光 d c u 这次跟智普堪称并肩作战,用 自研的 d t k 软件站来给 g l m 五做底层算子优化和硬件加速,让这款旗舰大模型在国产芯片上跑出了高 高吞吐低延迟的硬核表现。过去我们总在喊算力卡脖子,模型与芯片各玩各的,今天智普加海光 dcu 的 组合拳,直接把这个行业痛点砸的粉碎。 接下来就看这套算力加模型加场景的铁三角如何攻城略地了。全球 ai 竞争,中国不再只是追随者!

大家好啊,春节期间,大家没有等来 deepsea 四啊 v 四,但是却等来了这智普的 g l m m 五,而且智普这个模型呢,在海外这些测试网站上,通过匿名的方式让很多人测试,发现效果极好,已经杀入了前两名啊,这是智普的 g l m 五。 那么在这个春节呢,即将结束的时候,啊浦正式把技术模型的技术报告给大家公开了啊,首次批露这个模型的核心的路径,一个是对于什么所谓套壳啊,所谓蒸馏啊,做了一个真深度的回应。首先,它的被动的推动的编程范式呢,是从 y 的 call 顶就是氛围编程,像 any 顶就是智能体工程跨越的一个下一代的模型。而且呢,这里面引入了稀疏注意力机制啊,能够根据 token 的 重要性来动态分配注意力的资源, 保持上下文理解能力的同时呢,大幅压缩算力的开销进入这个机制。模型参数呢,扩展至七百七十七百四十四个币啊,但训练参数量达到二百二十八点五 万一。训练的技术设施方面,他在他自己的框架上面做了一个全新的异步强化的学习系统啊,将生长过程与训练过程的深度的捆绑,支持大模型的支撑体的轨迹搜寻,而且它是在真实编程场景里这底层的支撑。 而且他在发布之初,他在训练的时候就完全依仗于国产钻力啊,全面兼容华为的升腾摩尔,建成海光、韩五 g、 昆仑星、天柱之心与随缘七大主流的国产芯片平台。据 其报告呢,经过软硬协调优化以后,他在单台的国产钻力节点上性能已经媲美双台的国际主流,也就是英伟达的 gpu 基群长血液处理场景的部成本降低百分之五十以上,他在所有的情况下做了全球的成绩,甚至超过了很多朋 美国闭月模型啊,所以它是一个好用的,而且是开源的,还是国产的,在国产的芯片上跑出最好成绩的这样一个模型。 好吧,简单跟大家说一下啊,你将智普视为我们大模型的对外的一个代表,认为它呢定价是前沿领先的一个信号啊,它提供实时的市场初清的信号 给所有的大模型的持有者,认为这个会影响了更多大模型的发展。我觉得还是很有意思的好不好啊,今天就到这了啊,有很多朋友说,老张,你的那个会员视频压中了很多的热点啊。对,是的,这样的话可以看我们的小程序啊,奥德豆豆与瑞克。老张科普课搜这个就能看啊。咱们的年度会员现在这个 原价幺六九九,现在幺四九九的补贴平台补贴的还有几个名额要,要的话赶紧啊,咱们自己搞的,我们是月度会员,咱们是优惠啊,优惠会员咱们是幺幺九啊, 原价幺九九的,这个是到三月十五号才截止的,月度会员和年度会员就是一个时间的不同啊,其他都一样。月度会员呢,是一个月十到十五个会 员视频啊,然后三二两到三场的会员直播啊,年度会员是一个月一年一百八十个会员视频是吧。呃,这个三十二场以上的会员直播,如果需要可以赶紧下单。好,今天就到这,我是瑞克老张,关注我带大家看中国科技的高度和温度,我们下期拜拜。

每年过年的时候就给我们一个拜年的新年礼物,去年是 dipstick, 然后今年呢?就是 glm 五,这一次他是我就是由他是属于一个集团化的,前面有视觉,中间有工程,最后的基座是稳的。那这些 全部的整合在一起以后呢?他又用开源的方式,你可以去使用他,他可以一直不断的增加他的推理跟工程化的能力。税,开源推理跟工程化都会使着他的学习速度跟自我修复、自我改正的速度会越来越快,越来越快。

别再沉迷于让 ai 生成贪吃蛇或者简单的着陆页了,说实话,那也只能算 ai 玩具,根本上不了生产线。 glm 五发布的今天 ai 编程大模型,正是从前端切图在进化到了系统架构师时代。 现在的趋势不是谁画图好看,而是谁能搞定 aintiq system。 以前测模型我都让他写前端网页,这次我直接上强度,给他提了一个真实的生产级需求。我要求 glm 五开发一个 live o s 的 个人指挥舱。注意,我没有让他只写一个 to do list, 而是让它生成了一个包含日程、消费、健康学习的完整个人管理系统,并且接入了 ai 能力。 glm 五展现了惊人的 a n t 和长城规划能力。 但这里他没有着急写代码,而是像资深架构师一样,先自主拆解了前后端架构,并在长达一小时的构建中始终保持上下文连贯。他清楚地知道第一步写的数据结构要怎么配合最后一步的 ui 渲染。如果 live os 是 看规划,那接下来我告诉他这个需求。金融看板就是看它搞定顽固 bug 的 能力。 做这种复杂的 c v 波动率计算报错是常态,普通的 ai 遇到报错就摆烂,但 glm 五具备极强的自我反思机制,大家看,遇到报错它没有停,而是自主分析日制定位根音。它不只懂前端审美,更拥有深度的后端工程能力, 直接把系统彻底跑通。这种代码逻辑密度,以前你只能在可洛的 opus 四点六这种顶尖闭源模型上看到,但现在, glm 五直接对标可洛的 opus 四点六,把复杂的系统工程能力带到了开源世界,感兴趣的朋友快去试试吧!

之前用 tweet 写的几个程序啊,还没写完就关了,因为国内的模型 基本上都是跑着跑着就卡住了,不是网卡那种,是循环,一直循环同一个问题就解决不了,然后就换成 cloth, 就 面奶那些就很容易就解决了。 那今天我在做我的那个官网,然后呢,我想试一下最近很火的 gim 五,然后呢让他帮我写一个程序去生成这种 gif 图片。那这种工具呢?就 说简单就也不简单,说难也不难,反正就有一点点技巧在里面,因为它会调用到 f f m, p, e g 的 一些功能,那这个软件的功能就是上传一个视频,然后框选一部分,然后呢就选择一个时间段, 然后再选择一些参数,然后就导出这个 g i f 的 一个图片,就是把视频变成一个图片, 就是我们所说的动图,然后再压缩一下,它竟然不到十五分钟它就给我完成了,完成的质量还很好。所以呢, g i m 真的 是真的是真的是 很好,但是它现在还有一个缺点,它就是不能看图,看不懂图,我们再等等,它已经很棒了。

gm 五终于发布了,听说非常强,我也想试试他到底是不是真的有那么强,我第一时间就拿我维护了一年有上千真实用户的三倍插件给他上上强度, 直接挑战开发中最头的那三个难题。第一,极万行代码项目的全景理解。第二,多层嵌套的复杂 ip 逻辑。第三,真实用户的需求迭代。 我们这次的开发环境依然是 vs code 加 code code。 我 首先让 g m 五先理解一下项目整体的技术细节以及功能特点, 这里有一个非常关键的点是 g m 五在发现问题的时候,它会自动的去检测这个错误,然后自动的去修复,接着它就会去读取我相关的一些文件, 然后形成了一个完整的技术分析报告。大家可以看到它上面把这个技术的分层架构都写好了,哪些是处理 api 调用,哪些是处理交互以及数据持久化的。然后接下来就是我 api 的 调用逻辑,他每一个点他都列的很清楚,说实话他列的这个技术报告比我这个作者写的还清楚。接着我就让他基于用户反馈形成一个英文字母导出的功能,比如这是一个 英文的视频,它有一个英文的 ai 字幕。以前的话我们这个插件它是没办法获取英文字幕的,因为当时我是只支持了中文字幕的处理,就比如现在它这个英文字幕是没有的,现在这个英文字幕导出的功能,它不仅仅是增加一个按钮,更主要的是它需要去重构底层的一个解析逻辑。 就比如说我这个接口,它的数据是怎么返回的,我需要怎么去处理中文和英文字幕的选择?那 gm 五 他在思考之后就开始进行执行,然后直接去帮我编辑处理了相关的代码逻辑,大家可以看到他每一步他是怎么做的,这里都写的很清楚,然后最后他就帮我完整的实现了我需要导出英文字母的这个功能。我整体体验 gm 五的功能, 我觉得他真的是更加智能的,就像是一个支撑的系统架构师来帮助我便携代码一样。大家可以看到,现在在 g m 五帮我修复了英文字母下来之后,现在这个字母就可以获取成功了。 说实话, ai 编程最难的从来都不是写新代码,而是维护老代码。十三代码,我之前开发的飞书多表格、马克当预览插件,现在也有几百个付费用户,代码里面其实也有不少的十三代码平时没有大 bug, 我 根本就不敢 动它,生怕改动了之后影响用户的使用体验。不知道大家在用 ai 写代码的时候有没有遇到类似的问题呢? 但是啊,我最近观察到,不管是 cloud ops 四点六还是 gpt 五点三 codex, 它们都不再去卷升程速度,而是全面转向了 agintending coding 发展,简单来说就是更加专注于解决真实项目需求的能力。而 gm 五 就是目前开元界首个跟上这一趋势的模型。 gm 五整体表现都不错,在科奥的欧布斯四点六跟 gpt 五点三科特斯之间很多成绩甚至都感觉不到差距,但是我发现 gm 五有时候的响应速度确实有点慢,这点希望以后能提升一下, 再给大家说个心里话,其实三个月前我就开通了 gm codeine 的 套餐,我当时用的还是 gm 四点六,短短三个月时间,我们的钱还是那份钱,但是手里的工具却一次比一次强, nice! 我 眼看着他从四点六进化到四点七,再到今天可以跟科尔的 off 四点六扳手腕的系统架构师 gm 五 厉害!这种养成系的快乐真的太爽了!用过 gm 扣顶破烂套餐的老用户应该都懂,这次 gm 的 进步让我再次看到了国产模型的硬实力,大家赶紧去试试 gm 五吧! 好了,以上就是本期视频的全部内容,记得点赞和关注我哦!我是超超,我们一起学研,一起变强,我们下期再见!拜拜!

关注大模型和算力这么久, g l m 五加海光 d c u 这次真的戳到我 g l m。 五全球第四开源第一长城 agent 能力拉满海光 d c u 靠自研 d t k 软件站做底层加速, 高吞吐低延迟,直接拉满 d 零适配,这不是拼速度,是两家真的提前协同深度对齐了。国产算力不再是配角,而是和大模型双向成就自主技术战终于站起来了。

o p n i 正在敲定一千亿美元的史诗级融资,而蚂蚁已经先一步甩出了万亿参数的旗舰模型零五减一 t, 这不仅仅是参数量的堆砌, 更是对即时推理效率的极限压榨。二零二六年的大模型战场,已经从单纯的刷榜,也变成了生存算力的终极博弈。蚂蚁百灵家族迎来了新旗舰零五减一 t, 虽然是万亿参数,但通过引入混合限行注意力机制, ml 加 lightning linear 吞吐能力大幅提升,它不仅解决了转圈思考的延迟问题,更在 agent 执行力和长城推理上刷出了新高, 主打的就是一个及时响应。百度 app 正式支持一键调用 openclaw 智能体,打通了百度生态与本地助理的全链路, 开发者现在可以零代码部署专属助手,并直接调用搜索、地图、网盘等插件。这波入口大战,百度显然想靠生态兼容超车。针对数据枯竭难题, taginface 与 nvidia 联手在日本推广合成人设 synthetic personas 技术, 利用尼莫创模型生成高质量的合成对话数据,绕过隐私和数据量不足的坑。这或许是全球非英语语种 ai 进化的标准模板,不仅要模型墙,还要模型可解释。最新的 post training interpretability 研究持续推进,以期在微调阶段引入可解释性约束, 有效压制类似 g p t 五点二级别模型的幻觉。这对于金融、医疗等硬核领域的开发者来说,是绝对的刚需。国产算力这边派出元旗,宣布完成对智普 g l m 五点零和阿里 q w 三点五的深度适配, 目前已支持超过四十个主流大模型,通过 s d a a 软件站,降低了从 q 的 迁移的门槛。国产算力的即发即适配时代真的来了。 摇完算法,看看硬件,二零二六年春晚,瑞尔曼等机器人不再只是跳舞,而是实地演示了包饺子、叠衣服等。巨深智能操作机器人正在从舞台秀转向真干活。 巨深智能的商业化落地已经近在咫尺。 ai 酵母李菲菲的 world labs 官宣十亿美金新融资,估值直冲五十亿。 amd 和英伟达竟然同时出现在投资名单里。 大家赌的就是世界模型能让 ai 拥有真正的 3 d 空间理解能力。这轮融资速度已经打破了 srappack 的 记录。与此同时,关于 open 爱正在敲定千亿美金巨额融资承诺的消息,目前尚未有公开报道证实。 不过 openai 已成为 tata consultancy services 数据中心业务的首个客户。该数据中心是全球 ai 基础设施 target 计划的一部分,该计划只在构建庞大的推理计算集群。 布时罗素修改规则,为 openai 和 spacex 这种独角兽的快速纳入 ipo 铺路的消息也未获证实。各位观众老爷,爱意资本的终极之战开始了! 基建方面, open 与印度塔塔集团达成一百兆瓦数据中心合作目标只止一几瓦。配合 reliance 计划投入的一千一百亿美金 ai 投资, 印度正在成为全球 ai 算力的第二基地,全球算力版图正在剧烈重构,从万亿模型的即时推理到千亿美金的资本豪赌, 二零二六年的每一天都在刷新我们对速度的认知。作为开发者,你是选择拥抱万亿开源,还是在资本巨轮下寻找垂直切口,在评论区留下你的看法,别忘了点赞关注,这里是硬核极客的 ai 补给站,我们明天见!

过去两年,行业里有个挺尴尬的局面,国产模型做的不错,国产芯片也在迭代,但两边各跑各的,模型发布后要等适配芯片出来了,要等模型迁移脱节,带来的直接后果是落地慢、成本高,用户不敢用智普和海光 dcu。 这次 glm 的 对零适配,打破的就是这个僵局。 根据官方消息,海光对 ceo 团队是提前进入 glm 五的研发流程,基于自研 ai 软件站做算子优化和硬件加速,确保模型发布时算力已经就绪。七百四十四 b 参数的庞大体量亦不强化,学习的持续训练需求稀疏注意力的低成本部署。 所有这些模型测的技术选择,在算力测都有对应的优化支撑。这件事的真正价值,不是一家模型公司和一家芯片公司做了一个成功案例,而是给行业打了个样。算力与模型的协调可以前置适配周期可以压缩到零天,国产组合可以跑通顶配模型。 往后看,大模型的竞争已经从单点性能转向系统效率,谁能在算力加模型加场景这个链条上把摩擦降到最低,谁才能真正卡住身位。智浦和海光这次跑在了前面。