各位朋友大家好,这两天 ai 圈可是有个大新闻,咱们国产的算力巨头海光信息和顶尖的大模型公司智普 ai 联手搞了个大动作。 智普 ai 刚刚发布了他们全新的 g l m 五大模型,几乎就在同一时间,海光信息就宣布,他们自家的深度学习加速卡,也就是 d c u 已经完成了对 g l m 五的 day 配,而且还做了联合精调。 啥叫对零适配呢?简单说就是模型发布当天,硬件就能立马跟上,直接跑起来无缝衔接,这速度简直像百米冲刺, 这可不是简单装个驱动就能搞定的事儿,背后是两家团队在底层软件和硬件上下了硬功夫,海光靠的是他们自研的 d t k 软件站,深入到算子和硬件加速层面进行优化,目标就是让 g l m 五在海光 d c u 上跑得又快又稳,实现高吞吐低延迟。 这意味着什么?意味着以后我们用国产的大模型搭配国产的算力芯片,就能享受到不输国际大厂的流畅体验。 尤其是在需要实时响应的场景里,比如 ai 实时对话或者复杂任务处理,这体验感一下子就上来了。不知道大家还记不记得,以前咱们搞 ai 大 模型总有点儿心病,得看别人脸色。现在可不一样了,海光和智浦这次合作就像是给国产 ai 生态打了一剂强新针, 核心目标就是打造一个纯正的国产大模型加国产算力的闭环。 g l m 五本身也不是吃素的,听说它在编程和智能体能力上表现特别亮眼,接近甚至在某些方面超越了国际顶尖水平, 是冲着实实在在的生产力工具去的。能驾驭这种级别的模型,本身就证明了海光 d c u 的 硬实力, 这不仅仅是能跑,而是跑得好、跑得稳、跑得快的标志。有分析就指出,这种深度协同其实是在构建我们自己的 ai 技术护城河。那么我们把眼光放远一点,这次合作仅仅是开始吗? 二零二六年整个算力市场会怎么走?机构们的看法倒是挺一致的,景气度将持续上行。北京市已经明确说了,到二零二七年要累计建成二十万批规模的算力, 这可不是小数目,背后是实打实的政策和需求驱动。再看全球,微软、谷歌、 mate 这些科技巨头对二零二六年的资本开支计划一个比一个乐观, 预计投入 ai 算力和基础设施的钱会大幅增长,这说明全球对 ai 算力的渴求根本没有降温的迹象。具体到投资上,机会可能出现在哪呢? 我给大家梳理几条线。首先是国产算力核心环节,像海光信息、韩五 g 这样已经具备芯片研发和商业化能力的公司,在国产替代的大趋势下机会明显,特别是能参与到生态构建中的企业。 其次是基础设施与关键部件,算力集群建的越多,对光模块、夜冷解决方案、先进电源存储等需求就越大。 去年光模块企业向新益盛中继续创涨幅惊人,就是因为它们是算力规模扩张中不可或缺的一环,液冷技术也因为散热需求升级,从可选变成了必选。 最后是应用落地与硬件创新。随着算力基础磋识, ai 应用的商业化落地会加速,谁能解决真实痛点,谁就能冒头。 同时, ai 眼镜、 ai ping 这类端侧 ai 硬件在二零二六年也可能迎来创新爆发。当然了,机会背后也要看到挑战。目前关于海光 dcu 运行 glm 五的具体性能数据,比如和国外主流芯片对比到底怎么样,还有待更多透露。 未来,海光能否持续复制这种 day 零适配模式,吸引更多主流模型加入,以及下游客户是否愿意大规模采用这套国产组合拳,都是需要观察的关键点。投资嘛,既要看到趋势,也得留意具体的进展和业绩兑现。 总而言之,海光信息和智普 ai 的 这次联手,是国产 ai 生态协调、效率提升的一个强烈信号。它告诉我们,在算力这个决定 ai 未来的核心赛道上,中国力量正在加速奔跑,努力把主动权握在自己手里,二零二六年的 ai 江湖,注定会更加精彩。
粉丝13.8万获赞49.3万

在国产 ai 算力领域,硬件性能的堆叠往往只是入场券,而软硬协调的生态适配才是决定胜负的关键。随着智普 ai 最新一代国模顶流 glm 五的发布,这一抠定能力位居全球开源第一、总榜第四的模型迅速引发了行业热议。 与此同时,摩尔县城宣布其 ai 旗舰级计算卡 m t t s 五零零零实现对 g o m 五的迭零发布及适配,并首次批露了硬件性能参数 f p 八精度下单卡 ai 算力高达一千 t flops, 并提供原声 f p 八支持,在显存容量、互联带宽上也与英伟达 h 一 百对标。 从二零二四年推出至今,这款专为迅推一体设计的全功能 gpu 智算卡不仅在纸面参数上对标国际主流产品,更在智研研究院、硅基流动等头部机构的实战检验中显现出挑战英伟达高端算力的统治力。 摩尔县城究竟做对了什么,使其能够从 g o m 四六一路无缝衔接到 g o m 五,让零时差适配成为国产算力的常态 生态的飞跃? g l m 五迭零适配背后的全站协同此次 g l m 五发布及适配的背后,是摩尔县城软硬协同技术路线的集中爆发。 作为定位 agentient engineering 的 旗舰模型, g l m 五相较上一代性能提升百分之二十,对长系列推理和复杂系统工程能力提出了极高要求。 m t t s 五千凭借充沛的算力储备与对稀疏 attention 的 架构级支持,在大规模上下文处理中依然保持了高吞吐与低延迟, 完美承接了 g o m 五在长城 agent 任务中的计算需求,更关键的是, m u s a。 软件战的敏捷性成为了实现对零适配的胜负手。 基于 m u s a 架构的 t o line 原生蒜子单元测试覆盖率已超过百分之八十,使得绝大多数通用蒜子可直接复用,极大降低了移植成本。 通过高效蒜子融合及框架极致优化, m t t s 五千在 g l m 五的运行中展现了极低的首字延迟和流畅的生成体验,特别是在函数补全、漏洞检测等扣定核心场景中表现优异硬实力的底气。 s 五零零零性能逼近 blackwell m t t s 五千性能的首次全面曝光,结实了国产 g p u 在 架构设计与集群扩展上的成熟度。 作为摩尔现成第四代 m u s a 架构平胡的极大成者, s 五千在单卡规格上能力接近国际一流水平,本期现存宽带高达一六 tb 每秒,卡间互联宽带达到七百八十四 gb 每秒, 单卡 f p 八算力更是飙升至一千 tfloops, 在 显存、卡间互联单卡算力上与英伟达 h 一 百基本一致。 此外, m t t s。 五千对 f p 八到 f p 六四全精度计算的完整支持,特别是硬件级 f p 八 tenor core 的 引入,成为了其性能跃升的核心引擎。 据接近测试项目的行业人士透露, m t t s 五零零零在产品精度层面已超越 h 一 百,技术特性更逼近英伟达下一代 blackwell 架构。来自互联网厂商场景的实测反馈进一步印证了其在算理上的优势。 数据显示,在典型端到端推理及训练任务中, m t t s 五千的性能约为竞品 h 二零的二点五倍。分析指出,这主要得益于其高达一千 t f l ops 的 单卡算理。 在绝大多数计算密集型场景中,该卡不仅能提供更强劲的算力输出,也在整体性价比上展现出显著优势。 基于 s 五零零零构建的夸额万卡集群,其浮点运算能力已达十 x f lops 级别,标志着国产算力在超大规模集群层面迈入了世界前列。 在该集群的实测中, s 五零零零展现了极高的算力利用率, d s 模型训练中 m f u 达百分之六十,某一模型维持在百分之四十左右, flash attention 算力利用率更是超过百分之九十五。 这得益于摩尔县城独创的 ace 技术,该技术通过将复杂的通信任务从计算核心卸载, 实现了物理级的通信计算重叠,从而释放了百分之十五的倍占算力。实测数据显示,从六十四卡扩展至一千零二十四卡,系统始终保持百分之九十以上的限性扩展效率, 这意味着训练速度随算力增加几乎实现了同步倍增,有效训练时间占比超过百分之九十。 顶尖模型训练与推理中的实战中,对标 h 一 零零,他说之外,真实的落地案例是检验算力成色的唯一标准。 摩尔县城 s 五零零零在训练与推理两大核心场景中均交出了令人幸福的答卷。 在训练端,二零二六年一月,智源研究院利用 s 五千千卡级群完成了前沿巨深大脑模型 robo brain 二任务的端到端训练与对齐验证,本是其训练过程与英伟达 h 一 百级群高度重合连损失值的差异仅为百分之零点六二, 这证明了 s 五零零零在复现顶尖大模型训练流程上的精准度与稳定性。用户一托 m u s a。 全站软件平台,能够原声适配 pi、 torch、 megatron、 lm 等主流框架,实现零成本的代码迁移,真正做到了兼容国际主流 c u d a。 生态。 在推理端, s 五零零零的表现同样刷新了国产 gpu 的 记录。二零二五年十二月,摩尔现成联合硅基流动针对 deepseek v 三六七 e b。 满血版进行了深度适配与性能测试。 得益于 s 五千原生 f p 八能力与 s g l m musai 推理引擎的深度优化,在 p d。 分 离的部署中,单卡 prefill 吞吐量超过四千 tokens s, daco 吞吐量超过一千 tokens s。 这一成绩不仅大幅降低了显存占用,更在高并发场景下保证了极低的响应延迟。配合首创的细力度重计算技术, s 五千将开销降至原有的四分之一,全方位提升了系统吞吐量,证明了其作为高性能在线推理服务底座的卓越实力。 从 g l m 四点六、 g l m 四点七到如今的 g l m 五,摩尔现成通过一次次发布即适配的实战,证明了国产全功能 g p u 及 music 软件站已具备极高的成熟度。 这种对前沿模型结构与新特性的快速响应能力,不仅为开发者提供了第一时间触达最新模型的通道,也为行业筑牢了一个坚实易用且具备高度兼容性的国产算力底座。

智普啊,发布了 glm 五点零,为了测试它的能力啊,我用它构建了一套可以无限运行的 ai 开发系统。我用这个系统运行了长达十个小时,从晚上十点到早上八点, ai 做了几十次 getmate 的 提交, 开发了一个 ai 漫剧生成工具,有前后端有数据库,可以用户注册和登录,还接入了大圆模型,图片生成模型,视频生成模型。通过这个视频,你会学到如何构建这样一个无限运行的 ai 开发系统,并了解到 glm 五点零的惊人开发能力。 整个过程我都只是输入简短的 prompt, 没有亲自阅读或修改任何一行代码。我一直在旁边玩着游戏,等他干活, 尤其是我视频最后会讲的,他把整个项目的所有模块联合起来,然后端到端的 bug 修复错误,非常的牛逼。他不只是单纯的写代码,他甚至自行在浏览器中验证每个功能的正确性,找出 bug, 然后自行在浏览器后端数据库第三方的 api 之间联合调试,找出问题,修复错误。 那赶紧进入正题啊,相信对你会有所启发。我使用的工具是 cloud code, 并且把模型切换为 g l m 五点零,具体方法可以看我之前这一条 g l m 四点七的视频。 那我们首先要搭建一套能无限运行的 ai 开发系统,说是系统,其实就是几个文件,做法非常简单,我把一篇来自 astonopy 的 神级文章发给 ai, 让他自己去学习,根据这篇文章做出这套系统 文章叫长时间运行智能体的有效调度编排框架。那过程中 ai 做出了一些操作预期的举动,他通过 m c p 打开浏览器, 通过这篇文章的页面找到一个配套的 get up 仓库,打开仓库的代码文件进行学习。而我事先都不知道这个代码仓库的存在,最终他创建出了这一些文件。 我解释一下最重要的几个,帮你理解一下这套系统的工作方式。 task 点 jc 文件,其实就是一个任务列表,每个任务都有它的描述,并且会标记是否已经完成。和我们人类工程师每天上班一样, ai 每次从这里面领取一个任务, 完成后就做一个标记,这样他的 ai 同事啊,就知道项目进展到哪里。 progress 点 txt 文件,每次 ai 完成任务啊,或者任务失败后,都会在里面留下工作日期,这也是为了给其他 ai 同事提供一些信息。 log 点 m d 文件,这里面全是提示词,用来指导 ai 根据固定的规范流程工作。和我们人类工程师的开发流程类似, 第一步,跑一个脚本,来初识化整个项目的环境。第二步,在 task 里面领一个任务。第三步,就开始开发。第四步,测试和验证。 第五步,更新 progress 和 task 文件。第六步,用 git 提交代码。那如果中间遇到困难,需要人工介入,它就要及时向人求助。那在以前一些长期运行能力不强的模型中啊, 这么长的开发流程,一旦工作上几十分钟,模型就会逐渐混乱,不再按照规定的流程工作,而如今完全没问题啊。视频后面我们会看到, glm 五点零,即使在长达一个小时的工作,提交了几十个 commit 后,仍然很好地遵循开发规范。 然后呢,我让他写一个脚本,用来无限时间的运行。这一套开发流程背后的原理很简单,就是把 cloud code 放到一个 while 循环里面,这样一来,人不在电脑旁边的时候没法手动 prompt, ai 就 可以执行这个脚本,让 ai 无限的工作。它之所以有效,有几个原因啊, 第一,我们这套流程每次只要给 ai 说一句,完成下一个任务,不需要更具体的指示, ai 就 能通过 task 和 progress 文件知道自己现在应该做什么。 第二,每个 task 都很小, g l m 五点零足够的强大,每一次 y l 循环里面,他只是领取一个很小的任务,并且严格的测试,成功率极高。第三,每完成一个任务,模型的上下文都会被清空,所以模型始终保持在最聪明的状态。 第四, g l m 五点零非常可控,严格按照工作规范执行,每次小任务都会进行 commit, 所以 即使出错,我们可以轻易地回滚到旧版本。 好,现在我们这套系统有了,接下来就要开发软件,我们先来设计一下它的功能和架构。这个软件的用途是一句话,生成长视频。我让 ai 把整个项目的开发需求拆成了三十一个任务,放到 task 文件里。 这是 ai 设计的软件,架构不复杂,但五脏俱全。再看一下 ai 画的业务流程图啊,帮助大家理解我们要开发的这个软件具体的功能。 首先,用户会创建一个项目,然后用大圆模型生成每一个分镜的文字描述,然后再用图片模型生成每个分镜的图片,再用视频模型生成。视频开发的流程比较长啊, ai 做了几十次提交,我就选几个精彩的给大家讲。 在 ai 做到第十九个任务的时候,为了测试 glm 五点零的能力呢,我产生了一个大胆的想法,我让他一口气做了一个多小时,完成了十一个任务,干完一个又一个,中间我没有任何干预, 给大家倍速感受一下效果。他一直在写代码,并且每次都遵循我们的开发规范,每个任务都完成,测试一个,一个任务,单独提交代码,拿一个具体的任务作为案例啊。他现在领取了任务三十,任务目标呢是实现响应式的布局,也就是让 u i 在 手机端和桌面端看起来不一样。 他现在正在修改代码,然后验证项目能 build 通过。然后他现在把浏览器的大小变成了手机屏幕大小。打开了我们的应用,他点击了一个按钮, 他对页面做了一次截图,用识图的 m c p 判断是否正确。再打开了一个新的页面,再做了一次截图,并检查是否正确。然后在 progress 里面仔细描述了自己所完成的工作,然后把这个任务标记为完成,他就按这么一套方式疯狂的干完了每一个任务。 要接入数据库的时候呢,他主动提出需要人工帮助,并且一步一步地给我说明,告诉我如何去这个 superbase 平台啊,点哪里创建项目,配置数据库,获取 api key。 尽管我没怎么用过 superbase, 仍然轻松地操作下来了。中间我还犯了错误,给他提供了错误的 key, 也被他及时发现,最后他还让我帮他去注册一个测试账号,然后他自己打开浏览器,输入账号密码,验证登录功能,可以正常使用。那像 superbase 这种外部的系统啊,超出了 ai 的 控制范畴。 g o m 非常明确的给我提供指引,让我协助他完成开发工作,一个不了解后端的人,也能在他的指引下完成数据库的配置。 他开发完后端一系列 c r u d api 后呢,声称对每一个 api 都进行了测试,但所有的 api 都是需要 os 的, 前端也还只有一个空白的页面,所以我就很好奇他哪里来的 os 权限,怎么完成测试,是不是在忽悠我? 于是我问了他一下,他用简短的语言,漂亮的格式向我解释。他说他打开浏览器,登录了刚才创建的测试账号, 然后通过一个叫做 browser evaluate 命令,在浏览器可以执行任意的 javascript 代码。然后他写了一些临时的 js 代码,就在浏览器里运行,调用我们的后端 a p i, 这样就能有 office 了。非常聪明的做法,我还怕他在骗我,我检查了一下录像,确实如他所说,他打开浏览器疯狂测试, 中间还真测试出不少问题,他就自行查看后端的报错日期,自行修复。最终三十一个任务全开发完后,啊,我也懒得去人工验证这个项目是不是已经可以用了。在往常的开发中啊,到最终阶段,因为已经把 前端、后端、数据库、第三方 api 全部连起来了,那第一次的集成测试啊,就会非常头痛,因为任何地方都可能出错,往往需要浪费大量的时间再把错误找出来发给 ai, 让 ai 去修复。但这一次我非常大胆,我只说了一句话, 请你完整测试一遍流程,确保功能可用。大概就是从早上七点十分开始,他自己在浏览器上疯狂测试,花了一个小时提交了这么多改动,用来修复 bug。 我看他在浏览器上像人一样一步步操作我们的产品,通过截图和视觉能力来判断是否符合预期。遇到问题的时候呢,他就自己查询后端的报错,检查各种 api 的 状态,综合分析出问题。最终他总算顺利的生成出了第一个视频,端到端的把整个应用全部打通了。 他修复的每一个 bug, 做的每一个 feature, 其实我都不清楚是什么情况,但我想知道的话,我只要找到他的 commit 记录,看一下他在 progress 文件里写了什么。这也是这套流程的强大之处,一切都是可追踪的。 我们让 glm 五点零一边开发项目,一边在开发过程中发现问题,让 ai 来增强我们这一套自动化的开发系统,左脚踩右脚,螺旋升天,我相信这就是未来开发者的工作方式。总结来说, glm 五点零已经远远超出了单纯抠顶的范畴,而是能对软件工程的每一个环节进行自动化,提升效率。 gm 五点零在超长任务上非常出色,已经达到了能让我放心的交给他连续运行一个小时的程度。横向对比的话,我个人认为 gm 比刚发布的 oppo 四点六弱一点,但在一些方面可以超过 gbt 五点三。 重点是价格便宜非常多,但现在过于热门啊,供不应求,抠钉套餐非常难抢。那我们这个项目呢?虽然现在端到端全部打通了,但最终深层的视频效果还有很大优化空间。点赞到一万,我可以开源出来,让感兴趣的人进一步优化它。

春节档不只有电影,还有国产 ai 大 模型层出不穷。智普 ai 重磅推出新一代旗舰模型 g l m 五, minimax 同步上线 minimax 二点五,这两款大模型的性能双双对标国际顶尖水平, 编程与智能体能力实现跨越式突破,迅速引爆全球 ai 圈。智普与 minimax 的 共同合作,受益供应商全解析 核心算力供应商优克德作为两家企业的核心算力合作伙伴,优克德与智普 ai 签订五年二十亿元算力长约,提供五万张显卡集群,超四千七百匹算力规模,支撑 g l m 五的训练、推理与私有化部署。 同时为 mini max 搭建万卡级算力资源池,保障模型高频调用与弹性扩容,从训练到上线,全流程稳定赋能。优克德的液冷算力集群云原声调度系统,完美匹配两款大模型的超大算力需求,既降低训练成本,又提升推理效率, 成为国产大模型算力自主化的标杆案例。服务器与集群交付神舟数码是智普领航级合作伙伴,也是升腾总经销商,独家交付 g l m 五训练集群,神舟困态服务器成为模型训练首选,同时为 minimax 提供服务器硬件与集群部署服务。 联通芯片算力与模型三层架构,保障万卡集群高效运行。神舟数码打通产业链上下游, 成为两款大模型基础设施的核心交付方。智算云与液冷支撑蓝云科技凭借 g p u 算力云架构与液冷技术,同时服务智普与 mini max, 为智普提供原声带智算云平台,缩短 g l m 五训练周期,为 mini max 搭建可自愈云原声解决方案,降低运维难度,以高效散热与智能调度解决大模型算力工号与稳定性难题,是两家企业底层算力环境的共同保障。数据与合规服务, 人民网通过战略投资与业务合作,同时服务两款模行,为 mini max 提供 a i g c 内容审核服务,保障内容合规,为智普提供合规数据支撑与版权服务,助力 g l m 五在法律、办公等场景安全落地。 在数据安全与合规成为 ai 发展底线的当下,人民网成为两款模型合规运营的核心后盾。记得点赞、收藏、关注,每天解读热门赛道!

兄弟们,智普 g l m 五上线后,流量爆发式增长, g l m codeplay 更是上线即受气,算力都不够用了。智普发公告称,团队在全力协调算力资源,加速完成扩容部署,关联的是云浮商和国产算力。二、 双良节能公告最近获得了 spacex 三个订单,就遭到了监管几事,原因是信不信不完善。虽然订单不是直接供应,而且也只有不到一千四百万,但也是国内为数不多真正供应 spacex 的 公司,应该不至于像巨粒一样吧。 三、协创数据计划一百一十亿采购服务器,用于为客户提供云算力服务。四、深圳研发了人工智能加先进制造业行动计划,要以 ai 芯片为突破口,做强半导体产业。中信国际也表示,存储器、 bcd 供不应求,都在涨价,关联的是科技半导体。

tiktok 一 周热点汇总第一百零四期,本期的内容呢,包括了智普新一代的旗舰模型, ai 编程助手配置管理器、 ai 渗透测试工具、 安全的 python 解释器和深度金融研究智能体。最后呢,还是分享两份资料,那马上就要过年了,也提前祝大家新年快乐,马到成功,马上有钱,哦对了,还要说一句啊,因为下一周呢,刚好是过年的这个假期期间, 所以呢,我就想停更一次,这里跟大家请个假。那话不多说啊,我们进入正式内容,如果觉得内容不错呢,别忘了点赞和关注。目前来看啊,二零二六年的春节啊,注定是一场 ai 大 战,前面的元宝发红包,千问送奶茶。而打响模型大战第一枪呢,就是智普, 他刚刚发布了新一代的旗舰模型 glm 五。 glm 五呢,这一次的核心口号啊,是从会写代码到能完成任务。 其实呢,今年的几个模型发布啊,都在不断的强调一点,就是啊,从代码到工程的一个进化,都希望呢可以端到端的去完成完整的应用的开发, 所以呢,大家也都在强化编程的能力和 agent 的 能力。那官方发布的几个视频呢,我们都能看到,效果非常的不错,比如呢,像开发的这种学术版的 tiktok, 还有呢,可以联机对战的大富翁的游戏,当然啊,这些呢,都是官方展示的效果,其实大家都懂的。 那再稍微来看一下 glm 五的基本参数情况,七百四十四 b 的 总参数,四十 b 的 激活参数,使用了二十八点五 t 的 预训练数据。 然后呢,是 deepsea 同款的吸收注意力机制,那集成了这个 dsa 技术以后呢,能够让它在保持长上下文能力的同时呢,大幅的降低推理成本,那它的能力呢,基本上和 cloud ops 四点五呢是一致的,目前呢是开源模型的第一,这个呢是我让 glm 五自己生成的介绍, 而且呢,这里我引入了一个对比的外援,就是呢,几乎和 glm 五同步发布的 mini max m 二点五,我呢用 cloud code 和同样的提示词来看一下它们分别的输出效果, 那你觉得它们的谁的表现更好一些呢?当然呢,我这个视频呢,并不是一个深度的测评,大家看一乐就可以了。那说实话呢,智普和 mini max 这个上市啊,确实是立竿见影。当然呢,有好它也有坏, 虽然现在的模型能力是更好了,但是呢,它的价格也确实贵了。之前我开的这个 glm 扣丁 plan 呢,当时是八百多一年, 而现在呢已经是一千两百多了。那顺便提一句啊,如果有朋友想买的话,可以用一下我的邀请码,那我可以得到这个官方的邀请返现。那最后呢,作为开源模型,那这一次 glm 五呢,在本地的运行方面其实是非常不友好的, 在 l m studio 里面,最小的这个 g g u f 的 版本啊,也要一百七十六 g, 我 真是不行啊,我的本地是保不了。那有实力的朋友啊,可以自行去验证体验一下。 c c switch 呢,是一个开源的跨平台的桌面应用程序,它专门呢就是为各种 ai 编程助手呢,去提供统一的可适化的配置与管理入口。一开始呢,它是专门给 cloud code 做的,后来呢,逐渐地扩大到了支持各种常见的 ai 控件工具,像 codex 啊,还有 jimmy c i, 它解决了传统的靠手动编辑配置文件来去切换 api, key 模型,还有 mcp server 等参数的繁琐流程, 让开发者呢,可以通过一个界面就能够切换和备份,还有管理所有的配置。那现在呢,如果真的是外部定制的重度用户的话,那你肯定呢,不能光用一个模型的控制 plan, 因为呢,肯定是不够用的。 而如果你开了多个以后呢,那 cc switch 呢,确实还是蛮实用的,使用上的话,比如像我是 mac 的 话呢,就直接通过 pro 来去安装和使用,那他做了这样可直观的界面啊,所以对于动手能力不太强的这种非专业人群来说呢,是比较友好的, 尤其是那些啊非程序员,但是对外不抠钉很感兴趣的爱好者。另外呢,看他项目的页面的各种赞助啊,也能够感受到项目得到了用户还有甲方爸爸的双重认可。 所以呢,很多时候啊,真的把一个实用的小东西做好,也可以获得非常不错的效果和收益。本项目是一个开源的全自动化的 ai 渗透测试工具,核心的目标呢,就是自主的去发现并验证外部应用的可利用漏洞, 那填补日常开发与年度这种测试渗透之间的安全缺口。他不单是做这种扫描漏洞列表,还会呢像人类的红队工程师一样去分析代码来去验证漏洞啊,是否真实。 他呢,就像是你招了一个全年无休的一个红队黑客,二十四小时的在线的去帮你挖洞,那他呢,会将白盒的原码分析和黑盒的动态利用啊去相结合,分别呢用四个不同的阶段和不同的 a 阵他去执行动作, 使用的话呢,可以直接克隆项目到本地,然后呢执行项目的脚本,他会自动的完成相关刀客的下载,还需要呢,自己提前准备好大模型的 key。 要注意的是啊,它现在不支持 bash url 的 设置,所以呢只能使用 cloud 或者是 open ai, 再就是 open router。 另外呢这类工具啊,还是很费 token 的。 monty 呢,是 pentetic 团队啊,用 rest 编写的一个极简的安全的 python 解释器的实现, 专门呢为 ai 系统的嵌入式代码执行场景而设计。它的目标呢不是去替代完整的 c python, 而是呢提供一个高速安全受控的环境,让 ai 生成的 python 代码呢,可以在内部安全的去运行。 那它的核心特征呢,包括了像安全刹箱啊,急速的启动速度啊,还有受控的执行子集和多语言的绑定。那在智能体 a 阵它的执行场景当中啊,经常会有一些需求,比如像执行模型生成的脚本, 同时呢还要去保证这些动作的一个安全。那传统的方式呢,就是启动完整的 python 和容器的沙箱,那这么呢,要么带来安全隐患,要么呢就是启动的开销比较大。那 monkey 的 设计呢,就是为解决这类场景下去提供一个更安全,更轻的,更容易嵌入的一个方案。 那本项目呢,是一个开源的自制的智能体,专门呢是面向深度的金融研究和自动的分析去构建的,他能够把复杂的财务问题啊,去转化成结构化的研究计划,然后呢自动的去获取数据,再去进行分析与验证,最后呢得出可信的结论和输出完整的任务流程。 那要使用项目呢,你需要首先安装半,那安装的话呢,可以执行项目给出的一键安装脚本,之后呢再把项目克隆到本地,然后呢执行半 install, 接着呢再把点 env example 复制成点 env, 再去里面去修改一些配置, 其实主要呢就是配置大模型的 api key, 还有各种使用到的数据源的 api key, 那 配置好了以后啊,执行半 star 就 可以运行了, 那在整个流程当中啊,他强调的是要先去思考,再去行动,接着呢要进行自我的检验,以确保呢结果的可信性。 那这个呢,正是金融分析所必须的一个特质。那这里要注意啊,其实他的数据呢,是要依赖于外部的数据源的输入的,而这里面他使用到的 data set 呢,其实很多都是要收费的,而且这类金融的数据源其实还是很贵的,所以啊,我感觉在上手投资的这个门槛上还是比较高的。 最后呢还是分享两份资料啊,第一份呢是理解机器学习从理论到算法,那本书呢,对机器学习的基本思想 还有呢,将这些原理啊转化为实用算法的数学推导,进行了全面的理论的表述,想多了解这些底层知识的呢,可以去学习一下。那第二个是全球 ai 平台市场的全景与趋势洞察报告,从去年开始呢, ai 行业的关注核心呢,正在逐步的做迁移, 从模型呢,更多的去转向了 a 阵的和应用,所以呢,后续的 ai 应用平台呢,肯定会卷的越来越厉害。那这个方向呢,也确实啊,值得多做关注。那有需要的朋友呢可以告诉我。以上呢,就是本周的全部内容,再一次呢,祝大家新年快乐,我们下次再见。

今天行业都在感叹智普的 g l m 五有多炸裂,但同样让人惊喜的是国产 a 芯片,比如海关 d c u 同时完成的适配,业内叫 d 零支持 啊。听起来只是速度快,但这次 g l m 五和海关 d c u 的 合作,我觉得有不少值得琢磨的地方。你们想, g l m 五 是七十四 b 参数的大体量模型,激活参数四十 b, 预训练数据二十八点五 t, 这种体量的模型,想要在国产算力上跑出高吞吐、低延迟,靠通用方案根本做不到。 海光 d c u 团队这次是深度介入的,从 d t k 自研软件站到底层算值,逐层做联合精调,不是模型出来了再适配,而是研发阶段并行走。结果是什么? g m 五在海光 d c u 上实现了稳定部署, 全球用户可以汲取即用,这不是能用层面的兼容,是好用层面的优化。过去国产算力经常被垢病的一点是, 模型跑是能跑,但是效率上不去,成本压不住。这次海光 d c u 配合 glm 五的稀疏注意力架构,把陀螺效率提上去,部署成本降下来,恰恰是对这个痛点的直接回应。 算力不该是模型落地的瓶颈,海光 d c u 这次证明了国产算力可以不拖后腿,还能往前补位。

港股智普 ai 股价四天翻一倍,其大模型是与华为升腾深度合作的智普新发大模型登上全球榜首, 那意味着华为升腾 g p u 也能训练出性能超强的大模型。二六年是国产大模型应用的爆发源年,极有可能是华为升腾放量源年。梳理六家与华为深度合作的供应商, 其中一体机的弹性会比较大,第一家,华正新材,深腾 pcb 供应商。第二家,莱亚新材,深腾 pcb 附铜板供应商。 第三家,华丰新材,深腾高速背板连接器供应商。第四家,泰嘉股份,深腾电源供应商。第五家,川润股份,深腾液冷服务器供应商。第六家,深腾一体机合作商,拓维信息。


据报道,今日一网友让智普 g l m 五创建一个网页展示自己 g l m 五,竟然称自己是 cloud 哈。网友再次向 g l m 五询问一般什么情况, a 大 模型说自己是 b 大 模型,他自己回答可能是数据污染或提示词注入要求的角色扮演,或者是安全对齐不足,甚至是模型微调套壳。

智普 ai 概念五梳理上,语信科技与智普 ai 签署大模型合作协议。采训股份多款应用接入智普 ai 大 模型。斗神教育与智普成立合资公司, 共同研发 ai 教育产品。创业黑马共建重起大模型、起伏大模型。天元迪科与智普 ai 等单位 建立合作伙伴关系。数度在线签署合作协议,共建智算中心。法本信息建立生态合作研发大模型应用产品。华策影视 共同开发影视内容生成智能体。中科金财已接入智普 chat g l m 大 模型。尤克德为智普 ai 提供底层算力支持。凌云光参股投资智普大模型。加数字人合作。平致信息 与智普共研多模态聚深大模型应用。思美传媒与智普华章签订战略合作。

智普 ai 宣布服务涨价百分之三十,产业链最受益的八家公司。第一家,海光信息,国产算力芯片核心标杆企业,核心 d、 c u 产品与 g、 l、 m 系列大模型深度适配,同时兼容多类主流大模型,是大模型推理端的关键算力支撑, 在国产算力芯片替代进程中占据重要地位。深度服务 ai 算力基建领域。第二家,中科曙光智普 ai 算力集权核心供应商,兼具 ai 服务器、液冷技术、智算中心三重核心赛道布局,拥有自主可控的算力技术壁垒,不仅为智普等头部大模型提供算力集权支撑,还全面布局算力基建全链条下游,覆盖政企、科研等多场景。 三家浪潮信息,全球 ai 服务器绝对龙头企业,市场份额稳居全球前列,产品广泛适配各类大模型训练与推力需求,充分受益于头部大模型厂商智算中心的算力扩张需求,是 ai 算力硬件赛道的核心压舱式标底。第四家,神州数码智普 ai 生态核心合作伙伴,深度参与智普算力集权的交付、调试与后期运维,同时提供一体化算力解决方案,推动 ai 算力生态落地下游,覆盖互联网、政企、金融等多领域,绑定头部 ai 算力服务领域。第五家,优客的专注于 ai 算力服务领域, 聚焦大模型训练与推理的算力资源供给,可提供弹性算力、定制化算力等多样化服务,贴合当下 ai 算力需求热点短线题材贴合度高,市场活跃度突出, 是算力服务赛道的活跃标地。第六家,首都在线,聚焦算力租赁与智算中心运营核心业务,旗下智算中心布局贴合 ai 算力高需求场景,具备低视野、高可靠的算力服务优势,持续受益于 ai 产业快速发展带来的算力需求爆发,赛道景气度与业务成长性突出。第七家, 冬季续创全球高速光模块绝对龙头核心产品含盖八零零 g、 一 点六 t 等高端规格,市场份额稳居全球前列,是算力网络基础设施建设的核心受益标地, 为 ai 算力传输、智算中心互联提供关键硬件支撑,深度绑定算力赛道成长。第八家,因维克液冷温控领域龙头企业,拥有成熟的液冷温控解决方案,产品高效节能、适配性强,可满足 ai 服务器、 智算中心等高负债算力设施的温控需求,是算力设备稳定运行的核心配套,在高算力时代具备不可替代的赛道优势。记得点赞、收藏加关注,祝大家一路长虹!

智普 ai 就 要冲刺港股 ai 大 模型低谷了,作为独立通用大模型的龙头,又是最近 ai 赛道最重磅的 ipo 了,那今天就要好好看一下它的技术硬实力,财务风险等等都要扒清,接上招股数据啊。募资是四十三点四八亿港元,总市值五百一十一点五五亿, 少见的呢是中金大哥,采用十八 c 的 规则,最高回拨百分之二十,最关键的是基石投资者占比高达百分之六十八点六三,这里面有谁呢?有北京国资委,泰康人寿、 广发基金这些一众大佬,相当于长线大资金,给你直接兜了快七成的基石啊,这个基石级别在近期的港股 ipo 里面算是顶流了。可能还有人不太了解这个智普到底是干什么的, 我先简单的说一下背景,二零一九年是由清华团队成立的,从二一年到现在累计是融了八轮八十三点六十亿啊,里面有谁呢?红杉,高领、腾讯这些头部的资本都在里面。二五年 b 六轮融资之后,估值就到了两百四十三亿了,比首轮翻了六十三倍,资本认可度是肯定。 再说说它的硬实力是在哪里啊?它的旗舰机座模型 g l m 三千五百五十亿,参数还是开源的,二五年七月的十二项行业精准测试里面啊,全球第三,中国第一啊,开源模型里面也是稳坐中国第一, 而且它的幻觉率是全球第二低,中国最低幻觉率是什么?大家可以自行科普一下,这个在大模型里面绝对是核心竞争力。要知道大家都不想跟 ai 说一些很傻的话, 其实除了基础模型,还有多模态,还有 ai 准,都很能打,有中国首个支持汉日生成的纹身图模型,还拿过行业精准测试的最高分。这个模型呢,能生成四 k 高清视频,还有智能体,智 能自己帮你定 wifi 啊,定酒店。在斯坦福的 a 和 b 测试里面啊,它比 g、 t、 p、 four 的 某些表现还要更好,任务完成率是提高了百分之二十有多。那市场地位也说一下,按二零二四年的收入来算呢,是全国最大的独立通用大模型开发商,所有的开发商里面是排名第二的,市场份额是百分之六点六。 截至二五年的上半年,服务了八千多家机构客户,赋能了八十多万设备,行业渗透率是没得说。接下来就是大家最关心的财务数据啊,老实说,有亮点也有风险,亮点无疑就是收入增长极快啊, 二二年到二四年,收入从五千七百四十一万涨到了三点一亿,复合增长率是百分之一百三十三点三,二五年上半年更是冲到一点九亿,同比增长百分之三百二十五,毛利也是跟着翻倍涨。但是风险也很明显, 就一个字为盈利。而且亏损还在扩大,二十年的净亏损达到二十九点六亿,二五年上半年净亏损二十三点六亿,同比还涨了百分之九十点八。 现金流方面,虽然现金的储备有二十五点八,但是流动性负债高达一百一十七点二亿,流动负债净额有八十二点八亿,目前就是处在一个高度依赖融资输血的过程中,在不同的小细节,他的收入百分之八十四点五都是来自于本地化客户呢,主要是集中在互联网科技领域,占比于 其他的就是公共服务啊,电信这些领域。最后总结一下,智普 ai 明日里面已经带着 ai 了,亮点也很突出,精华技术背景硬,行业地位也领先, 即使阵容又豪华, ai 赛道前景又广,但是风险不能忽视,亏损是扩大的,负债是高的,当前估值是不低的。那大家是如何看待智普 ai 这个标的呢?把它作为港股 ai 大 模型第一股,会不会有点过分?这样做好了。

母亲言新出了个模型啊,怎么样?这个模型他说说非常厉害。 jim 五吗?我看看啊,像有的官方说的,他的 humanity last exam exam 评分是比较高的啊,就拿这个评分来说啊啊,其实我们测一下会有很大的问题,你看一下这个屏幕,我看看 我们呃抽取了 horamis 的 mass 数据集,大概是一千多道,然后去测这个质朴清源拿这个呃正比奈,正比奈 flash 作为这个评判遇到一个什么问题呢?我发现他在解答这种数学类的问题的时候,他的思考时间头肯输出了将近两万,也就是说他两万还在思考都没有输出完, 所以说我们这个他根本就测不了,在我们看来,然后即使测的了的话,一次回答的成本大概在呃五毛钱左右,就一个问题大概在五毛钱,而且还两万都没有出答案,所以我们在想会不会是我们的测试出了问题, 于是我们又到了他的这个官方上,就试验了一下啊,现在还在跑是吧?我们这个数据集从呃几分钟之前就开始跑,呃直接停掉,然后我们可以往上拉,一直拉一直拉,就你就说他这个思考过程无限的延长,无限的思考,他虽然这个回复的内容是正确的,但是他貌似陷入了一个死循环的过程。 就是你是让他回答了一个问题是吧?数学问题, melodies 里边的一个数学 max 类别的问题啊,问题其实不复杂,他是一个单选,他有两两种类型,第一是选择题,第二是那个检查题。我们在问给他这个数学问题的时候,问了两道到三道,基本就是无限循环,然后他的费用基本在无限上涨, 所以我们我们也可能比较怀疑像这种评分它虽然很高,有没有可能它的思考过程会非常的长,可能是无限的,也他可能把这个给忽略了,他能思考一个问题,思考五分钟出了一个答案。我们也测了一下,像 jimmy、 nike 这种可能也就几秒钟就出答了,所以它会存在这样一个差异点, 所以说它这个评价体系稍微有点问题。也不算吧,我们后续可能还会对这些整体评价再整体测评一下,至少我们现在现在来看还是跟大家想的差别很大, 太大了。数学问题你要等个十几分钟去给你解出来。那我都做完了,你自己都做完了,哈哈哈,考试都结束了是吧?该交卷了。对,我们也建议在啊,我们建议在回答的时候还是把这种时间这个综合的都考虑进去。


重磅的 pony alpha 神秘面纱终于揭开了,果然就是质朴 g l m 五啊!参数达到七百四十四 b, 也就是七千四百四十亿参数激活四百亿,预训练数据二十八点五, t 扣定和 a 阵的能力全都取得开源搜塔啊,使用体感完全是逼进可洛的 opus 四点五。其实就在它还是那个测试模型,大家都在猜,那期间 大家就发现它编程能力直逼可洛的 opus 四点五了。所以现在看来,谁说开源比不了 b 源,而真让这次发布意义翻倍的啊!是海光 d c u 确认了对零的深度适配, 也就是说,中国最强的开源模型,在中国领先的 g p gpu 芯片上发布即可用光伏组织汇聚的超六千家啊!这生态伙伴现在形成的国产算力纵深真金碧玺比了 这一回的对零适配里头,海光 d c u 团队是深度协同智普 ai, 凭借 d t k 这些字眼软件占的优势,重点去优化底层算子和硬件加速,让 glm 五在海光 d c u 上实现高吞吐、低延迟稳定运行。 所以啊,现在咱 ai 大 模型真的正在向着更高参数、更广场景迈进。底层算力的适配能力完全是决定性因素了, 决定模型的落地效率的关键因素。回到模型啊, g l m 五的技术底座同样是非常震撼,全新 slam 一 步强化学习框架 可以怎么样让智能体从长城的交互中持续优化?还首次集成了 deepsea 之前说的那个 sparse attention, 也就是稀疏注意力机制,用这个机制在长文本效果无损的前提下去大幅压缩部署成本,现在开元旗舰都做到这水准了啊,赶紧推啊!所以二零二六春节到, ai 大 战果然是史上最热闹一届!你算吧, defv 一个 v 四这传的啊,千万三点五这基本你都看见了!迷你 max m 二点二会不会全都扎堆登场啊?中国最强的一批大模型,正在同一个窗口期集体亮剑的 glm 杠五怎么样?携手海关 dcu 这支重拳,注定中国 ai 震撼的一声响!

中国这些 ai 厂商太坏了啊,昨天二十四小时之内啊,中国三个旗舰大模型同时炸场,这完全都不让人过年啊,去年的 deepsea 就 一家赶着春节发布,但是今年呢,全上了, 但是大家千万不要觉得这只是几个新模型的发布啊,比这几个模型更重要的是,从这几个模型的更新内容上面,我们能够看到二零二六年 ai 发展的一个重大的转型,那就是所有的厂商都在拼一个全新的能力,叫 agentic。 那 为什么是 agentic? 为什么所有的模型都在拼了命地去打造 agentic 的 能力? 原因呢?很简单,因为 agentic 才是在二零二六年真正的生产力。今天呢,我就尽量把这个问题用小白都听得懂的话跟大家详细的讲一讲,希望呢,能够对大家有所帮助。 先说一下 agentic 到底是啥啊?你现在用 ai, 你 不管用豆包,用 deepsea, 还是用拆 gpt? 其实很多时候啊,你都是这么去问的,对吧?你说句话,然后他回答你,然后你再说句话,他再回答,说白了呢,就是一个高级聊天框。但是 agentic 完全不一样, 你不用一步步的去问啊,你只要给他一个总目标,比如说你跟他说,帮我把这个软件里所有的 bug 找出来,修好,然后通过测试, 然后他就开始自己干了啊,他自己去修代码,自己定义问题,自己去修改,方案,自己去改,自己跑,测试没通过就自己调整,一直到全部搞定。而在整个过程中,你不用一步步的去提问,也完全不需要插手。 打个比方啊,传统的 ai 就是 一个前台,你问什么他就答什么,但是他不会主动帮你做任何事情。而 agentic ai 呢,他就是一个能独立干活的员工,你把任务交给他,他自己搞定,而在中间遇到的任何问题,他都会自己去解答。这就是 agentic 的 核心,他能自主完成复杂的任务。你有没有注意到一件事, g l m 五,它的口号是什么呢?是从 web coding 到 agent, 而 mini max m 二点五的口号是为真实世界的生产力而生。而 devic 虽然说没喊口号啊,但是一照的上下文,本质上就是在给 agent 铺路。 同一天,三家公司不约而同地压住同一个方向。为什么?因为 agentic 的 能力才是真正的生产力,尤其是在二零二六年。如果你想让 ai 真正成为你的数字员工,你就一定要知道什么是 agentic。 你想一想啊,一个只能聊天的 ai, 你 愿意为他付多少钱?大多数的人的回答就是,最好免费。因为事实上,现在各家的聊天机器人确实也在疯狂的打价格战,越来越便宜,甚至几乎都是免费。 但是,如果是一个能够帮你自主完成工作的 ai 呢?如果他一个小时可以呢?帮你做完一份财务报告,帮你搭一个网站,帮你处理完一整天的数据分析?那你觉得他就算不免费,你是不是也愿意去用? 企业的答案就是,愿意用,而且愿意给很多钱。这个逻辑啊,很简单,只有 agent 能力足够强,模型才能够帮用户干活,用户才愿意付费,公司呢,才能够活下去。但你可能会问啊, agent 能力到底靠啥实现呢?答案就是编程。 你看看最新这些模型的评测, s w e 奔驰考的就是真实项目里面自主修 bug, 其实就是编程 browscap, 它考的是自主操作,浏览器搜索信息,提取内容,浏览器的自动操作本质上也是编程。而工具调用考的是自主决定调用哪个接口,传什么参数,怎么处理返回结果。这还是编程?甚至啊, deepstack 把上下文啊拉到了一照最直接的术语场景啊, 也是让 agent 才能够在超大型的大码项目里面持续工作,而不至于失意。所以你有没有发现,这一天发布的所有的模型,大家在拼的其实都是编程能力,都是 agent 能力。而 agent 能力强不强,很大程度就取决于编程能力强不强,因为编程就是 agent 的 底层引擎。 而想明白这一点之后,我想再往前推一下啊,我想抛一个暴论,这个世界上的绝大部分事情,本质上都可以归结为编程。我知道,这听起来呢,非常的离谱啊,但是你跟着我的思想捋一捋, 编程的本质是什么?其实就是把一个需求通过一系列精准的步骤,然后变成一个可执行的结果。而我们现在的社会已经深度的数字化了,你每天点的外卖,刷的短视频,转的账,打的车啊,背后全是代码在驱动,你的工作,你的消费,你的社交,你的娱乐,几乎全部跑在软件系统上面。 而编辑和操作软件,它本身就是编程。所以呢,当 ai 的 编程能力足够强的时候,它能够影响的范围啊,就远远超过你的想象。我举几个例子你就明白了,比如说做 ppt, 写报告,你觉得跟编程有关系吗?其实本质啊,就是一种结构化的信息处理加格式化的输出, 你把散乱的素材整理成有逻辑的内容,再按照固定的格式排版出来,这个过程呢,跟写的数据处理程序没有区别。而且 ppt 本质上就是一个电脑的软件格式啊,所以任何一个 ai 编程的软件,它都能写 ppt, 像 glm 五啊,像 m 二点五,这一次呢,都在卷。所谓的 office 能力,就是直接生成 word 呀, pdf 啊, excel 文件,就是因为这些事情的底层驱动啊,和编程没有区别。 而财务对吧?财务的建模本质就是数据处理加工式的这个逻辑,一张 excel 表,里面几百个单元格,互相引用,层层计算,这本身其实就是一个程序在运行。 m 二点五呢,专门跟金融行业的资深专家合作去训练这个能力。再说一个你可能完全想不到的就是医生开方, 比如说你去看一个医生啊,他给你望闻问切,实际上就是在收集数据,然后根据你的症状组合,在脑子里面匹配对应的症型,然后开出方子。而这个过程呢,其实跟收集输入、匹配规则、输出结果在逻辑上完全一样。 甚至做饭啊,菜谱,其实就是一个程序,输入原料,按照步骤执行操作,控制火候和时间这些参数,输出一道菜。所以你看那些做菜比较好的那些电器啊,比如说一些好的电饭煲,它里面都会用程序这个词,就是设定程序,然后按照程序来给你煮饭, 你说大厨凭感觉,但实际上它的背后就是几千次重复执行形成的参数经验,你用这个视角来重新看世界,你就会发现,几乎所有的事情都可以拆解成输入,处理输出,而这就是编程。 所以,当 ai 的 agent 能力越来越强,尤其是编程能力越来越强的时候,它能渗透的领域是无限的,它不仅仅是帮程序员去写代码,而是帮所有的人把事情做成。这就是为什么所有的模型都在拼命地提升 agent 能力,因为这条路的尽头就是通用的生产力。 之前在视频里我也聊过 opencloud skill 系统,很多人呢,觉得 skill 很 强大,确实强大,但是 skill 再强大,它的底层驱动还是模型的 agent 能力。 你可以这么理解啊, skill 呢,是一份工作说明书,而模型的 agent 能力呢,就是执行这份说明书的人。说明书呢,写的再好,执行的人能力不强啊,那结果也不会好。所以今天这三个模型的进步,对于每一个用 ai 工具的人呢,都有直接的意义。 模型的 agent 能力多强一分,你手里的 ai 工具就能多帮你干点活,它的性价比呢,就会更高。所以二零二六年啊, ai 的 竞争完全不是比谁更能聊天。而对于我们每个普通人来讲, agent 时代它真正的意义就一句话, 不是让你去学编程,而是 ai 替你编程,直接替你把工作完成。以上来自我的 ai 成长圈的日课,已经加了成长圈的朋友可以去看一下,我是 c 哥,点赞关注,咱们下期见!

a i 决赛圈大力出奇迹的暴力时代呢,正式落幕。昨晚呢,智普的 g m 五的发布,揭开了一个让硅谷不安的真相。呃,前两天那个横扫全球榜单,代号 polly 阿尔法的战神呢?大家还在猜它到底是哪个厂商的模型对吧?并不是靠堆出天文数字的芯片,而是靠一套近乎冷库的稀疏架构, 把算力的利用率呢,压榨到人类极限。不是算力不重要,而是低效的算力竞赛呢,已经玩不动了。逻辑其实很简单,过去两年,全球都在迷信呢, scaling law 做规模, 觉得只要芯片够多,规模够大,参数量够大,智能就能无限增长。但 g l m 五呢,给出的答案是,架构智能正在超越算力规模。它采用 d s a 架构,跟 deepsea 即将发布的新版本呢,是采用了同样的架构,本质上是在做一套极其精准的 助力分配。这就像一个天才学生嘛,他不是把整本书背下来,而是精准地知道呢。那百分之一的内容提纲契领的核心是什么? 这种稀疏化的逻辑呢,其实是人类大脑的生存本能。我们大脑的功耗只有二十瓦,却能处理极其复杂的逻辑,靠的就是不全量计算, 对吧?核心聪明的算法。 g i m 五呢,确认了这件事, ai 的 下半场呢,不再是比谁矿场更大,而是比谁更少的比特能量承载更多的逻辑。呃,当算力红利呢?编辑递减,算法效率呢,就是新的主权。 所以 g m 五呢,给我们的启示,不是谁代替了谁,而是呢,是如何与高效率共生在二零二六年呢?如果你还把 ai 当成一个简单的搜索引擎,你可能就是在浪费这一代模型最核心的能力。逻辑预判, 我建议你现在去测测他这个 a 正的编排能力。呃,看看他的如何处理多部欠套任务。是不是不要做工具的搬运工啊,要做流程的架构师,因为当模型的运行成本呢?逐渐降低,智能就会像白开水一样廉价,而你的体温质量和业务拆解能力才是未来唯一的溢价。 你觉得 ai 应该变得更庞大、更全能,还是应该变得更轻巧、更像人类呢?我是 linos, 关注我,带你洞察 ai 科技生产力,记得点赞关注哦!