一家公司三年半亏掉六十二个亿,净资产已经是负数,却被摩根大通疯狂看好,目标价直接看翻倍,他就是号称全球大模型第一股的智普 ai。 今天,我们用一分钟扒开他华丽的外衣,看透本质。他的故事是典型的冰与火之歌。先说火的一面,技术牛,中国独立大模型的老大, 增长猛,收入每年翻着倍往上窜。但更重要的是,最近直接被国际顶级投行摩根大通当成宝贝,一份报告就让股价单日暴涨百分之二十四。市场为什么这么分?因为赌的是未来十年中国 ai 的 龙头。 但冰的一面让人急备发粮,他的亏损没有底,去年亏三十亿,上半年又亏二十四亿,赚钱遥遥无期。 更关键的是,他的毛利率在今年上半年已经变成了附属,卖的越多,毛利亏的越多,账上的钱按照这个烧法,非常紧张。这不是做生意,这是一场用巨额资本换取技术和市场地位的豪赌。 他的钱从哪里来?主要靠给政府大企业做本地化大模型项目。问题来了,项目做一单是一单,太累,而且巨头们自己也在做,他的未来在哪里? 再把模型变成像水电煤一样的 api 服务。但这条路,阿里、腾讯会轻易浪出来吗?价格战已经打到血海了。所以所有问题的核心只有一个,在子弹打光之前, 智普能不能从烧钱搞科研的学霸,成功转型为能自己造血的优质企业?这是他骨架所有想象力的升实现。所以怎么看智普, 他是一个梦想期权,你投资的是一张中国顶级 ai 团队赢得未来的门票,摩根大通的报告是为这个梦想估了个价,但梦想很贵,代价是惊人的亏损和巨大的不确定性。你愿意为这个梦想买单吗?本视频仅供学习交流,不构成投资建议。
粉丝3040获赞1.7万

智普啊,发布了 glm 五点零,为了测试它的能力啊,我用它构建了一套可以无限运行的 ai 开发系统。我用这个系统运行了长达十个小时,从晚上十点到早上八点, ai 做了几十次 getmate 的 提交, 开发了一个 ai 漫剧生成工具,有前后端有数据库,可以用户注册和登录,还接入了大圆模型,图片生成模型,视频生成模型。通过这个视频,你会学到如何构建这样一个无限运行的 ai 开发系统,并了解到 glm 五点零的惊人开发能力。 整个过程我都只是输入简短的 prompt, 没有亲自阅读或修改任何一行代码。我一直在旁边玩着游戏,等他干活, 尤其是我视频最后会讲的,他把整个项目的所有模块联合起来,然后端到端的 bug 修复错误,非常的牛逼。他不只是单纯的写代码,他甚至自行在浏览器中验证每个功能的正确性,找出 bug, 然后自行在浏览器后端数据库第三方的 api 之间联合调试,找出问题,修复错误。 那赶紧进入正题啊,相信对你会有所启发。我使用的工具是 cloud code, 并且把模型切换为 g l m 五点零,具体方法可以看我之前这一条 g l m 四点七的视频。 那我们首先要搭建一套能无限运行的 ai 开发系统,说是系统,其实就是几个文件,做法非常简单,我把一篇来自 astonopy 的 神级文章发给 ai, 让他自己去学习,根据这篇文章做出这套系统 文章叫长时间运行智能体的有效调度编排框架。那过程中 ai 做出了一些操作预期的举动,他通过 m c p 打开浏览器, 通过这篇文章的页面找到一个配套的 get up 仓库,打开仓库的代码文件进行学习。而我事先都不知道这个代码仓库的存在,最终他创建出了这一些文件。 我解释一下最重要的几个,帮你理解一下这套系统的工作方式。 task 点 jc 文件,其实就是一个任务列表,每个任务都有它的描述,并且会标记是否已经完成。和我们人类工程师每天上班一样, ai 每次从这里面领取一个任务, 完成后就做一个标记,这样他的 ai 同事啊,就知道项目进展到哪里。 progress 点 txt 文件,每次 ai 完成任务啊,或者任务失败后,都会在里面留下工作日期,这也是为了给其他 ai 同事提供一些信息。 log 点 m d 文件,这里面全是提示词,用来指导 ai 根据固定的规范流程工作。和我们人类工程师的开发流程类似, 第一步,跑一个脚本,来初识化整个项目的环境。第二步,在 task 里面领一个任务。第三步,就开始开发。第四步,测试和验证。 第五步,更新 progress 和 task 文件。第六步,用 git 提交代码。那如果中间遇到困难,需要人工介入,它就要及时向人求助。那在以前一些长期运行能力不强的模型中啊, 这么长的开发流程,一旦工作上几十分钟,模型就会逐渐混乱,不再按照规定的流程工作,而如今完全没问题啊。视频后面我们会看到, glm 五点零,即使在长达一个小时的工作,提交了几十个 commit 后,仍然很好地遵循开发规范。 然后呢,我让他写一个脚本,用来无限时间的运行。这一套开发流程背后的原理很简单,就是把 cloud code 放到一个 while 循环里面,这样一来,人不在电脑旁边的时候没法手动 prompt, ai 就 可以执行这个脚本,让 ai 无限的工作。它之所以有效,有几个原因啊, 第一,我们这套流程每次只要给 ai 说一句,完成下一个任务,不需要更具体的指示, ai 就 能通过 task 和 progress 文件知道自己现在应该做什么。 第二,每个 task 都很小, g l m 五点零足够的强大,每一次 y l 循环里面,他只是领取一个很小的任务,并且严格的测试,成功率极高。第三,每完成一个任务,模型的上下文都会被清空,所以模型始终保持在最聪明的状态。 第四, g l m 五点零非常可控,严格按照工作规范执行,每次小任务都会进行 commit, 所以 即使出错,我们可以轻易地回滚到旧版本。 好,现在我们这套系统有了,接下来就要开发软件,我们先来设计一下它的功能和架构。这个软件的用途是一句话,生成长视频。我让 ai 把整个项目的开发需求拆成了三十一个任务,放到 task 文件里。 这是 ai 设计的软件,架构不复杂,但五脏俱全。再看一下 ai 画的业务流程图啊,帮助大家理解我们要开发的这个软件具体的功能。 首先,用户会创建一个项目,然后用大圆模型生成每一个分镜的文字描述,然后再用图片模型生成每个分镜的图片,再用视频模型生成。视频开发的流程比较长啊, ai 做了几十次提交,我就选几个精彩的给大家讲。 在 ai 做到第十九个任务的时候,为了测试 glm 五点零的能力呢,我产生了一个大胆的想法,我让他一口气做了一个多小时,完成了十一个任务,干完一个又一个,中间我没有任何干预, 给大家倍速感受一下效果。他一直在写代码,并且每次都遵循我们的开发规范,每个任务都完成,测试一个,一个任务,单独提交代码,拿一个具体的任务作为案例啊。他现在领取了任务三十,任务目标呢是实现响应式的布局,也就是让 u i 在 手机端和桌面端看起来不一样。 他现在正在修改代码,然后验证项目能 build 通过。然后他现在把浏览器的大小变成了手机屏幕大小。打开了我们的应用,他点击了一个按钮, 他对页面做了一次截图,用识图的 m c p 判断是否正确。再打开了一个新的页面,再做了一次截图,并检查是否正确。然后在 progress 里面仔细描述了自己所完成的工作,然后把这个任务标记为完成,他就按这么一套方式疯狂的干完了每一个任务。 要接入数据库的时候呢,他主动提出需要人工帮助,并且一步一步地给我说明,告诉我如何去这个 superbase 平台啊,点哪里创建项目,配置数据库,获取 api key。 尽管我没怎么用过 superbase, 仍然轻松地操作下来了。中间我还犯了错误,给他提供了错误的 key, 也被他及时发现,最后他还让我帮他去注册一个测试账号,然后他自己打开浏览器,输入账号密码,验证登录功能,可以正常使用。那像 superbase 这种外部的系统啊,超出了 ai 的 控制范畴。 g o m 非常明确的给我提供指引,让我协助他完成开发工作,一个不了解后端的人,也能在他的指引下完成数据库的配置。 他开发完后端一系列 c r u d api 后呢,声称对每一个 api 都进行了测试,但所有的 api 都是需要 os 的, 前端也还只有一个空白的页面,所以我就很好奇他哪里来的 os 权限,怎么完成测试,是不是在忽悠我? 于是我问了他一下,他用简短的语言,漂亮的格式向我解释。他说他打开浏览器,登录了刚才创建的测试账号, 然后通过一个叫做 browser evaluate 命令,在浏览器可以执行任意的 javascript 代码。然后他写了一些临时的 js 代码,就在浏览器里运行,调用我们的后端 a p i, 这样就能有 office 了。非常聪明的做法,我还怕他在骗我,我检查了一下录像,确实如他所说,他打开浏览器疯狂测试, 中间还真测试出不少问题,他就自行查看后端的报错日期,自行修复。最终三十一个任务全开发完后,啊,我也懒得去人工验证这个项目是不是已经可以用了。在往常的开发中啊,到最终阶段,因为已经把 前端、后端、数据库、第三方 api 全部连起来了,那第一次的集成测试啊,就会非常头痛,因为任何地方都可能出错,往往需要浪费大量的时间再把错误找出来发给 ai, 让 ai 去修复。但这一次我非常大胆,我只说了一句话, 请你完整测试一遍流程,确保功能可用。大概就是从早上七点十分开始,他自己在浏览器上疯狂测试,花了一个小时提交了这么多改动,用来修复 bug。 我看他在浏览器上像人一样一步步操作我们的产品,通过截图和视觉能力来判断是否符合预期。遇到问题的时候呢,他就自己查询后端的报错,检查各种 api 的 状态,综合分析出问题。最终他总算顺利的生成出了第一个视频,端到端的把整个应用全部打通了。 他修复的每一个 bug, 做的每一个 feature, 其实我都不清楚是什么情况,但我想知道的话,我只要找到他的 commit 记录,看一下他在 progress 文件里写了什么。这也是这套流程的强大之处,一切都是可追踪的。 我们让 glm 五点零一边开发项目,一边在开发过程中发现问题,让 ai 来增强我们这一套自动化的开发系统,左脚踩右脚,螺旋升天,我相信这就是未来开发者的工作方式。总结来说, glm 五点零已经远远超出了单纯抠顶的范畴,而是能对软件工程的每一个环节进行自动化,提升效率。 gm 五点零在超长任务上非常出色,已经达到了能让我放心的交给他连续运行一个小时的程度。横向对比的话,我个人认为 gm 比刚发布的 oppo 四点六弱一点,但在一些方面可以超过 gbt 五点三。 重点是价格便宜非常多,但现在过于热门啊,供不应求,抠钉套餐非常难抢。那我们这个项目呢?虽然现在端到端全部打通了,但最终深层的视频效果还有很大优化空间。点赞到一万,我可以开源出来,让感兴趣的人进一步优化它。

嗨,朋友们, ai 这么热,为什么真正能上市的大模型公司这么少?过去两年, ai 如雨后春笋一般出现,不断改变着人们的生活方式和资本市场的价值锚点, ai 相关资产也正在为全球资本以前所未有的密度重新定价, 资本市场对 ai 相关公司的定价逻辑也正在发生一个非常明确而且不可逆转的转向。那么,大家普遍关心的问题就是,资本市场 究竟在给 ai 的 哪一部分定价?随着智普 ai 在 港交所上市, ai 企业站在了资本面前,也正在改变着市场对 ai 的 认知。市场不再单独为算力模型或数据中心故事来定价,而是开始系统性的验收一件事,企业是否具备承接 ai 基建长期周期的能力。智普 ai 也不断展示着大模型企业的技术 生态和商业能力,为中国大模型行业注入了一针实打实的强心剂。智普 ai 并不是 ai 版的某个 app, 这也决定了它不仅仅以单一功能形式聚焦于某一特定应用场景,它更像是一个致力于构建 ai 基础设施的先锋,是一个基础设施型公司的雏形。这也不难解释 为什么智普 ai 在 资本市场炙手可热了。放眼全球, ai 资本盛宴刚刚拉开帷幕,二零二六势必给投资者带来新的选择题。资产负债表是否健康?监管路径是否清晰?能否创造出实际的经济价值?能否勾勒出清晰且富有想象力的商业途径?以往, ai 市场上不清晰, 投资者往往被拥有巨大参数规模和超强算力的公司所吸引,衡量未来性的指标被固化和单一化。然而随着时间的推移,市场逐渐意识到仅有参数和算力远远不够。全球 ai 固执逻辑已经从想象力转向可控性,从虚到实。二零二六年, ai 投资的游戏规则已经发生了根本性变化,算力基建的热度 逐渐让位于能够落地于物理 ai 和端侧应用。这也就意味着, ai 技术想要真正实现商业化落地,必须具备稳定性、合规性 以及可靠的交付能力。中国 ai 的 发展路径也在此刻发生了分叉。中国更加注重 ai 技术的应用落地,强调将 ai 技术与实体经济深度融合,解决实际生产生活中的问题。庞大的用户基数、闭环的生态系统 和极致的成本控制,能够更快地将 ai 技术转化为可规模化的商业应用。当下都处在技术不断迭代、商业模式变化的探索期,风险与机遇不断交织, ai 大 模型行业的魅力进一步凸显。未来的模型,当参数算理逐渐示弱落地,可替代、可持续也就成了核心竞争力。质朴 ai 脱颖而出 在中国,从互联网、公共服务、电信到消费电子、零售、媒体,一万两千家企业都选择了智普。一份份亮眼的成绩单背后,是资本市场角逐评估的结果,他们更需要能被定价的 ai 样本, 而智普 ai 恰好能够在技术潜力与商业可及性之间找到平衡。资本市场对于具有高度不确定性的技术 往往持谨慎态度,在 ai 领域更是如此,算法的可靠、技术的迭代都考验着投资者的耐心,而智普 ai 解决的就是技术的不确定性,其构建的算法框架经过大量实践检验,具有较高的稳定性和可能性。资本市场通过对智普 ai 技术不确定性压缩程度的评估,确定了其在技术层面的价值,你在这个模型里注入了什么, 它就会涌现出什么样的智能。作为基础设施型公司,智普 ai 不 仅发展如火如荼,更是为其他企业提供了一条可复制的路径,通过提供标准化的 ai 基础设施服务,使其能够快速复制到不同行业和领域,为行业提供参考价值。真实的用户价值、健康的商业模式 以及穿越迷雾的长期主义一直是穿越市场周期得到的真理。很显然,智普 ai 通过重重实践验证了这一真理。智普 ai 登录资本市场并非孤立无援, 他投射了中国 ai 资本化路线的期待,就像一面镜子,映射出 ai 时代最本质的价值预期和渴望。质朴 ai 的 上市,本质上是一场关于中国 ai 企业如何被定价的市场测试。市场的关注点并不只是各股涨跌, 而是投资者是否愿意接受这一类 ai 公司的商业逻辑和估值假设。如果其定价方式和市场反馈能够形成共识,后续 ai 企业在资本市场上的估值体系将更具参考性。 若共识尚未形成,资本市场也可能在一段时间内对 ai 资产采取更加审慎、结构化的评估方式。这并非单一公司的问题, 而是整个 ai 赛道估值方法的一次公开检验。港交所的钟声被质朴 ai 敲响,为投资者带来了机遇,也迎来了新的选择题,资本市场到底愿不愿意为中国式 ai 长期买单?二零二六年,中国 ai 技术将实现进一步升级与跨越, 要素的供给能力会持续增强,智能体产业生态将加速走向成熟, ai 技术将全面赋能各个行业。这意味着中国 ai 产业发展迅速,取得了一定成果,在资本市场看来已经成为可选项,但是如何成为 b 选项,或许还有待考证。智普 ai 不是 终点, 它更像是一张试卷。智普 ai 的 上市为我们提供了一个观察和思考的气息,让我们更加深入地了解中国 ai 与资本的发展方向。在这个充满机遇和挑战的时代, 我们期待中国 ai 产业能够在资本的助力下,走出一条具有中国特色的发展道路,为全球 ai 产业的发展交出高分答卷。

给大家简单捋一捋哈,在最近的一周之内,国内这些 ai 公司呢,都不要脸的甩出来哪些核弹级的产品?先是字节跳动,出手就是王,炸一个 cds, 二点零呢,给马斯克都炸出来了,给好莱坞呢,直接炸蒙圈了。全世界所有做视频生成的大冒险公司集体失语, 不是他们不想说话,是实在不知道说啥好了。去年吹爆 solo 的 是不是突然觉得 solo 其实也没那么香了? 最惨的呢,应该就是影视圈啊,什么摄影摄像,演员,场外景、内景,尤其是后期制作公司,根本就是天塌了。借助现有的 ai, 只需要一个人哎,你就能够完成从写剧本到设计人物,再到生成视频的整个过程。 一个人呢,就能够拍一部电影,一个人就能够改变一部动漫,一个人就能够拍一部短剧,而且呢,速度飞快,成本极低, 这对整个影视动漫还有游戏圈呢,都是一次颠覆式的打击,一点翻身的机会都不给。然后呢,就是 deepsea, deepsea 二二还没来哈,但是呢, deepsea 扔出了一个灰度测试的 deepsea v 四点零哎,可以支持上下文儿百万 tocs, 这是啥概念呢? 一口气儿扔一本儿三题给他哎,让他立马提炼大纲,一点儿都不费劲。你把一本儿几百页儿的财务报告扔给他,立马可以给你出一份缩略版。 你把整本儿几十万字的论文扔给他,他可以很快帮你把核心内容呢提炼出来。如果你是从事编程工作的,那你可以把整个项目的代码注示说明文档呢,全部都喂给他,让他帮你检查 bug, 优化价格,一个团队干一个月的活。 deepsea v 四点零呢,可能只需要一个小时。 接下来呢,是 ai 应用的另外一个赛道,就是 ai code, 也叫 ai 编程。那在这个赛道的两个重量级的玩家智普和 innix 也都没闲着哈,各自拿出来了一个新的大模型,直接应当 cloud opus 四点六以及 open ai 紧急发布的 gpt 五点三 codex。 智普拿出来的模型呢,是 glm 五编程能力哈,可以对齐 cloud opus 榜单中呢, glm 位居全球第四,开源第一。 glm 五可以做到什么程度呢?用户呢,只需要把需求说清楚,模型呢就会自动拆解任务多智能体并发,完成代码跑命令调试、预览和提交的全部开发流程。 mini max 推出的模型呢,是 mini max m 二点五能力呢,相比上一代提升是非常明显的,据说可以跟 cloud opera 四点六打的有来有回。 m 二点五呢,擅长定时任务、网页制作、调研报告转载、视频生成和 ppt 制作, 尤其是网页制作哈,是这个大模型呢最强的地方,在可视化表达方面,网页的视觉呈现效果非常非常的好。这两个大模型的推出呢,不仅让这两家公司的市值大幅上涨,而且呢,也让国产 ai 在 编程能力上紧紧咬住了老美的 cloud 和 gpt。 这四个大模型哈,可以说是给全世界的 ai 公司都上了一课。但是你以为这就结束了吗?现在离过年还有好几天呢,说吧,下一个轮到谁了?


春节档不只有电影,还有国产 ai 大 模型层出不穷。智普 ai 重磅推出新一代旗舰模型 g l m 五, minimax 同步上线 minimax 二点五,这两款大模型的性能双双对标国际顶尖水平, 编程与智能体能力实现跨越式突破,迅速引爆全球 ai 圈。智普与 minimax 的 共同合作,受益供应商全解析 核心算力供应商优克德作为两家企业的核心算力合作伙伴,优克德与智普 ai 签订五年二十亿元算力长约,提供五万张显卡集群,超四千七百匹算力规模,支撑 g l m 五的训练、推理与私有化部署。 同时为 mini max 搭建万卡级算力资源池,保障模型高频调用与弹性扩容,从训练到上线,全流程稳定赋能。优克德的液冷算力集群云原声调度系统,完美匹配两款大模型的超大算力需求,既降低训练成本,又提升推理效率, 成为国产大模型算力自主化的标杆案例。服务器与集群交付神舟数码是智普领航级合作伙伴,也是升腾总经销商,独家交付 g l m 五训练集群,神舟困态服务器成为模型训练首选,同时为 minimax 提供服务器硬件与集群部署服务。 联通芯片算力与模型三层架构,保障万卡集群高效运行。神舟数码打通产业链上下游, 成为两款大模型基础设施的核心交付方。智算云与液冷支撑蓝云科技凭借 g p u 算力云架构与液冷技术,同时服务智普与 mini max, 为智普提供原声带智算云平台,缩短 g l m 五训练周期,为 mini max 搭建可自愈云原声解决方案,降低运维难度,以高效散热与智能调度解决大模型算力工号与稳定性难题,是两家企业底层算力环境的共同保障。数据与合规服务, 人民网通过战略投资与业务合作,同时服务两款模行,为 mini max 提供 a i g c 内容审核服务,保障内容合规,为智普提供合规数据支撑与版权服务,助力 g l m 五在法律、办公等场景安全落地。 在数据安全与合规成为 ai 发展底线的当下,人民网成为两款模型合规运营的核心后盾。记得点赞、收藏、关注,每天解读热门赛道!

今天这期节目,我们就来探讨一下这个刚刚发布的智普 g m 五这个大模型,嗯,看看它到底在技术上面有哪些新的突破,然后在实际的工程应用当中,它又有哪些炼眼的表现,以及它在行业当中到底是一个什么样的水平。没错没错,这个也是最近 ai 圈里面非常火的一个话题,那我们就直接开始吧。 咱们先来讨论一下智普 g m 五的发布,以及它在国际上面的表现到底怎么样?还有就是它的这个发布到底带来了哪些影响?是这样的,智普 g l m 五它其实刚刚发布就引起了非常大的轰动,它一开始的时候是以内测版本的形式出现的,那个时候它的名字叫做 pony alpha, 嗯, 在海外技术圈已经是非常火了,然后它在 open router 上面的热度也是直接冲到了第一。这个 pony alpha 还真是挺引人瞩目的,连股价都被带动了吧,就是在官方还没有正式宣布之前,它就已经让相关公司的股价连续两天大涨,成为了港股 ai 板块的一个最大的催化剂。 嗯,然后等到二月十二号的时候,最新的这个 artificial analysis intelligence index 四点零榜单出来了, g l m 五它是以五十分的综合得分并列全球第三, 仅次于 g b t 四点六、 g b t 五点二和 cloud opus 四点五,哇,它也是目前排名最高的国产大模型之一,听起来真的很厉害啊。然后我们要聊的是这个 glm 五,它在系统架构和工程化上面的一些突破,它是怎么在这个 agencic coating, 也就是智能体编程这个上面跟上甚至在某些方面引领国际潮流的。 说到这个,其实在二月十一号 g r m 五正式发布之前,它就已经以 pony alpha 的 身份在 open reader 上面掀起了一阵风波,被很多海外的开发者称为是最强的开源代码模型。大家都在说它的推理深度和工程化能力已经非常非常接近闭源的顶尖水平了。 看来这次国产大模型真的是在技术讨论里面走到舞台中央了。完全没错,现在硅谷那边大家都在关注的就是 agent coding, 像 gpt 五点三, codex 和 cloud opus 四点六,它们都把重心放在了这种长时程的复杂的工程任务上面。嗯,那 grm 五就是国内第一个真正意义上跟上这个前沿的大模型,实现了从传统的对话式的代码生成到端到端的系统工程的跨越。 这个模型到底在实际的项目里面和专业的评测里面,到底有哪些让人眼前一亮的技术亮点呢? grm 五它是一个非常厉害的模型, 比如说你要去搭建一个高并发的电商库存系统,它不仅仅能够帮你生成所有的代码,还包括了漂亮的 ui 界面,然后包括 reddit 的 缓存、消息队列、数据库锁,它全部都帮你搞定,甚至写出来的代码直接就能上线, 非常的高效。这听着已经不像是一个工具了,这像是一个全站的工程师啊。是,而且他在处理这种复杂的开源项目的报错的时候,他能够自动地去分析依赖规划修复的步骤,然后最后给你一个可执行的补丁。嗯,他的这种能力其实在专业的评测里面也是非常非常突出的。 比如说他在 s w e bench verified 上面拿了七十七点八分,就已经很接近 opus 四点六的八点零九分了。然后他在 terminal bench 二点 o 上面是开源第一, 在 vending bench two 的 经营模拟里面,它也是拿了第一。哇,它的这个 coding 和 agent 的 能力已经是开源的 s o t a 的 水平了。就是说这个 g l m 五它到底是用了什么样的新技术,能够让它在系统架构和智能体的任务上面能够达到世界领先的水平呢?呃,核心就是它采用了这个 m o e 的 稀疏架构, 这个架构的优势就在于它非常擅长处理长城的依赖和复杂的逻辑。嗯,所以 g l m 五在面对那种需要记住很多步骤,或者是说要调用很多工具的这种任务的时候,它能够非常完美地去执行。 然后它的整个设计思路也是完全是针对这种系统架构和智能体的场景去做的一个优化。所以就是说这是国产大模型第一次在真实的工程实践当中能够有这样的表现吗?对,没错,就 g l m 五出来之后,海外的开发者也是非常的惊讶,他们说本来以为开源界没人能接住 agnication g 棒,直到测了 g l m 五。 所以这也意味着中国在这个稀疏架构、代码能力和智能体这几个领域已经正式地进入了全球第一梯队。那整个行业的竞争也从以前的这种通用的能力的比拼,慢慢地转向了这种垂直场景的落地和实际的工程化能力,下面咱们要聊的这个话题啊,是国产算力的突破和芯片的适配, 就是 g l m 五到底在这方面做了哪些事情,能够让它在国产的芯片平台上面跑得又快又稳。这就不得不提到, g l m 五其实在发布的时候就已经跟七家主流的国产芯片平台做了深度的适配,包括华为的升腾、摩尔现成、韩五、 g 昆仑心木曦穗源还有海光, 然后对这些平台都做了算子级的优化,所以它能够充分地发挥国产算力及群的优势,实现高吞吐、低延迟的推理。 那这样的话,就把中国造的这个大模型的方案推到了一个全新的高度。这么说的话,那华为升腾和摩尔县城还有海光这几个在支持 g l m 五的时候,分别都做了哪些比较关键的优化呢?先说这个华为的升腾, 升腾在 g l m 五开源发布的同时,就做到了 day 零的全流程适配,嗯,在推理方面呢,它用的是 ibis 八百 a 三,然后 w 四 a 八的这种混合精度量化,把这个七百四十四 b 的 模型能够高效地部署在单机上面。 同时它还通过一些像 lightning indexer, sparse, flash attention 这样的一些融合算子,进一步地去加速了端到端的这个推理的速度。 ok, 而且它也兼容了像 v l l m a sand s glam 主流的一些推理引擎, 这优化力度真的很到位啊。其他的平台是不是也有类似的这种亮点呢?当然有啊,比如说这个摩尔县城,它是基于 s g long 的 推理框架,在 m t t s 五千上面也是做到了对零的适配和验证啊,那海光的 d c u 呢?也是让 g m 五在上面跑得非常的吞吐和非常低的延迟, 所以整体的这个国产芯片对大模型的承载能力是有一个非常大的跃升的,看来国产芯片的发展也是突飞猛进啊。然后我们要说的就是这个 glm 五在实际的使用场景当中,到底有哪些令人惊艳的表现? 它在技术实力上面到底跟这个 cloud opus 四点五相比有哪些映同在实际的评测当中呢? glm 五在工业级的后端开发,复杂的任务规划、多轮的调试以及连续的工具调用等等这些工程化的场景当中,嗯,它的表现是可以和 cloud opus 四点五直接去进行对比的, 然后整体的这个使用体验也是达到了目前开源的 s o t a 的 水准。能不能举一个实际的例子,让我们感受一下 grm 五在这个真实的项目当中到底有多强?可以啊, 比如说在 terry live 实景地球学习与旅行推荐这个全站开发的测试当中, grm 五它是可以从需求分析到代码编辑到三维图形的实现,到交互设计,它全部都可以一个人干 哇。最后交付的是一个功能完整,界面非常漂亮的一个三 d 地球应用,这个效率是远远超过传统的这种开发模式的。这么说的话, g l m 五在智能写作和全站开发这两个领域到底展现出了什么样的过人之处呢?是这么回事儿,就是 g l m 五它能够自动地去拆解复杂的分析任务,然后生成这种非常专业的报告, 还能把关键的信息都给提炼出来。嗯,在全站开发当中呢,它也是能够把开发者从这些底层的技术细节当中解放出来,让大家更多地去关注创新和创意。整个的这个项目推进的速度也是非常快的,所以被很多人称为是超级生产顺利引擎。 那 g l m 五在代理编程的能力上面和使用成本上面,到底跟这个 cloud ops 系列相比有哪些优势呢?这就要提到海外的一个博主,他的网名叫 ai code king, 它做了一个实测,就是在代理编程这个场景下面, g l m 五拿到了五百八十九分,这个分数是高于 cloud opus 四点五的五百八十五分的,是目前全球第一。 这个 g l m 五的这个分数真的是很能打呀,那它在费用上面是不是也有很大的惊喜?没错,更厉害的是完成同样的一个编程任务, g l m 五的推理成本只要零点一四美元哦,这还不到 opus 四点六的推理成本六点三九美元的四十分之一。 所以以前的话,可能大家会用 oppos 来做这个复杂的任务规划,然后用一些便宜的国产的模型来做执行。但是现在的话, g r m 五已经可以单独的去承担这个大脑的角色了,真正的实现了国产大模型对顶级闭源模型的一个替代,听起来非常不错啊。然后我们再来说一下 pony alpha 的 爆火, 以及质朴的这个市值的飙升,这背后到底有哪些关键的事件呢?这件事情其实是非常戏剧化的,就是 g i m 五,它一开始的时候是以 pony alpha 的 这个身份在海外的平台先火起来的。对,而且是在没有任何官方的预告的情况下,它在 open router 上面上线了, 然后仅仅用了二十四个小时就冲到了热度榜的第一名。看来是这个 pony alpha 这个神秘的身份,还有它超强的性能,直接就点燃了整个社区的热情啊。 对,没错, openrater 的 官方也是特别的提到了,它在编程、智能体的工作流推理和角色扮演这几个方面都是非常强的,尤其是它的这个工具,调用准确率是非常高的。 嗯,然后等到这个消息传出来,说这个可能就是智普的 glm 五之后,公司的股价在两个交易日之内就被资金推得非常高,市值一度突破了一千五百亿港元。哇, 就直接成为了港股科技股里面的焦点。所以就是说,智普 g l m 五的这个技术突破,到底是怎么影响了资本市场对整个港股 ai 板块的这个估值的呢?就是二月十一号, 智普官方正式地宣布了 pony alpha 就是 g l m 五。嗯,这个时候就是技术预期落地了嘛,所以这个也成为了二零二六年年初港股 ai 赛道里面最有标志性的一轮行情。 这应该也是属于比较少见的,就是海外的这个技术热潮反过来带动了港股的这个估值的提升吧。对,这是国产大模型第一次出现这种海外的技术热度倒逼港股的估值。嗯,然后市场的这个交易逻辑已经从原来的那种追赶者 变成了现在的这种 mo 一 架构开源 sota 这样的一个硬核的突破,这也意味着资本市场对 ai 公司的这个定价权已经开始从财报往技术预期去进行转移了。 ok, 我 们今天聊了这么多,关于 g l m 五的技术的突破,工程化的落地,以及它在行业里面的位置,然后包括它对国产大模型和这个 ai 芯片生态的一个推动。好的,那本期节目咱们就到这里啦。啊,感谢大家的收听,咱们下期再见,拜拜。拜拜。

各位朋友大家好,这两天 ai 圈可是有个大新闻,咱们国产的算力巨头海光信息和顶尖的大模型公司智普 ai 联手搞了个大动作。 智普 ai 刚刚发布了他们全新的 g l m 五大模型,几乎就在同一时间,海光信息就宣布,他们自家的深度学习加速卡,也就是 d c u 已经完成了对 g l m 五的 day 配,而且还做了联合精调。 啥叫对零适配呢?简单说就是模型发布当天,硬件就能立马跟上,直接跑起来无缝衔接,这速度简直像百米冲刺, 这可不是简单装个驱动就能搞定的事儿,背后是两家团队在底层软件和硬件上下了硬功夫,海光靠的是他们自研的 d t k 软件站,深入到算子和硬件加速层面进行优化,目标就是让 g l m 五在海光 d c u 上跑得又快又稳,实现高吞吐低延迟。 这意味着什么?意味着以后我们用国产的大模型搭配国产的算力芯片,就能享受到不输国际大厂的流畅体验。 尤其是在需要实时响应的场景里,比如 ai 实时对话或者复杂任务处理,这体验感一下子就上来了。不知道大家还记不记得,以前咱们搞 ai 大 模型总有点儿心病,得看别人脸色。现在可不一样了,海光和智浦这次合作就像是给国产 ai 生态打了一剂强新针, 核心目标就是打造一个纯正的国产大模型加国产算力的闭环。 g l m 五本身也不是吃素的,听说它在编程和智能体能力上表现特别亮眼,接近甚至在某些方面超越了国际顶尖水平, 是冲着实实在在的生产力工具去的。能驾驭这种级别的模型,本身就证明了海光 d c u 的 硬实力, 这不仅仅是能跑,而是跑得好、跑得稳、跑得快的标志。有分析就指出,这种深度协同其实是在构建我们自己的 ai 技术护城河。那么我们把眼光放远一点,这次合作仅仅是开始吗? 二零二六年整个算力市场会怎么走?机构们的看法倒是挺一致的,景气度将持续上行。北京市已经明确说了,到二零二七年要累计建成二十万批规模的算力, 这可不是小数目,背后是实打实的政策和需求驱动。再看全球,微软、谷歌、 mate 这些科技巨头对二零二六年的资本开支计划一个比一个乐观, 预计投入 ai 算力和基础设施的钱会大幅增长,这说明全球对 ai 算力的渴求根本没有降温的迹象。具体到投资上,机会可能出现在哪呢? 我给大家梳理几条线。首先是国产算力核心环节,像海光信息、韩五 g 这样已经具备芯片研发和商业化能力的公司,在国产替代的大趋势下机会明显,特别是能参与到生态构建中的企业。 其次是基础设施与关键部件,算力集群建的越多,对光模块、夜冷解决方案、先进电源存储等需求就越大。 去年光模块企业向新益盛中继续创涨幅惊人,就是因为它们是算力规模扩张中不可或缺的一环,液冷技术也因为散热需求升级,从可选变成了必选。 最后是应用落地与硬件创新。随着算力基础磋识, ai 应用的商业化落地会加速,谁能解决真实痛点,谁就能冒头。 同时, ai 眼镜、 ai ping 这类端侧 ai 硬件在二零二六年也可能迎来创新爆发。当然了,机会背后也要看到挑战。目前关于海光 dcu 运行 glm 五的具体性能数据,比如和国外主流芯片对比到底怎么样,还有待更多透露。 未来,海光能否持续复制这种 day 零适配模式,吸引更多主流模型加入,以及下游客户是否愿意大规模采用这套国产组合拳,都是需要观察的关键点。投资嘛,既要看到趋势,也得留意具体的进展和业绩兑现。 总而言之,海光信息和智普 ai 的 这次联手,是国产 ai 生态协调、效率提升的一个强烈信号。它告诉我们,在算力这个决定 ai 未来的核心赛道上,中国力量正在加速奔跑,努力把主动权握在自己手里,二零二六年的 ai 江湖,注定会更加精彩。

智普 ai 宣布服务涨价百分之三十,产业链最受益的八家公司。第一家,海光信息,国产算力芯片核心标杆企业,核心 d、 c u 产品与 g、 l、 m 系列大模型深度适配,同时兼容多类主流大模型,是大模型推理端的关键算力支撑, 在国产算力芯片替代进程中占据重要地位。深度服务 ai 算力基建领域。第二家,中科曙光智普 ai 算力集权核心供应商,兼具 ai 服务器、液冷技术、智算中心三重核心赛道布局,拥有自主可控的算力技术壁垒,不仅为智普等头部大模型提供算力集权支撑,还全面布局算力基建全链条下游,覆盖政企、科研等多场景。 三家浪潮信息,全球 ai 服务器绝对龙头企业,市场份额稳居全球前列,产品广泛适配各类大模型训练与推力需求,充分受益于头部大模型厂商智算中心的算力扩张需求,是 ai 算力硬件赛道的核心压舱式标底。第四家,神州数码智普 ai 生态核心合作伙伴,深度参与智普算力集权的交付、调试与后期运维,同时提供一体化算力解决方案,推动 ai 算力生态落地下游,覆盖互联网、政企、金融等多领域,绑定头部 ai 算力服务领域。第五家,优客的专注于 ai 算力服务领域, 聚焦大模型训练与推理的算力资源供给,可提供弹性算力、定制化算力等多样化服务,贴合当下 ai 算力需求热点短线题材贴合度高,市场活跃度突出, 是算力服务赛道的活跃标地。第六家,首都在线,聚焦算力租赁与智算中心运营核心业务,旗下智算中心布局贴合 ai 算力高需求场景,具备低视野、高可靠的算力服务优势,持续受益于 ai 产业快速发展带来的算力需求爆发,赛道景气度与业务成长性突出。第七家, 冬季续创全球高速光模块绝对龙头核心产品含盖八零零 g、 一 点六 t 等高端规格,市场份额稳居全球前列,是算力网络基础设施建设的核心受益标地, 为 ai 算力传输、智算中心互联提供关键硬件支撑,深度绑定算力赛道成长。第八家,因维克液冷温控领域龙头企业,拥有成熟的液冷温控解决方案,产品高效节能、适配性强,可满足 ai 服务器、 智算中心等高负债算力设施的温控需求,是算力设备稳定运行的核心配套,在高算力时代具备不可替代的赛道优势。记得点赞、收藏加关注,祝大家一路长虹!

智普 ai 概念五梳理上,语信科技与智普 ai 签署大模型合作协议。采训股份多款应用接入智普 ai 大 模型。斗神教育与智普成立合资公司, 共同研发 ai 教育产品。创业黑马共建重起大模型、起伏大模型。天元迪科与智普 ai 等单位 建立合作伙伴关系。数度在线签署合作协议,共建智算中心。法本信息建立生态合作研发大模型应用产品。华策影视 共同开发影视内容生成智能体。中科金财已接入智普 chat g l m 大 模型。尤克德为智普 ai 提供底层算力支持。凌云光参股投资智普大模型。加数字人合作。平致信息 与智普共研多模态聚深大模型应用。思美传媒与智普华章签订战略合作。

分享一些有用的信息。呃,昨天晚上直播那个给我提问题的水友跟我分享了啊一些信息。现在智普华 章港股四百八十多,而他所说的海智科技 发行价二十多。呃,上市是八十二块五左右,他是八十七块钱入的,现在是九十二,他问我会不会下来,他只入手了两手,两手 不多。我跟他说,你见过任何一家 am 大 模型公司上了港股破发的吗?他不跑买三四百怎么可能?而且他的领域又有门槛又有壁垒,不是一般人能做的, 很多企业他需要这样的大模型,一旦他普及开之后,全世界多多少少都会应用他,他还是开源的, 你品一品。呃,这个同学也是刚接触港股,那我是分析分析新闻的,我给他解读了海之科技与 智普 ai、 智普华章他们相应的关联,而且他们都有共同的特点以及投资方,所以说这只股票相对来说它是有一定成长空间的。好了,大家别担心,因为这类股票 你们想知道投资趋势,我告诉你们,可能他们也会上 a 股、港股、 a 股 或者美股同时并行,因为中国国内的国产大模型、 ai 大 模型已经逐渐被世界追捧,那是开源与闭源的战争。明白我的意思吗?开源可以更好的 吸收训练大模型,而闭源就那些客户训练成本以及 客户成本以及盈利成本。他们所谓的 ai 闭源 ai 大 漠性,没有基础的应用层,以商务商业应用层的话,是很难变现的。光靠那些会员吗?两百九十九或者三百九十九块钱月卡会员吗?他能说到哪里去? 大家对想想对不对?至于你抄我我抄你的问题,很多时候 您细品训练模型公开数据都可查吗?我调用你一些数据又有什么了? 关键是你的大模型所应对的客户开源与闭源解释,我是公开的,谁都可以用,但是最核心的你得付钱,价格蛮贵的。而闭源你用了, 基础功能能用,但其他功能是不能用的,全靠月卡或者收费去应用模型。我承认某些领域 可能闭源好一点,因为闭源用的人少,算力中心可以足够支撑开源,那消耗的算力就大了。原因很简单,一个有电,一个没电。为什么要说这么绕呢?是因为开源与 闭园的 ai 大 模型战争早已展开。 说了那么多,归根结底我就告诉大家,你,你一个人有人用一个算力的 ai 中心的大模型等于几千万个老师给你一个人用, 用的人越多,算力就会下降,最多他会切割给你一个人有十几个或者二十几个老师给你用。而闭源用的人有限,他有限的算力可以给 支撑那些付费用户,但一旦开源,他的算力就不够了。他吹的 ai 泡沫是需要用芯片 搭建起足够的算力中心给那些客户用。他不是不想开源,是开不了源,因为他没有电,这是根本, 还要有电力传输技术。又说回来,所以说告诉大家开源闭源的核心原理,借用 海之科技,借用智普 ai, 给大家衍生来说开源与避远的战争好不好?喜欢可以点个评论,点个关注,点个赞赞,咱下期见,拜拜了您!

港股智普 ai 股价四天翻一倍,其大模型是与华为升腾深度合作的智普新发大模型登上全球榜首, 那意味着华为升腾 g p u 也能训练出性能超强的大模型。二六年是国产大模型应用的爆发源年,极有可能是华为升腾放量源年。梳理六家与华为深度合作的供应商, 其中一体机的弹性会比较大,第一家,华正新材,深腾 pcb 供应商。第二家,莱亚新材,深腾 pcb 附铜板供应商。 第三家,华丰新材,深腾高速背板连接器供应商。第四家,泰嘉股份,深腾电源供应商。第五家,川润股份,深腾液冷服务器供应商。第六家,深腾一体机合作商,拓维信息。

中国人不愿为 ai 付费, mini max 被迫百分之七十三收入靠海外用户养活一个中国 ai 公司,百分之七十三的收入来自海外,不是因为它的技术多牛,而是因为中国用户根本不愿意为 ai 掏钱。 巴克莱一月二十九日发了一份研报,拆解了智普和 mini max 两家刚上市的中国 ai 实验室。其中最刺眼的一组数据是关于付费意愿的。先看 mini max, 二零二五年前商季度,它百分之七十三的收入来自海外市场。 ai 原生产品里,海外付费用户贡献了超过百分之八十的收入。 它最赚钱的两款产品,一个是虚拟陪伴应用 talky, 一个是音视频生成工具 hi lo, 加起来占收入的百分之六十八,但这些钱主要是海外用户在付。 二零二四年, mini max 付费用户的人均年付费额,也就是 arp u 只有三十四美元。三十四美元是什么概念? chat gpt 的 arp u 是 它的十倍。 也就是说, mini max 不 但要靠海外用户撑着,连海外用户的付费深度也只有切的 gpt 的 十分之一。再看另一面,智普走了一条完全不同的路,他百分之八十八的收入来自中国市场,百分之九十的客户是企业和政府。 他不指望消费者付费,而是做本地部署,也就是把大模型卖给大企业和政府机构,做定制化方案,让这块业务占了收入的百分之八十五。听起来很稳是吧? 但巴克莱指出了一个隐患,质朴前五大客户贡献了百分之四十的收入,客户集中度很高,而且本地部署这个模式天然缺乏标准化和全球扩展性,复购也存在不确定性。 为什么会出现这种局面?核心原因是国内 ai 应用的免费生态。中国市场上大量 ai 产品是免费的,用户已经习惯了不花钱就能用。这不是某一家公司的问题,而是整个市场的结构性困境。 报告里有一个数据对比非常说明问题,阿里通一千万的月活用户已经超过一亿,但仍然不到 chat gpt 八亿月活的八分之一,而且在付费转化上差距更大, mini max 的 月活只有两千八百万, deepseek 是 二点五亿用户都在用,但没人愿意付钱。 这就导致了一个很讽刺的现象,中国 ai 实验室做出的产品,中国用户用着免费版,真正买单的是海外用户, 而海外用户的付费能力又远不及切的 g p t 的 用户群体,两头都不占优势。从成本端看就更残酷了,便推理成本占了 mini max 总成本的百分之九十以上,它的海外消费业务毛利率只有百分之五,国内消费业务更低, 也就是说,每赚一百美元,可能只剩五美元的毛利,还没算研发、营销和管理费用。从二零二二年到二零二五年前三季度, mini max 在 研发上砸了大约四点五亿美元,而中期它的总营收可能连这个数字的零头都不到。 这也解释了为什么中国科技巨头的 ai 投入和美国相比还有差距。巴克莱预测,阿里、百度等中国科技巨头每个季度 ai 研发投入大概在一到一点五亿美元, 而美国头部 ai 实验室的投入要高得多。不是不想投,是商业化回报还撑不起更大的投入。 但也不全是坏消息。巴克莱报告指出,国内模型迭代速度非常快,一到三个月就有一次大更新。智普的 glm 四点七和 mini max 的 m 二点一编码模型在某些能力上已经逐步缩小了与美国的差距。技术不是问题,问题是怎么把技术变成钱。 这就是中国 ai 行业最真实的一面。技术追赶越来越快,但商业化的路走得格外艰难。当国内用户不愿付费,海外用户 a r p u 只有对手的十分之一,毛利率低到百分之五的时候,光靠估值预期能撑多久? 这个问题不只是智普和 mini max 要回答的,而是整个中国 ai 行业都绕不过去的一道坎。

pony alpha 到底是谁家的?全网都在猜的神秘 ai 模型, pony alpha 到底是不是 g l m 的 私生子?没有官宣,没有背景,一夜冲上全球热度第一,所有人都在问面具背后到底是谁?今天我们把所有线索全部摆出来,一起推理这起 ai 悬案。 第一条线索指向 anthropic, 很多开发者发现 pony alpha 的 审美、色调、代码风格都高度接近 cloud, 甚至在追问下,他自己都承认我是 cloud。 再加上同一天 anthropic 刚好发布新版模型,很难不让人怀疑这是一场秘密测试。 第二条线索指向 deep seek, replete ceo 直接公开猜测,这很可能就是 deep seek v 四,毕竟去年春节 deep seek 就是 黑马,今年再放一匹小马出来,时间点、风格、能力全都对得上。 第三条线索指向 x a i 的 grog。 有 人发现 pony alpha 的 对话风格、立场、灵活度和 grog 系列非常像,再加上 x a i 刚刚并入 spacex, 正好是出新模型的窗口期,嫌疑同样不小。 第四条线索也是目前最猛的线索质谱, ai 开发者测出 pony alpha 和 glm 四用的是同一套分词器, 他甚至自己说出过 m g l m 字样。时间上智普也刚好官宣要发新模型,再加上二零二六是马年, pony 就是 小马,简直是量身定做, 资本市场更是直接炸了,智普股价单日大涨超百分之三十六,资金已经用脚投票两百 k 上下文,超强代码能力,顶级 agent 水平,免费开放匿名上线。 pony alpha 越神秘,大家越好奇它是 cloud, 是 deep sea, 是 grog 还是 g l m 五,没有标准答案,只有越挖越深的线索。那么你觉得 pony alpha 到底是谁家的评论区留下。

母亲言新出了个模型啊,怎么样?这个模型他说说非常厉害。 jim 五吗?我看看啊,像有的官方说的,他的 humanity last exam exam 评分是比较高的啊,就拿这个评分来说啊啊,其实我们测一下会有很大的问题,你看一下这个屏幕,我看看 我们呃抽取了 horamis 的 mass 数据集,大概是一千多道,然后去测这个质朴清源拿这个呃正比奈,正比奈 flash 作为这个评判遇到一个什么问题呢?我发现他在解答这种数学类的问题的时候,他的思考时间头肯输出了将近两万,也就是说他两万还在思考都没有输出完, 所以说我们这个他根本就测不了,在我们看来,然后即使测的了的话,一次回答的成本大概在呃五毛钱左右,就一个问题大概在五毛钱,而且还两万都没有出答案,所以我们在想会不会是我们的测试出了问题, 于是我们又到了他的这个官方上,就试验了一下啊,现在还在跑是吧?我们这个数据集从呃几分钟之前就开始跑,呃直接停掉,然后我们可以往上拉,一直拉一直拉,就你就说他这个思考过程无限的延长,无限的思考,他虽然这个回复的内容是正确的,但是他貌似陷入了一个死循环的过程。 就是你是让他回答了一个问题是吧?数学问题, melodies 里边的一个数学 max 类别的问题啊,问题其实不复杂,他是一个单选,他有两两种类型,第一是选择题,第二是那个检查题。我们在问给他这个数学问题的时候,问了两道到三道,基本就是无限循环,然后他的费用基本在无限上涨, 所以我们我们也可能比较怀疑像这种评分它虽然很高,有没有可能它的思考过程会非常的长,可能是无限的,也他可能把这个给忽略了,他能思考一个问题,思考五分钟出了一个答案。我们也测了一下,像 jimmy、 nike 这种可能也就几秒钟就出答了,所以它会存在这样一个差异点, 所以说它这个评价体系稍微有点问题。也不算吧,我们后续可能还会对这些整体评价再整体测评一下,至少我们现在现在来看还是跟大家想的差别很大, 太大了。数学问题你要等个十几分钟去给你解出来。那我都做完了,你自己都做完了,哈哈哈,考试都结束了是吧?该交卷了。对,我们也建议在啊,我们建议在回答的时候还是把这种时间这个综合的都考虑进去。

国产大模型龙头智普 ai 一 月八号正式登陆港股,市值直冲五百一十一亿港元。 这家公司你可能不熟,但它可是唯一被 oppenai 公开点名的中国对手,妥妥的大模型国家队脱胎于清华实验室,自研 glm 架构,适配华为升腾、韩五 g 的 国产芯片,还参与了东盟一带一路的 ai 基建标准制定, 股东更是集齐了国家产业基金、互联网大厂,连沙特基金都来抢筹它的上市,直接把大模型行业的账本摊开来给大家看。 核心就是两大商业模式,本地化部署,占营收的百分之八十五,主攻金融、政务这些对数据安全要求较高的行业,毛利率能到百分之六十。另一块就是云端 max 模式,就是 api 接口调用, 虽然现在只占比百分之十五,但成长型爆表,智普的 g m 系列模型已经冲进了全球前十,编程产品年收入破亿, ceo 更是放话,未来要让这两款营收业务五五开。不过大模型的这个生意,烧钱是常态,二零二四年,智普研发花了二十一亿人民币,是营收的七倍,目前还在亏损。但是市场为啥给他一百五十倍的高估值呢?就赌他 max 模式的爆发潜力。 要知道, open ai 的 毛利率已经从百分之三十五涨到了百分之七十,这就是行业的未来。智谱打响了头炮,接下来 open ai、 isoropek 也在排队上市。二零二六年,大模型行业要从技术的比拼彻底进入到资本对决的新阶段。关注韩律师,创业不迷路!

智普 ai 概念股梳理下重合生态,共同推进大模型在生态环保里的应用定型。科技公司大模型客户包括智普华章、奥尔特, 共同建设奥尔特 ai 创新智能中心。电广传媒通过达成制裁投资了智普 ai 南微软件政务大模型, 融合了智普 ai 底层技术。皖新传媒合作开发皖新阅读大模型。中科曙光,智普官方公布的合作伙伴之一华语软件,智普官方公布的合作伙伴之一 传智教育共建大模型应用开发课程。海天瑞声与中科院自动化所智普 ai 合作蓝色光标,公司大模型接入智普 ai 底层模型范围网络。公司底层合作 mini max 及智普高新星,共同推广智普 code gx 一 体机。

我国的大模型赛道又一次加速了。就在最近,智普 ai 正式发布了全新一代大模型,性能、推理能力和多模态能力全面升级。 表面看,这是一次常规技术迭代,但实际上,这是一次对 deepsea 的 正面回应。我们先讲背景。过去一年, deepsea 凭借高性能推理模型和开源策略在全球范围内迅速走红。它的优势非常明确,第一,成本极低。 第二,推理能力强。第三,开源策略让开发者快速拥抱。某种程度上, deepsea 打破了只有超级巨头才能做顶级模型的心理预期。 而智普这次发布的新模型,核心目标只有一个,重新夺回技术话语权。这次升级重点有三个,第一,复杂的推理能力升级,包括常文本的理解、复杂逻辑的拆解、多步骤问题的解决能力。 官方强调在多个公开第一种测试中对标甚至超越部分同类模型。第二,多模态与 agent 能力强化。 什么意思?就是模型不只是回答问题,而是可以拆解任务、调用工具、执行流程。这是从问答模型向执行型智能体转型。第三,商业化部署优化制度,强调成本控制和企业级应用场景适配。 简单说,它不只是实业式模型,而是瞄准政府、金融、制造、企业服务等真实落地场景。那问题来了,这是不是意味着我国大模型进入了全面内卷?是的,而且是高强度竞争。 但这场竞争的本质并不是谁的参数更大,而是三条路线的博弈,第一条,开源生态对商业闭环。第二,推理效率对规模扩张。第三, 低成本模型对综合能力模型 deep sec 更像是一种技术效率革命,把推理成本打下来。而质朴则在走能力全面化路线,强调多模态和 ag 的 能力。从行业角度看, 这种竞争其实是好事。第一,它会压低企业使用 ai 的 成本,它会迫使模型从血迹走向真实生产力。第三,它会加速我国 ai 追赶 转向自主体系建设。但我们也要保持清醒,模型能力的提升不等于并不等于企业自动升级, 真正的风水岭不在模型发布会上,而在企业内部流程改造上。谁能把模型切入真实业务,谁才能是真正的赢家。总结一句话,智能发布新模型不只是技术升级,而是中国大模型进入贴身肉搏 竞争的阶段,标志接下来比拼的不只是算力,而是生态成本和落地能力。 ai 的 下半场已经开始了。