完了,今天平平无奇一个点,由于早上起晚了没有定盘,下午又睡着了也没有看,就相当于一天没有怎么看。但是看了一下啊智谱。因为受益于这个 cds, 包括 a 设计这一块, 这两天都是高开的,没想到第一天我以为没有连续性,第二天还是高开这么多。嗯,本来以为 那边他是流动枯竭吗?没想到这么强。所以说韩王作为上游,然后这个港啊这个质朴在中游,然后再往下游可能是应用,所以说我觉得在年后会有收益,然后就等一等格局一下。
粉丝2262获赞8041

智普啊,发布了 glm 五点零,为了测试它的能力啊,我用它构建了一套可以无限运行的 ai 开发系统。我用这个系统运行了长达十个小时,从晚上十点到早上八点, ai 做了几十次 getmate 的 提交, 开发了一个 ai 漫剧生成工具,有前后端有数据库,可以用户注册和登录,还接入了大圆模型,图片生成模型,视频生成模型。通过这个视频,你会学到如何构建这样一个无限运行的 ai 开发系统,并了解到 glm 五点零的惊人开发能力。 整个过程我都只是输入简短的 prompt, 没有亲自阅读或修改任何一行代码。我一直在旁边玩着游戏,等他干活, 尤其是我视频最后会讲的,他把整个项目的所有模块联合起来,然后端到端的 bug 修复错误,非常的牛逼。他不只是单纯的写代码,他甚至自行在浏览器中验证每个功能的正确性,找出 bug, 然后自行在浏览器后端数据库第三方的 api 之间联合调试,找出问题,修复错误。 那赶紧进入正题啊,相信对你会有所启发。我使用的工具是 cloud code, 并且把模型切换为 g l m 五点零,具体方法可以看我之前这一条 g l m 四点七的视频。 那我们首先要搭建一套能无限运行的 ai 开发系统,说是系统,其实就是几个文件,做法非常简单,我把一篇来自 astonopy 的 神级文章发给 ai, 让他自己去学习,根据这篇文章做出这套系统 文章叫长时间运行智能体的有效调度编排框架。那过程中 ai 做出了一些操作预期的举动,他通过 m c p 打开浏览器, 通过这篇文章的页面找到一个配套的 get up 仓库,打开仓库的代码文件进行学习。而我事先都不知道这个代码仓库的存在,最终他创建出了这一些文件。 我解释一下最重要的几个,帮你理解一下这套系统的工作方式。 task 点 jc 文件,其实就是一个任务列表,每个任务都有它的描述,并且会标记是否已经完成。和我们人类工程师每天上班一样, ai 每次从这里面领取一个任务, 完成后就做一个标记,这样他的 ai 同事啊,就知道项目进展到哪里。 progress 点 txt 文件,每次 ai 完成任务啊,或者任务失败后,都会在里面留下工作日期,这也是为了给其他 ai 同事提供一些信息。 log 点 m d 文件,这里面全是提示词,用来指导 ai 根据固定的规范流程工作。和我们人类工程师的开发流程类似, 第一步,跑一个脚本,来初识化整个项目的环境。第二步,在 task 里面领一个任务。第三步,就开始开发。第四步,测试和验证。 第五步,更新 progress 和 task 文件。第六步,用 git 提交代码。那如果中间遇到困难,需要人工介入,它就要及时向人求助。那在以前一些长期运行能力不强的模型中啊, 这么长的开发流程,一旦工作上几十分钟,模型就会逐渐混乱,不再按照规定的流程工作,而如今完全没问题啊。视频后面我们会看到, glm 五点零,即使在长达一个小时的工作,提交了几十个 commit 后,仍然很好地遵循开发规范。 然后呢,我让他写一个脚本,用来无限时间的运行。这一套开发流程背后的原理很简单,就是把 cloud code 放到一个 while 循环里面,这样一来,人不在电脑旁边的时候没法手动 prompt, ai 就 可以执行这个脚本,让 ai 无限的工作。它之所以有效,有几个原因啊, 第一,我们这套流程每次只要给 ai 说一句,完成下一个任务,不需要更具体的指示, ai 就 能通过 task 和 progress 文件知道自己现在应该做什么。 第二,每个 task 都很小, g l m 五点零足够的强大,每一次 y l 循环里面,他只是领取一个很小的任务,并且严格的测试,成功率极高。第三,每完成一个任务,模型的上下文都会被清空,所以模型始终保持在最聪明的状态。 第四, g l m 五点零非常可控,严格按照工作规范执行,每次小任务都会进行 commit, 所以 即使出错,我们可以轻易地回滚到旧版本。 好,现在我们这套系统有了,接下来就要开发软件,我们先来设计一下它的功能和架构。这个软件的用途是一句话,生成长视频。我让 ai 把整个项目的开发需求拆成了三十一个任务,放到 task 文件里。 这是 ai 设计的软件,架构不复杂,但五脏俱全。再看一下 ai 画的业务流程图啊,帮助大家理解我们要开发的这个软件具体的功能。 首先,用户会创建一个项目,然后用大圆模型生成每一个分镜的文字描述,然后再用图片模型生成每个分镜的图片,再用视频模型生成。视频开发的流程比较长啊, ai 做了几十次提交,我就选几个精彩的给大家讲。 在 ai 做到第十九个任务的时候,为了测试 glm 五点零的能力呢,我产生了一个大胆的想法,我让他一口气做了一个多小时,完成了十一个任务,干完一个又一个,中间我没有任何干预, 给大家倍速感受一下效果。他一直在写代码,并且每次都遵循我们的开发规范,每个任务都完成,测试一个,一个任务,单独提交代码,拿一个具体的任务作为案例啊。他现在领取了任务三十,任务目标呢是实现响应式的布局,也就是让 u i 在 手机端和桌面端看起来不一样。 他现在正在修改代码,然后验证项目能 build 通过。然后他现在把浏览器的大小变成了手机屏幕大小。打开了我们的应用,他点击了一个按钮, 他对页面做了一次截图,用识图的 m c p 判断是否正确。再打开了一个新的页面,再做了一次截图,并检查是否正确。然后在 progress 里面仔细描述了自己所完成的工作,然后把这个任务标记为完成,他就按这么一套方式疯狂的干完了每一个任务。 要接入数据库的时候呢,他主动提出需要人工帮助,并且一步一步地给我说明,告诉我如何去这个 superbase 平台啊,点哪里创建项目,配置数据库,获取 api key。 尽管我没怎么用过 superbase, 仍然轻松地操作下来了。中间我还犯了错误,给他提供了错误的 key, 也被他及时发现,最后他还让我帮他去注册一个测试账号,然后他自己打开浏览器,输入账号密码,验证登录功能,可以正常使用。那像 superbase 这种外部的系统啊,超出了 ai 的 控制范畴。 g o m 非常明确的给我提供指引,让我协助他完成开发工作,一个不了解后端的人,也能在他的指引下完成数据库的配置。 他开发完后端一系列 c r u d api 后呢,声称对每一个 api 都进行了测试,但所有的 api 都是需要 os 的, 前端也还只有一个空白的页面,所以我就很好奇他哪里来的 os 权限,怎么完成测试,是不是在忽悠我? 于是我问了他一下,他用简短的语言,漂亮的格式向我解释。他说他打开浏览器,登录了刚才创建的测试账号, 然后通过一个叫做 browser evaluate 命令,在浏览器可以执行任意的 javascript 代码。然后他写了一些临时的 js 代码,就在浏览器里运行,调用我们的后端 a p i, 这样就能有 office 了。非常聪明的做法,我还怕他在骗我,我检查了一下录像,确实如他所说,他打开浏览器疯狂测试, 中间还真测试出不少问题,他就自行查看后端的报错日期,自行修复。最终三十一个任务全开发完后,啊,我也懒得去人工验证这个项目是不是已经可以用了。在往常的开发中啊,到最终阶段,因为已经把 前端、后端、数据库、第三方 api 全部连起来了,那第一次的集成测试啊,就会非常头痛,因为任何地方都可能出错,往往需要浪费大量的时间再把错误找出来发给 ai, 让 ai 去修复。但这一次我非常大胆,我只说了一句话, 请你完整测试一遍流程,确保功能可用。大概就是从早上七点十分开始,他自己在浏览器上疯狂测试,花了一个小时提交了这么多改动,用来修复 bug。 我看他在浏览器上像人一样一步步操作我们的产品,通过截图和视觉能力来判断是否符合预期。遇到问题的时候呢,他就自己查询后端的报错,检查各种 api 的 状态,综合分析出问题。最终他总算顺利的生成出了第一个视频,端到端的把整个应用全部打通了。 他修复的每一个 bug, 做的每一个 feature, 其实我都不清楚是什么情况,但我想知道的话,我只要找到他的 commit 记录,看一下他在 progress 文件里写了什么。这也是这套流程的强大之处,一切都是可追踪的。 我们让 glm 五点零一边开发项目,一边在开发过程中发现问题,让 ai 来增强我们这一套自动化的开发系统,左脚踩右脚,螺旋升天,我相信这就是未来开发者的工作方式。总结来说, glm 五点零已经远远超出了单纯抠顶的范畴,而是能对软件工程的每一个环节进行自动化,提升效率。 gm 五点零在超长任务上非常出色,已经达到了能让我放心的交给他连续运行一个小时的程度。横向对比的话,我个人认为 gm 比刚发布的 oppo 四点六弱一点,但在一些方面可以超过 gbt 五点三。 重点是价格便宜非常多,但现在过于热门啊,供不应求,抠钉套餐非常难抢。那我们这个项目呢?虽然现在端到端全部打通了,但最终深层的视频效果还有很大优化空间。点赞到一万,我可以开源出来,让感兴趣的人进一步优化它。

在国产 ai 算力领域,硬件性能的堆叠往往只是入场券,而软硬协调的生态适配才是决定胜负的关键。随着智普 ai 最新一代国模顶流 glm 五的发布,这一抠定能力位居全球开源第一、总榜第四的模型迅速引发了行业热议。 与此同时,摩尔县城宣布其 ai 旗舰级计算卡 m t t s 五零零零实现对 g o m 五的迭零发布及适配,并首次批露了硬件性能参数 f p 八精度下单卡 ai 算力高达一千 t flops, 并提供原声 f p 八支持,在显存容量、互联带宽上也与英伟达 h 一 百对标。 从二零二四年推出至今,这款专为迅推一体设计的全功能 gpu 智算卡不仅在纸面参数上对标国际主流产品,更在智研研究院、硅基流动等头部机构的实战检验中显现出挑战英伟达高端算力的统治力。 摩尔县城究竟做对了什么,使其能够从 g o m 四六一路无缝衔接到 g o m 五,让零时差适配成为国产算力的常态 生态的飞跃? g l m 五迭零适配背后的全站协同此次 g l m 五发布及适配的背后,是摩尔县城软硬协同技术路线的集中爆发。 作为定位 agentient engineering 的 旗舰模型, g l m 五相较上一代性能提升百分之二十,对长系列推理和复杂系统工程能力提出了极高要求。 m t t s 五千凭借充沛的算力储备与对稀疏 attention 的 架构级支持,在大规模上下文处理中依然保持了高吞吐与低延迟, 完美承接了 g o m 五在长城 agent 任务中的计算需求,更关键的是, m u s a。 软件战的敏捷性成为了实现对零适配的胜负手。 基于 m u s a 架构的 t o line 原生蒜子单元测试覆盖率已超过百分之八十,使得绝大多数通用蒜子可直接复用,极大降低了移植成本。 通过高效蒜子融合及框架极致优化, m t t s 五千在 g l m 五的运行中展现了极低的首字延迟和流畅的生成体验,特别是在函数补全、漏洞检测等扣定核心场景中表现优异硬实力的底气。 s 五零零零性能逼近 blackwell m t t s 五千性能的首次全面曝光,结实了国产 g p u 在 架构设计与集群扩展上的成熟度。 作为摩尔现成第四代 m u s a 架构平胡的极大成者, s 五千在单卡规格上能力接近国际一流水平,本期现存宽带高达一六 tb 每秒,卡间互联宽带达到七百八十四 gb 每秒, 单卡 f p 八算力更是飙升至一千 tfloops, 在 显存、卡间互联单卡算力上与英伟达 h 一 百基本一致。 此外, m t t s。 五千对 f p 八到 f p 六四全精度计算的完整支持,特别是硬件级 f p 八 tenor core 的 引入,成为了其性能跃升的核心引擎。 据接近测试项目的行业人士透露, m t t s 五零零零在产品精度层面已超越 h 一 百,技术特性更逼近英伟达下一代 blackwell 架构。来自互联网厂商场景的实测反馈进一步印证了其在算理上的优势。 数据显示,在典型端到端推理及训练任务中, m t t s 五千的性能约为竞品 h 二零的二点五倍。分析指出,这主要得益于其高达一千 t f l ops 的 单卡算理。 在绝大多数计算密集型场景中,该卡不仅能提供更强劲的算力输出,也在整体性价比上展现出显著优势。 基于 s 五零零零构建的夸额万卡集群,其浮点运算能力已达十 x f lops 级别,标志着国产算力在超大规模集群层面迈入了世界前列。 在该集群的实测中, s 五零零零展现了极高的算力利用率, d s 模型训练中 m f u 达百分之六十,某一模型维持在百分之四十左右, flash attention 算力利用率更是超过百分之九十五。 这得益于摩尔县城独创的 ace 技术,该技术通过将复杂的通信任务从计算核心卸载, 实现了物理级的通信计算重叠,从而释放了百分之十五的倍占算力。实测数据显示,从六十四卡扩展至一千零二十四卡,系统始终保持百分之九十以上的限性扩展效率, 这意味着训练速度随算力增加几乎实现了同步倍增,有效训练时间占比超过百分之九十。 顶尖模型训练与推理中的实战中,对标 h 一 零零,他说之外,真实的落地案例是检验算力成色的唯一标准。 摩尔县城 s 五零零零在训练与推理两大核心场景中均交出了令人幸福的答卷。 在训练端,二零二六年一月,智源研究院利用 s 五千千卡级群完成了前沿巨深大脑模型 robo brain 二任务的端到端训练与对齐验证,本是其训练过程与英伟达 h 一 百级群高度重合连损失值的差异仅为百分之零点六二, 这证明了 s 五零零零在复现顶尖大模型训练流程上的精准度与稳定性。用户一托 m u s a。 全站软件平台,能够原声适配 pi、 torch、 megatron、 lm 等主流框架,实现零成本的代码迁移,真正做到了兼容国际主流 c u d a。 生态。 在推理端, s 五零零零的表现同样刷新了国产 gpu 的 记录。二零二五年十二月,摩尔现成联合硅基流动针对 deepseek v 三六七 e b。 满血版进行了深度适配与性能测试。 得益于 s 五千原生 f p 八能力与 s g l m musai 推理引擎的深度优化,在 p d。 分 离的部署中,单卡 prefill 吞吐量超过四千 tokens s, daco 吞吐量超过一千 tokens s。 这一成绩不仅大幅降低了显存占用,更在高并发场景下保证了极低的响应延迟。配合首创的细力度重计算技术, s 五千将开销降至原有的四分之一,全方位提升了系统吞吐量,证明了其作为高性能在线推理服务底座的卓越实力。 从 g l m 四点六、 g l m 四点七到如今的 g l m 五,摩尔现成通过一次次发布即适配的实战,证明了国产全功能 g p u 及 music 软件站已具备极高的成熟度。 这种对前沿模型结构与新特性的快速响应能力,不仅为开发者提供了第一时间触达最新模型的通道,也为行业筑牢了一个坚实易用且具备高度兼容性的国产算力底座。

大家好,最近汇丰的一份报告给狂热的 ai 市场浇了一盆冰水。即便到二零三零年, open ai 的 用户能覆盖全球百分之四十四的成年人,年营收突破两千亿美元, 他依然无法实现盈利,因为算力总成本将达到惊人的一点四万亿。这个数据揭示了一个残酷的真相,大模型可能是一场只有顶级巨头才玩得起的无限游戏。看看刚刚递交招股书的中国版 open ai 智谱 ai, 从爆表看,它的增长的确暴利。 二零二四年营收冲到了三点一二亿人民币,复合增长超百分之一百三十。但在硬币的另一面,是更暴力的燃烧。智普二零二四年调整后亏损二十四点七亿,二零二五年上半年月均烧钱速度超过三个亿。 我们要问一个核心问题,这种靠订阅和私有化部署支撑的商业模式,真的能跑通吗?智普目前百分之八十五的收入来自本地化部署,这在本质上更像是传统的橡木制生意, 为了服务好那八千家机构客户,需要投入大量的工程人员。这种重资产、重人力的模式,在指数级爆发的算力成本面前,显得太慢太沉重了。 作为投资人,我的观点很明确,大模型竞赛的下半场,拼的不是谁的模型更聪明,而是谁的奶牛更强壮。谷歌字节、阿里、腾讯,他们有成熟的生态,有广告、电商、云服务这些源源不断的现金流来供养 ai, 这叫以战养战。 而对于像智普这样的初创企业,如果单纯把大模型作为业务,靠卖 api、 合作私有化,很难弥合巨额算力与研发投入之间的鸿沟。智 普 ai 目前约两百四十三亿人民币的估值, ps 倍数接近八十倍,这在港股历史上都是较为罕见的。它目前的处境非常微妙,论技术,它是国内当之无愧的佼佼者。 论商业,他却陷入了做的越多、亏的越多的规模陷阱。汇丰对 openai 的 预测其实是一个终极预警,如果连 openai 这种全球霸主都难以在二零三零年盈利,那么其他独立大模型公司的机会窗口正在迅速关闭。质朴这次 ipo 本质上是一场带血的突围,是为了在算力成本彻底压垮财务报表之前书写续命。对于普通投资者来说,这不仅是投技术,更是投国运和奇迹。 但对于专业投资人,我们必须冷静审视,在没有生态护城河的情况下,纯模型业务的可持续性究竟还剩多少。

智普 ai 就 要冲刺港股 ai 大 模型低谷了,作为独立通用大模型的龙头,又是最近 ai 赛道最重磅的 ipo 了,那今天就要好好看一下它的技术硬实力,财务风险等等都要扒清,接上招股数据啊。募资是四十三点四八亿港元,总市值五百一十一点五五亿, 少见的呢是中金大哥,采用十八 c 的 规则,最高回拨百分之二十,最关键的是基石投资者占比高达百分之六十八点六三,这里面有谁呢?有北京国资委,泰康人寿、 广发基金这些一众大佬,相当于长线大资金,给你直接兜了快七成的基石啊,这个基石级别在近期的港股 ipo 里面算是顶流了。可能还有人不太了解这个智普到底是干什么的, 我先简单的说一下背景,二零一九年是由清华团队成立的,从二一年到现在累计是融了八轮八十三点六十亿啊,里面有谁呢?红杉,高领、腾讯这些头部的资本都在里面。二五年 b 六轮融资之后,估值就到了两百四十三亿了,比首轮翻了六十三倍,资本认可度是肯定。 再说说它的硬实力是在哪里啊?它的旗舰机座模型 g l m 三千五百五十亿,参数还是开源的,二五年七月的十二项行业精准测试里面啊,全球第三,中国第一啊,开源模型里面也是稳坐中国第一, 而且它的幻觉率是全球第二低,中国最低幻觉率是什么?大家可以自行科普一下,这个在大模型里面绝对是核心竞争力。要知道大家都不想跟 ai 说一些很傻的话, 其实除了基础模型,还有多模态,还有 ai 准,都很能打,有中国首个支持汉日生成的纹身图模型,还拿过行业精准测试的最高分。这个模型呢,能生成四 k 高清视频,还有智能体,智 能自己帮你定 wifi 啊,定酒店。在斯坦福的 a 和 b 测试里面啊,它比 g、 t、 p、 four 的 某些表现还要更好,任务完成率是提高了百分之二十有多。那市场地位也说一下,按二零二四年的收入来算呢,是全国最大的独立通用大模型开发商,所有的开发商里面是排名第二的,市场份额是百分之六点六。 截至二五年的上半年,服务了八千多家机构客户,赋能了八十多万设备,行业渗透率是没得说。接下来就是大家最关心的财务数据啊,老实说,有亮点也有风险,亮点无疑就是收入增长极快啊, 二二年到二四年,收入从五千七百四十一万涨到了三点一亿,复合增长率是百分之一百三十三点三,二五年上半年更是冲到一点九亿,同比增长百分之三百二十五,毛利也是跟着翻倍涨。但是风险也很明显, 就一个字为盈利。而且亏损还在扩大,二十年的净亏损达到二十九点六亿,二五年上半年净亏损二十三点六亿,同比还涨了百分之九十点八。 现金流方面,虽然现金的储备有二十五点八,但是流动性负债高达一百一十七点二亿,流动负债净额有八十二点八亿,目前就是处在一个高度依赖融资输血的过程中,在不同的小细节,他的收入百分之八十四点五都是来自于本地化客户呢,主要是集中在互联网科技领域,占比于 其他的就是公共服务啊,电信这些领域。最后总结一下,智普 ai 明日里面已经带着 ai 了,亮点也很突出,精华技术背景硬,行业地位也领先, 即使阵容又豪华, ai 赛道前景又广,但是风险不能忽视,亏损是扩大的,负债是高的,当前估值是不低的。那大家是如何看待智普 ai 这个标的呢?把它作为港股 ai 大 模型第一股,会不会有点过分?这样做好了。


春节假期将至,目前呢,整个模型大战已经打响了帷幕,智谱的 g i m 二月十一号呢正式发布,这个呢,就是此前神秘的 m l a 法,在 open router 上表现非常的出众,也被大家众筹纷云。总参数呢是七百四十五, b 是 g l m 四点七,两倍域信域,数据呢,达到了二十八万亿的 token, 采用了 deepsea 同款的棋数注意力机制, d i c 和多都可以预测,就 m t p。 那 这个呢,其实就是去年年初的比较稳定的开源框架了,关键突破呢,是扣定于 a 阵能力,达到了开源模型中的苏打真实的编程场景的接近 cloud 四点五,幻觉率呢,历史性低。 多模态的推理能力呢,比如说在学术基础推理编码和 a 阵任务上是大幅超越了 g i m 的 四点七以上版本,接近前沿 的 a 阵任务。这个模型呢,已经是 mit 许可开源了,所以呢,已经可以不说了,我们 我们同事也看了一下,大概一台 h 两百就可以把这个智普的 g m 部署起来,可以替代一些编程领域比较强的一些模型,比如 cloud。 与此同时呢, deepsea v 四呢,也正式的进入了微度上限的阶段,重点优化是编码和超长提示。四,目前呢,它最大的优势呢,就是把上下文窗口呢限制了,百万 token 就 一兆,目前呢,只有币源的模型才提供的,所以呢,它是可以单次处理三 t 三浦区的全 g 六十万的文字,它是一个一万亿参数的 mo e, 这个就很大了,比智普呢还要再大个三分之一。引入了 ingram 条件记忆系统,就 deepsea 关于通过文件系统来储存记忆等方式,它是一个近乎无线上网的加速,它的编码能力均为 well, 超过了百分之九十,支持五十多种语言代码的质量呢,超过了 g p t 五 in cloud 四点五 os。 目前呢,在开源里面呢,可能是跟 g l m 还稍微有一点点差距,推理速度呢,是大幅提升,快了百分之四十,内存减少百分之四十到九十, f p 八的新数量化成本呢,也是大幅下降。所以我想分享一下,就是国产的这波开源的大模型呢,其实是在改革这个行业的发展的一个 趋势的。原来呢,对创业公司来说要交两波税,一波呢是给微软这样显卡的,另外一笔呢,是给模型公司的,那开源模型目前离闭源模型是无限的接近,所以呢,至少对于一些没有特别高的质量要求的场景中呢,是完全可以用开源模型来替代的。当然了,开源模型并表示一定成本会很低,比如说像智普 g l m five 和 deepsea v 四呢,都是非常大的模型 跟退隐,成本其实依然很高,而且很依赖比较好的减存和算计的卡,比如说也是两百。那对于创业公司更好的方式呢,是可以用更小的模型来蒸馏,无论是这些开源大模型还是闭源的大模型,让更小的显卡,比如说五零九零 r t x 六千这种芯片呢,就可以跑起来,这个成本呢,还可以在原来的基础上呢,下降了百分之七八十。 所以呢,当开源模型离闭源模型最接近的时候,其实也是在跃跃欲试,抓住这波增长的机会。

各位关注国产科技的朋友,这条消息必须重点关注。智普 ai 与华为联手,直接在国产算力赛道打出王炸,这波操作是否意味着我们终于能摆脱对英伟达的依赖?结合当下国产算力突围 ai 自主可控的行业热点, 今天一次性说透。不同于以往国产企业的单点突破,这次智普与华为的合作走的是全站自主闭环路线,也是当下国产算力的关键打法。双方联合推出的 g l m image 多模态大模型,完全摆脱海外依赖。硬件基于华为升腾 edge 八百 t a 二芯片 软件依托深思 mind sport 框架,从数据预处理、模型训练到推理部署,每一个环节都是纯国产架构支撑。要知道,此前国内 ai 大 模型研发核心算力几乎被英伟达垄断,即便海外放宽部分芯片限制,核心技术壁垒仍未打破。而这次合作不仅实现了架构自主升腾芯片的算力性能已接近同代英伟达, gpu 空号却降低百分之二十, g l m a m 的 推理成本更是致节压低至行业均值得五分之一,性价比优势直接碾压。再看当下的行业风口,国产算力早已不是孤军奋战,智普与华为的联手更是踩中了行业升级的关键节点。当前国产 g p u 企业加速突围,摩尔县城、木西等纷纷登陆资本市场。二零二五年,国产 g p u 国内市场占比已突 突破百分之三十五,华为升腾更是凭借全站能力成为国产算力底座的核心支撑。英伟达即便放开 h 两百芯片供应,也难以逆转国产算力崛起的趋势,毕竟国产芯片更贴合国内 ai 企业的定制化需求,能 能与智普这样的大模型企业深度协同,实现芯片框架模型的无缝适配,这是海外芯片无法比拟的优势。当然,我们客观来看,目前说彻底告别英伟达依赖仍有差距,但这波合作已经打通了国产算力自主化的核心链路,不仅为国内 ai 企业提供了可复制的方案,更标志着国产算力正是从替代走向超越,未来可期。

我国的大模型赛道又一次加速了。就在最近,智普 ai 正式发布了全新一代大模型,性能、推理能力和多模态能力全面升级。 表面看,这是一次常规技术迭代,但实际上,这是一次对 deepsea 的 正面回应。我们先讲背景。过去一年, deepsea 凭借高性能推理模型和开源策略在全球范围内迅速走红。它的优势非常明确,第一,成本极低。 第二,推理能力强。第三,开源策略让开发者快速拥抱。某种程度上, deepsea 打破了只有超级巨头才能做顶级模型的心理预期。 而智普这次发布的新模型,核心目标只有一个,重新夺回技术话语权。这次升级重点有三个,第一,复杂的推理能力升级,包括常文本的理解、复杂逻辑的拆解、多步骤问题的解决能力。 官方强调在多个公开第一种测试中对标甚至超越部分同类模型。第二,多模态与 agent 能力强化。 什么意思?就是模型不只是回答问题,而是可以拆解任务、调用工具、执行流程。这是从问答模型向执行型智能体转型。第三,商业化部署优化制度,强调成本控制和企业级应用场景适配。 简单说,它不只是实业式模型,而是瞄准政府、金融、制造、企业服务等真实落地场景。那问题来了,这是不是意味着我国大模型进入了全面内卷?是的,而且是高强度竞争。 但这场竞争的本质并不是谁的参数更大,而是三条路线的博弈,第一条,开源生态对商业闭环。第二,推理效率对规模扩张。第三, 低成本模型对综合能力模型 deep sec 更像是一种技术效率革命,把推理成本打下来。而质朴则在走能力全面化路线,强调多模态和 ag 的 能力。从行业角度看, 这种竞争其实是好事。第一,它会压低企业使用 ai 的 成本,它会迫使模型从血迹走向真实生产力。第三,它会加速我国 ai 追赶 转向自主体系建设。但我们也要保持清醒,模型能力的提升不等于并不等于企业自动升级, 真正的风水岭不在模型发布会上,而在企业内部流程改造上。谁能把模型切入真实业务,谁才能是真正的赢家。总结一句话,智能发布新模型不只是技术升级,而是中国大模型进入贴身肉搏 竞争的阶段,标志接下来比拼的不只是算力,而是生态成本和落地能力。 ai 的 下半场已经开始了。

长久以来啊,全球的人工智能的从业者呢,都得对英伟达俯首称臣,为什么呢?因为英伟达手里的库达架构生态如同高墙铁幕,把 ai 的 生态牢牢地掌握在自己的手里。 但是现在,华为联合智普 ai 开源的 glm image 模型,仅仅二十四个小时便登顶 hackinface 全球榜首, 关键是华为用声思 max pro 框架全面代替了库达,这是华为的声思 ai 框架研发的 ai 产品首次登顶全球的 ai 榜单呐。 曾经呢,英伟达的库达铁幕就如同一堵高墙啊,英伟达用了差不多二十年的时间构建了库达完整的框架与生态, 直接或者间接的逼着全球的开发者都得迎着英伟达的芯片和这个生态去转。而国产的 ai 如果想要突破,要么性能打折,要么兼容性差,放在以前,想脱离扩大的生态去训练一个前沿的 ai 模型几乎就是不可能的事情, 结果呢,就是中国前沿 ai 的 市场被英伟达吃掉了几乎全部的份额,而国产的芯片只能当做配角。而现在,华为的声嘶 nintendo 框架就是捅破这道铁幕的内炳大锤,国产的声嘶的 ai 框架配合声腾的硬件,直接在库达的护城河上砸出了一个大。 在华为和智浦的努力下,生丝的框架已经支持了全场景的部署以及大墨镜的训练,而其中的 hyperparador 架构等最新的技术,算力的中率更是能够暴涨百分之十五,训练的性能能够提升百分之二十以上。而 而 g m m emage 的 实际训练的测试就是铁证,训练的性能几乎顶满了设备的上限,验证了国产全站算力在认知型生成模型训练当中的可行性。而更关键的是声嘶曼斯沃尔已经全面的开源,更在全球首次开源了升腾硬件的算子级别的能力, 就让 ai 软件的开发者可以在升腾的框架当中获得比英伟达、库达更高的自由度。比如这次的 g r m 英美指升腾的阿特拉斯八百 t a 二就和升腾 max pro 深度协同。升腾设备通过动态多级流水下发以及多流并行执行,提升了百分之三十的训练性能。 所以国产 ai 框架不是简单的替代,而是用软硬协同的开放生态,让国产 ai 从跟跑变成领跑。 国产 ai 模型的崛起意义远超技术本身。华为的升腾在中国的市场份额已经冲到了百分之二十八,超过了 amd, 再加上政策加持,国产 ai 替代的浪潮未来必将势不可挡。 glm 一 妹子的成功不是偶然,它证明了中国能够掌握前沿的 ai 的 命脉,从芯片到框架再到应用, 全链条国产化已经不是做梦。而以后呢,必将会涌现更多像 g l m 英妹纸这样的国产模型,打破西方的壁垒,让全球的 ai 都能够听到中国创新的最强音。文案的内容来自我们公司自研的科研 ai 微体,科研 ai 微体,打造有价值的自媒体。

先把大模型断网,然后装进电脑里头,然后再卖给企业,这就是有 ai 国家队之称的智普的主要收入来源。智普成立于二零一九年,核心的成员是三位清华背景技术大牛。二零二零年,大洋彼岸的 openai 发布了大名鼎鼎的 chat gpd 三、 chat gpd 的 出现让管理层越来越确定大模型才是未来发展的方向, 所以在公司成立周年之际,管理层决定全力发展大模型。公司成立了六年,融了八轮资,我的老东家高领资本也是股东之一, 公司前前后后总共融了八十三亿人。在最后一轮融资之后,他的投后估值达到了二百四十三亿。针对他二四年的收入,三点一亿人民币来算,差不多他 ps 倍数有八十多倍。这已经不是有点夸 张了,我跟很多投过他们的投资人都很熟,大家看中的除了大模型这个赛道,最主要看中的就是他的代码全部国产自主可控。 这也给智普套上了 ai 国家队的概念。投资人们的共识就是,但凡 ai 大 模型有一家公司能上市,那就是智普。当然了,当它背后站着五十多个投资人的时候,当然也有一点点大而不倒的意思。接下来我将通过列关键词的方式来介绍公司,第一组词组是自主研发 max 百分之八十五跟百分之五十六点三。二零二二年八月,智普的 g r m 幺三零 b 正式发布。国内市面上的很多大模型都是基于其他大模型继续开发的,而智普是少有的全字眼的一群联框架,完全的大模型,代码自主可控, 那现在除了背景瞄正跟红,那这个代码完全自主可控。所以当时投资人们觉得但凡有一家公司以大模型的能力直接提供服务, 而不是通过什么其他具体的应用啊,产品啊、工具啊提供服务。智普也正是因为代码完全自主可控,以及结合了国内对于信息安全的严格要求,很多政府跟企业在使用大模型时强调数据隔离、内网安全 跟合规要求,这些客户也不希望把内部的资料交给外部的 ai 公司去训练使用,甚至提炼出能力再服务给其他人。所以智普也正是赶上了八千多万台安装了自家大模型一体机给 国央企跟各种企业,有超过二百七十万家的公司跟开发者在付费使用他们的产品,所以也是赚的盆满钵满。 具体来看,二零二二年到今年的上半年,他的个人收入分别是五千五百万、一点一亿、二点六亿和一点四亿。今年全年的数字还不知道会怎样,但是从数据上已经能看出很难达到去年翻倍增长的石头 上面,这类收入很重,需要派人去国央企内部补充软硬件,并且根据对方的需求再进行个性化的再加工,很费人力,但有钱干嘛不赚呢?这几年只补这块的收入,占整体收了百分之八十五到九十五,而且毛利率看着还行,这部分的毛利率能达到百分之五十多。 然后咱们再来看看智普接下来想重点发展的业务,就是云端部署业务,不把硬件部署到客户的机房里去,而是让客户通过云端调 api 的 方式来使用,并且通过使用量来付费。今年这块的收入占比已经提上来了,二四年收入四千八百万, 占比百分之十五,二五年上半年收入也有一千九百万,占比也是百分之十五。 ceo 也说了未来希望这第二块业务收入的占比能涨到百分之五十。但这块毛利率的事,大家看看也不容乐观,毛利率是为什么是负的呢?而且从前几年的百分之七十六点一跌到了今年的百分之负零点四,主要是因为现在市场上大魔性太多了, 不少巨头为了卖云资源,大魔仙 a p i 几乎是免费送的,甚至提供免费的迁移服务。也就是说,智普离开了自己熟悉的思域华部署市场,来到了公有云市场,也就是到了跟 deepsea、 open ai、 谷歌震刀震枪比拼能力模型的时候了。 但是这块呢,连 openai 今年上半年毛利率都是浮的,确实很卷好用呢,只能吸引到人来,但是大家用不用还是要看价格,竞争太激烈导致确实收不上来钱,但是用的人少,会导致模型迭代的更慢,一旦模型掉队了,那整个公司就直接出局了。 所以这块也是我看了招股书之后非常担忧的。不,第二个关键词组是最早,智普是国内最早开启 lm 研发的公司,技术积累的很深,而且研发团队很强,能看到公司现在有六百五十七人,是 mini max 的 两倍还多。 目前模型方面的收入是国内第二。第一是谁呢?按照招股书里面的口径是讯飞、阿里、商汤和百度也都在前五名里面。然后咱们说这个次抛是什么意思呢? 就是公司这几年每年前五大客户都不一样,换句话说,也就是从智浦每年买产品最多的前几大客户,每年都是不一样的人。接下来咱们再讲讲这个循环融资跟循环购买这个概念。 就智普呢,会真金白银从其他公司采购算力,其他公司赚了钱,再拿这笔钱去智普去买模型能力,给智普贡献收入。还有的公司呢,会股权投资智普, 智普再拿这个投资款去反向购买两倍到三倍的算力。当然啊,这个情况在硅谷也很常见,英伟达也这么投了,很多公司反过来,这公司再去买英伟达的卡,具体可以看我的其他视频。第三组关键词组是二十五点五亿人民币跟九个月二十五点五亿是智普的现金储备, 按照今年上半年的净亏损,公司账面亏了二十四亿,排出一些股份支付相关的费用,实际亏了十八亿,等于一个月亏了三亿左右。那质补现在现金二十五点五亿也就够他烧九个月的。当然啊,公司在招股说明书上也说了,还有六十亿的授信, 算这六十亿也就是再够他烧二十个月。最后最后一个关键词就是华山一条路质补现在一方面呢,原有的本地化部署的收入在放缓,毛利率也在小幅下降,国外收入的占比才开始提升。然后公司现在还在大力发展云端部署业务 这块的毛利又降到了负处,竞争激烈是不能避免。这个华山一条路指的就是模型能力的提升,哪怕毛利率提不上去,模型能力也不能被拉下。你看,在面对谷歌 jason 三的攻击时,连 open ai 都已经全部集中精力去搞大冒险能力, 他已经把 sora 这些试图发展很猛的应用也都暂时放下了。在这场战役里面,以模型能力为服务的公司,如果模型能力再不吸引人,那就全没了。我是拉斐尔,这是投资人带你看 ai 巨头系列的第二期,咱们下期见。

最近智普 ai 和华为联手开源了国产芯片训练的多模态 s o t a 模型 g l m image, 这件事其实信息量极大,因为它全程没有使用任何,因为的从头到尾就是在华为深腾 x l s 八百 t a r 芯片上训练的,从硬件到软件,全部国产全家桶。今天我们就来讨论一下这个 g l m image。 首先来看这个产品是什么?它是一个务实派的 ai 画师。 g l m image 是 一个纹身图大模型,但它的定位非常独特,它不是之前那种天马行空的艺术家,而是一个严谨务实的视觉内容助手。它的核心能力是生成知识型图像。什么是知识型图像?就是那些需要准确信息、 清晰文字和逻辑结构的图,比如一张文字信息零错误排版、专业的营销海报,一截图文并茂,视意图准确的科普可见。而和国外那些比如 midori、 dali 等主流模型相比,它的不同和优势非常明显。一,它的核心能力不同,它在文字与精度上 单程碾压国外模型,强在艺术创意和视觉经验,但深沉准确文字是它们的一个通病,经常出现 run 码。而 g l m image 的 文字渲染准确率在开源模型中达到了一个极高水准,这是它的一个硬核技术长板。第二就是这个技术路径也不一样,它是混合架构 理解优先,采用了语言模型加扩散模型的混合架构。简单来说,它是先用一个强大的语言大脑深度理解你的复杂指令和其中知识,在驱动会换模块精准执行,这使其在理解复杂任务上优势突出。第三 也是非常重要的一点,就是它的成本优势非常显著。根据官方信息,通过企业 ip 生成一张图片,成本可低至一毛钱。 这种集聚竞争力的成本使其在需要批量生成营销素材、教育内容的商用场景中具备了巨大的落地潜力。总的来说,它没有在谁画的更美的赛道上应聘,而是开辟了谁画的更准、更实用的新赛道,并建立了一个非常坚实的壁垒。而这件事一层更大、更重要的意义在于 去英伟大化。 g l m e 是 在华为深腾芯片上完成了从训练到推理的全流程。这件事对我们 ai 发展的意义远超一个模型本身,它是一次关键的可行性验证 和生态图位,它验证了全站自主的可行性,用事实回答了那个长期的疑问,不用英伟大芯片和扩大生态,我们能否做出一个非常厉害的大模型?答案现在很明显,能,而且 性能达到了一梯队。同时,它也启动了国产 ai 的 生态飞润。过去国产算力面临着不好用、没人用、难优化的 死循环,而它作为一个基于国产全栈技术打造出来的应用,就像一个重磅的样板工程,吸引了开发者和企业关注并加入其底层。生态就越成熟,生态越成熟,就能吸引更多的人。这个正向循环一旦启动,就有了打破垄断的真正可能。所以说, l m image 它不仅仅是一个好用的 ai 画图工具,它还是一份技术自主的证明,一个生态突破的起点,也是一条差异化创新的道路。它告诉我们,在 ai 这场马拉松里,我们现在不仅有能力在既有的赛道上追赶,更有智慧去开辟新的赛道。记得点赞关注哦!

母亲言新出了个模型啊,怎么样?这个模型他说说非常厉害。 jim 五吗?我看看啊,像有的官方说的,他的 humanity last exam exam 评分是比较高的啊,就拿这个评分来说啊啊,其实我们测一下会有很大的问题,你看一下这个屏幕,我看看 我们呃抽取了 horamis 的 mass 数据集,大概是一千多道,然后去测这个质朴清源拿这个呃正比奈,正比奈 flash 作为这个评判遇到一个什么问题呢?我发现他在解答这种数学类的问题的时候,他的思考时间头肯输出了将近两万,也就是说他两万还在思考都没有输出完, 所以说我们这个他根本就测不了,在我们看来,然后即使测的了的话,一次回答的成本大概在呃五毛钱左右,就一个问题大概在五毛钱,而且还两万都没有出答案,所以我们在想会不会是我们的测试出了问题, 于是我们又到了他的这个官方上,就试验了一下啊,现在还在跑是吧?我们这个数据集从呃几分钟之前就开始跑,呃直接停掉,然后我们可以往上拉,一直拉一直拉,就你就说他这个思考过程无限的延长,无限的思考,他虽然这个回复的内容是正确的,但是他貌似陷入了一个死循环的过程。 就是你是让他回答了一个问题是吧?数学问题, melodies 里边的一个数学 max 类别的问题啊,问题其实不复杂,他是一个单选,他有两两种类型,第一是选择题,第二是那个检查题。我们在问给他这个数学问题的时候,问了两道到三道,基本就是无限循环,然后他的费用基本在无限上涨, 所以我们我们也可能比较怀疑像这种评分它虽然很高,有没有可能它的思考过程会非常的长,可能是无限的,也他可能把这个给忽略了,他能思考一个问题,思考五分钟出了一个答案。我们也测了一下,像 jimmy、 nike 这种可能也就几秒钟就出答了,所以它会存在这样一个差异点, 所以说它这个评价体系稍微有点问题。也不算吧,我们后续可能还会对这些整体评价再整体测评一下,至少我们现在现在来看还是跟大家想的差别很大, 太大了。数学问题你要等个十几分钟去给你解出来。那我都做完了,你自己都做完了,哈哈哈,考试都结束了是吧?该交卷了。对,我们也建议在啊,我们建议在回答的时候还是把这种时间这个综合的都考虑进去。
