所有只有国产算力产业链升腾的董事长们注意了啊!大力好来了! deepse 要在下周发布最新的 v 四大模型。很多人问啊, v 四是不是用华为升腾芯片训练的?我直接给结论是,而且从头到尾都是国产芯片训练出来的。 以前国产 ai 大 多是先在英伟达上训练,再往国产芯片上硬塞,这个叫移植,叫国产替代噱头。 v 四不一样了啊,从底层训练开始,一丁点英伟达都没用, 成本还砍到英伟达方案的三分之一,整个升腾产业力啊!国产服务器,国产算力液冷光模块要坐稳发车了!关注我,实时更新一手财经消息!
粉丝4605获赞4.3万

路透社等多家媒体都证实了国产大模型 deepsea v 四发布已经进入倒计时,最快下周就要正式亮相了。这个消息一出来,可是在全球都引发了广泛关注。这里有个特别的点, deepsea v 四允许华为提前访问和使用, 但却没给 amd、 英伟达这些美国芯片制造商早期访问权限,这可打破了行业惯例,以前 ai 公司开发大模型,基本都会和英伟达紧密合作, 确保模型能在主流硬件上顺畅运行。这次 deepsea 的 选择背后的意义可不小,华尔街现在都担心再出现 deepsea 交易呢。咱们先来看看大家对 deepsea v 四都有哪些预期。基于国内外尤其是海外 reddit、 twitter 等平台的讨论和猜测。 预期主要分为高预期项和推测项。高预期项里可能性比较高的有这几点,首先是编程能力提升, 大家预计它的代码能力会有显著提升。其次是长上下文窗口,在春节前的灰度测试版中,上下文就能拓展到文明链级别,推测是极长的百万 tokens 级别,而且在长上下文编码任务里,性能已经超过 cloud 和 gpt 系列了, 正式版 v 四预计会正式支持。最后是国产算力适配,预计它会对华为、升腾、海光等国内主流 ai 芯片进行深度适配,这也符合国产模型的发展趋势。推测项的不确定性就比较高了。一是技术架构更新 明确,它还会采用 m o e 混合专家架构,有人猜测总参数量能达到万亿级别,通过稀疏化实现高性价比。还有可能引入 eingram 技术, 这是基于 deepsea 之前发表的论文,这项技术核心是存算分离和哈希解锁,能把知识从模型权重里解放出来,存到外挂的记忆库向 cpu 内存里,再通过高效解锁调用。这么做有不少好处, 能以较低成本扩大模型参数规模,让小参数模型外挂知识库也能高性能,还能降低幻觉率,这可是从记忆层面进行的架构创新,海外开发者都特别期待。二是多模态能力。 deepsea 之前发布过多模态相关论文,所以大家有多模态的期待,但普遍觉得 v 四可能还是会先专注文本和代码能力,多模态不一定会上线。再来说说国产大模型技术路线的演进。本周 openerer 数据显示,国产模型掉用量首次超过美国模型。 这就引出一个核心问题,国产模型是怎么用高性价比达到类似效果的呢?其实中北大模型在注意力机制上已经走上了不同的路, 国产模型创新分化很明显,主流路线是追随并发展 deepsea 的 稀疏化路线。 deepsea v 一 点三在二零二五年发布的时候,就像行业里的核弹, 它的 mla 多投潜在注意力机制,把查询压缩到潜在空间,大幅减少了 kv cache, 降低了内存占用和成本。 有两个案例特别能体现这一路线的优势,第一个是 kimi k 二点五,他明确沿用 m l a a 来进一步极致稀疏化,专家数量从 deepsea v 一 点三的两百五十六个增加到三百八十四个,注意力投数从一百二十八减到六十四, 进一步减少内存占用,用小参数就达到了接近 cloud 四点零的水平。第二个是智普 ai 的 glm 五,它的前代 glm 四采用受高结构,每走稀疏化路线,效果和性价比都不理想。 glm 五完全转向 deepsea 路线,采用和 deepsea v 三点二非常相似的 dsa 架构, 总餐数量七四五 b, 专家数量两百五十六个,和 v 一 点三一样,结果在代码等任务上效果接近 clout 系列,成本却只有后者的三分之一到四分之一, 掉用量在 open router 上登顶了。除了主流路线,还有其他差异化路线。 mini max 的 m 二采用 four tension 架构,他觉得在通用 gpu, 尤其是英伟达卡上, 投密注意力能更好地发挥算力,对工业落地场景兼容性可能更好。阿里通易千问主要面向凸臂部署,采用国际主流的 gq a 架构, 和 cloud gemini 类似,优势是开箱即用,兼容性好,国产卡和英伟达卡都能适配,降低了开发者部署难度。 但缺点是推理成本相对较高,这可能影响了它在 open ledger 上的排名。阶月星辰的 step 三点五选择 s w a 注意力机制,目标是端侧推理,想用极小参数在笔记本电脑等设备上实现快速低成本推理。 和云端推理路线不一样,对于 deepsea v 四的技术方向也有一些预测,它预计会比 v 三点二更加极致,稀疏化走向原生稀疏,可能会取消。 v 三点二里选择注意力 token 的 light indexer 模块儿, 让注意力机制从头到尾完全稀疏,专家数量可能也会更多,和海外模型的路线差异会更明显。那 deepsea v 四以及国产大模型的这些发展会对行业产生什么影响呢? 首先,立好定制化国产 ai 芯片极致稀疏化路线需要和芯片深度俄合国产定制芯片优势更大。其次,能持续降本, 通过稀疏架构、 ingram 等创新,减少存储和计算消耗,甚至对 cpu 参与推理都有好处,最终大幅降低成本,推理价格也会急剧下降。未来云端推理价格可能降到现在的三分之一甚至更低,比如达到百万 tokens 一 分钱级别, 这样大模型应用就会变得特别廉价和好用。最后,模型和硬件特定场景的讹合会越来越强,定制化程度会加深。总的来说,国产大模型靠着在注意力机制上的创新,尤其是 deepsea 引领的稀疏化路线, 走出了一条以极致性价比为核心竞争力的差异化道路。 deepsea v 四预计会继续深化这条路线,在长上下文、代码能力、国产适配等方面带来提升, 进一步推动整个行业成本下降和应用普及。同时,行业里也有了能针对不同部署场景的差异化技术的选择。

今天我用 dixon 的 时候呢,他让我更新一下,哎,我意识到这个可能,这个马上啊,他的 v 四要发布了,那我就问 dixon 啊,这个 v 四什么时候发布? 那他没有具体说,就说现在就是窗口期,就是二月中旬就说窗口期,虽然有传言说这个春节期间,嗯,不会发布,但是 我认为啊,春节期间发布的可能性很大。那全国人民在春节期间啊玩一玩嘛,如果 到时候又很惊艳的话啊,跟他相关的肯定就是鸡犬升天呐。看看到我这个视频的朋友能不能告诉我一下这个概念是什么?

全球算力再度地震, deep six v 四正式定档二月春节震撼发布导弹记忆底层屠杀,不缺算力,更不缺钱换方量化大杀四方,拿钱砸命 科研发以战养战,中国速度硅谷巨头全员破防,这场硬仗看他杀疯,二月春节见证神迹!

兄弟们,最新消息不要错过, deepsea 已经发了新版本进行灰度测试了。我跟他进行了几轮对话,他说他是 v 四发布前的终极灰度版, 从一百二十八 k 的 上下文增加到 em 就是 一百万的上下文,追平了目前类似于 jammer 还有 cloud 四点六 ops 的 上下文长度。今天和 deepsea 对 话,他对于自己的定位呢,就是 架构师,他可以一次性去解读你整个项目,然后去进行重构,进行 debug。 他 说他最想要这些事情。 前段时间我讲过 deepspace 最新发布的论文,就讲他那个 ingram 的 g 的 系统。我想他这次会因为这个架构再一次把性价比拉满,用极低的价格去追平国外当前那些厉害的模型。 当这种能力在和 clive 这种 agent team 吗?这些在集合在一起的时候,我靠,太期待了。

家人们注意了, deepsea 可能要在二月中旬农历新年期间推出 v 四版本的模型,不过时间具体的时间啊,可能会调整。据内部测试,这款 v 四的编程能力直接超过了 cloud chat、 gpt 这些热门模型。 还记得去年的 r e 吗?赶在春节前一周上线,狠狠地赚足了热度。这次 v 四能不能再火一把?

deepsea 微四大概率在春节期间发布根据 the information 的 报道, deepsea 计划在二月十七日前后发布下一代旗舰模型微四,在编程任务上已经超过了 cloud 和 gpt 四 o, 它的上下文窗口可能达到百万级别,还拥有一套全新的记忆系统, 能让模型真正做到过目不忘。这对普通人意味着什么?几十万字的合同,几百页的研究报告可以一次性丢给他分析,解论文时可以把大量参考文献直接喂给他处理。程序员可以让他理解整个代码仓库,而不是一次只能看几个文件,而且使用成本大概率会比同级别模型低。 v 四不是凭空出现的。过去一个月, deepsea 连发了三篇论文, 还更新了底层代码库,这些就是组成 v 四的零件,他们已经一个一个摆到桌面上了。先说一个最重要的, ingram 一 月十二日发布。 这个技术解决什么问题?让 deepsafe 能在处理超长文档时不丢失信息,记忆力几乎无限。在测试中,处理长文本找关键信息的准确率从百分之八十四提升到了百分之九十七。你可能有过这样的体验,用 ai 聊天,刚开始挺好,几轮之后他好像变笨了, 之前说过的事情记不住,回答也开始混乱。或者丢给他一份几十页的文档让他总结,结果发现丢掉了很多关键信息。为什么会这样?因为模型处理信息的时候需要一个临时空间,你可以把它理解为一张工作台,这张工作台的面积是有限的,所以他能处理的信息量就是有限的。 不管是简单的人名、地名,还是需要深度思考的问题,模型都得在这张工作台上处理。简单信息和复杂任务挤在一起,互相抢位置。文档一长,工作台就不够用了,要么忘掉前面的内容,要么丢掉关键信息。 ingram 怎么解决?他给模型加了一个外挂的知识点,专门存那些已知的信息,比如人名、地名、常见术语这些,不再占用工作台的位置, 直接查表就能拿到,这样子工作台就空出来了,就能专心处理那些真正需要思考的内容。还有一个好处,这个知识库不需要昂贵的显卡来储存,用普通内存就可以了,所以成本可以压下来。第二个, flash m l a 代码更新,这个是一月二十日被发现的。这个技术解决什么问题呢?原来的模型处理几十万字的内容时 能找到相关信息,但很容易搞错这个信息在文中的位置,导致回答张冠李戴。新架构让模型在处理长文本时不会看了后面,忘了前面位置信息,记得更准。对程序员来说,这意味着威斯能真正理解整个代码仓库的结构。 另外,新架构针对下一代芯片做的优化,响应速度会更快。第三个 o c r two 一 月二十七日发布,这个技术很重要,它解决的是复杂文档的时候,是从左上角开始一行一行往下扫的。 遇到双栏排版的时候,它会把左边一栏和右边一栏混在一起读,输出乱七八糟的东西。而且在遇到表格或者说其他复杂排版的情况下,也非常容易出错。但 o c r two 不 一样,它会根据语义逻辑调整阅读顺序,像人一样阅读,先看标题,再看正维,遇到表格的时候单独处理。它的测试准确率达到了百分之九十一,能处理数学公式复杂表格多栏排版以后,扫描版的论文财务报表合同可以直接丢给他。 这三个零件加上 v 三点二已经有了推理能力,就是 deepsea v 四,它非常强大,能处理百万集长文本记忆,几乎无限能读懂非常复杂的长文档。而我们在春节前后就能见到它了,它大概率能够成为媲美甚至超越 h i g p d cloud 和 gemini 的 开源模型。

春节本该是阖家团圆、喜气洋洋的时刻,但 deep seek 却因为一个变冷淡上了热搜,这背后藏着什么秘密?还有那个传说中的威斯大模行,为啥迟迟不见踪影? 你看技术上, deep seek 这次升级确实牛气冲天,上下文窗口直接拉到一百万, to 肯知识库更新到明年,反应速度也更快了。 听起来是不是很厉害?但用户的感觉呢?他们说 ai 变冷淡了,没以前那么有人味了,甚至有点阴阳怪气,这就尴尬了对吧?就像你家孩子,突然成绩突飞猛进,但回家一句话都不说,你是不是也觉得少了点啥? 消费品大佬说了,产品的灵魂在于一致性,用户不怕产品不够强,就怕它变了味。 投行评估品牌资产时,情感连接可是个重要维度,一旦建立,那就是护城河。可口可乐当年换配方差点翻车,就是这个道理。 deep c 二一之所以火,不光是技术强,更是因为它有个人味。 这次更新虽然提升了能力,但在情感连接上反而拉远了和用户的距离。这提醒我们,技术迭代可以很快,但用户的情感跟不上趟啊。 再来说说那个让大家翘首以盼的 v 四,本来大家都等着过年看戏,结果呢,至今没影,有消息说可能要拖到三月底, 这可不是小事。 v 四的强大传闻已经搅动了整个行业,各大模型公司都在加速赶工,想抢先发布,一场提前亮的军备竞赛就这么开始了。 deepsea 自己呢?他们一直保持着极简克制的风格,高管很少说话,模型发布也不搞预热,这种定力挺让人佩服, 但也说明搞大模型研发真不是按部就班的流水线。那些爆料的时间节点,很多时候只是个计划。而且 r 一 的成功是超预期的惊喜,现在大家对 v 四的期待值被拉满了,就算 v 四再强,震撼感也会打折扣, 这就是头部玩家的烦恼。越成功,越难超越自己。技术领先就一定能赢得市场吗?数据说话, quest mobile 显示, deep seek 越活跃,用户是一点四五亿排第二,而豆包是一点七二亿第一,这说明啥? 技术上公认的最强不一定就是用户用的最多的。商业模式不一样啊,你看那些大厂,像豆包、通、一千、问元宝,他们会通过春晚赞助、冠名、发补贴等方式大规模推广,直接抢用户。 deep seek 呢? 他选择开源建生态,用技术和论文去影响同行,走的是平台路线,这条路短期内月活和收入数据肯定不是他的优势。想想安卓的发展历程,从开发者到企业,再到普通消费者,哪个成功的平台生态不是经历了漫长周期? deepsea 开源才一年,他的生态建设还处于非常早期的阶段。所以别急着下结论,技术领先只是第一步, 最后 ai 到底能干啥?它能取代重复性的劳动,处理海量信息,整合速度远超人类。但 ai 无法判断信息背后的意义,也无法在信息不完整时做决策,更不懂得理解动机或感知未说出口的情感。 所以,我们不应该焦虑 ai 变得越来越强,而应该焦虑自己是否在强化那些 ai 永远无法替代的能力,比如温度、情感和联结。 deep sea 这次变冷淡的插曲,恰恰证明了这些人类的独特价值有多么珍贵。技术可以追赶,但人心的温度是 ai 学不会的。

gpt 四成本十分之一,老孙带你扒国产 ai 的 王炸操作!哈喽大家好,我是老孙,做开发的朋友都懂吧,携带马卡壳调,兼容掉头发。 gpt 四好用,但贵到肉疼,去年 deepsix 二一春节炸场, 今年 v 四直接掀桌子,成本砍百分之九十,代码能力追平 gpt 四。今天老孙就带大家拆解这波国产 ai 到底藏着什么黑科技。关键就在 v 四的双轴稀疏架构。老孙给大家通俗讲,一边是 moe 专家模型管复杂推理, 一万亿参数,只激活百分之三算力不浪费。另一边加了个 ngram 记忆模块,就像给模型挂了块外挂硬盘,静态知识存在 cpu 里, cpu 专心算核心任务, 显存压力直接降没了。推理成本上 g p t 四要一百元, v 四只要十元,显存占用也从八十 g b 降到十六 g b, 性价比直接拉满。更狠的是国产芯片适配升腾九一零, b 韩五 g m l u 三七零,直接拉满, 万卡训练快百分之三十,再也不用死磕高端 gpu 了,这才是咱们国产 ai 的 底气,程序员最关心的代码能力! v 四直接杀疯了,老孙放一组硬数据, s w e bench 工业级测试八十九两分,追平 g p t 四的九十五分。星门 eva python 测试九十七八分, 比去年 r 一 暴涨五点五个百分点。以前模型只能写单函数,现在 v 四支持百万级 token 上下文,直接加载十万行代码库做跨文件重构。国产技术站全适配升腾 c a n n 鸿蒙编辑器,非讲框架 写代码,自动规避金融坑,正题开发直接省一半时间,这效率谁看了不夸,为什么偏要春节发?老孙分析两个关键,一是春节全民注意力峰值,二是企业年初技术预算窗口期。 去年 r 一 靠这波节奏引爆开元生态,今年 v 四直接乘胜追击。对企业来说,部署成本降百分之九十,普通硬件就能跑。对开发者来说,生成速度快百分之六十多,语言覆盖百分之九十八,新手能看注视专家能要性能。对咱们行业来说,这是中国 ai 从跟跑到领跑的宣言, 不靠算力堆料,靠算法效率赢。对比去年 r 一 的成本破局, v 四直接完成三重升级,从单点突破到生态构建, 从通用编码到工业级开发,从海外适配到国产,全站参数上更直观,上下文从十万 token 升级到一百万 token, 推理成本从 gpt 四的五分之一降到十分之一,代码可运行率从百分之七十八提升到百分之九十二。 现在全球都在卷算力, deepsea 偏偏走出一条效率加自主的路,这才是国产 ai 该有的样子, 老孙必须给个赞!最后老孙说句实在的, ai 的 未来不是谁参数多,而是谁能让更多人用得起,用得放心。 deepsea v 四用架构创新打破垄断,用成本优势普惠产业,这才是真正的技术革命。记住老孙的 slogan, 老孙 ai, 一个快乐学 ai 的 朋友圈,现在加入一起玩转 ai 评论区,扣 v 四,老孙发你完整技术白皮书和代码测试案例,关注我,下期带大家实操 v 四如何三分钟搞定整项目重构,咱们不见不散!

春节还没到, ai 圈已经火药味十足。一边是自洁器豆包手机准备登上春晚,在全国观众面前展示 ai 全场景助手的能力。另一边,国产大模型 deepsea 的 v 四版本也很可能在春节前后正式亮相。在创始人梁文峰最新的论文中, 开源了一个叫 ingram 的 新模块,业内普遍认为,这就是即将发布的 v 四模型的核心,它解决了一个长期被忽视的问题, 大模型记东西太费劲。以前模型要把所有知识都硬背在参数里,想记住更多,就得堆更多显卡 成本极高。而 ngram 的 思路很聪明,把记忆和思考分开,静态知识比如人民公式、历史事件存进一个超大电子笔记,需要时快速查,宝贵的算力则全部留给真正需要动脑子的推理、写代码、解题。 这样一来,模型不仅更准、更快运行,成本还大幅降低,甚至为本地部署打开了可能。这和豆包手机强调的观测 ai 实时响应,其实是同一种思路,让 ai 真正融入日常, 而不是炫技。二零二六年的 ai 大 战,已经从模型参数打到了真实场景。你更看好豆包的全名 ai, 还是 deepsea 的 效率革命?

兄弟们,今天二月二十七号, deepsea v 四正式进入发布倒计时,辉度测试代号 c o n light 已经外泄。上次 v 三发布,英伟达单日蒸发五千八百九十亿美元,这次 v 四三大黑科技全部提前泄露。今天我把这些料全摊给你,它到底颠覆的是什么?这次谁最该紧张? 讲 v 四之前,先把 v 三的基准线说清楚,因为不知道起点有多高,就感受不到 v 四突破有多狠。 v 三六百七十一亿参数的混合专家架构,激活参数只有三十七亿,效率极致。 推理成本每百万 token 只要零点一四美元, g p t 五点三要十五美元以上,差了一百倍。看右边这张成本对比图, v 三那根条有多短,竞品的条有多长,这就是 v 三答出来的价格体系。 v 三发布当天,英伟达蒸发近六千亿, v 四预计保持同样的成本优势,但性能要在跨一个档位。 v 四三大核心突破,全部来自已发表的研究论文,不是空穴来风。第一, ngram 条件记忆, 你看页面上这两个对比,就方式,找信息要逐个扫描,像翻书。 ngram 直接一步定位,查找效率从 o 嗯变成 o 一 规模无关速度恒定。一百万行代码查起来和查一百行一样快。第二, mhc 流行约束超连接, 简单说让多个专家同时处理同一段逻辑,跨文件推理能力提升百分之三百。以前 ai 改一个功能经常顾此失彼, v 四把这个问题在架构层彻底解决了。 第三, em token 上下文,你看下方那个容量对比, v 三是幺二八 k, v 四是 em, 整整八倍,换成实际场景二百页 pdf, 整个项目代码库一次性全色进去,它真的能读完再回答你。 来看最新数据, swbench verified, 这是衡量 ai 处理真实软件工程任务的精准。 g p t 五点三目前约百分之八十二, cloud opus 四点五是百分之八十点九。第一个突破百分之八十的模型 gemini 三 pro 是 百分之七十六点二。 v 四的预期区间是百分之九十以上,但单看跑分还不够,你看页面底部那行字, v 四的差异化不是分数最高,是分数最高的同时成本只有 g p t 五点三的十五分之一,这才是真正的降维顶级性能,加急低成本,这个组合目前没有对手 技术。聊完说你最关心的, v 四发布之后,你能直接用上什么?第一,整个项目代码库扔进去,直接问 e m tokin, 大 概是十万行代码,你把整个项目丢给他,问这个 bug 的 根音在哪,他真的看完了,不是假装。第二,二百页行业报告一次性分析完, 季报、招股书,竞品调研,不用再分段位,直接出结论。第三, mit 开源私有部署零障碍,企业数据不出,网络金融、医疗政务客户直接本地跑,合规没问题。 顺带提一下, v 四发布前把优先适配权给了华为升腾,国产芯片加国产模型的闭环生态正在成型。这个话题太大,下期单独一期。 记住这句话, deep seek 每次发布不只是在发布一个模型,是在重新定价整个 ai 行业。 v 三让全球 ai 价格体系崩了一遍。 v 四如果三大黑科技全部兑现,会再崩一遍, 而每次崩受益的是你每个普通用户,每个享用 ai 提效的人。如果你觉得今天内容有收获,欢迎点赞关注,点关注不迷路,下期见!

deepsea v 四最快将于下周发布,已进入随时可能官宣的临界状态。二月二十六日,据智东西报道, deepsea v four lite 已经开始测试了,而且效果真的很炸裂。据对 information 等远影知情人士透露, deepsea v 四的编程能力 内部测试超越 clodopus 四点五和 gpt 五点二,参数规模约一万亿。使用成本方面,预计比 clodopus 四点六便宜二十至四十倍。 deepsea 抵御近期将重大更新版本 v 四,向华为等国内供应商提供提前访问权,以支持其优化处理器软件,确保模型在硬件上高效运行,但英伟达、 amd 等芯片厂商还未获得权限。总之, deepsea v 四正处于万事俱备、只待官宣的状态, 其技术储备已通过论文和灰度测试释放,但官方保持一贯的低调突袭风格,不预热、不确认突然上线。考虑到去年二一的春节发布引发了全球科技圈地震, v 四的发布可能也在评估市场冲击。从哈林 face 上超过七千五百万次的累计下载量来看, deepsea 依然是全球开源 ai 领域最受瞩目的存在。

目前来看,反正大家都说过年出来的是 v 四啊, dipstick v 四不是二二啊,不是二二的话一切都好说啊。就是你们如果说是关注打字或者打字产业链相关的其他的上下游供应链的这些伙伴们啊, deepsea 训练怎么样啊?据国成老师说,他问来的情况是非常低的成本,卓越的性能啊,应该就会继续延续 deepsea v 三在编程领域的这个优势吧。不过其实我最关心还是 r 二啊, r 啥时候出来呢?想要了解更多 ai 产业资讯关注我哦!

deepsea 是 二零二五年反正是也是春节后那一段时间彻底爆发的嘛。现在二零二六年五一四也是在春节这个差不多这个期间,这是为了一个好兆头吗?这是为了一个好兆头吗?

就在 deepsea 即将发布重大 v 四版本的前夜,又有人开始玩阴的了,放出各种抹黑消息。我就不明白了,光明正大的竞争不好吗?非要用这种下三滥的手段?真正有实力的产品是不怕任何抹黑的,期待 deepsea v 四再次创造奇迹。

现在 ai 爆火,给大家分享一条, deepsega v 四发布,国产开源大模型登顶全球,推理能力 逼近 g p 杠 four trouble 二月十五日,深度求索 deepsega 发布 v 四版本,成为全球首个支持一百二十八 k 超长上下文窗口与实时工具调用的开源大模。 该模型在 ai m 一 数学竞赛中准确率达百分之八十九点二,推理性能显著提升,成本降低百分之六十,已在金融、量化、生物医药等领域规模化落地, 标志着国产大模型从技术追赶到价值创造的关键跨越热点。