你最近有没有关注科技圈的新闻啊?我昨天刷到一篇博恩斯坦的言报,标题直接就问英伟达能不能跟上 groot, 这可太有意思了。对,我也看到了这篇报告,确实挺震撼的,毕竟英伟达在 ai 芯片领域一直是霸主级别的存在,突然冒出个 groot 说要挑战他,这事肯定得好好聊聊。 没错,那咱们今天就来拆解一下这篇研报。首先得搞清楚这个 grog 到底是何方神圣啊,它凭什么能让博恩斯坦这种顶尖投行都觉得它能挑战英伟达呢? 这个问题问得好,其实 grog 是 一家新兴的 ai 芯片公司,它最厉害的地方在于它的技术架构。你知道吗?它用的是张量流处理器,也就是 tpu 架构,这种架构在 ai 模型训练和推理的时候,计算效率特别高,能耗还低。 哦,原来是这样,那英伟达呢?他不是一直用 gpu 架构吗?难道 gpu 在 ai 任务上不如 tpu? 也不能这么说,英伟达的 gpu 在 图形处理和通用计算方面确实很强,但在 ai 模型训练和推理这种特定任务上, tpu 可能更有优势。就像伯恩斯坦说的, grok 的 架构在效率和能耗方面可能比英伟达的 gpu 更胜一筹。 那这么说, grok 的 产品已经开始被客户认可了?我听说它已经被一些大公司和研究机构采用了。 对,你消息挺灵通啊, grok 的 产品确实已经有不少客户了,而且这些客户对它的评价还挺高的,他们觉得 grok 的 产品性能好,效率高,愿意继续用下去,甚至还会推荐给别人,这说明 grok 在 市场上已经开始站稳脚跟了。 那英伟达这边呢?他难道就坐视不管吗?博恩斯坦有没有给英伟达什么建议?当然有啊,博恩斯坦说,英伟达得赶紧创新,提升自己的竞争力,比如研发新的技术架构,或者优化现有的产品,让自己在 ai 任务上的效率和能耗也能跟上 grog。 另外,英伟达还得加强和客户的合作,了解他们的需求,提供更个性化的解决方案。嗯,这些建议确实挺重肯的,毕竟在科技行业不进则退嘛。那从投资的角度来看,这对我们有什么启示呢? 这个问题很关键。伯恩斯坦的研报其实是在提醒投资者,要密切关注英伟达和 grok 的 竞争态势,毕竟这两家公司的技术创新和产品发展直接关系到 ai 芯片市场的格局,而且我们也得关注整个 ai 芯片市场的发展趋势,这样才能做出更明智的投资决策。 对,投资就是要看的远一点。那你觉得英伟达这次能不能扛住 grog 的 挑战呢?这个还真不好说,英伟达毕竟是行业老大,有深厚的技术积累和客户基础,但 grog 作为后起之秀,确实有自己的优势。我觉得关键还是看英伟达能不能快速调整策略,推出更有竞争力的产品。 嗯,有道理。那咱们今天聊了这么多,你能不能总结一下这篇研报的核心观点?好的,简单来说,博恩斯坦的研报主要讲了三点, 第一, grok 用 tpu 架构挑战英伟达的 gpu 架构,在 ai 任务上有优势。第二, grok 的 产品已经被客户认可,市场份额在增加。第三,英伟达需要创新和提升竞争力来应对挑战。总结得很到位。那最后你还有什么想对听众说的吗? 我觉得大家平时可以多看看外资研报,比如博恩斯坦、高盛这些,他们的视角比较国际化,能让我们提前看到一些趋势。毕竟在投资市场上,提前看懂趋势,才能抓住机会,做出更明智的选择。 没错,这话说的太对了。好了,今天的播课就到这里了,感谢大家的收听,咱们下期见。下期见!
粉丝7392获赞1.2万

英伟达刚刚宣布啊,花两百亿美元通过一份非独家的技术许可协议,便想吞下 ai 芯片的初创公司 crock。 这是英伟达有史以来金额最高的一笔准并购的投资。那么问题马上又来了,一个估值六十九亿美元的初创公司,凭什么让黄仁勋英伟达 溢价三倍也要去买下来?那 rock 又是谁呢?我们先快速的聊一下这家公司啊,二零一六年成立的,创始人叫做 johnson, 如果你不是长期在美国的投资圈和科技圈的话,这个名字你可能不是很熟,但你一定听过他之前干过的事情,他是谷歌的前工程师,也是谷歌 tpu 芯片的核心设计者之一。但 rock 呢?他不是做 gpu, 也不是做 tpu, 而是做 lpu language processing unit 语言处理单元。那这个是专门为 ai 推理而生的芯片,它从一开始就是冲着绕开英文打去做的,也就是绕开 gpu 去的。 lpu 直接放弃了 gpu 要用的 hbm, 改用 sram 静态随机存储器。这个东西是贵的离谱,但是速度是极快。在推理的场景下, grog cloud 它自己的平台的速度啊,通常比传统 gpu 语音服务器快十倍以上。那正是因为这个条件和原因, rock 的 商业化呢,就早早跑通了。它预计二零二五年 营收接近五亿美元,其中一个关键来源就是和沙特阿拉伯的大型 ai 基建合同。那 grog 的 lpu 是 沙特愿景二零三零计划的重要一环,到这一步,你再回头去看,两百亿美元还贵吗? 其实更应该要去看的一个是,为什么英伟大愿意现在一定要出手,你站在老黄的位置去想一秒,如果 grog 继续单独存在,推力,市场会不会诞生一个不需要英伟大的新标准呢? 答案如果是有可能,那这家公司就必须要被英文答案按住。其实资本早就嗅到了这个味道,我跟大家讲一下这个过程。 rock 从成立到二零二一年的 c 轮融资一直是很低调的,节奏也是很慢的。到了二零二四年的低轮估值二十八亿美元,这个时候,两个信号同时出现了。第一个就是 l p u 在推理场景下确实比 gpu 更有优势,而且开始被大量的人看到了。第二就是资本开始意识到,这条路啊,它不是个概念,不是 ppt 画笔,是能规模化落地的路径。所以你在 c 轮的这个阵容里面,就能看到出现了黑石、三星和斯柯的名字。再往后就更夸张了, 到了二零二五年的七点五亿美元融资,估值是涨到了六十九亿美元。这轮前来的是又快又猛,连路伯曼这样的长期和偏稳定的华尔街大资金都占到了 groc 这边,那这个背后就释放出一个重要的信号啊,大家意识到,推理算力正在成为 ai 市场的定价杠杆。 groc 呢,是被看成了 gpu 之外的第二条主路径,只要 gpu 还在,那些嫌因为大家贵,嫌工号高的厂商们 就一定会心动的。所以这两百亿本质上不是去买增长,而是买一个不要发生的未来。所以再回头来看这笔交易,哎,你是不是觉得逻辑就非常清楚了?不过你可能还会问,为什么 英伟达没有直接用两百亿把 grog 整家公司给吞掉,而是要用一种技术许可的形式呢?其实不是因为英伟达不想,而是这个时间节点他可能不能。据我所知,接触 grog 的 公司不止英伟达一家,而且反垄断的风险对于英伟达来说也是存在的。 于是呢,老黄就换了一种做法,核心技术授权,通过这种方式把这个技术呢全拿走,核心团队呢,也可以整体收编,创始人呢,直接入职英伟达了。 rock 的 壳还是在的,但人都已经坐到了英伟达的办公室里,那这件事呢,对普通人意味着什么?如果你是在看 ai 推理芯片类似这样的故事的公司和赛道,那你就得非常小心了,因为不管你是在大洋彼岸的市场,还是在这边的市场,原先支撑这些公司有想象力空间的这个估值,也就是它的那条差异化的路径,现在已经被英伟大掐住了。如果你是企业用户的话,对吧? 你换个阶段,你去想,你会去等什么廉价的平替吗?未来两年的算你的账单,大概率还是要老黄去做主,殷伟达做主导。所以结尾我想问一下大家,你觉得殷伟达会成为一家十万亿美元的公司吗?

欢迎收听歪哥 ai 研究院的每日 ai 日报。今天是二零二五年十二月三十日周二,我们专为 ai 开发者、从业者和创业者浓缩今日行业重要动态,帮你快速抓住关键信息。 没错,今天我们从产业并购、模型技术、产品应用、国产突破到行业观点,一共五个主题,带你看透 ai 圈今天发生了什么大事。 先说个劲爆了,英伟达两百亿美元收购 grog 员工,人均拿到五百万美元,这也太好了吧!对英伟达支付了近三倍溢价,约百分之九十的 grog 员工将加入英伟达。按期权持算,人均能拿四百到六百万美元,以归属的现金对付未归属的,折算成英伟达股票。 这种反向人才收购是什么操作?就是资产收购加人才招募的组合权。现在已经成为硅谷 ai 生态的新常态了,之前 inflexion ai、 character、 dot ai 都是这么被收购的,说明 ai 人才争夺战已经白热化。 另外,谷歌母公司也花四十七点五亿美元收购了清洁能源公司 intersectower, 为 ai 数据中心备足电力,预计二零二七年竣工。歪哥刚才说的收购挺震撼的,那技术层面呢?最近有什么突破吗? 有啊,今天国产模型技术可以说是全面开花。先说揭月星辰的 step d research 三二 b 参数的模型深度研究能力,直接对标 open ai 的 o 三 mini 和 gemini 二点零 flash, 但成本呢?单次调用不到五毛钱,只有竞品的十分之一。 这么便宜,怎么做到的?他们用了三阶段训练,管线中间训练、监督微调,强化学习,围绕规划分解、深度搜索、反思、验证、报告转载四大能力构建数据,在 research rubrics 测试中得分六十一点四二,超越 open a i d。 research 跟 gemini 基本持平。 那国产 gpu 呢?我记得生态兼容一直是个大问题。木兮这次真的厉害,他们的 maca 三点三点零版本测试了 github 上四千四百九十个酷 day 项目, 百分之九十二点九四可以直接跑完成。 padwatch 二点八深度适配覆盖全部两千六百五十个核心算子,千卡级群训练限性度稳定在百分之九十五以上,算力自主加生态兼容,两手都硬。还有 excel 三六零那个全景深度模型也挺牛的吧。 对 dap 模型,在两百万量级数据上训练,采用 diy 三 large 骨干和距离自适应分支,在 stanford 二 d、 三 d、 matterport 三 d 等多项零样本测试中刷新记录,可以为机器人导航、自动驾驶、 vr a 二提供精准深度感知。 今天这三个技术突破都是实打实的硬核创新。歪哥刚才聊的是模型技术,现在 ai 应用这块也有大动作吧? 对,今天好几个重磅应用扎堆上线。京东低调推出了京东 ai 购即外卖点单商品导购 ai 试穿三合一,底层用的是自研颜汐大模型。 ai 试穿,这个怎么玩? 上传你的照片就能生成试穿效果图。关键是交互方式变了,不用搜商品吗?直接说需求,比如我想要件适合约会的衬衫, ai 就 给你推荐,这确实方便。腾讯元宝那边呢? 元宝上线了任务功能,可以给 ai 布置定时任务,让他主动提醒和推送信息,这是从被动响应到主动服务的转变,更像个贴心管家了。还有快看漫画那个 ai 互动,听说数据很猛? 没错,快看漫画二点零推出 ai 陪伴互动,漫画用户可以魂穿进漫画世界,跟角色实时对话,甚至改写剧情,角色自带完整人设,集成了腾讯云、 deepsea、 豆包通、一千万等多加 ai 能力,测试阶段,周付费率直接提升了近三倍 三倍,这说明用户真的愿意为这种深度互动买单啊。对, ai 应用正在从工具变成陪伴和服务,这是个很明显的趋势。外哥刚才聊的都是应用层面的,那咱们国产技术底层有啥突破吗? 今天国产 ai 可是放了三个大招。先说揭月星辰的 step deep research 用三十二 b 参数就能媲美 open ai o 三 mini 的 深度研究能力,关键是成本不到零点五元一次,只有竞品的十分之一,在 research rubrix 测试里得分六十一点四二,直接超越 open ai deep research, 这性价比也太高了吧?那 gpu 方面呢?木兮这次更狠,他们的 maca 三点三点零测试了, get up 上四千四百九十个裤带项目,百分之九十二点九四可以直接跑 完成 pi torch 二点八深度适配覆盖全部两千六百五十个核心算子千卡及群训练,现性度稳定在百分之九十五以上,真正做到了算力自主加生态兼容,这适配率确实厉害。还有第三个是啥? 英特斯塔三六零联合多所高校推出的 dap 全景深度模型,在两百万量级数据上训练统一了室内外场景,在 stanford 二 d、 三 d、 metaport 三 d 等多项零样本测试中都刷新了记录,能为机器人导航、自动驾驶、 vr 二提供精准的深度感知。 国产技术这波真是全面开花啊,从模型到 gpu 到视觉感知都有突破,怪得。最后咱们聊聊行业格局吧。我看到吴恩达说中国开源模型发布量已经超美国了。 对,而且他还特别强调,很多人用 i 兼替 ai 的 方式是错的,不应该让 ai 一 口气完成任务,而是要迭代式工作流,先写大纲做研究,专写出稿再修改。那机器人领域呢?我看英伟达 jimmy 的 年度复盘挺扎心的。 是啊,他说机器人领域还是焦头烂额,硬件可能性问题严重,拖累迭代速度,每天都要应对过热电机损坏,而且缺乏统一精准测试标准,每个团队都在自己定义的,基本上宣称 s o t a。 他 还认为基于 vm 的 vr 路线感觉不对,视频世界模型可能是更好的预训练目标。 不过的 information 的 分析显示,九大 ai 巨头都在布局机器人技术了,从拼模型转向拼生态。没错,谷歌综合实力最强, nfl 签了两百亿美元 tpu 芯片订单, mate 在 找谷歌 tpu, openai 跟亚马逊签了三百八十亿美元服务器协议。这些巨头之间的联盟关系比以往更紧密, 形成了错综复杂的相互依存网络。所以二零二五年真的是 ai 产业进入深水区的一年。中美算力、算法对立家具,但中国凭借场景优势和供应链能力在定义工业五点零 对,而且二零二五年被称为智能体元年, ai 正在向任务拆解与执行能力转型,创业门槛降低,二零二六年可能迎来新一轮创业高潮。 总结一下今天的内容,从 grog 被英伟达收购,到国产 ai 的 技术突破,再到行业格局的重塑,我们看到 ai 行业正在从技术竞赛转向生态竞争,从模型能力转向应用落地。 是的,对于 ai 开发者和创业者来说,现在是最好的时代,技术门槛在降低,但真正的机会在于找到合适的场景,用对的方式去应用 ai。 记住吴文达的话,懂编程的人效率会高的多,不要听信不用学编程的建议。 如果觉得今天的分享对你有帮助,别忘了点赞、关注、转发,一箭三连哦!你的支持就是歪哥继续更新的最大动力,也欢迎私信我,聊聊你最想聚合哪类 ai 信息,我来给你定制日报内容。感谢大家收听今天的歪哥 ai 研究院每日 ai 日报,我们明天见!

在 ai 芯片领域,市场长期存在一个误判,外界总认为只要谷歌的 tpu 仍在,英伟达就始终面临一个体系级对手。而 英伟达近期两百亿美元级别拿下 grok tpu 支付的动作,彻底揭开了其真实战略。这绝非简单的买团队、买技术, 而是对未来算力秩序的提前掌控,把这一系列动作串联起来,审视一个清晰的趋势愈发明确。欢迎收看本期的星情弦论这期节目,我们来看看 t p u 这条技术路线是如何正在被英伟达从根基上逐步拆解。这并非正面的碾压式击败,而是一场悄无声息的蚕食。 一、 t p u 的 诞生,从一开始就不是为了对抗英伟达,一个常被忽略的核心事实是, t p u 的 诞生目标从未指向商业市场的竞争, 是谷歌为解决自身痛点而生的内部器官,核心使命是降低自家 ai 模型的推理成本,提升内部部署效率。 t p u 的 成功必须建立在三个前置条件之上,模型是谷歌自研的,部署在谷歌自有数据中心,服务于谷歌自身的业务生态。这就注定了 t p u 的 优势仅限于谷歌体系内的最优解, 非能引领行业的通用标准。而英伟达从入局 ai 芯片的第一天起,就走上了一条与谷歌完全相反的道路,它的核心并非制造芯片,而是构建标准,酷的架构、庞大的开发者生态、完善的软件站、清晰的硬件路线图,这些要素层层叠加,构建起一道 tpu 永远无法跨越的壁垒。 二、真正的威胁,懂 tpu 的 人成了英伟达的人, tpu 真正的核心竞争力从来不在芯片硬件本身,而在其背后独树一格的设计哲学。极度确定性的计算路径,专为推理优化的指令调度,用硬件复杂度替代软件复杂度,这套逻辑与 gpu 通用并行计算的核心思路,堪称两条经纬分明的技术路线。 而 grock 的 出现,让 t p u 的 核心逻辑实现了外溢。 grock 创始人 johnson ross 本就是谷歌 t p u 的 核心设计者之一,他创办的 grock 所研发的 l p u language processing unit, 本质上是把语言模型的推理路径做成一条极度确定性的高速公路,没有复杂调度,没有多余指令,几乎没有浪费,完美延续了 tpu 推理快、延迟低、能耗小的核心目标,也是 tpu 设计思想的商业化延伸。更关键的是, ai 世界正在从训练为王快速走向推理为王。实时对话、 api 调用、 a 阵的交互、 多膜态响应等场景对推理效率的要求愈发严苛,而这正是 l p u、 t p u 这类专用芯片的优势领域。英伟达对此趋势看得较为清楚,这也催生了它的核心焦虑,推理场景不需要 g p u 的 通用性,只需极致效率, 这正是 t p u grac 及各类定制 a s i c 的 生存土壤。若未来百分之六十到百分之七十的算力需求来自推理,且专用芯片被证明更优, g p u 的 护城河便不再稳固。 因此,英伟达此次的关键动作并非收购 guarck 产品,也不是自己做 lpu, 而是完成了一次更具决定性的布局。 在别人把推理这条路走通之前,先把最懂这条路的人请进自己的体系。值得注意的是,这并非传统意义上的并购。法律结构上, guarck 依然是独立主体, 但技术授权、核心创世、团队转移、战略协同三大关键动作的落地,让 guarok 最有价值的核心能力已事实上,进入英伟达体系这种非对称收购模式堪称硅谷顶级操作,既拿到了核心技术与人才,又规避了直接并购可能触发的反垄断审查,实现了公司留在外面、灵魂进了英伟达的反向拆解。 当你既能看透对手的底层设计哲学,又手握更庞大的生态、更强的软件能力和更完整的客户网络时,竞争的结局其实早已注定。 三、统一推理世界, t p u 做不到的英伟达在推进 t p u 的 推理优势,始终被局限在谷歌体系内这个前提之下。而英伟达当下的核心战略是让所有 ai 推理需求都能在其生态内找到最优解。这背后是 ai 推理场景的根本性改革。 未来的 ai 推理早已不是单一模型跑一次那么简单,它需要支持 agent 的 连续调用、多模型的协调工作、毫秒级的实时响应,还要适配边缘与云端的混合部署架构,同时对成本延迟工号提出严苛要求。在这样的需求下,企业最抗拒的事情就是维护多套完全割裂的硬件与软件体系。 t p u 的 问题从来不是性能不够强,而是生态太孤立。而英伟达正在做的,正是通过吸收 t p u 的 设计思想,融合推理专用芯片的架构优势,将 t p u 的 独特性拆解重组,变成自身生态的一部分。 当 t p u 的 核心优势不再是谷歌专属,它的未来就已经被吃掉了一半。四、谷歌的困境,核心路线被截胡的致命打击站在谷歌的角度, t p u 的 处境堪称两难。 如果继续保持封闭, t p u 永远只能是服务于内部业务的工具,无法在广阔的商业市场中占据一席之地。如果选择对外开放,就必须直接踏入英伟达早已深耕多年的主战场,与成熟的扩大生态正面抗衡。而英伟达拿下 guirk 的 动作,更是给了谷歌致命一击。 guirk 本是 t p u 体系的民用化延伸,肩负着把 t p u 思路做成广泛采用对外开放推理方案的使命。如今,这条关键路线被英伟达提前截胡, 这意味着谷歌在推理芯片上的认知优势被彻底抹平。英伟达从此将从设计者本人而非论文中精准掌握 t p u 的 优势与弱点。 t p u 不 再是神秘黑盒, 其技术路线图已完全暴露。更严峻的是,云端竞争将进一步加愈来的理念融入未来的推理加速器,谷歌云在 ai 推理成本上的优势会被明显压缩。从本质上看,这已不是单纯的芯片竞争,而是英伟达对 google cloud 加 t p u 体系的一次精准战略牵制。五、 终极目标,掌控 ai 全生命周期算力标准这正是整件事最残酷也最高明的地方。英伟达的目标从来不是消灭 t p u, 而是让它失去不可替代性,进而掌控 ai 全生命周期的算力标准。短期来看,市场或许会对两百亿的投入是否值得,是否会贪薄利润,是否存在监管风险产生犹豫。 但中长期的信号无比清晰,英伟达已不满足于训练之王的地位,他要将训练推理、实时响应 agent、 边缘计算等所有场景都纳入自己的生态版图。英伟达只需要达成一个结果。当企业规划 ai 推理方案时,第一反应不再是要不要用 tpu, 而是在英伟达的体系里选哪款产品更合适。 一旦这个认知成为行业共识, t p u 就 会从一个重要的路线选择论为一个无足轻重的特殊情况。而在算力产业的逻辑里,特殊情况往往没有未来,这不是防守,而是提前十年的进攻。六、下一代算力话语权的提前锁定 很多人喜欢在技术上争论 l p u 会不会取代 g p u t p u 是 不是更先进,但英伟达的思路一向不是压队技术,而是让所有重要技术最后都绕不开我。 t p u 的 问题从来不是技术路线的错误,而是它生在了一个需要开放生态才能生存壮大的时代,却选择了封闭生长的路径。英伟达两百亿布局 rock 的 动作,本质上是一场关于下一代算力话语权的预判,将 ai 推理的所有可能性都提前纳入自己的生态时间轴。它在告诉市场,不管 ai 的 下一站是推理 agent 还是实时智能,那张算力桌子我已经提前坐下来了。当市场真正意识到推理才是长期算力需求的核心时,再回头看就会发现, t p u 从来不是被正面击败的,而是在无人留意的缝隙里被慢慢吃完了。

大家好,我是派。如果说二零二五年有什么新闻能让整个硅谷和化节同时屏住呼吸,那一定是发生在刚刚。英伟达确定了一笔惊为天人的交易,以二百亿美元现金收购了 ai 芯片独角兽 grog 核心资产。这不仅仅是英伟大历史上规模最大的一笔收购,更是一个极其明显的信号。在 ai 推理时代全面爆发的前夜,黄仁勋并没有选择防守,而是直接买下了那个对他威胁最大的刺客。 在这笔交易背后,远没有表面看起来那么简单。为什么是非独家许可?为什么 gao 还要独立?当美国推迟对华芯片关税到二零二七年,这套组合权对英伟大意味着什么? 今天,我们就用五分钟带你看清英伟达刚刚拼完的这张帝国版图。首先,我们来拆解一下这二百亿到底交易了什么?注意,这不是全盘收购, grock 的 营业务还在独立运营,但是英伟达拿走了最核心的东西, lpu, 也就是语言处理单元技术, 以及包括 ceo jennifer ross 在 内的核心技术团队。 ross 是 前谷歌 tpu 的 核心研发者, 它创立的 grog 其实就是为了隔 gpu 的 命,因为它 gpu 强在并行计算,非常适合训练模型。 但是 grog 的 lpu 采用的是张量流处理器架构,它的强项是推理。通俗点说, gpu 就 像是一个拥有几千个核心超级指 回关,但在处理实时对话的时候,偶尔会因为调度问题出现微小的卡顿。而 grog 的 lpu 是 确定性执行,它像是一条精密的流水线,没有任何延迟的波动。在深层次 ai 从训练转向大模型应用的今天,推理速度就是金钱。 英伟达买下 grog, 实际上就是在承认,在纯推理理论, grog 确实抓住了 gpu 的 软肋。而黄仁深的策略也非常简单粗暴,与其让你在外面挑战我,不如把你 变成我的一部分。但这二百亿花的并不轻松,因为站在二零二五年底回望,英伟达虽然依旧占据了百分之八十到九十五的市场份额,但它正面临着异常史无前例的围角。敌 人来自三个方向。第一类是异敌异有的科技巨头,呃,谷歌的 tpu 已经迭代到啊 jammer 三亚马逊的 trineam 芯片已经部署了百万颗级别, madha 的 m i t a。 这些大厂每一年都给英伟达几百万的现金,但他们做梦都想摆脱它的依赖,哪怕能够降低百分之十的成本,都是天文数字。 第二类是老对手的反扑, amd 和英特尔虽然份额不高,但都在发力, amd 正在试图用性价比掺实市场,而 serbia、 sambar、 novor 等初创公司也在找缝隙。第三类是来自大洋彼岸的中国力量,这是一个不可忽视的变量,华为的升腾、九一零 b 以及后续型号 里的韩光、百度的昆仑以及摩尔县城海武器。中国企业正在构建一套生态系统,虽然在单卡性能上可能还有差距,但是在集群算力以及软件替代上 进步速度快的惊人。在这种十面埋伏之下,英伟达收购 groc, 实际上就是在补这一个木桶上的唯一短板。 还要告诉市场,无论训练还是推理,无论通用还是专用,我都是第一,没有死角。其实不仅仅是 grog, 回顾过去三年,因为它完成了一系列密集的资本运作。从二零二三年到二零二五年,除了 grog, 他 们还收购了 run a i 以及大量涉及医疗、光互联的初创公司。大家发现没有,英伟达买的不仅仅是硬件,他还在买效率。未来 ai 竞争拼的不是谁的卡多,而是谁能让这十万张卡跑得更快、更有效率、更省电。英伟达正在从一家卖产资的硬件公司, 进化成为一家提供全站算力服务的超级平台。最后,我们必须聊一聊刚刚落地的另外一只靴子。 美国宣布将中国半导体产业加征关税计划推迟到二零二七年,这对英伟达来说绝对是一个巨大的利好。这意味着二零二六年这个关键的整合之年,英伟达还有一整年的窗口期。此前 中国市场贡献呢?英伟达数据中心业务约百分之二十到二十五的营收。关税的延期,给英伟达喘息的机会,不仅可以抢回这一年通过芯片回笼资金,还能在一定程度上压制中国本土芯片厂商夺回市场的速度。华尔杰对此的反应也非常直接,分析师将 英伟达二零二六年的营收增长上调到百分之二十到四十,目标价是三百五十美元以上。最后,我们来总结一下,二零二五年的英伟达已经不再是一家单纯的芯片公司, 他正在变成 ai 时代的电水媒垄断者。对于我们而言,看懂英伟达的每一次布局,其实都是在看懂 ai 未来的流向。我是派,我们下期见。

nita、 sogo、 grappa 的 背后,这一家企业会涨百分之三十,那这一家企业为什么能够涨百分之三十呢?我给你拆解一下 gpu、 tpu、 lpu, 你 就知道它分别会利好谁,利空谁。首先大家要明白一个底层逻辑, 过去这一轮产业周期,大家都知道 nvidia 就 代表着 ai, ai 等于三粒,三粒等于 gpu, gpu 等于英伟达,所以英伟达的公司逻辑不断的被简化、压缩。就好像现在全网都在讨论 hbn, 大家不懂装懂,一窝蜂的在讨论所谓的 hbn, 所以呢,不断的去买一些闪存,比如说镁光闪迪,大家去投闪存的逻辑是什么? 当你的土地面积一定,机房数量一定的时候,我去扩大我的存储空间,就是增加我整个机房的单位经济效益。那我就考你们一个真正关于 hbn 的 知识点,你们知道 hbn 存储模块站在整个 nba 的 gpu 里面,它的成本会需要多少吗? 答案是一千到两千美元。这种供应链上游材料产品卡脖子的现象屡次发生。比如说五年前我跟你们说过的,咱们的新能源大热的时候,宁德时代市值突破了新高,达到了万亿市值。结果呢,宁德时代不断的去缩减自身的才能,不断的在电子产品上提价,从而逼迫了什么? 逼迫了市场上其他的竞争对手。往后你就看到了宁德时代所谓的一池难求,电池占据绝对的供应地位的领导地位不负身负,所以宁德时代市值呢,也一路走低, 直到前段时间重新上市,港股市值才修复回来。那你说 hbn 今天有没有这个情况呢? hbn 它并不是一种可以无限复制的资源,并且 hbn 它所谓的技术壁垒也没有非常的高, hbn 最后比拼的就是单位价格里面谁的储存效率最高, 所以供应商极度集中,扩展周期极长,技术路径高度绑定,现金封装,资本开支不可逆的重投入资产。你觉得 hbn 能够比宁德时代的电池 还要难,还要简单的拿下这个市场,或者说垄断市场吧。如果这个东西无法解决共济的话,你觉得 n v d, 谷歌等其他的 g p u t p u 他 们会不会找到另外的解决办法跟替代方案?为什么你们会有这种想法?你会觉得说你做一个企业,你要尽可能的做到产品的垄断,但是我告诉你们啊, 任何伟大的企业,他不是通过资源产品的垄断,使得市场不断的通过高溢价高价格去采购我的产品,从而我成为巨头的。恰恰相反,如果你想成为这个世界上的巨头科技企业,你通常需要提供一个极度低门槛甚至免费宽放的产品, 使得整个市场的用户都用上你的产品,这个时候你才可能成为这个行业的领导者跟巨头。如果你要我用一句话来解释,因为他为什么说过 rock, 那 rock 主要做的业务是什么呢?他做的是整一个推理芯片里面 低成本、低毛利率的商业模式,因为他把本身的储存模块直接集成在芯片上面,他的芯片都是用于小模型的推理。所以如果你要我以资本的角度来看英伟达收购 rock 这个企业的话,我觉得是利大于弊的, 我接下来说的话呢,只有你从业 ai 或互联网的你们才能够听得明白,如果你没从事的话,你们可以试着尝试了解跟理解,我觉得你们应该比较难理解。 首先第一个点啊, ai 推理它本身是一个需求量极大但是利润极低的一个产业,关键的问题是什么?英伟达每一年的 gpu 的 产量是固定的, 再想往上拔很难拔,拔不了。如果你想扩没问题,你得用到非常棘手且稀缺的主见,比如说 hbn 或者台积电的先进封装才能 coos。 所以 不是英伟达你想扩就扩的,你一扩,你需要供应链上下游一起配合,你才能够扩的出来。然而英伟达收购的 rock, 它完全不需要 hbn 或者 coos, 先进封装 恰恰就是这个商业模式。对于高需求、需求量大且低毛利的推理业务,那就显得尤为的重要。你就不难理解,从资本角度以及运营企业的角度,为什么 nba 会去收购这家企业, 核心原因就在于他们愿意承接这一类高销量且低毛利的业务,让比如说 gpu, tpu 等其他企业专注于高毛利的训练市场,而他们专注于低毛利的推理业务,这就补齐了 n v d 的 短板。如果你们想理解的通俗一点的场景的话,你可以理解为 英伟达之前做的是苹果,今天呢? n v d 呢?把安卓也收集齐了。所以英伟达现在双剑齐发,既做苹果的高毛利高端市场,又做安卓的低毛利低端市场。当你了解了这两个场景的时候,那么你就可以理解成什么,如果你把整个 ai 行业看成就是手机行业, 那么接下来该爆发的是哪个板块?接下来哪个板块的哪一家企业会有大量的资本涌入?你们觉得会是哪一家?你们猜猜看我们董事会哈会选哪一家能够在近期之内吃到百分之三十的涨幅,而且这一家还有很有可能从千亿飞到万亿市值。还想了解更多资讯,加入主页粉丝群。

同志们大家晚上好,我是长安证券的手机电池充电数,就是在上周,我们本周我们可以看到就本意达是整合了整个 guo 客,是引发了整个产业和资本市场对高度关注啊。 guo 客的话,他的创始人对来自于谷歌的 tpu 啊,在整个架构上呢,它采用了传比较创新的 lpu 进程的这样一个架构,嗯,它的定位呢,是追求特地车的一个极具的一个性价比 啊,我们现在也可以看到啊,就是现在整个呃使用成本的高昂,是限制了整个 ai 整体落地一个最主要的一个核心的瓶颈 啊。所以从现在往未来去展望,未来在特里特区采取新的呃特定的架构以追求更低的整个的一个成本,是未来产生的必然趋势, 产业呢,会逐渐从区域的一体转向更高的圈主,更低的成本,呃更低的工好,这样的一个路径,让我们看到了英伟达其实在收购国购这一次的一个呃,这样一个事件也让我们看到就是英伟达在未来整个对策整个架构的新的一个思考。 然后呃,国购的 lpu 呢,是采用了近层的架构,其实国内在这一块呢,也有很多公司目前在这块进行了探索。嗯,那今天呢,我们是非常有幸呃邀请了云天立飞的 cto 李爱军李总和呃 啊公司的负责人韩总跟我们进行一个在尽快的解答。然后呢,云天立峰呢,也是非常专注于 ai 的 一个彻底芯片啊,现在呢,也是把整个的一个研发的一个重点,其实放在未来 ai 彻底时代啊,去进行一个产品的扩展 啊,那么接下来话我们就有请李总啊给我们去介绍一下整个从他角度来看,英伟达去整个谷歌的一个整体的一个看法。哎,李总,您现在这边可以开始了。 嗯,好的,大家好好。呃,那,呃这周的话可能最劲爆的新闻就是因为他去耗资两百亿美元吧收购这个 grog, 但是他这个收购 grog 呢?又不是传统意义上的收购,因为他啊是收购 grog 的 实体资产,资产,但是不包括他的资产权, 也就是说,呃,他可以用这个 grog 的, 他的这个架构就整个这个架构他可以使用,而且是非牌 非排他性的这个使用,也就是说,呃,别人也可以用,那么那么那么这个英伟达那他现在也可以用,那同时的话就是 guo r k 的 这个核心团队成员啊,全部加入到英伟达,呃,另外的话就是 guo r k 本身还作为一个独立的实体公司,还继续, 呃继续这个,呃独立运作啊。所以他这种呃收购方式吧,其实是跟我们说传统的这个收购有很大的这个区别,那在考虑这个英伟达为什么做这个事, 那我我我觉得在我看来啊,呃,其实我认为是英伟达或者是黄仁兴,那么他他的观点发生了这个大的变化,就是原来我记得在去年之前,去年底之前他非常笃定的认为 他做的 gpu 就是 适合训练和推理的,那当时他说了一个非常呃,呃,这个有一次访谈中啊说的比较 直接的一个话,他说啊训练的是最是刚需,那么推理的话,呃,那你只需要拿我的,拿英伟达的上一代的这个 gpu 芯片你,你就可以去做推理就好了,那么它的性价比啊也是够的啊。这个是当时它的这个这个看法,包括呢它后来推推出来的,像从 blackwell 架构一直到 ruby 架构,基本上还是沿着这个路, 但是我认为这次,呃收购就是英伟达花这么大的收益啊去做这个事情,我认为变相的就呃这个这个英伟达或者是黄仁勋的态度发生了转变,呃应该是承认了这个,呃推理和训练是有差异的,而推理时代即将要来临, 而且推理会成为一个真正的独立的一个赛道,那为了这个真正的独立的赛道有必要啊?要专门规划为为这个推理规划这个芯片,这个是我对他这个发布商业火箭企业 i g o。 呃呃那个看法吧。那个, 哎,好了好了。嗯,因为这一次的话在整个就是大家比较关注一个点啊,就是在他的 lpu 架构就是进城这个架构,嗯,所以呢我们也想就是,嗯,想跟您咨询一下,从 lpu 这个架构,它跟传统的英伟达 gpu 架构对比有一点鞋油力,而且未来的话 lpu 英伟达现有的扩大生产该如何融融合? 而且作为一个是因为我们看到镜头呢也是有很多的路径的,比如说现在 lpu 用的是 spm 啊,国内局我们也看到一些三 d 主 m 相关的一个路径啊,这个路径跟传统 gpu 比到底有多,就是它的性价比是在哪些方面提,呃体现,也希望您给我们进行一个拆分的介绍。 嗯,好的。呃,那这次英伟达收购的 brock 呢? brock 的 它的底层架构,它叫 lpu, 其实 lpu 在 这个时代, 呃是在这个大模型开始大规模的,就是在拉玛出来以后,他们提的叫 lpu 的 lpu 这个提法,这个 l 的 话它就是 lm, 就是 大圆模型。那在这个之前,其实它的架构的名字叫 tsp, 这个 tensor, 呃就是 tensor stream 的 这么一个 processor, 其实就是一个,呃,一个一个一个张量,张量这个呃计算的一个数据流的一个架构就是,那么它这个架构呢?呃其实它 他就是专人针对推理而设计的,所以他摒弃了很多跟训练相关的呃相关的这个设计啊。这里面那么推理呢是需要什么样的东西呢?就是推理,我们大家可以看到他要低延时,然后呢他推理的时候,我们做的每一次推理都希望他的推理的结果 和这个执行啊时间是有确定性的。另外的话我们还要呃推理还要支持这种高用户并发,特别是在这个我们说这个云端的场景啊,因为郭浩做这个芯片,他也是为了云端来做的,就叫高并发,所以他是针对这个推理的这样一个特点,然后呢进行了这个呃他这个架构的设计,那他在这个架构设计上为了实现 我们说这种低延时,也就是极致的这个推理,呃推理的这个性能,所以它采用了这个片内集成 sm 的 方式啊,这种那片内集成 sm, 呃大家应应。呃,我简单的讲一下这个,我我们说的这个呃存储大概分几个层面啊?总体来说存储会分三个层面,第一层呢,它叫 呃呃,他叫,他叫这个呃,我们叫 local 巴芬,或者叫这个呃,就是就是呃呃呃,英特尔巴芬,呃这个呢是跟计算单元是完全挺有合的。第二层呢就是类似于像 sm 这样的这种,或者是说呃这个 d r m, 那 第三层的话是什么?就是偏 y 的, 就是偏 y 的, 我们说 d d r 啊,或者是 h b m 这些就叫外层,那基本上是会分三层,那么 l p u 就是 g l p u 架构,它最大的一个 区别或特点的话,它就完全摒弃了外存,就外部的这个存储,无论是 ddr 的 还是还是 hvm 的, 它全部采用片上的片内集成的 srm 啊来做它的这个就所有的这个呃存储的这个呃载体,也就是说主存储器这样的那那那因为它采用这样的方式,它获得的收益, 因为片内 sm 的 话,它基本上就是在在在在这个,我们说呃跟这个呃呃机场大院就完全在一个一张一个金源里面,那么金源里面的话,那它的贷款它又获得最大号的是贷款,所以呢它的贷款可以达到八十个 t tb 每秒这样的一个超高贷款, 那这个贷款相比于 hbm 来说,最新的呃白贵要 b 三百,也就在八个 tb 用的是 hbm, 它的贷款还有呃比这个叫 hbm 的 话是还有十倍的这么一个 呃一呃这么一个呃贷款的这个呃这这么大的这个贷款,那这么大贷款的话带来的好处是什么呢?好,那跑这些大模型,我们说的这种大圆模型,因为因为在我们说做大圆模型它会有两个阶段,一个呢是 prefill 阶段,一个是 decore 的 阶段,那么 prefill 是 预填充, 那么真正影响我们的预填中阶段影响的是这个,我们说叫叫 t t i t 就 首次延迟,那么后面的话就是呃这个抵扣的阶段,那它就是我们说的这个 t p s 就是 每秒你能吐多少个头。 那么这种超大贷款,那对于抵扣的阶段,呃,那就会使得抵扣的这个阶段的这个这个这个信用可以极大的去提升。那么呃 呃呃谷歌自己他放他给出来的数据像跑七十匹的大模型,那么可以达到每秒五百个 top 以上,这么一个非常高的这个推理的 decod 的 速度。那这个呢?相比于目前来说 业类主流的,比方说这个今年上半年,这个呃华为发布的这个 top 三八四,那他也只能做到每秒呃呃正常业务时候就是四十个 top 那 么一个水平,那他有他就可以达到五百 top 这个水平,就相当相当这个非常高的这么一个一个一个性能 啊,那那他为什么呢?另外呢?就是呃他能获得这样的一个性能,也是因为他的整个这个,呃这个处理器的,呃计算单元的设计,他是按照这种数据流的这种设计,而且是一个 提前进行静态的,静态的这么一个呃呃这种这种数据单元的排布,也就是说你可以像呃这个打比方来说,就像一个流水线,我们说一个生产,生产的生产线上的流水线,他每一步,每每一个工位要做的事情,他都精确的提前把它排好,那你就是按照这个,这个这个这个叫什么?一步步往下流就好, 就他通过这个方式,那这个方式呢?对应到芯片里面他就叫什么呢?我们叫执行的精确度达到这种塞口器,那在这个情况下,他就可以保证说他的执行是非常高, 非常高效的。同时的话这个可以达到极高的推速度,也能保证这个,呃它每一次这个执行的结果都是非常准确的,非常精确的一个结果啊,这样的一个,呃,那这样的一个架构呢?就是相比于 gpu 架构刚说到它的好处啊,优点,那么呃相比于 gpu 架构来说,它的一些, 呃叫局限点吧。啊?局限的地方有哪一些呢?那第一个他是场景专用的,那他这样的特点其实他是主要是适合这个大模型的推理,特别是对于这种实时的要求比较高的场景,他并不是所有场景都适用。这是第二个呢,他的编程的难度是比较高的,就相比于我们说的这个,呃,这个 gdp 又扩大来说,他的编程难度会高, 因为他手动的要去排那些流水线才能实现这种,这个这个这个这个这个性能啊,各个部分的这个性能。第三个的话他的部署成本是非常高的, 因为它没有,就是它最大的优势呢,是摒弃了外存,就我们说的 ddr、 hbm 这些外存,呃,仅靠片内的 sm 来做主存储器,来来来来主内存,那那那用片内的 sm 做主内存,它有一个巨大的问题是片内的 sm 它的容量是有限的。 那格兰特他的第一代芯片,呃,一个七百平方的,基本上是一个满,几乎是一个满 ready 的 这么一个芯片上面也只能提供两百多兆 b 的 这个这个容量,那两百多兆多兆 b, 那 那那如果说是一个, 如果是一个这个一个模型,比如七 b 的 或七十 b 模型,至少是上百克甚至数百克芯片,他才能跑一个大模型。 那,那如果要是跑这个我们说的 dc 满这个六百七十 e b 的 这么一个全量模型,那需要它需要五千颗 五千颗芯片连起来,它才能跑一个模型,其实它整体的这个部署的这个成本是非常高的啊。呃,那反观的话,我们说用 gpu 芯片,那,那基本上单台的 h 两百服务器它就能完成一台,完成一个这个这 dc, 呃这个这个六七幺 b 模型的一个部署。 呃,所以呢,也因为这样的一个情况呢,也导致什么呢?它的其他的 gpu 成本是相对偏高的,有个模式啊,这个大模型,但但带来的好处是说它会有非常非常极致的这个 a 级的性能啊。那那 n v 的 话就是,呃,我认为,呃,收购,收购了这个谷歌以后啊,呃,那么它呢? 呃,我我认为 n v 它是还是会把它的软件生产会放在第一位的。呃,这样的一个,也就是说它不会因为这个 lpu 啊去呃破坏他的整个苦胆的软件态,软软件生态,那我觉得,呃第一步的话,这个 n v 的 话,还是会把这个 l p u 它会作为一个专用的一个 d a c 的 硬件单元嵌入他自己的这个苦胆这个生态里面去,呃,他会坚持这个苦胆的整体的这个编程的特性啊,我认为, 呃然后呢会逐步的通过这个呃软件以及这个呃软硬件协同吧,就是微架构的这种融合的问题。那我有一个这个简单的判断吧,那短期内我认为他会通过他的 mv fusion, 呃,因为 mv 的 话在去年今年年初手他已经高高,呃在建立他的这个 mv fusion 的 这个生态,我认为他会利用 mv fusion 的 方式会快速的把这个 lpu 集成进来,那么长期的话会在呃在底层的这个架构上面再结合变音器层面上的这个 呃这个这个协同吧,这个协同设计,然后呢实现这个面向这种推理场景的啊,既呃这种既满足通用这个通用编程需要,同时又能够获得这个 lpu 的 它的这种呃高高的这种推理推理性能的,呃这么一个,呃面向这种 推理场景的这种呃专用芯片,或者说叫呃这个推理芯片吧啊呃呃另外的话就是,呃关于这个, 呃现在啊就是呃推理测它是不是会有更多的新架构,未来会有更多的这个多样化,我认为这个是必然的。就是核心还在于说推理场景跟训练场景是有很大的不同, 训练场景被认为说基本上它是一个高度啊趋同的,就它的这个这个训练的过程其实是个非常趋同的一个过程, 在这个过程中他需要的就是我们说的高性能、高算力、高贷款和这个呃非常大的这个呃肌群啊,要有超大肌群。而推理不一样,因为推理本身的场景它是一个多多样化的场景, 那必然的话,呃他对于因为因为的推理场景多样化,那么推理在不同场景下,他的工作负担也会也会有,也会大有不同,哪怕是跑,我们说都是跑这种大模型,但是呢不同的场景他对于这个大模型的,他的工作啊负担也都会不相同 啊。那,那也我认为在这个情况下不会有一种架构暴打暴打天下啊。那么,呃,这个,呃这种推理的面向推理的这个兴奋的架构,呃,那必然会是百发齐放啊,大家会各自都会针对这个呃推理场景的不同场景的分析吧,或者细分场景的分析,然后来发挥自己的这个架构的优势 啊。哎,好了,感谢听懂我的解答,非常清晰啊。那我这边再补充一下这个国内的情况,因为国内的话我们最近也看到是从去年开始我们就看到明显看到有一些进城的新方案出现 啊,但是国内这个方案我们目前看到可能是以三 d 九 m 这样的呃为主,然后我不知道从三 d 九 m 这方案和现在的 google 的 这 ipo 的 方案,他们对比各自的优劣势是是什么样的。 第二个未来像三 dgm 这样的方案在哪些场景会更加的适用?然后而且就是国内因为在整体的无论是质层还是 hm 上这些都有比较大的限制呢,所以我们也想让您帮忙掌握一下就国内这个进城这块落地的一个节奏,对, 嗯嗯, ok。 呃,首先呢就是我们讲进城啊,他有我认为有两有两个方面的,一个呢是架构,就是我们说的计算和 这个 ai 处理器,呃这个层面上的第二个呢是指它的存储方式,就是存储结构上的。那刚才提的像谷歌的话,呃它首先是采用这种 lpu 的 这样的一个呃计算,呃这种这种这种核的这种设计架构,那这个架构的话,它,呃总体来说它还是属于我们把它可以统统一 归在 dsa 这种这种大的这个里面,但它还是有不一样,那这里面的话除了 lpu, 包括还有像谷歌的 tpu, 包括我们原来说的 npu, 还有什么呢?呃国内还有做这种可重构的,另外还有,呃做这种数据流的,呃等等啊,其实这些都是属于这个我们说在这个,呃近存吧,就是就是在这个近存的这种这种面向推理的,呃这种核的架构,这些也是多样化的。另外的话就是对于存储来说,那么近存 那它就有两个,一个呢就是 sram, 就 说我在片内提成 sram。 另外一种的话就是其实思路跟这个类似,就是,呃我用这种三 d, 呃三 d 的 这种对叠的方式啊,三 d, 三 d ram 的 方式来做 啊,那这两种方式呢?呃它会有比较大的一个一个区别。那么呃三 d ram 的 话,相比于 sram 来说, 第一个呢就是,呃从这个贷款上来说,那么三 d ram 的 话,也可以提供跟这个 sram 相对接近的这个贷款内存贷款 啊,这个是三 d ram, 那 么但是呢,就是呃基本上也做不到这个像 sram 那 么那么极致的贷款,我觉得是相对接近,因为它的这个代价会更高啊,这方面,那这个是在贷款上面。那第二个方面呢,就是那三 d 呢?当然它 呃相比 sram 也有也也也有,也有其他的好处就在于三 d ram 它的容量它会比 sram 呃呃要要大,基本上呃也是大,这个会大到呃百倍吧。呃,你想一个我们说七百平方的里面放三两百多兆的两百多兆的 sram, 但是如果是七百平方的这个 这个呃这个叫叫这么大的面积上面我来叠这个三 d ram 的。 同样的七百平方的这个三 d 的 话,那它基本上会达到啊十几个 d 大 d 的, 单层的话就有十几个 d 大 d 的 这个这个这个呃 叫内存的容量,那那这方面来说就会呃比较大的去呃规避吧,或者是缓解这个 s u m 它的容量比较小的这种这种奖金。 那三 d ram 呢?因为它有,它有接近这个 sram 的 这种大贷款,呃也就意味着什么?它比 hbm 来说,它会有 呃会有几倍以上的这个贷款的优势,三到五倍的呃呃这种贷款优势,那就那就是用三 d 的 这种方式,它的推理的性能那也会比这种 hbm 的 也会呃好的好这个几倍以上这样的一个。所以呢, 呃它在推理性能上来说,呃会比 sram 不 会像 sram 那 么极致,但是基本上比现在主流的这种 hm 的 成熟方案那会呃呃会高高很多,也会高很多啊。当然三 d 呢会比 sram 来说, 呃,我觉得在传输度上面还是要呃它要慢一些,因为三 d 的 话是用的这种三 d 三 d 键盒还不是绑顶这样的,还涉及到散热,因为它是 呃这个存储单元是堆叠在这个计算单元上,那计算单元本身它的功耗就比较高,然后它会有这个呃面临这种散热,呃呃这些方面的这个问题,但需要去需要去解决。所以呃三 d 的 话,我认为在这个 我们说在这个呃计算芯片上,呃包括这个推理芯片,呃上面哪怕是推理芯片来说,我觉得还是需要一些时间。呃我我判断的话还是需要有呃呃两年左右吧,或者是呃两到三年这个时间,呃才会实现这种规模化的这种部署。 哎,就是我的总结一下,就是你觉得三 d 方案他的是比较属于一种中间他的方案,然后呃他兼具有各自的优势,但是也没有那么极致。呃也结合这点,我其实是想呃也咨询他,就是如果跟这种传统 gpu 比,呃就是三 d 的 这个方案,在同等算力下,他的整个操控存储到底能呃 大概多多少啊?这是一个我想跟您咨询的一个点。第二个点的话就是,呃因为三 d 这个方案,呃目前的话就是像 p d 分 离啊,像 v f 呢?还会有 a f 分 离这种,呃在目前的这些这类场景里,哪些场景是三 d 会有一些明显的优势,能不能也帮我们展开介绍一下? 呃我我首先就是因为这个就跟涉及的贷宽有有比较大的关系啊,就是三 d 呢,他也也可以实现非常高的贷宽,但是呢,呃这就是一个吹倒伏,就是一个设计上吹倒伏,就是说你需要花多大的 f 呢来做这个事, 那同等的这个算力情况下,那如果说我们一个比较相对合理的代价,来来来做这个呃架构的设计,我认为获得就相比于呃呃新的最新的 hbm 来说,呃在性能上有呃呃三到五倍以上的提升,这个是这个应该是可预期的啊。 呃,在这个推理性能上,我们说 p d 分 离也好, a f 分 离也好, 那这一些的话,呃其实都是都是因为我们要追求啊,追求这个部署的这个,呃这个成本持续的降低,因为推理的话它是, 呃,它是,它是,它是一直在在满载的,在用的就是一直在推理,所以我们都希望说它的这个推理的成本会越低越好,所以这样的话,大家在分析这个大模型推理的过程就会发现,哎,这个做 free 的 阶段和做 dico 的 阶段,它的 work load 是 不一样的,就整个工作覆盖是不一样的。 那么我针对 perfume 好, 那它是计算迷信,我不需要那么高的这个,呃这个存储贷款我就可以选择相对比较精细的 这种,这种性价比高的,呃这种,这种呃存储,比方说像 g, d, d, r 也好,还是 l p, d, d r 好, 这些方式它就可以实现,甚至说未来它还会有更更新的,像什么呃像 h, b, f 啊等等这些新型的存储,呃来来支撑啊。那另外的话就是对于 d code 来说,因为它是一个贷宽, 呃是一个这种我们说贷款密集型,或者说是对贷款是非常敏感的,那么贷款呃需要有更大的这个贷款,那这个时候用,我们说用这种呃三 d 的 存储,甚至说这种 s m 存储,那么它会获得更好的这个这个抵扣的这个性能,而这些都是站在,呃,站在这个,嗯,呃就怎么样把整个系统的 这种推理的成本吧,能够持续降低所带来的包括未来的这种,呃 a a f 的 这种分离,那么 a f 它其实是更细力度的分离啊,这个是在计算层面上是不是还要再做更精细化的分分离?这个是,呃,我觉得是未来去我们在这个 针对不同的这个推理场景吧,都是在芯片的架构和芯片的这个整体的系统的规划上面去去,呃可以去考虑的这些点啊,这些方面, 哎,明白明白。呃这边话我稍微再隐身就询问一下,就是就现在整个三 d gm 在 落地的过程,你也就提到它散热和各方面这种问题啊。 呃,就是我们想再隐身问下,第一个就是目前的话,呃除了散热之外还有哪些瓶颈是目前限制这个方案去落地? 呃最重要的一个,呃就是瓶颈吧?第二个就是我们想询问一下,就是目前,呃像无论是海外还是国内,嗯在整个进程计算上就是目前的现有的核心一些玩家也希望您可以帮我们展开一下进行一个介绍,还有他们的相关路径。对, 呃那三 d 呢?这一方一个呢是散热,散热这个性能大家应该是比较好理解的,因为这个 drum 它是它是堆叠嘛?在垂直方向做堆叠,那么必然会存在这个散热的这个问题。那除了这个以外呢?其实还有还有还有这个工程化的,比如说良率,呃良率这方面,那么呃呃呃,这个, 呃我们你你毕竟是这个叫呃叫叫叫堆叠起来,那么堆叠以后你采用什么样堆叠方式?比如现在比较主流的是叫 wefore and wefore 这种堆叠,那么 wefore and wefore 是 两,是这个整片的利润跟这个整片的计算。 我们说计算的这个 wefore 的 话,他们做做堆叠,那么完了以后它的量率其实是相互会有,这个叫相互藕合,那会导致呢?整体的这个量率, 呃这个这个会会会放大,就是说因为他不是拆开的,他是,他是,他是叠在一起的,那么会,呃会导致这个量率的影响会会放大,那么会使得整体的量率呢?会急剧的下降。所以呢这一块呃是在设计上需要做, 我们做做很多的这个呃设计要去要去规避这个事情,那么这个是工程化的啊,这这这方面的。另外的话就是呃本身这个三地呃间合, 你还设设涉及到这个包括,呃呃这个我们说 vivo 的 就是先进工艺上的, vivo 的 可获取,可获得性就在当前的这个大的这个这个叫 呃叫中,呃叫地源吧,地源的这个这个半导体供应链非常脆弱。那这块呃呃我们还要去考虑到这个这个这个 vivo 可获得性以及呢?这个我们说 dram, 它的本身的这种,呃这个这个 呃这个 d rom 的 它的发展就是它的技术的这种呃发展啊。那那对于我们,呃这个做这个三 d 的 这样的一个芯片,你是不是能带来呃更高的这个这个性价比和和和价值啊?这些会都会影响到这个呃三 d 啊,三 d 的 这个这个这个这个芯片吧,就是 ai 芯片或推理芯片啊,甚至有些还推出来要提出来说用三 d 做训练芯片啊,这样的,这个这个芯片的这种规模化的,呃这个应用的这个时间点和节奏啊,这个会都会有影响。 嗯,那国内来说呢,做这一方面的,呃,分这个就是可以分两个嘛,一个呢就是我们说的这个 做三三 d 的 建和三 d 的 这个存储的有这个这方面。那这方面国内的几个主流的存储啊,基本都在做啊,我们都知道的,那那两三家做这个存储,他们都在都在做这个这个事啊。 呃另外的话在设计公司其实也是也是有很多,那么呃呃基本上大家都是在有可能会有行业内的话,呃,如果算下来也有十几二十家吧,啊在在做这方面的这个探索。 呃呃。那基本上大家目前所处的这个状态,对于这个我们说的 ai 的 这个,呃芯片,这种三 d 对 叠的芯片来说,呃目前都还是属于相对都处于初期,那么最早的可能目前也仅仅是, 呃有一些这个样片啊,有一些局部的样片,那么可以做这个,呃做这个测试,那么呃整个这个三 d 的 这个,呃成熟的就是能进入规模化量产,呃呃呃,我觉得还需要那么呃两年以上的时间吧。 哎。好了好了,就是另外一个想跟您咨询一下,因为我们看到其实国内建船在走这个技术基础,其实也走了有几年了, 然后国内其实我觉得走进城这边很重要。一个点就在说啊,在国内现行的制程,制程还是成熟,这样的一个限热背景下呢,其实我们的达拉斯区比较受限的,所以我们要在相对达拉斯受限情况下,我们要去做更高的承土 啊,这是我们就是国内很早就开始就探索进城的这样原因,所以呢我们也想跟您咨询一下,就您怎么看?呃,就国内这个进城三十九 m 这一个市场空间啊。第二个我因为也也想跟您咨询一下,就您怎么看?呃,就国内这个进城三十九 m 这一个市场空间啊。第二个我因为也分为可能你也想给大家介绍三十九 m 做训练, 从您在技术角度来看,哪些场景是未来在,就是整个三 d dram 这个块会在大有可为,然后它的呃汽车的这个市场,呃没有多大,也希望您帮我去展望一下。 嗯嗯嗯。从这个呃呃三 d dram 的 这个呃市场的话,我我想呃我我我是比较看好三 d dram 的 这个它在推理测的这个市场的, 那么呃目前的话大家都在做一些尝试,包括边缘端侧的,包括面向云的云推力的啊,这样的场景的那三 d ram 所带来的好处, 呃,就相比于我们刚才说进程里面啊,相比于 sram 来说,第一方面它的带宽,它是比这种传统的这种,呃呃呃, ddr 或 hbm 来说是,呃比 ddr 的 话应该是数量级以上吧,比比 hm 也是有个几倍以上的这个一个带宽的优势。 那么在这种情况下,无论是在端侧还是在这个我们说云推一侧,它就是给带来非常好的这个这个推力的体验,就是推力的这个,所以这是一个。第二个来说,它单个芯片的容量就是这个存储的这个容量 啊,那它又可以跟 h b a 也好,还和这个 d d r g d r 比单,又跟它们是一个一个量级。比如我单芯片也可以实现几十 g、 几十个、几十个 g, 甚至是一两百个 g 大 臂。呃,这么大的这个这个这个这个内存容量,那也就会解决什么呢?刚才说的 sm, 如果是纯粹在片内用 sm, 它跑一个 烤一个单,一个大墨镜需要几百克甚至上千克芯片,呃,连到一起,而用这种三 d 堆叠的这种方式的话,他他他他就是一台一台机器,是吧?一台或两台机器,然后就可以把一个大墨镜烤起来,然后呢他又能获得这个呃,相比于这个叫 sm 来说,呃又又比它稍微 呃稍微这个呃呃稍微少一点的这种稍微这个低一点的这种这种推理的性能。但是相比于呃我们所传统的 hbm 和 d r 来说,又是这种,呃这种倍数级甚至数量上数量级的这样的一个推理性能的这个优势,那,那他的我觉得应用场景我认为还是还是比较广阔的 啊。明白。如果从这中心说嘛,就现在 ai 的 它的一个算,就说是 ai 的 通过吞吐工厂, 这话我们要去看这个 t o c 的 成本和单挑分的一个成本。呃,我不知道,从一个中期展望的角度,我们看就是这种呃三 d 进程的方案跟现在 g p u 方案,未来在这个单挑分成本上大概能差距有多大?您能帮我们掌握一下。 呃,其他家不好做吧?那我们的目标,呃,云天的目标,这个方面我们希望在呃我们接下来做的这个三 d 版本这个芯片上大概在一年一年多时间吧,那么推出的时候,呃,那么呃会,我们希望在在这个在 tcu 上面的话是有 呃几十倍以上的这个这个这个呃提升的啊,就是或者说是在这个 g c u 的 这个成本上来说会有会有掏坑,就是这个这个这个这个这个单掏坑的这个成本上会有几十倍的这个下降啊。 明白,明白。呃,一般来说应该是有十倍以上的数量级,基本上对于客户的信任力就已经非常大了,所以这几十倍的提升理论上来说,其实未来这个方案其实在测一测,应该是大有可为。我这么理解,不知道正不正确?嗯, 对,是的。哎,哎,好了好了,还有就是呃另外一个就是关于那个后续节奏啊,就您也说就是可能需要还有两年以上这个三 d 九 m 的 这款芯片, 那他可能真正大规模的一个推广,我们要后续就是从一年到两年维度去展望整个三 d 的 落地会率先在哪些场景里去开启啊?第二个现在就是下周国内客户对这个方案的呃,从我们的角度来感受他是什么样的一个态度。对, 对,首先落地的我觉得还是这种呃边缘端的相对小的这个场景,呃,比方说,呃,我们说的这个呃,像,像这个呃 aipc 啊,甚至包括手机,那手机内它也会提成一些这个呃三 d 的 这个方案啊。然后还有一些这种我们说的这个呃边缘的一些 呃一些这个推理场景,那么那么会会率先会有这个呃三 d 的, 呃,因为这种的话它通常的话它的成本啊,它没有那么高。然后 呃结构呢,相对也简单一点,就他的这个对叠层数,一般就是一加一、一加二这种对叠层数,就是这个工程的复杂度也会低一些。我认为在未来的一到两年内的话,是,呃这方面呢,会率先会, 呃会起来,然后再往下两到三年的维度上的话,呃,呃用于这种云推理的这样的这个三 d 的 方案会可以进入规模化的商品啊。 嗯,明白,明白。然后嗯第二个也是,嗯,最后呃三个问题啊,就是也想去隐身一下我们自身啊,就是我不知道从那个一线整个退出一家公家来看呢,也可能在明后也会发生比较大的变化,有很多新入方会出现,呃,从目前我们公司角度来看呢,就我们, 呃怎么去把握住这样的机会?第二是我们要想呃抓住这样的一个机会话,呃就是相关公司需要什么样的一个要素条件,呃也希望咨询下您的观点。 嗯,对那,呃站在我们的角度来说,那就是云云尼菲也是从成立开始,其实我们专注的在推理这个赛道, 那在这个小模型时代的话,我们做的是面向小模型的这种高效推理的这个围绕视觉相关的这个边缘推理芯片。那么到了大模型时代的话,那么我们有有有推出这个大模型推理的一体机相关的这个,那么以及呢再往下我们会推出面向语音的语音场景的云部署的这个云推理芯片, 面向云推移这个场景的话,那我们研发的这个新一代的这个芯片,它会采用 gp、 npu 这种架构,那这个架构简单讲了,它的特点就是具有这个内扩大的这种呃编程的友好性,同时又具有呢这种, 呃像 tpu 或者是像 lpu、 lpu 这样的架构的这种架构的它的这种呃呃呃比较接近的这个推理的这个效率,那同时的话我们会基于国产的这个三 d 软,然后呢会实现呃这个场景的这种极致的推理的性能, 那那那希望就是这样的话,就是我们认为在云退役这个场景场景下的话,呃就首先是退役效率,其次的话是还要满足这种 我们所通用的这种这个就是就是用户的呃呃编程习惯和这个易用性这方面的呃这个呃这个诉求,那这样才能才能满足这个云推力的这个场景它的快速呃呃这个模型快速部署 以及这个快速迭代啊,就是这个模型在快速迭代的这种这种,呃这个客户的诉求和需求啊。另外同时要要有这种非常相比于这个 gpu 来说啊,要有要有足够的这种 tcu, 呃这个这个超高的,这个超低的这个这个这个 tcu 啊这样的一个 呃呃所以基于这个的话我们也会就就呃站在我们公司来说,在一方面是我们基于原本的基于这个推理场景或者是推理的这个这方面的极致推理的处理器的研究,同时我们呃呃呃在这个 在这个面向云端的这种集群化的部署,呃我们首创的商业节目架构,以及呢这个基于这种对于这种存储的,像这种三 d 的 这种存储的,我们的这种潜在性的,呃,这个,呃研究,那么结合这些这些方面我们的积累吧。呃,我们会有序的会, 呃进行这个,呃这个去围绕这个云场景的,新一代的这种三 d 的 这种推理芯片的这么一个研发和落地。 那我理解啊,就是未来我们也是要坚定的走进群这个路径。嗯,然后呢,我们现在也在这方面有比较深厚的一个积累,嗯,接下来的话我们会不会要在处理上打造极致性价比?嗯,去不断的迭代啊?我不知道这样,嗯,可以这么理解。 嗯,是的。然后另外一个,嗯,我身边有个小伙伴也托我去问一个问题啊,因为最近我们也看到就凯奇近期也表示他们去开发出了高堆叠的氧化物的半导体勾到的晶体管啊,去支持高密度的三 d 图案啊。其实我想问,因为现在我们看的话可能还是更多是国内目前在想这个方案。我不,我不知道。您从 你的两个角度来看,未来就是这个三 d 图案,是未来只是在国内这样一个场景呢?还是说未来可能他会成为一个全球去共事的一个方案? 事实上国外在三 d ram 上面的就三 d 堆叠这块的进度也不亚于国内的。那,呃,美国的话也已经有。 呃,一方面在防水这边,像呃台积电呢,还有这个三星啊,他们都在积极的呃进行这方面的布局了。那同时的话在美国也有。我,我知道已经有一家公司,它的三 d 的 这个芯片也已经开始进入这个我们叫叫叫叫样片阶段吧。啊?在测试阶段啊, 所以从,呃,从这个三 d 这个技术本身,呃,我认为他不是中国独有的,也不会是中国独有,就是本身他所带来的这种好处就是这种推理式的好处,呃,我我觉得大家都是能看得到的,那那各家也都会去, 呃,呃,都会去,就是就是都会去尝试,当这里面带来的,呃还是回到这个工程化的这个挑战,那这里面可能会有优先级。那么国外的话,因为相对而言智诚 他,呃就是,呃没有那么多限制,所以呢在国外他们还会基于相对比较,呃比较比较成熟的。你比方说像用 s r m 这种晋升方案,包括用这个传统的,呃一种 t r h b m, 因为他可以拿到更先进的这个工艺,比如说斯兰, 甚至说这个酸辣工艺,那在这个上面来说,相对而言,那么他们所遇到的工程化的挑战会会小一些,那也更容易或者是更快速的把这个产品推出来。 那么三 d 呢?这块呢?工程化所要要要要做的事情啊,就是和这个要解决的问题啊,相比于这个,呃这个,呃这个,呃 ddr hbm, 呃包括这个 sm 来说,偏上 sm 来说这要多一些啊。这个我觉得还是需要时间。 嗯,难道我其实那块以前来说就国内在三 g 应用落地上也会比海外更快啊?我可以这么理解,对,因为国内有这个众所周知的一些限制吗?那我们必须要这个通过其他方式去去解决。你刚才提的这个像这个尺寸啊,包括工艺啊,那我们的支撑的这个现金程度肯定跟 这些还是有一定的差距的,但是的话站在这个市场的需求的角度来说,那毫无疑问都是希望说啊。我们现在哪怕基于国产的这个工艺,我能不能拿出跟国外的这个更先进工艺上,呃做出来的芯片,它的这个推理的这个成本和推理的性能可以做到 做到一致啊,呃,这个甚至说要做的更好啊。这个从从这个从产业的或者说是市场的需求来说,他是一视同仁的,他不会说因为我们的支撑落后好,他就容忍我们芯片落后啊?这个是, 这个是,这是不成立,所以我们要我们会探索这种更新的,呃,这些,呃这些技术,呃也也也会也会客观上造成说这些先进的一些技术的话,可能会国内会走的比这个国外会更快一些。 明白,就我可以这么理解,因为现在我们也知道国内的制程工艺其实现在限制了,会导致我们跟海外的整体的一个就是这个性价比的跟水上其实是有压力的。所以未来像三 d 这样的方案其实在国内化的拥抱的程度和推进的程度,在未来这种从商业化的角度说,他有那个必须加速推进的必要性,对吧? 另外一个就是关于计算问题也想跟您咨询一下,因为现在像三 d 这个方案有个很大的呃影响,就是它的整体的一个容量还是受到一个比较大的限制嘛。那所以最近也在讨论会不会就是未来是三 d 和风格在周边加 h、 b、 m, 甚至呃就是像 q 啊这种类型的方案, 不知道从这个角度来看,您觉得呃未来会有这种可能性,就通过三 d 加 h、 b、 m, 就是 呃结合二点五 d 对 叠这样的方式去解决容量这个问题。呃未来这个局部方案去给可信性, 我觉得应该不会加 hbm 这样子的,因为本身三 d 对 别的成本也不低, hbm 也也不低,而且这两个其实是, 呃,我认为应该是二选一的啊,不太不太会同时用,因为同时用意味着这个成本啊,不是说这个优势,其实三 d 的 优势的话啊,就会就会就会打打折扣了啊。更多的我觉得还是在系统层面上去考虑考虑问题, 就是在整个系统我们要去分析那这个这个这个推理的场景,这种细分的这种推理场景,他,他对于整个推理的就是不同阶段他的他的这个要求是什么?嗯,然后我们要组成一个什么样的一个推理系统 能够满足这个呃推理的需要,而不是说在单个芯片上我要去解决所有问题啊。明白。然后就未来是大家都说啊,就是未来训练推理可能是一个三比七一个状态, 然后在未来假设真的是一个三比七训推的这样一个比例,但未来这百分之七十的这个训练市场中比较在三 d 大 有可为的这样一个潜在上空间,你觉得能达到大概多大?你说推理还是训练?呃,推理 啊,就是就是,呃,就是三比七,就是百分之三十的训练,是吧?百分之七十的,对对对,这个推理推,然后三 d 在 这百分之七十的推理未来可能在国内能占到多大的一份额?呃,我我觉得,呃 呃如果是在整个推理市场,就是推理来说的话,呃,那么三 d 这种新型的架构,嗯 嗯。百分之呃呃如果要拍一个数字啊,我觉得百分之三十左右吧,呃是百分之七十,七十里面就是有,就总体算百分百,就总体百分之百的话,那么他占百分之三十左右。明白了,明白,这个是主要是考虑云端可以,对吧? 呃,对云,云端推理和边端推理吧,我认为都是呃,都都在里面,因为因为他就总体来说他还是呃就是核心,还是在于说未来的这个推理,他的推理的 呃呃现在的模型他也不是最终的这个模型,我们说模型本身也在快速迭代,包括计算范式,像现在我们的大模型的基础是传送嘛,但是再过一两年以后,而且有世界模型起来,他是不是说传送网还是最高效的?其实不好说, 那新的计算方式下啊,那他的这个呃呃要求是什么样的?就是最终最终就回到说 你的这个叫代价和成本之间他是一个什么样的关系?然后呢?有不同的这个 work load, 那 么他就不同的这个计算的负担。他对于,呃,对于这个,呃这种这种以不同的结构的, 他的他的这个是不是需要你这些不同的结构啊?那我们举例说像这个三 d ram 它就最大的特点还是也是在贷款啊,贷款这个维度上面,那也就是说对于那些 这种对于贷款有着更高要求的啊。那么那么那么这个,呃三 d 的 这种结构或者进程的这个结构是,呃是有它的优势的,那他会,他会那个,但但是如果说啊,在部分的这种计算呃阶段,呃就模型推理的,在在某些阶段他不需要 啊,不需要,就他不是这种贷款的瓶颈,那你提供这么高的这个贷款,其实啊,其实他的帮助就不大 啊,那这个时候他可能是需要有着另外一种更高性价比的这种这种芯片方案。所以站在这个角度,你刚才包括前面我们说的 pd 分 离啊、 a f 分 离啊,刻沟上,他就会变成说我们为了追求极致的这个推理的成本, 呃,我们就是要把整个推理过程都拆开,在不同的方面,不同的方面我们要会画出不同的芯片啊,那这种不同的芯片里面其实包含的有一个是计算架构,第二个就是存储架构 啊,所以我不认为说哪怕这个三 d 软,我们认为他有有优势,我也不认为他是所有场景都适合啊,在某些场景下,那么呃可能用其他的方案,他的性价比更高啊。 所以,呃,我觉得这个无论是端侧的,就是边端侧的还是匀侧的,那么三 d 的 这种方案啊,我认为他也只是占其中的一部分,不会占全部。 那你呢?正好你也提及这个呃问题啊,这未来就是基于一年,可能像谷歌的第四发布之后,其实呃理论上世界模型也是会有个比较大的突破的。我理解世界模型,因为他要去生成三 d 的 环境,理论上他对生成的速度和那个操作的冲突理论上要求是更高的。 就如果从这个角度来看,是不是理论上它编辑上对三 d 这个发展其实在未来也是更厉害。呃呃。这个你还是要去。我,我首先我现在对世界目前现在研究的还不够啊,目前因为,呃一方面这个也是还是处于这个初期啊。那么我们说这个三 d 对 于这个物理世界的深层,那我们也要去看, 他是,呃,他是计算密集型,就是是我们说卡的是计算你还是卡的是这个贷款。那,那对于,呃这个叫叫世界模型的前身,你像这种或者说是我们现在所看到的 这个这个像 sorry 也好,还是说,呃呃这些纹身视频的这些模型也好,那么他们基本上不是卡贷款啊,他们是卡卡卡这个计算,因为他他处理的都是 case, 都是这种以三维的这种 pick, 那 这种的话他是他的计算的要求会更更高,有有这个级别,所以呢?反正贷款的要求没有那么高。 对,好的好,明白,明白。呃。就是呃。最后想再给你总结做一下,就是未来我们看的,呃就是最后一个问题啊,也是那个有个投资者我去问的就是,呃现在来看,因为现在在这个文旅公局还需要采用一下啊,一种天下的是一个 趋势啊,呃就整个格局还是非常稳固啊。就是未来,嗯,你也提到就未来车厘子已经是多元化了,嗯,就想跟您咨询一下,就从您的角度来看,就是,呃这样的一个算力,从该级还是走向多元,可能在未来的一个什么样的时间点到来?第二是从国内和国外的话,这个时间点会不会有一些差异? 呃,我觉得多样化什么时候到来,其实最核心的还在于我们现在这些大模型,它对于,呃现实世界的渗透会到什么程度啊?或者说这个大模型什么时候能够实现这个大规模的普及,甚至说全全场景的普及。 呃,当这个时候来的时候,那我觉得那芯片的多样化自然就会过来,因为那现在来说可能大家觉得还是呃这个 gpu, 因为它的 gpu 最好用, 但是随着这个,呃这个这个应用它铺开了,就大模型的这个场景应用,真正的这个应用场景铺开了,自然他就会就会就会就会有这个 我们说啊这种追求低成本的诉求,自然就会有这些多样化的需要。当然作为芯片,呃我们这个从事这个芯片的我会 呃会更灵敏的去去去前瞻性的去看这些,呃这些场景,就是站在我们做这个呃推理的角度来说,那我们会前瞻性去看,那么会在提前那么一到两年会去做这个预判,然后呢针对性的做这个相关的这种推理芯片的,呃这个研发,然后去,那么等到这个, 呃这个这个机会来的时候,那我们就可以呃就可以应用上去啊,这个市场需要,呃这是一个。第二个呢,就是站在这个中美来说,呃 呃呃,从这个还真不好说。这个呃其实现在国家层面上包括事物规划也在倡导,就是 最大一场的就是应用,就是怎么把这个人工智能大模型能够呃更大程度的这个应用和渗透。那么国家也提出来了,二零二零二八年的渗透率要达到百分之七十,然后二零三零年要达到百分之九十, 所以站在这个角度来说呢,呃可能这个多样化,呃在国内啊,呃可能会更快的出现。而美国它如果没有这么这么强的这个 呃这个这个推动的话,呃那么可能会呃他们可能会呃一些,这个就更多的会采用同一架构的这个这个芯片啊。而国内来说,因为这个叫叫叫应用的这个,呃这个这个成本的倒推吧,我们可能会更快的会出现多样化, 嗯,对。然后我现在在以前想问一下,就是,呃未来,我不知道三 d 是 现在,因为我们也看到国内是有很多新的创业公司在搞新的推力加购嘛?我不知道从你的角度来说,三 d 这个方案是不是,呃目前从 多个方面的成熟度和现实条件下,它是国内就有可能在新技术方面上能够快速缩短跟呃海外这个差距的一个有效的一个新的技术路线。 对,这个我比较认同,我认为三 d 的 话,呃可能是我们在推,就是在训练上面来说,那我们毫无疑问跟 跟这个国际上的这个差距,呃是是有差距的。而且这个差距要想呃追追追棋、追品甚至赶超,呃还需要实践。但是在推理上来说,我们呃通过这种,呃三 d、 三 d ram 的 这种新型的这种,呃这种这种 这个结构和架构吧,我们有机会啊,有机会这个在推理上能够,呃能够实现这个,呃这个对于实现超越吧。 哎,好了好了,那我总结一下今天的整体,一个交流,一个结果,第一个就是未来,其实从训练往推理去逐渐走的时候,未来在推理侧未来的一个芯片架构的多样化应该是一个必然的一个趋势 啊。第二个呢,一个比较重点就是啊,基于国内的现实条件来看呢,未来,嗯,其实要推进整个国内的技术,呃,就是应用的落地,其实未来项目也是非常重要的一个命题啊, 在推理成了目前整个三 d, 呃, g m 的 这个方案是在中期来看最成熟,是最有可能作为一个国内非常好的一个新技术路径去缩短我们跟嗯,海外这样的一个先进水平非常好的一个新的一个技术路径 啊。另外一块话,从这个落地节奏上来看的话,可能,嗯,未来一两年内可能会在端侧和部分边缘侧会进行个小部分的落地,然后可能两年左右未来在临侧可能就有个就大规模去推广的一个可信度。所以未来三里这个方向可能是国内后续往整个 推力侧的一个新的技术方案,事实上非常重要一个组成一个部分。哎,哎,真的,我不知道这整个的一个总结啊,跟您的整个理解是否一致。嗯啊,这个基本一致。 哎,好的好的,那今天啊,也是非常有幸能够呃邀请哪位军总和韩总跟帮我们去进 行这次产业的一个解读啊,因为时间有限,预计接近一个小时了啊,那今天的整体的一个呃交流就先到此结束,然后后续如果各位领导对这个新的这个方向啊,包括对云天利飞啊有什么感兴趣的话,也欢迎联系我们团队。然后云天利飞呢,也是我们现在大家经常接触下来啊,最早提出要 o e 推理 呃这个新呃极致推理这样的一个公司我们也非常看好未来公司在这个训练网退役时代转型呃,去呃,这样一个机会能成长起来的一个公司,也建议各位领导去积极的关注啊。那感谢各位领导的倾听,那今天电话会议就先到此结束。 好,谢谢大家,感谢两位领导参与,谢谢董老师。嗯,好,感谢大家参加本次会议。会议到此结束,祝大家生活愉快,再见。 i want you to。

欢迎收听今天的 a b one radio 热点。早知道我是 abby, 你 听说了吗?英伟达和 grok 刚公布了一个挺微妙的合作,说是技术授权,但听说核心团队都过去帮忙了,这事怎么看?嗯, 表面是授权,实际像一场精心设计的人才。千玺。更有趣的是,一边说不是收购,一边又爆出两百亿美元的收购价, 市场都在猜这到底是不是在绕开反垄断审查。对,我也觉得这个节奏很特别, grok 明明还争议,而他们之前四百亿想收购二亩直接失败了。现在用技术授权加核心团队加入的方式,既拿到了 lpu 的 高速推理架构,又避开了反垄断的雷区。 groc 保持独立,客户不会觉得被吞并,生态信任还在。那。 groc 的 lpu 芯片真有宣传的那么猛吗?说推理速度比英伟达 gpu 快 十倍以上。新闻里明确提到这是 groc 单方面宣称的数据,没有第三方验证。 创始人张德森 ross 确实有谷歌 tpu 的 背景,技术能力可信,但没有公开的精准测试、实测对比或者独立机构的评估报告。 所以目前这个十倍更像是营销口径,不是行业共识。那英伟达为什么非得要这个技术啊?他们自己的 gpu 不是 已经统治市场了吗?因为 ai 推理的成本和效率正在成为新的战场。 英伟达的 gpu 强在训练,但推理场景越来越多,客户需要更低延迟、更低功耗的方案。 lpu 的 架构设计就是为推理优化的,如果真能稳定实现十倍效率,那对云服务商、自动驾驶、实时 ai 应用都是颠覆性的, 英伟达不能等别人把它变成主流,必须提前吸收。说到竞争, amd 的 m i 三五五 x 和 m i 三零八最近也挺火,说在内存容量和精准测试里超过英伟达 b 二零零了。 而且阿里巴巴计划采购四万到五万颗 amdmi 三零八芯片,这背后是客户对供应链多样化的强烈需求。英伟达太强了,大家怕被卡脖子。现在只要有人能提供性能接近、价格合理、非美国单一来源的选项,就会被迅速采纳。 amd 正抓住这个窗口,靠性能和电源优势在数据中心抢份额。有意思的是,英伟达自己也在搞基础设施,比如和 sk 海力士合作开发 ai 专用 ssd, 目标是每秒一亿次 iops。 没错, 现在的瓶颈已经不是 gpu 算力了,而是数据从存储到内存的搬运速度。大模型推理时, hbm 内存再快,如果 ssd 读不出数据,整个系统就卡住。 这个 ai ssd 的 目标就是打通内存存储链路,让数据流更顺畅。这说明英伟达的策略已经从卖芯片转向构建整个 ai 算力战。那中国那些 ai 芯片公司呢?市值加起来超过一点二万亿人民币, 但营收还不到德州仪器的十四分之一,这是不是说明他们还在烧钱阶段?是的,他们的核心团队大多来自英伟达或 amd, 技术路径高度对标, 资本给的估值很高,但商业化能力还没跟上,没有像 cuda 那 样的软件生态,没有大规模客户验证, 没有稳定营收模型,他们还在追赶,离真正自立还有很长的路。还有个细节,英伟达暂停了对英特尔一八 a 工艺的测试,转去评估一四 a 或一八 ap。 这代表对英特尔失去信心了吗?不能这么直接下结论,这是芯片设计公司的常规动作, 评估下一代工艺的性能和良率预期。暂停测试不代表否定,而是把资源集中在更可能落地的未来节点上,这属于技术路线的阶段性调整,不是信任危机。特斯拉 f s d v 一 四被英伟达专家称为首个通过物理图灵测试的 ai 系统。这代表什么? 这意味着 ai 不 再只是理解图像或文字,而是能在真实物理世界中做出类人决策,比如自动避让、预判行人意图处理突发路况。 它不再是规则驱动或模拟环境下的表现,而是具备动态适应能力。这是 ai 从认知走向控制的关键一步,可能重塑自动驾驶和机器人领域。英伟达计划二零二六年二月向中国交付 h 二零零芯片,首批四万到八万颗。这算不算一种妥协? 更准确的说,是在限制中维持存在。他们用现有库存履行订单,确保合规,但没放弃这个全球最大 ai 市场之一的客户关系。这说明英伟达的策略是 不退出,但要谨慎,只要能保持生态年性,就还有机会。最后, grog 和英伟达都入选了美国政府的创世纪计划,和白宫能源部一起合作。这说明什么?这代表 ai 基础设施已经不是纯商业行为,而是国家科技竞争力的核心。 二十四家企业联合政府,意味着算力资源正在被系统性整合,目标是保障美国在 ai 时代的主导权。 英伟达和 grog 现在既是企业,也是国家战略的执行者。所以总结一下,英伟达正在用一种更隐蔽、更高效的方式吸收颠覆性技术,同时构建从芯片、内存、存储到软件的完整 ai 生态。 而竞争者们,无论是 amd、 韩国企业还是中国芯片公司,都在试图打破单一依赖,但 grog 宣称的十倍推理速度还没被验证,中国企业的营收能力仍远落后于技术投入,这些都是潜在的风险点。 感谢你牛,我们下期 a b one radio 热点早知道,再见!

n v 的 supercracker 的 背后,这一家企业会涨百分之三十,那这一家企业为什么能够涨百分之三十呢?我给你拆解一下 gpu、 tpu、 lpu, 你 就知道它分别会利好谁,利空谁。首先大家要明白一个底层逻辑, 过去这一轮产业周期,大家都知道 nvidia 就 代表着 ai, ai 等于散利,散利等于 gpu, gpu 等于英伟达,所以英伟达的公司逻辑不断地被简化、压缩。就好像现在全网都在讨论 hbn, 大家不懂装懂,一窝蜂的在讨论所谓的 hbn, 所以呢,不断地去买一些闪存,比如说美光闪迪,大家去投闪存的逻辑是什么? 当你的土地面积一定,机房数量一定的时候,我去扩大我的存储空间,就是增加我整个机房的单位经济效益。那我就考你们一个真正关于 hbn 的 知识点,你们知道 hbn 存储模块站在整个 n v a 的 gpu 里面,它的成本会需要多少吗? 答案是一千到两千美元。这一种供应链上游材料产品卡脖子的现象屡次发生。比如说五年前我跟你们说过的,咱们的新能源大热的时候,宁德时代市值突破了新高,达到了万亿市值。结果呢,宁德时代不断的去缩减自身的才能,不 不断的在电子产品上提价,从而逼迫了什么?逼迫了市场上其他的竞争对手。往后你就看到了宁德时代所谓的一池难求电池占据绝对的供应地位的领导地位不复存在。所以宁德时代市值呢,也一路走低, 直到前段时间重新上市,港股市值才修复回来。那你说 hbn 今天有没有这个情况呢? hbn 它并不是一种可以无限复制的资源,并且 hbn 它所谓的技术壁垒也没有非常的高, hbn 最后比拼的就是单位价格里面谁的储存效率最高,所以供应商极度集中,扩展周期极长,技术路径高度绑定,先进风霜, 资本开支不可逆的重投入资产。你觉得 hbn 能够比宁德时代的电池还要垄断市场吗?如果这个东西无法解决供给的话,你觉得 n v 的 股 哥等其他的 gpu, tpu, 他 们会不会找到另外的解决办法跟替代方案?为什么你们会有这种想法?你会觉得说你做一个企业,你要尽可能的做到产品的垄断,但是我告诉你们啊, 任何伟大的企业,他不是通过资源产品的垄断,使得市场不断的通过高溢价高价格去采购我的产品,从而我成为巨头的。恰恰相反,如果你想成为这个世界上的巨头科技企业,你 通常需要提供一个极度低门槛甚至免费宽放的产品,使得整个市场的用户都用上你的产品,这个时候你才可能成为这个行业的领导者跟巨头。如果你要我用一句话来解释英伟达为什么收购 rock, 那 rock 主要做的业务是什么呢?他做的是整一个推理芯片里面低成本低毛利率的商业模式,因为他把本身的储存模块直接集成在芯片上面, 他的芯片都是用于小模型的推理。所以如果你让我以资本的角度来看英伟达收购 rock 这个企业的话,我觉得是利大于弊的, 我接下来说的话呢,只有你从业 ai 或互联网的你们才能够听得明白,如果你没从事的话,你们可以试着尝试了解跟理解,我觉得你们应该比较难理解。 首先第一个点啊, ai 推理它本身是一个需求量极大但是利率极低的一个产业,关键的问题是什么?英伟达每一年的 gpu 的 产量是固定的, 再想往上拔很难拔,拔不了。如果你想扩没问题,你得用到非常棘手且稀缺的主见,比如说 hbn 或者台积电的先进封装才能 coos, 所以 不是英伟达你想扩就扩的,你一扩,你需要供应链上下游一起配合,你才能够扩得出来。然而英伟达收购的 rock, 它完全不需要 hbn 或者 coos, 先进封装恰恰就是这个商业模式。对于 高需求、需求量大且低毛利的推理业务,那就显得尤为的重要。你就不难理解从资本角度以及运营企业的角度,为什么 nba 会去收购这家企业, 核心原因就在于他们愿意承接这一类高销量且低毛利的业务,让比如说 gpu, tpu 等其他企业专注于高毛利的训练市场,而他们专注于低毛利的推理业务,这 就补齐了 n v d 的 短板。如果你们想理解的通俗一点的场景的话,你可以理解为英伟达之前做的是苹果,今天呢? n v d 呢?把安卓也收集齐了。所以英伟达现在双剑齐发,既做苹果的高毛利高端市场,又做安卓的低毛利低端市场。当你了解了这两个场景的时候,那么你就可以理解成什么,如果你把整个 ai 行业看成就是手机行业, 那么接下来该爆发的是哪个板块?接下来哪个板块的哪一家企业会有大量的资本涌入?你们觉得会是哪一家?你们猜猜看,我们董事会哈会选哪一家能够在近期之内吃到百分之三十的涨幅,而且这一家还有很有可能从千亿飞到万亿市值。

二零二五年十二月二十四日,正值西方圣诞前夜,芯片行业被一则消息打破平静,英伟达与 ai 推理芯片初创公司 growq 达成一项非独家授权协议。 根据协议,英伟达将支付约两百亿美元现金,获得 growq 核心 ai 推理技术的使用许可。同时, growq 创始人兼 ceo jonathan ross、 总裁 sony medra 及核心工程团队将加入英伟达。 这并非是传统的公司收购,而是一种日渐流行于科技巨头间的技术许可加人才吸纳模式。 交易金额达到 grootq 最近六十九亿美元估值的三倍,却巧妙规避了严格的反垄断审查程序。 grootq 的 云服务业务将继续独立运营,由新任 ceo simon edwards 接管。而英伟达则通过这一安排获得了其在大模型推理领域的关键技术能力。 这一消息迅速在科技圈引发震动,毕竟这将是英伟达有史以来规模最大的一笔收购。不过,随后两家公司的官方声明澄清了交易的具体性质。 英伟达发言人表示,我们并未收购 growq, 这只是一项技术许可安排。更准确的描述是,英伟达支付两百亿美元,获得了 growq 知识产权和关键资产的非独家授权, 并同时聘用了该公司的创始人团队和核心技术人员。这种准收购模式在近年来大型科技公司争夺 ai 人才与技术的竞争中越来越常见。 微软、亚马逊和谷歌都曾采用类似方式,在不正式收购公司的情况下,通过监管审查同时获取核心创新能力。对英达来说,这笔交易规模远超其二零一九年以近七十亿美元收购以色列芯片公司 melonox 的 记录。 即使放在整个芯片行业,两百亿美元的现金支出也最为引人注目,凸显了英伟达对 ai 推理市场战略地位的重视。 这项合作协议的具体内容经过精心设计,反映出英伟达成熟的法律与战略考量。在技术授权方面,英伟达获得了 groq 的 lpu 推理技术的非独家使用权, 这意味着 groq 仍可继续授权该技术给其他公司,而英伟达则能够将这些技术整合进自己的产品路线途中。 在资金安排上,两百亿美元现金支付给 growq 的 投资者,包括贝莱德、 tiger global management 等机构。据了解,支付结构中包含基于未来业绩的分析,付款安排将部分回报与 growq 独立业务的后续表现挂钩。在人才迁移上, jonathan ross 作为谷歌第一代 tpu 的 核心研发人员,深度参与了击败李氏时代 alpha go 所采用的芯片设计。二零一六年,他带领谷歌 tpu 团队十名核心成员中的七位一同离职,创立了 grogq。 要理解这笔交易的价值,必须先了解 grog 究竟是一家什么样的公司。 groc 成立于二零一六年,总部位于美国加利福尼亚,由 jonathan ross 创立,公司名称来源于 grouq, 意为每秒推理查询术,体现了其对推理性能的专注。 groc 的 核心技术是 lpu, 即语言处理单元,这是一种专门为大语言模型推理任务设计的芯片,强调低延迟、高吞吐和能效表现 lpu 的 工作原理与英伟达 gpu 有 本质不同, 它采用了一种名为持续指令级计算机的架构,使用静态随机存取存储器,其速度比 gpu 所用的高带宽存储器快约二十倍。在性能表现上, growq 芯片确实有其独特优势。 在 lama、 mix、 straw 等大模型上,其文本生成速度可达每秒五百个 token, 远超同期 gpu 表现。据 growq 称,其芯片生成每个 token 仅需一到三十, gpu 则需要十到三十兆二。 但 growq 的 技术路线也有其局限性,每张 growq 卡的内存容量仅为两百三十 mb, 因此运行 lama 二七零 b 模型需要三百零五到五百七十二张卡,而用 h 一 百只需要八张。英伟达此次交易的战略意图可以从多个维度解读, 最直接的是补齐 ai 推理能力短板。尽管英伟达的 gpu 在 ai 模型训练方面占据绝对主导,但在运行聊天、机器人等推理应用时,其芯片往往体积过大、成本过高,市场一直在寻找更廉价高效的替代方案,而 groq 的 技术正是为此而生。 芯片咨询公司 semi analysis 的 首席分析师 delin patel 指出,虽然 goreq 的 第一代芯片尚未形成有利竞争,但其后续两代产品即将推出,英伟达可能在 goreq 的 新一代技术中看到了潜在威胁,因此选择先发制人。 从竞争格局看,英伟达面临着多方挑战,谷歌的 tpu 已成为其 gpu 的 有力竞争者,苹果和 antropic 等公司已使用 tpu 训练大模型,同时, mate 和 open ai 也在研发自己的专用推理芯片,以减少对英伟达的依赖。 英伟达通过这笔交易,实质上是将潜在竞争对手的技术路线纳入自身体系,既消除了威胁,又增强了自身产品组合的完整性。值得注意的是, grog trunks、 jonathan ross 曾是谷歌 tpu 核心成员, 这意味着,英伟达通过这笔交易,实质上是用谷歌的人打败谷歌,用魔法来打败魔法。从产业趋势看,大模型从训练转向推理的趋势更为明显。越来越多的企业从堆训练、算力转向把推理做成规模、做成成本、做成交付。 英伟达在做的,正是确保自己在这一价值重心迁移过程中依然站在中心位置。英伟达管理层曾多次看似否认 asic 的 价值,黄仁勋曾反复强调,很多芯片被设计出来,但并没有被真正部署。如今看来,这句话的潜台词可能是,你随便设计,英伟达帮你部署。 当 lpu 真的 跑到能用、好用、可规模化的门槛上时,英伟达便伸手摘走了这颗果实。 这笔交易将对 ai 芯片行业产生深邃影响,其联一效应将逐渐显现。从产品路线看,英伟达在二零二四年传出成立 aicc 部门,如今又获得 groq 的 lpu 技术, 其 aicc 版图已逐渐清晰。在 ai 推理时代,英伟达正在将外部威胁变成内部能力,将竞争变量变成体系内的可选项。 对整个 ai 芯片生态而言,这标志着专用推理芯片的成熟。大模型从训练转向推理的趋势已不可逆转,专用推理芯片的优势将日渐凸显。 groq 的 技术被英伟达整合,意味着 lpu 等专用推理架构将获得更广泛的应用场景和生态系统支持。最后,英伟达二零二五年第三季度的现金储备已达到六百零六亿美元。这家芯片巨头手握重金,在 ai 推理时代到来前夜完成了一次精准布局。 随着 grog 创始人 jonathan ross 带领团队加入,英伟达获得了来自谷歌 tpu 体系的核心技术基因。曾经分散的技术脉络,如今以另一种方式汇入英伟达的河流, ai 芯片行业的故事正在翻开新的一页。好的,今天的节目到此结束,我们下期再见。

近日,英伟达用两百亿美元现金与 ai 芯片公司 rock 达成协议。需要注意的是,这笔交易非传统意义上的收购,而是份非排他性技术许可协议。根据协议,英伟达获得 rock 在 ai 领域关键技术的使用权,并引入了其核心工程团队,而 rock 公司将保持独立运营,使英伟达在获取技术与人才时也降低了触及反垄断监管风险。 rock 由前谷歌开发者创立, 其自主研发的语言处理单元 o p u, 专注于 ai 推理任务以及低延迟和高能效著称。当前, ai 产业的重心正从模型训练向大规模推理部署转移, rock 技术恰好填补了这环节。英伟达想将 rock 低延迟推理融入其庞大 ai 工厂生态中,强化实时 ai 计算领域解决能力,这着涉出行业对推理的需求,也体现了巨头通过灵活合作巩固技术护城河的战略思路。

我们今天聊的这事啊,主角是英伟达,他最近搞了个大动作,花了整整两百亿美元。但你知道吗?这笔钱花的有多聪明,比这个数字本身有意思多了。咱们今天就来好好扒一扒,这背后到底是怎么回事?没错,就是这个数啊,两百亿美金, 你看,作为 ai 芯片界的绝对老大,英伟达为了保住自己的龙头地位,可以说是不吸血本。不过啊,这笔钱可不是随便撒出去的,它的用法真的比我们大多数人想的都要高明。 圈内人都说,殷维达这步棋走的简直是神来之笔,为什么这么说呢?他的高明之处啊,不光是看上了什么牛逼技术,更关键的是,他用一种特别巧妙的方式,绕开了一个天大的麻烦,这才是今天咱们要说的重点。 好,我们先来看看这颗价值两百亿美元的 ai 重磅炸弹,它到底引爆了什么? 你看,这是最让人摸不着头脑的地方就在这了。官方说法轻描淡写说是什么非独家协议,听起来好像就是个普通的合作吗?但懂行的人一看就明白这感觉,这架势明明就是一次收购啊! 那问题来了,他到底是怎么做到既拿到了收购的好处,又不用背收购的名呢?所以,这葫芦里到底卖的什么药?嗯,要想搞清楚英伟达的算盘,咱们得先把聚光灯打到这次交易的另一位主角身上, 他就是一家叫 grog 的 公司。所以,英伟达这到底是不是一次伪装的收购呢?我们来看看。 嘿,在咱们网瞎聊之前,得先做个小小的科普,因为这个名字太容易搞混了,记住,我们今天说的是 grog 结尾是个 q 的 这个, 它是一家美国的硬件公司,千万别跟马斯克那个 ai 聊天机器人 grog 结尾是个 k 的 那个弄混了啊,这俩完全不是一回事,好名字搞清楚了, 那这家 grog 公司,它到底有什么独门绝技,能让英伟达心甘情愿地掏出两百亿美金呢?我们来认识一下它和它的核心技术 lpu。 你 看啊,这两家公司摆在一起啊,简直就是科技版的大卫与哥利亚。 一边是英伟达这个 ai 界的巨无霸,它的 gpu 我 们都知道,是用来训练 ai, 也就是教 ai 学习的这块儿它说了算。而另一边呢,是这个相对小众的创新者 grok, 它不跟英伟达硬碰硬,而是专攻另一个领域, ai 推理,也就是让已经学成的 ai 去应用它的知识,它的秘密武器就叫 lpu。 所以这个 lpu 到底是个啥?全称叫语言处理单元,它是一种很特别的芯片,叫 asic, 这个 asic 你 就可以理解成一个专才,不像 gpu 那 种什么都能干的通才。 lpu 被设计出来的唯一目的就是干好一件事, ai 推理,而且要用地球上最快的速度去完成它。 这几点就是 l p u 真正让英伟达眼馋的地方,它执行起来特别快,而且能耗非常非常低。 它之所以延时能做到那么低,关键就在于它把一种叫 s r a m 的 高速缓冲直接做到了芯片上,这样一来,数据传输就几乎没有瓶颈了。简单一句话总结,在 ai 推理这个赛道上, l p u 就 代表了极致的速度和效率? 好了解了 grok 的 技术有多牛,我们现在就能回到最开始那个谜题了,英伟达到底是怎么操作的,才能在民意上不收购的情况下,把 grok 的 技术和人才都收入囊中呢?这就是他的监管规避术。 我们再来看一点,官方声明写的是什么?一项关于其推理技术的非独家授权协议。你看这话说的四平八稳,听起来平平无奇,但是啊,真正的魔鬼全都藏在这些字眼背后的细节里。 咱别看它叫什么协议,我们直接看结果。第一, grog 最顶尖最核心的那帮人才集体加入了英文的。 第二,英伟达实际上拿到了 l p p u 技术的控制权。然后也是最绝的一点,因为这在法律上不算收购,所以整个交易完全不需要经过漫长的反垄断审查。最后的结果是什么?一笔事实上的收购,别人可能要花一年多,他几天就搞定了。 这一张图就能让你特别直观地感受到这个操作有多夸张。你看啊,左边一个,光是走各种监管流程,平均就要九到十八个月。再看右边英伟达和 grog 这笔交易呢几天,这已经不只是速度快了,这简直就是在另一个维度上玩游戏。 所以说,英伟达为什么要这么大费周章,非要用这种瞒天过海的方式来做这件事呢?因为这背后藏着他的终极野心,这是一场真正的 ai 权力游戏。 这下整件事儿的逻辑就通了。我们前面说了,英伟达在教 ai 学习的训练环节已经是绝对的霸主了,没人能撼动。但是呢,在用 ai 的 推理环节,它其实是有短板的,竞争对手很多, 而 grog 的 技术正好就补上了这块短板,它就是英伟达称霸整个 ai 流程所需要的。那最后一块,也是最关键的一块拼图, 这张表就看得更清楚了,在这次交易之前,你看英伟达在 ai 模型训练这块是完全主导没问题,但是在 ai 模型推理这块,它的地位只能说是较弱。 那交易之后呢,情况就完全不一样了,它在推理领域也瞬间占据了主导地位,这就意味着,从训练到推理,整个 ai 的 工作流都被它牢牢地控制在了手里。 那未来具体会怎么玩呢?很可能会是这样一种分工合作,英伟达自己强大的 gpu, 负责处理最开始那个计算量巨大的预填充任务, 然后把接力棒交给 grok 的 lpu, 利用它超高的效率和超低的链池来快速生成后面的每一个字,也就是解码。这么一套组合权下来,英伟达就等于掌握了市面上最高效的 ai 推力流程。 所以你看,这整件事,就给我们留下了一个非常值得思考的问题,因为达的这次操作,是不是给未来所有的科技巨头都提供了一份全新的并购说明书,一份可以巧妙绕开监管的剧本? 这笔所谓的天才交易,它真正的影响可能才刚刚开始显现。对于这种玩法,你怎么看?

家人们, ai 圈出大事了,最近传闻英伟达要砸两百亿美金收购谷铎,这简直是给 ai 硬件市场投下了一颗核弹。 大家都在用英伟达的 gpu 跑模型,怎么突然就要买谷铎了?其实这里面藏着一个 ai 推理的致命真相,咱们现在的 gpu 太聪明也太乱了! 现在的 gpu 为了全能搞了一堆动态调度和缓存,结果在追求极致速度的 ai 推理场景下,经常出现莫名的卡顿。而 groot 这哥们是个死脑筋,他主打一个确定性。什么是确定性?就是他在动工之前就把每一块数据的流向、每一个指定的执行时间,精确到毫秒级的安排的明明白白。 groot 把硬件的复杂性全甩给了超级变音器,让硬件变成一个只管按表执行的工具人。这种反直觉的做法反而带来了低延迟和高效率的奇迹。 英伟达看上它,正是为了补齐 gpu 在 通信延迟和长尾效益上的短板。如果收购成功,未来的 ai 芯片可能不再是单纯的暴力计算,而是兼具通用性和极致确定性的混合体。 这意味着你以后跟 ai 聊天用自动驾驶会变得前所未有的丝滑。想知道这场百亿收购背后的技术细节吗?快来频道看完整视频,带你拆解 groot 的 硬核黑科技!

圣诞夜,芯片霸主英伟达豪掷两千亿买下了一个市场份额还不到百分之一的小角色。是钱多的没处花,还是受到了什么致命威胁?就在大家忙着拆圣诞礼物的时候,芯片界的武林盟主英伟达突然甩出了一份价值两百亿美元,也就是接近一千四百亿人民币的超级大礼单。收礼的对象是一家名叫 goraki 的 ai 芯片初创公司。 这笔钱有多夸张?它不仅是英伟达成立三十二年来最大首笔的交易金额,直接超越了二零一九年收购 melinox 的 记录。更让人折舌的是,就在今年九月, gore a 七的估值才不到七十亿美元, 短短三个月,老黄黄仁勋就愿意用近三倍的溢价把它拿下。但如果你去查查 gorek 的 成绩单,可能会更困惑,这家公司今年收入大概一点七亿美元,在全球 ai 芯片市场里份额连百分之一都不到。在过去,像 graph core 这样曾经被看好的挑战者,最终也没能撼动英伟达。 那么问题来了,一个看似微不足道的对手,凭什么让霸主如此紧张,甚至不惜砸下重金?答案可能就藏在 ai 战场下一个必争之地, 推理芯片,以及一场关于芯片供应链的终极绕行。首先得澄清一个关键点,严格来说,这不是一次传统收购英伟达和 garcia 官方口径是非排他性技术授权协议,简单说就是英伟达花钱获得了使用 grego 核心技术的许可。同时, grego 的 创始人、 ceo、 总裁等核心大脑将集体跳槽到英伟达, 而 gart 公司本身留下空壳和云业务继续独立运营,这操作是不是很眼熟?没错,这就是近几年硅谷巨头们心照不宣的标准操作。似乎是心照不宣的不是收购胜似收购的硅谷新招式。去年,微软用类似手法吸纳了 ai 公司 inflexion ai 的 核心团队。 谷歌和 mate 也玩过一样的套路,好处很明显,既能以最小成本、最快速度拿到想要的技术和最关键的人才,又能巧妙地绕开严苛的反垄断监管审查。 所以,无论名义如何,这都是一场对高锐 c 核心资产的精准收编。那么,戈尔克手里到底握着什么王牌,让英伟达觉得非买不可?核心就两个字,推理。 ai 芯片的工作分为训练和推理两大阶段。训练好比是学生刻苦读书,需要强大的通用算力,这正是英伟达 gpu 的 天下。而推理好比是学生参加考试,需要快速、准确、低成本的给出答案。随着叉 g、 p、 t 这类应用爆发,市场对推理芯片的需求正在指数级增长。 而 grak 的 lpu 就是 为推理,尤其是大语言模型推理而生的特种兵。它的厉害之处在于,用一种近乎物理外挂的方式,解决了困扰所有芯片的内存强难题。 我们可以把芯片想象成一个餐厅,计算单元是厨师,内存是仓库。现在厨师炒菜速度极快,但跑去仓库取食材的路太远太慢,导致厨师经常闲着等菜,这就是内存强。英美达和其他厂商的解决方案是修一条高速路,也就是使用 hbm 高带宽内存和复杂的 cos 先进封装技术,把仓库内存尽量建在厨房旁边, 但这高速路极其昂贵,而且产能牢牢掌握在少数巨头手里。戈尔切的做法则非常极端,他干脆不要外部仓库了。他把所有食材数据都直接堆在灶台旁, 利用芯片内部超大容量的 shram 存储,厨师一伸手就能拿到菜,彻底消灭了等待时间。这使得 grog 芯片在处理 ai 问答时,能实现每秒数百个 token 的 瞬间吐字,速度惊人。 更关键的是,这条技术路线意外地绕开了当今 ai 芯片最卡脖子的两大供应链关卡, hbm 和 cos 封装。这意味着,如果这条路走通,制造高端 ai 芯片将不再受限于那几条被巨头预定的高速路,制造门槛和周期都可能大幅降低。 分析师一针见血地指出,英伟达真正的护城河除了 c u、 d a 生态,更是他对全球稀缺的 h、 b、 m 和先进封装产物的买方垄断。而 goraki 恰恰演示了一种拆桥的可能性,这才是那个试战率百分之一的公司最让英伟达睡不着觉的颠覆性潜力。英伟达这笔看似激进的交易,其实清晰地传递出一个信号, ai 算力的江湖正在从 gpu 的 一统天下走向多条技术路线并存的战国时代。谷歌的 tpu 早已自成体系,并且获得了 open、 a i 等大客户的认可。像 serbros、 三八 nova 这样的非 gpu 架构初创公司正在获得巨额融资,甚至英特尔也在传闻要收购三八 nova 来补齐短板。 在我们国内,这个趋势同样明显。市场研究机构 idc 的 数据显示,二零二八年,这个比例将接近百分之五十,并且预计到二零二八年,这个比例将接近百分之五十。 这意味着,未来市场上将近一半的 ai 算力可能将不再有 gpu 提供。国内的玩家也在快速崛起,形成了清晰的矩阵,既有坚持 gpu 路线的公司,也有像韩五 g、 昆仑心这样的 esic 专用芯片强者,还有像轻微阵能这样 专注于可重构计算架构的技术派。这种多样化布局,正是为了保障算力供应链的安全和自主。所以英伟达这两百亿美元买的不仅仅是一家公司或一项技术,他买的是一张通往下一代 ai 计算架构的门票,买的是一场潜在供应链革命的主导权,更是在为即将到来的更加百花齐放的 ai 算力时代 提前落下一颗关键的棋子。老黄这一招乾坤大挪移,看似消灭了一个眼前的挑战者,实则承认了一个新时代的到来。 那个一款 gpu 通知所有 ai 任务的时代,正在慢慢远去。未来的 ai 算力版图,注定是通用 gpu 专用芯片和可重构架构,根据场景各显神通的混战江湖。你对这种非 gpu 芯片路线看好吗?你认为未来谁会是中国版的柏瑞克?

黄仁勋两百亿美金围猎格洛克这件事啊,绝对没有大家说的那么简单,这背后其实藏着一个 ai 下半场的方向。这两天我看很多人在解读啊,但是没有一个人说清楚。我之前也以为是普通的商业操作,但我坐下来细分析之后发现,这不仅仅是一场并购,更是英伟达在 亲手缝补帝国唯一的裂缝。很多人觉得英伟达已经是算力之王了啊,这里面的真相只有一个,就是 ai 的 下半场 推理的需求将是训练的成百上千倍。在正式说之前,我简单的交代一下背景,可能有的人不知道,就是英伟达花了两百亿把格鲁克核心团队打包到英伟达,并且把这个公司专门为大语言模型推理设计的 lpu 芯片的技术授权也拿过来了。 那接下来呢?我会用比较通俗的语言,从三个角度解读,因为达的这个动作,大家绝对可以听得懂。第一,为什么推理才是未来的战场啊?目前的 ai 呢,处于训练阶段,全世界都在买 gpu 啊,训练大模型,但这只是基建期啊。 ai 训练好比是编写教科书,或者是疯狂的喂数据,但书写完一次啊,就够了,那全世界的数据喂完也就行了。那推理好比是学生查字典,查知识啊,做试卷, 当全球几十亿人每天都要跟 ai 对 话,让 ai 帮忙写代码,做决策的时候,这种问答产生的算力需求是永无止境的。 那英伟达的危机感在于,它现有的 gpu 架构是为了训练设计的全能战车,但要在纯粹追求速度的推理赛道上,它的效率正在被格鲁克这种特种兵在挑战。第二就是格鲁克的估值只有六十九亿美金, 那为什么英伟达花了三倍的价格,两百亿美金?要把这个问题讲清楚?大家需要了解一个核心逻辑,就是英伟达和 group 的 技术路径的不同。通俗的来讲,英伟达用的是高带宽显从,也就是 hbm, 相当于大仓库的模式。英伟达的 gpu 为了通用性,所以它必须要背着一个巨大的 高带宽显从的仓库,就是 hbm, 因为训练模型时需要装下几千亿的参数,空间必须要大。那 这个的缺点就是从仓库搬运数据到大脑的这样的一个过程呢,会有延迟,而且内存的成本是极高的。 那 grog 用 s r a m, 也就是静态随机存储器,相当于一个贴身口袋的这样的一个模式。那 grog 这种 l p u 走的是极端路线啊,他彻底抛弃了这种外挂仓库,把所有数据都塞进芯片自带的静态随机存储器这个贴身口袋里。 那这样的优势在于数据传输几乎是零延迟,那吐字速度当然是快到飞起了,那短板就是口袋太小啊,一张卡装不下大模型, 因为达以前不重用这个方案是为了保住通用性的盘子,那现在买 gorek 是 因为他要抢占下半场极速推理的制高点,他要把 gorek 这种极致的 s r a m 调度技术集成到自己的下一代入品架构里,统治未来的实时 ai 市场, 那不仅要装得多,还要吐得快。另外就是通过吸收 s r a m 调度技术呢,降低这个 h b m 的 绝对依赖,那大家要知道,现在全球科技巨头都被 三家做内存的公司卡脖子啊,就是三星 s k, 海力士、元光这三家,如果后面和 s r a m 的 集成做得好的话,那即使内存价格再翻四倍啊,因为它也不会太慌。第三就是这场收购啊,是对芯片市场的一种降维打击。 那普通的芯片公司呢?还在纠结怎么把模型跑通,还在纠结怎么去设计芯片,各种芯片公司和科技巨头还在这个维度上在苦苦的挣扎,那英伟达已经通过 s r i m 架构把推理延迟达到了人类 感知的极限,那普通公司呢?刚出发,两条腿走路,英伟达已经开着车上高速了,你说这怎么比?这差距要多久才能补齐啊?虽然这种架构的调教难度极高啊,但也正是因为如此,有这个门槛呢, 新美达通过收购,直接把领先优势拉开了五十到一百倍,这直接是对芯片市场其他公司的降维打击。以上就是本条视频的内容啊,关注我,带你了解 a h n 的 事儿。

英伟达想要 groc 的 七个原因,在这里我说一下啊,不是 g r o k, 是 g r o q 啊! 那么就在几天前啊, ai 行业发生了一件可能被低估但极其关键的大事,就是全球市值最高 ai 芯片霸主英伟达拿下了 g r o q 的 核心资产、 技术授权,以及百分之九十以上的员工。注意啊,这不是一次传统意义上的收购,而是一场极其精密设计的交易。 在表面上看,这是一次授权加挖人,但实际上,他几乎就暴露了 ai 下一阶段真正的主战场。 那么咱们在深处再挖一挖,咱们就用今天的这个短视频啊,用七个真正的原因来告诉您,英伟达为什么必须拿下 guo。 那 么第一个原因就是 ai 的 主战场正在从训练转向推力 过去啊, ai 的 核心是训练,谁能够训练出更大的模型,谁就领先。 但现在世界已经变了,模型已经够聪明的了,真正消耗算力创造价值的,是每一次被调用、每一次的模型的思考和被拆解和被多轮推理的这个过程。 未来所有的 ai 应用本质上都是推理密集型的系统,而 guork 恰恰是为极致推理而生的芯片公司。 第二个原因, guork 不是 补充,而是潜在的威胁。 guork 的 芯片架构与英伟达的完全不同,它用的是大规模的片上 sram, 也就是静态随机存取的存储器, 而不是传统的 gpu 所依赖的 dram, 也就是动态的随机存取的存储器。那么结果只有一个,延迟极低,确定性极强,速度极快,这就是 guo 的 优势。那么这在实时语音智能体交互式 ai 的一些关键的场景之中, grog 就 能够切走那个增长最快,最赚钱的那一块市场,而这对英伟达来说是不能够接受的,空虚的测验啊。 第三个原因,为什么不直接收购而采用这种方式呢?因为啊,反垄断。 那么作为全球现在最大的科技公司啊,英伟达已经不能够随便去买竞争对手 了,所以他们就选择了最聪明的方式,就是不买公司,只拿技术授权,再把人全部带走。这在法律上,这是合作,在现实之中,这是完全的控制。 第四个原因,英伟达买的不是芯片,而是时间。如果英伟达自己从零做一套推理的专用集成电路,也就是 asic, 至少需要三到五年,但 ai 的 竞争,我想问到哪给你找这三五年去? 那么 guoog 的 团队里就有前谷歌的 tpu 的 核心的负责人,他们已经知道下一代该怎么去做了。所以啊,这个并购不只是简单的并购,这是直接跳过时间线。 第五个原因,非独家授权,反而是高明之处。这听起来是不是很奇怪,花了二百亿美元居然还不是独家? 但逻辑很简单,让 guarco 自己继续卖,继续的步道,继续的扩张,推理市场,继续去推动这样的理念,那么只要推理的需求爆炸,最大的受益者一定还是因为他, 他们要的不是封杀 guarco, 而是要掌控着整个方向盘。 第六个原因,这也是一次防御性的战争,您想象一下,如果谷歌被谷歌、亚马逊或者是博通买走的话,会发生什么? 可以想象,那一天英伟达的股价绝对不会好看的,那么这笔交易就本质上就是,我不管你们怎么干,但这张牌我是不能够让你拿到的,所以黄仁勋必须这么干。 第七个原因,财务层面几乎就是完美的不并表,不拖低毛利,不引入这个低利润的业务,授权费,还是可控的支出,挖人还算研发,也就是 rnd 的 投入, 而资本市场最喜欢的就是这种结构,所以啊,用这种方式真的很好。 最后啊,咱们总结一句话,这不是一次芯片交易,而是英伟达对 ai 未来路径的公开的压住。未来的 ai 不 再靠的是更大的模型来去取胜, 而靠的是更复杂的推理结构,更密集的推理调用,更聪明的内部思考的流程,而这一切全部都是 inference, 也就是推理 应为大家看的清清楚楚,所以他们出手了。而这也验证了一个越来越清晰的趋势, 就是真正的智能爆发不在模型本身,而在于模型如何被使用,而 grog 正好就站在了哪个位置啊!

n v d sogo、 grak 的 背后,这一家企业会涨百分之三十,如果你能够猜得到他的话,那这一家企业为什么能够涨百分之三十呢?我给你拆解一下 g p u t p u l p u, 你 就知道它分别会利好谁,利空谁。首先大家要明白一个底层逻辑,过去这一轮产业周期,大家都知道 vada 就 代表着 ai, ai 等于三 d, 三 d 等于 gpu, gpu 等于英伟达,所以英伟达的 gucci 逻辑不断地被简化压缩。就好像现在全网都在讨论 hbn, 大家不懂装懂,一窝蜂的在讨论所谓的 hbn, 所以呢,不断地去买一些闪存,比如说美光闪迪,大家去投闪存的逻辑是什么? 当你的土地面积一定,机房数量一定的时候,我去扩大我的存储空间,就是增加我整个机房的单位经济效益。那我就考你们一个真正关于 hbn 的 知识点,你们知道 hbn 存储模块站在整个 nba 的 gpu 里面,它的成本会需要多少吗? 答案是一千到两千美元。这种供应链上游材料产品卡脖子的现象屡次发生。比如说五年前我跟你们说过的,咱们的新能源大热的时候,宁德时代市值突破了新高,达到了万亿市值。结果呢?宁德时代不断的去缩减自身的才能, 不断的在电子产品上提价,从而逼迫了什么?逼迫了市场上其他的竞争对手。往后你就看到了宁德时代所谓的一池难求电池占据绝对的供应地位的领导地位不负存在。所以宁德时代是指呢? 一路走低,直到前段时间重新上市,港股市值才修复回来,那你说 hbn 今天有没有这个情况呢? hbn 它并不是一种可以无限复制资源,并且 hbn 它所谓的技术壁垒也没有非常的高, hbn 最后比拼的就是单位价格里面谁的储存效率最高,所以供应商极度集中,扩展周期极长,技术路径高度绑定,先进封装资本开 不可逆的重投入资产。你觉得 hbn 能够比宁德时代的电池还要难,还要简单的拿下这个市场或者说垄断市场吗?如果这个东西无法解决共济的话,你觉得 n v d, 谷歌等其他的 gpu、 tpu, 他 们会不会找到另外的解决办法跟替代方案? 为什么你们会有这种想法?你会觉得说你做一个企业,你要尽可能的做到产品的垄断,但是我告诉你们啊,任何伟大的企业,他不是通过资源产品的垄断,使得市场不断的通过高溢价、高价格去采购我的产品,从而我成为巨头的。恰恰相反,如果你想成为这个世界上的巨头科技企业, 你通常需要提供一个极度低门槛甚至免费宽放的产品,使得整个市场的用户都用上你的产品,这个时候你才可能 为这个行业的领导者跟巨头。如果你要我用一句话来解释英伟达为什么收购 rock, 那 rock 主要做的业务是什么呢?他做的是整一个推理芯片里面低成本、低毛利率的商业模式,因为他把本身的储存模块直接集成在芯片上面,他的芯片都是用于小模型的推理。所以如果你让我以资本的角度来看英伟达收购 rock 这个 的话,我觉得是利大于弊的。我接下来说的话呢,只有你从业 ai 或互联网的你们才能够听得明白。如果你没从事的话,你们可以试着尝试了解跟理解,我觉得你们应该比较难理解。首先第一个点啊, ai 推理它本身是一个需求量极大但是利率极低的一个产业,关键的问题是什么?英伟达每一年的 gpu 的 产量是固定的, 你再想往上拔很难拔,拔不了。如果你想扩,没问题,你得用到非常棘手且稀缺的主见,比如说 hbn 或者台积电的先进封装才能 coos。 所以 不是英伟达你想扩就扩的,你一扩,你需要供应链上下游一起配合,你才能够扩得出来。然而英伟达收购的 rock, 它完全不需要 hbn 或者 coos, 先进封装 恰恰就是这个商业模式,对于高需求、需求量大且低毛利的推理业务,它就显得尤为的重要。你就不难理解,从资本角度以及运营企业的角度,为什么 n v d 会去收购这家企业?核心原因就在于他们愿意承接这一类高销量且低毛利的业务, 像比如说 g b u t b u 等其他企业专注于高毛利的训练市场,而他们专注于低毛利的推理业务,这就补齐了 n v d 的 短板。如果你们想理解的通俗一点的场景的话,你可以理解为 英伟达之前做的是苹果,今天呢? n v 达呢?把安卓也收集齐了。所以英伟达现在双剑齐发,既做苹果的高毛利高端市场,又做安卓的低毛利低端市场,当你了解了这两个场景的时候,那么你就可以理解成什么。如果你把整个 ai 行业看成就是手机行业,那 接下来该爆发的是哪个板块?接下来哪个板块的哪一家企业会有大量的资本涌入?你们觉得会是哪一家?你们猜猜看我们董事会哈会选哪一家能够在近期之内吃到百分之三十的涨幅,而且这一家还有很有可能从千亿飞到万亿市值。

这几天, ai 行业爆出重磅新闻,英伟达砸出两百亿美元收购 ai 推理芯片公司 growq。 这不仅是英伟达三十多年来最贵的一笔收购,更被业内视为 ai 算力从训练时代转向推理时代的关键信号。 很多人会问, growq 到底有什么本事?英伟达为啥愿花这么多钱?这事又会给产业链和投资者带来什么影响?今天我们来具体聊聊。一、先搞懂 growq 是 家什么样的公司。 growq 不是 普通的芯片公司,它是 ai 推理赛道的黑马,背后还藏着谷歌的基因。 创始人张耐森 ross 曾是谷歌 tpu 的 核心开发者,二零一六年带了七名谷歌 tpu 核心成员出来创业,目标很明确,解决传统 gpu 在 推理场景的痛点。它的核心武器是 lpu, 和英伟达 gpu 走了完全不同的路。 gpu 像多面手工厂,能做训练推理、图形渲染等多种任务,但处理推理时会因任务拆分后需同步等待,类似木桶原理、 一个环节慢、全流程等出现延迟波动。 lpu 向精准自动化生产线指专注推理,用 srm 存储,比 gpu 的 hpm 内存速度快二十倍,待宽达八十 tb 每秒, 还靠翻译器提前规划好数据路径,做到每一步都不浪费时间。比如运行拉玛三模型时,每秒能生成数百个头啃,是 gpu 的 十倍以上,且延迟几乎无波动。当然, lpu 也有短板, s 二 a m 容量极小,单芯片仅两百三十安币,远不如 g p o 的 八十 g h b m, 得靠几百甚至上千张芯片组队才能跑大模型,硬件成本和散热压力都不小。二、英伟达的四大算盘收购不是冲动消费 花两百亿,不是人傻钱多,而是英伟达为 ai 下半场打的精准算盘。一、股权推理短板,凑齐全战方案。目前英伟达 g p o 在 模型训练领域垄断,但推理 把训练好的模型落地成实时服务,比如聊天机器人实时交易是短板,收购 grokio 就 能推出训练用 gpu 加推理,用 lpu 的 组合, 覆盖 ai 全流程,相当于给用户一站式买单的理由。二、摆脱 hbm 依赖,规避供应链风险。英伟达 gpu 极度依赖 hbm, 而 hbm 性能被三星、海力士等少数厂商掌控, 随时可能因供应链受限卡脖子。但 groq 的 lpu 不 用 hbm, 靠 sram 就 能跑,这相当于给英伟达留了个攀比, 万一 hbm 断供,也能靠 lpu 维持推理业务。三、锁定未来场景,抢占新赛道未来 ai 的 关键场景是高实时性需求, 比如代理智能、亚秒级对话、实时量化交易,这些场景最需要低延迟,而 groq 的 l p u 正好适配,收购后就能提前锁定这些增量市场。四、消灭潜在对手,巩固垄断地位。 groq 是 少数能在推理领域威胁英伟达的公司,尤其对没有自研芯片能力的中小云厂商来说, groq 曾是绕开英伟达的最佳选择。现在把 groq 收了,相当于断了对手的后路,进一步巩固自己的市场霸权。 三、产业链震动。这些行业要变天收购不只是两家公司的事,会直接带动整个 ai 产业链升级。 pcb 行业往高端材料加精密工艺走, lpu 对 数据传输延迟要求极高,普通 pcb 板扛不住,未来 pcb 必须用 ptfe、 碳纤维等低损耗材料,还要升级工艺, 比如把层数从十几层提到二十四到三十四层,用倍钻、 hdi 等技术减少信号干扰, 这对能做高端 p c b 的 企业是重大机会。光模块行业 l p o。 呈过渡款, c p o 是 未来款。推理集群需要低延迟互联,短距离会优先用铜缆, 中长距离靠光模块。其中 l p o。 因移除了高延迟的 d s p 芯片,能适配 l p o 的 低延迟需求,会成为过渡方案。而 c p o 能实现海量芯片协同,耐宽密度更高,是长期方向。 简单说,做 l p o 和 c p o 的 企业会更受青睐。芯片行业垄断家具,中小玩家更难活。 原本 groq 是 打破英伟达垄断的希望之一,现在被收购后,推理领域再难有能单独挑战英伟达的公司。对其他芯片厂商来说,要么加入英伟达生态,要么只能在细分小场景生存,行业集中度会越来越高。总结, ai 算力进入效率比拼时代,英伟达收购 groq, 本质上是从拼算力规模转向拼效率的标志。过去 ai 比谁的芯片算力更强,未来会比谁能更高效、更低成本地解决实时需求。 对普通用户来说,这意味着以后用 ai 会更流畅。对行业来说,会加速推理技术的普及。对投资者来说,要远离被垄断挤压的环节,聚焦产业链升级的起点。

n v 的 搜索 graph 的 背后,这一家企业会涨百分之三十,如果你能够猜得到他的话,那这一家企业为什么能够涨百分之三十呢?我给你拆解一下 gpu、 tpu、 lpu, 你 就知道他分别会利好谁,利空谁。首先大家要明白一个底层逻辑,过去这一轮产业周期,大家都知道 vada 就 代表着 ai, ai 等于散利,散利等于 gpu, gpu 等于英伟达,所以英伟达的公司逻辑不断的被简化压缩。就好像现在全网都在讨论 hbn, 大家不懂装懂,一窝蜂的在讨论所谓的 hbn, 所以呢,不断的去买一些闪存,比如说美光闪迪,大家去投闪存的逻辑是什么? 当你的土地面积一定,机房数量一定的时候,我去扩大我的存储空间,就是增加我整个机房的单位经济效益。那我就考你们一个真正关于 hbn 的 知识点,你们知道 hbn 存储模块站在整个 n v a 的 gpu 里面,它的成本会需要多少吗? 答案是一千到两千美元。这种供应链上游材料产品卡脖子的现象屡次发生,比如说五年前我跟你们说过的,咱们的新能源大热的时候,宁德时代市值突破了新高,达到了万亿市值。结果呢,宁德时代不断的去缩减自身的才能,不断的在电子产品上提价,从而逼迫了什么? 逼迫了市场上其他的竞争对手。往后你就看到了宁德时代所谓的一池难求电池占据绝对的供应地位的领导地位不复存在,所以宁德时代市值呢,也 一路走低,直到前段时间重新上市,港股市值才修复回来,那你说 hbn 今天有没有这个情况呢? hbn 它并不是一种可以无限复制的资源,并且 hbn 它所谓的技术壁垒也没有非常的高, hbn 最后比拼的就是 单位价格里面谁的储存效率最高,所以供应商极度集中,扩展周期极长,技术路径高度绑定,先进封装,资本开支不可逆的重投入资产。你觉得 hbn 能够比宁德时代的电池还要难,还要简单的拿下这个市场,或者说垄断市场吗?如果这个东西无法解决共济的话,你觉得 n v d, 谷歌等其他的 gpu, tpu, 他 们会不会找到另外的解决办法跟替代方案?为什么你们会有这种想法?你会觉得说你做一个企业,你要尽可能的做到产品的垄断,但是我告诉你们啊, 任何伟大的企业,他不是通过资源产品的垄断,使得市场不断的通过高溢价、高价格去采购我的产品,从而我成为巨头的。恰恰相反,如果你想成为这个世界上的巨头科技企业,你通常需要提供一个极度低 门槛甚至免费宽放的产品,使得整个市场的用户都用上你的产品,这个时候你才可能成为这个行业的领导者跟巨头。如果你要我用一句话来解释,因为他为什么说过 rock, 那 rock 主要做的业务是什么呢?他做的是整一个推理芯片里面 低成本、低毛利率的商业模式,因为他把本身的储存模块直接集成在芯片上面,他的芯片都是用于小模型的推理。所以如果你要我以资本的角度来看,因为他收购 rock 这个企业的话,我觉得是利大于弊的。 我接下来说的话呢,只有你从业 ai 或互联网的你们才能够听得明白。如果你没从事的话,你们可以试着尝试了解跟理解。我觉得你们应该比较难理解。首先第一个点啊, ai 推理它本身是一个需求量极大但是利润极低的一个产业。关键的问题是什么?因为它每一年的 gpu 的 产量是固定的,你再想往上拔很难拔,拔不了。如果你想 扩,没问题,你得用到非常棘手且稀缺的主业,比如说 hbn 或者台积电的先进封装才能 coos。 所以 不是英伟达你想扩就扩的,你一扩,你需要供应链上下游一起配合,你才能够扩得出来。然而英伟达收购的 rock, 它完全不需要 hbn 或者 coos, 先进封装恰恰就是这个商业模式。对于高需求、需求量大且低毛利的推理业务, 它就显得尤为的重要。你就不难理解,从资本角度以及运营企业的推理业务,它就显得尤为的重要。你就不难理解,从他们愿意承接这一类高销量且低毛利的业务, 比如说 gpu, tpu 等。其他企业专注于高毛利的训练市场,而他们专注于低毛利的推理业务,这就补齐了 n v d 的 短板。如果你们想理解的通俗一点的场景的话,你可以理解为 英伟达之前做的是苹果,今天呢? n v d 呢?把安卓也收集齐了,所以英伟达现在双剑齐发,既做苹果的高毛利高端市场,又做安卓的低毛利低端市场。当你了解了这两个场景的时候,那么你就可以理解成什么。如果你把整个 ai 行业看成就是手机行业, 那么接下来该爆发的是哪个板块?接下来哪个板块的哪一家企业会有大量的资本涌入?你们觉得会是哪一家?你们猜猜看我们董事会哈会选哪一家能够在近期之内吃到百分之三十的涨幅,而且这一家还有很有可能从千亿飞到万亿市值。

nvd 收购 rock 的 背后,这一家企业会涨百分之三十,如果你能够猜得到他的话,那这一家企业为什么能够涨百分之三十呢?我给你拆解一下 gpu、 tpu、 lpu, 你 就知道它分别会利好谁,利空谁。首先大家要明白一个底层逻辑,过去这一轮产业周期,大家都知道 vada 就 代表着 ai, ai 等于三 d, 三 d 等于 gpu, gpu 等于英伟达,所以英伟达的逻辑不断地被简化、压缩。就好像现在全网都在讨论 hbn, 大家不懂装懂,一窝蜂的在讨论所谓的 hbn。 所以呢,不断地去买一些闪存,比如说镁光闪迪,大家去投闪存的逻辑是什么? 当你的土地面积一定,机房数量一定的时候,我去扩大我的存储空间,就是增加我整个机房的单位经济效益。那我就考你们一个真正关于 hbn 的 知识点,你们知道 hbn 存储模块站在整个 nba 的 gpu 里面,它的成本会需要多少吗? 答案是一千到两千美元。这种供应链上游材料产品卡脖子的现象屡次发生。比如说五年前我跟你们说过的,咱们的新能源大热的时候,宁德时代市值突破了新高,达到了万亿市值。 结果呢?宁德时代不断地去缩减自身的才能,不断地在电子产品上提价,从而逼迫了什么?逼迫了市场上其他的竞争对手。往后你就看到了宁德时代所谓的一池难求,电池占据绝对的供应地位的领导地位不复存在。所以宁德时代市值呢,也一路走低, 直到前段时间重新上市,港股市值才修复回来。那你说 hbn 今天有没有这个情况呢? hbn 它并不是一种可以无限复制的资源,并且 hbn 它所谓的技术壁垒也没有非常的高, hbn 最后比拼的就是 单位价格里面谁的储存效率最高,所以供应商极度集中,扩展周期极长,技术路径高度绑定,先进风霜,资本开支不可逆的重投入资产。你觉得 hbn 能够比您那时代的电池还要难,还要简单的拿下这个市场或者说垄断市场吗?如果这个东西无法解决共济的话, 你觉得 n v d, 谷歌等其他的 g p u t p u 他 们会不会找到另外的解决办法跟替代方案?为什么你们会有这种想法?你会觉得说你作为一个企业,你要尽可能的做到产品的垄断,但是我告诉你们哈, 任何伟大的企业,他不是通过资源产品的垄断,使得市场不断的通过高溢价高价格去采购我的产品,从而我成为巨头的。恰恰相反,如果你想成为这个世界上的巨头科技企业, 你通常需要提供一个极度低门槛甚至免费宽放的产品,使得整个市场的用户都用上你的产品,这个时候你才可能成为这个行业的领导者跟巨头。如果你要我用一句话来解释,因为他为什么说过 rock, 那 rock 主要做的是整一个推理芯片里面 低成本低毛利率的商业模式,因为他把本身的储存模块直接集成在芯片上面,他的芯片都是用于小模型的推理。所以如果你让我以资本的角度来看英伟达收购 rock 这个企业的话,我觉得是利大于弊的。 我接下来说的话呢,只有你从业 ai 或互联网的你们才能够听得明白,如果你没从事的话,你们可以试着尝试了解跟理解,我觉得你们应该比较难理解。首先第一个点啊, ai 推理它本身是一个需求量极大但是利润极低的一个产业,关键的问题是什么?英伟达每一年的 gpu 的 产量是固定的, 你再想往上拔很难拔,拔不了。如果你想扩,没问题,你得用到非常棘手且稀缺的主见,比如说 hbn 或者台积电的先进封装才能 coos。 所以 不是英伟达你想扩就扩的,你一扩,你需要供应链上下游一起配合, 你才能够扩得出来。然而英伟达收购的 rock, 它完全不需要 hbn 或者 coos, 先进封装恰恰就是这个商业模式。对于高需求、需求量大且低毛利的推理业务 就显得尤为的重要。你就不难理解,从资本角度以及运营企业的角度,为什么 n v d 会去收购这家企业?核心原因就在于他们愿意承接这一类高销量且低毛利的业务, 让比如说 g p u t p u 等其他企业专注于高毛利的训练市场,而他们专注于低毛利的推理业务,这就补齐了 n v d 的 短板。如果你们想理解的通俗一点的场景的话,你可以理解为 英伟达之前做的是苹果,今天呢? n v 达呢?把安卓也收集齐了。所以英伟达现在双剑齐发,既做苹果的高毛利高端市场,又做安卓的低毛利低端市场。当你了解了这两个场景的时候,那么你就可以理解成什么。如果你把整个 ai 行业看成就是手机行业, 那么接下来该爆发的是哪个板块?接下来哪个板块的哪一家企业会有大量的资本涌入?你们觉得会是哪一家?你们猜猜看我们董事会哈会选哪一家能够在近期之内吃到百分之三十的涨幅,而且这一家还有很有可能从千亿飞到万亿市值。

英伟达为何砸下二百亿美元收购 ai 芯片初创企业 rock 背后有何深意?英伟达近日宣布斥资二百亿美元收购 ai 芯片初创企业 rock, 此举引发业界广泛关注。 rock 专注于 ai 推理技术,其研发的 lpu 处理器能够大幅提升推理效率,弥补了英伟达在该领域的不足。据 cnbc 报道,这是英伟达三十二年来最大的一笔交易,只在应对谷歌等竞争对手。在 ai 推理市场的崛起, rock 的 核心技术及顶尖人才将加入英伟达,帮助其实现技术革新和市场扩张,巩固其在 ai 领域的领先地位。英伟达的这一举动不仅是为了提升自身的 ai 推理能力,更是为了构建更加完善的技术生态系统,抵御潜在的竞争威胁。