00:00 / 05:49
连播
清屏
智能
倍速
点赞17
00:00 / 04:41
连播
清屏
智能
倍速
点赞86
00:00 / 00:16
连播
清屏
智能
倍速
点赞17
00:00 / 01:08
连播
清屏
智能
倍速
点赞NaN
00:00 / 02:34
连播
清屏
智能
倍速
点赞1883
00:00 / 00:45
连播
清屏
智能
倍速
点赞1922
00:00 / 00:32
连播
清屏
智能
倍速
点赞3
各位观众朋友们,今天我们要聊的,是2026年CES展上最意味深长的一幕。当英伟达的掌门人黄仁勋,这位全球AI算力的总舵主,在他最重磅的Vera Rubin芯片发布环节,居然把最黄金的位置,留给了中国团队做的开源模型。 这不是简单的技术展示,这是全球AI权力格局的一次静默地震。 黄仁勋的PPT里,中国开源模型Kimi K2和DeepSeek V3.2,硬生生挤到了全球开源模型排行榜的前两位。这不是什么野榜,这是在英伟达新一代计算平台上的实测数据。更关键的是,当Kimi K2 Thinking跑在Rubin架构上,推理吞吐量直接翻了十倍,token成本砍到原来的十分之一。十倍速,十分之一成本,这组数字背后,是整个AI产业成本结构的彻底改写。 什么叫平价时代?就是过去只有巨头烧得起的大模型推理,现在中小企业甚至个人开发者都能用得起了。这就像当年福特的流水线让汽车走进千家万户,黄仁勋这次展示的,是AI应用的"流水线时刻"。 这里头最让全球市场意外的,是DeepSeek。黄仁勋亲口说,这是第一个开源推理系统,它的出现直接激发了整个行业的连锁反应。开源模型现在确实还落后顶尖闭源模型大概六个月,但问题是,这 gap 每六个月就会被追平一次。换句话说,开源社区正在以惊人的速度,把闭源护城河里灌满水。 这件事的财经意义远比技术意义更震撼。英伟达是谁?它是卖铲子的,卖的是算力这个AI时代最硬的通货。它为什么要不遗余力地捧中国开源模型?因为黄仁勋看得比谁都透:只有让AI应用真正便宜下来,只有让全球开发者都用得起、用得上,他的铲子才能卖得更多、更长久。这是典型的做大蛋糕思维。 对我们投资者有什么启示?三件事。第一,AI应用层的爆发临界点可能比预想来得更快,十倍速降本意味着大量过去不成立的商业模式,现在 suddenly works 了。第二,开源生态的崛起会重塑产业链价值分配,芯片和算力基础设施的确定性,可能高于某些闭源模型本身。第三,中国AI资产,特别是那些真正在开源社区有贡献、有影响力的团队,它们的价值远远没有被市场充分认识。#2026ces #deepseekv3 #kimik2 #rubin架构 #ai应用概念股
00:00 / 02:22
连播
清屏
智能
倍速
点赞65