粉丝264获赞333

朋友们太炸裂了!英伟达黄仁勋再次把 ai 拉进了下一个时代,六大核弹组成新王炸!人类计算体系又迎来一次换代,这就是市值五万亿美元的魅力,观众比明星演唱会还挤,我现在就在 c e s 现场飞了半个地球,排队几小时看老黄演讲,为你带来英伟达最炸的发布解读。 首先,老黄开启疯狂撒钱模式,一口气丢出六大领域的全开放模型,可以直接使用训练和部署。 ai 的 创新门槛被彻底打开,医学模型 clara、 地球软身 earth two a 卷的推理大脑直接拿去用,而 cosmos 和 g r 零零 t 直接给机器人装上世界模型和大脑现场演示桌面机器人瞬间活了,仓库、人形、家用工厂等机器人都将加速进化到真实世界干活。 接着,阿 farme 登场,全球首个会思考的自动驾驶推理模型已经落地到奔驰上。其他自动驾驶是看见到反应,而阿 farme 是 看见推理预测决策,像人一样思考,如果那个人冲出来,我该怎么办? 实现真正的 l 四级自动驾驶。黄承勋说, ai 不 只是看世界,而是要理解世界是怎么运转的。接下来全场都疯了,老黄掏出一大堆东西说,这就是六位一体极致协同设计的 ai 平台,用 vr、 c p u 机、 p u 等六大神器组成超级计算机,作为一个平台运行, 全面投产。今年交付 vivo, 比 nv link 七十二巨无霸机贵,每秒三百六十亿亿次计算内部贷款超过了整个互联网流量总和。与 blackberry 相比, ai 退利成本直接砍掉百分之九十。 训练超复杂模型, gpu 只要四分之一,让全世界都用得起。老黄的 p 更亮了,每次发布都在改写算类的规则,加速 ai 的 进化。我是赛博奇,让我们一起奔向 agi 世界。

welcome to the stage, nvidia founder and ceo jensen wong hello, las vegas! happy new year! welcome to ces! 当地时间一月五日, ces 二零二六现场那叫一个热闹非凡。英伟达掌门人黄仁勋一登场,就像往科技圈扔了一颗超级炸弹, 带来一系列让人惊掉下巴的新玩意儿,仿佛在喊,都看过来,英伟达要开启 ai 新纪元呐! 芯片狂飙性能起飞成本跳水黄仁勋这次掏出了 vr 入便超级芯片平台,这简直就是 ai 界的超级工厂,它把 cpu、 gpu、 网络、交换机等六大部件一股脑儿全整合在一起, 携同工作起来那叫一个丝滑。跟上一代比起来,性能直接飙升五倍,成本却像坐了滑梯一样降了十倍,组装时间也从两小时缩短到五分钟,而且百分之八十的部件都用上了液冷散热, 这省电程度简直能让电费账单瘦身成功。这芯片就是为训练 ai 大 模型量身打造的,以后 chat、 gpt 这类工具运行起来,那速度估计得像火箭一样嗖的一下。 自动驾驶从小跟班到独行侠自动驾驶领域,英伟达也搞出了大动静,奥帕没有自动驾驶模型闪亮登场,这模型可不得了, 能像人类一样思考推理,还能自己开车,而且每一步决策都有记录可查, 安全系数直接拉满,为 l 四级完全无人驾驶提供了超实用的方案。英伟达还和梅赛德斯奔驰搞起了合作,二零二六年首款搭载 a 的 车型就要在美国闪亮登场, 之后还会陆续开到欧洲和亚洲,以后说不定满大街都是无人驾驶的车,网约车司机和物流司机们可得提前想想新出路啦! 物理 ai 让 ai 脚踏实地黄仁勋这次还把 ai 从虚拟世界拉到了现实世界,提出了物理 ai 战略, 简单来说就是让 ai 能理解并操控现实世界。像机器人、工业自动化这些领域都要被它拿下,市场规模那可是万亿级别的。 英伟达还拿出了三大秘密武器, newton 物理引擎能模拟现实世界的物理规律,让机器人更懂环境。 cosmo 基础模型用合成数据训练 ai, 不 用再满世界采集数据,开发成本大大降低。 gpu 加 lpu 混合算力,让机器人反应速度像闪电一样快。 英伟达还和波士顿动力、特斯拉、 optimus 等一众大佬合作,一起推动机器人技术落地。看来机器人走进千家万户的日子不远了。 机器人迎来 chat gpt 式爆发,黄仁勋在演讲里放话,机器人领域正像二零二零年的 ai 语言模型一样,要迎来爆发前夜了。 英伟达打算当机器人开发的幕后大老板,提供硬件芯片和软件 ai 模型支持。它和特斯拉 optimus 合作开发的 ai for physics 系统,能让机器人适应各种复杂环境, 不管是崎岖山路还是突发障碍都不在话下。以后家里有个机器人保姆帮忙做家务,照顾老人小孩,那画面想想都美! 黄仁勋这次在 c e s 二零二六年上的演讲,就像给科技圈打了一针兴奋剂,英伟达这是要成为 ai 时代的全能王,从芯片到模型再到行业应用,全都要拿下, 看来未来的世界真要被 ai 和英伟达承包啦!

如果你还以为英伟达是在卖显卡,那你已经错过重点了。在刚刚的 ces 二零二六上,老黄真正做的是给整个世界装上 ai 的底层操作系统。这一次,英伟达不再讲某一张卡有多强,而是直接给出了一整套答案, 应该怎么驱动汽车、游戏、内容创作、智能体,甚至机器人和现实世界?一分钟带你看完英伟达在近几年信息密度最高、野性最明确的一次亮相。 先看汽车英伟达发布的端到端自动驾驶模型 lcomeal, 不是看到红灯就刹车的规则系统,而是能推理接下来会发生什么。我为什么要这么开自动驾驶? 第一次从执行代码走向像人一样思考。再看游戏 nv 点要做的不只是更逼真的光影,而是让 ai 成为游戏世界的一部分。 npc 会理解你,世界会响应你剧情,不再预设游戏从内容产品变成可推理的动态世界。在内容创 作领域, ai 不再只是帮你生成一段文本、一张图,而是能理解上下文,保持风格,参与创作决策。你给方向, ai 给执行,创作,门槛被直接砸穿。真正的变化发生在智能体 ai。 英伟达这次解决的核心问题只有一个,让 ai 能长期运行,长期记忆、长期思考, 推理成本下降,上下文能保存,多个智能体能协作, ai 开始真正上班了。而最炸裂的是物理 ai、 机器人和自动驾驶。最大的难题不是算法,而是现实世界的数据永远不够。英伟达给出的解法是把算力直接变成数据,在虚拟世界中反复试错。在进入现实之前就已经学会重力、惯性和因果,机器人正在迎来自己的 chat gpt 时刻。 所以你会发现,英伟达不再只是一家芯片公司,而是在为汽车、游戏创作机器人搭建同一个 ai 世界底座。 ai 的下一站不在屏幕里,而在现实世界本身。

哈喽,大家好,欢迎收听,不懂就问了。英伟达在 c e s s 洞上搞了个大动作,发布了一个叫 verran rubin 的 新平台,听说是六款芯片组成的一套系统,今天咱们就来好好聊聊这个事。 对,我也看到了这个平台,听起来就很厉害,不过说实话,一开始我还真没搞懂它到底是干嘛的,后来仔细看了看,才发现它是专门解决 ai 集群里那些计算啊内存啊通信的问题的。 没错,现在 ai 模型发展太快了,参数规模每年翻十倍, token 数量也每年涨五倍,传统芯片根本跟不上。英伟达这波操作,算是把整个数据中心都当成一个计算单元来重构了。 对,这个思路很有意思,那咱们先从核心的 ruben gpu 说起吧,听说它有三千三百六十亿个晶体管,还是双星力封装的。性能方面,推理能到五十 peflops, 是 blackwell 的 五倍,训练也有三十五 peflops, 提升了三点五倍。 最厉害的是那个自适应压缩技术,在 nv f p 四精度下性能提升特别明显。哇,这个数字听起来就很吓人, 不过光有 gpu 还不够吧,我记得他们还出了个 v 二 cpu, 是 首款高端定制 cpu, 有 八十八个自研核心,支持一百七十六个现成。而且它和 gpu 之间用 nv link c 二 c 直连,带宽一点八 tb 每秒,直接把内存墙给打破了。 对,这个 c p u 和 g p u 的 组合太关键了。以前 c p u 和 g p u 之间通信总是有瓶颈,现在统一内存架构,数据交换就顺畅多了。说到通信,它们还有个 nv link 六 switch 单芯片交换能力二十八点八 tb 每秒,机架级总代宽两百六十 tb 每秒,这速度简直了。 是啊,万亿参数模型并行训练就靠这个了。还有那个 connect x 九 supernice 网卡,一点六 tb 每秒的带宽,支持可编程数据路径加速,专门优化 ai 模型的通信延迟。 嗯,这个网卡确实是为 ai 量身定做的。另外,针对 agencai 长上下文推理的 k v catch 问题,他们用 bluefield 四 d p u 搞了个推理上下文内存存储平台,通过 r g m a 技术, g p u 访问 d p u 管理的存储池,就像访问本地显存一样快。 这个设计太聪明了,直接解决了上下文膨胀的痛点。还有那个 spectrum 六 switch 是 全球首款集成 c p o 技术的以太网交换机,把硅光模块直接封装在芯片旁边,能效提升五倍,可高性也提高十倍,还解决了功耗问题, 对, c p o 技术是未来的趋势。把这六款芯片整合到一起,就成了 verran nbl 七二机架级系统。这个机架设计也很革命性,无氧化加上全液冷组装,维护时间从几小时缩到几分钟, p u 一 直都快到一点零了。 哇,这个 p u 一 直简直逼进物理极限了。黄仁勋还提出了个 tocanomics 概念,说 ai 基础设施竞争的核心是美 token 成本。 vr robot 平台就是为了降低这个成本的。数据显示,它能把 m o e 模型推理成本降十倍,训练所需 g p u 数量减到原来的四分之一, 这个经济性太重要了。现在搞 ai 成本是个大问题。除了硬件,它们还发布了 cosmos 世界基础模型、 alpaniel 自动驾驶模型和 isaac group 机器人平台,构建了完整的物理 ai 技术站,从云端到边缘,再到物理仿真,全链路覆盖, 对,这个生态布局太全面了。哦,对了,这次 c e s 上 n v 机柜还有个大变化,就是在 tree 层级取消了铜板,用上了四十四层高的多层 midplane, 未来还要全面拥抱正交背板,这个设计应该能进一步提升系统性能和可信。 是啊,这些细节的改进都很关键。总的来说, verubing 平台的发布不仅是技术上的突破,更是整个 ai 技术设施理念的革新。从单一芯片到系统级解决方案,从追求 flops 到关注美 token 成本,英伟达这一步走得很稳。 没错,这个平台的推出肯定会改变 ai 行业的格局,以后大家拼的就不是单纯的硬件性能了,而是整个系统的效率和经济性。 对,而且英伟达还通过物理 ai 生态的布局,把自己的护城河挖得更深了,从模型到硬件再到应用,形成了一个完整的闭环。嗯,这块操作确实厉害。好了,今天咱们就聊到这,感谢大家收听,不懂就问了,咱们下期再见!再见!

cs 二零二六节目英伟达 ceo 黄仁勋发表演讲聚焦 ai、 机器人、智能汽车等前沿科技行业创新加速英伟达 ceo 黄仁勋 c e s。 二零二六年发表演讲 美国时将二零二六年一月五日拉斯维加斯 c e s。 二零二六年课程英伟达 ceo 黄仁勋发表演讲, 全程聚焦 ai 基础设施升级及 以下为演讲实录。一、开场 ai 从数字世界走向物理 世界各位来宾,下午好!今天我们站在一个技术革的临界, ai 正在从数字世界走向物理世界,这不是简单的技术延伸,而是一场新的工业革命。过去十年,我们用 gpu 点燃了 ai 的 燎原之火,让机器学习从理论走向 使用。未来十五年, ai 将通过机器人、智能汽车比赛,深度融入物理世界的每个角落,重塑智能、交通、物流乃至日常生活的形态。英伟达的使命就是构建支撑这种革命的计算机和 思维。从 capcom 架构到 blackboard 架构,我们历经数百次迭代,打造了驱动全球 ai 生态的计算平台。今天我们将发布一系列新的技术产品,让 ai 的 能力从数据 甚至工厂、车间、城市道路和家庭场景。二、核心板块一、 ai 基础设施升级 blackwell ultra 与 ruby 架构双轮驱动 ai 爆发式增长首先需要强大的基础设施支撑。 今天我们正式宣布两大核心算力平台的推进计划。一、 blackwell ultra 已经是亮点, 正在全球视觉中心快速布局。该平台搭载了智能三百 ai 科技,能够提供每秒万亿次的飞行计算,完美适配大模型训练与实时黑 屏系统,目前全球已有超过四十五家合作伙伴开通专属 vr 授权。互联互联互联互联互联下一代都已在发布预告,我们将在二零二六年推出全新的主笔。 相较于上一代架构, ruibin 在 实时 ai 处理场景下的能效比提升三倍, legacy 降低百分之五十,这将彻底解决自动驾驶机器人交互与实时回锁算法。 vivo 架构将率先应用于边缘计算设备,让终端设备具备接近四 g 级的 ai 处理能力。同时,针对全球市场的差异化需求,我们正在赔钱。 h 两百人工智能芯片的国际化交互,其中面向中国市场的 h 两百芯片已获得 初步突破六万至八万。该芯片搭载一百四十一 g 一 m 三 g 的 性能,约为特工版 h 二 g 芯片的六倍。将 全球供应链将保持高效协调,确保各地新客户的战略合作伙伴。三、核心板块二、机器人之一 本次演讲的核心主题之一是物理 ai 与通用机器人的大爆炸。我们认为,能够理解、感知并改造物理世界的 ai 将成为下一代技术革命的核心驱动力,而机器人就是物理 ai 的 最佳代表。 为推动机器人产业的快速发展,我们发布两大核心技术方案,一、 omniverse 机器人仿生训练平 台我们将 omniverse 平台与机器人进行深度融合,打造了全球首个统一的机器人仿生海量合成技术,对机器人进行安全高效训练。通过 omniverse, 机器人的训练周期缩短 七十步数,成本降低百分之五。目前语数科技、小鹏等国内为企业已采用该平台开发原型机器人。 二、 n v d i s i 的 good 开发着套现发布,该套现为通用机器人开发提供四大核心支撑,基础机器人模型、自动化数据管道、仿真框架和 so 机器人电脑。我们希望通过标准化的工具链降低机器人开发门槛,让更多开发者能够参与到 革命。更重要的是,物理 ai 将彻底改变全球制造业格局。我们预测未来十年内,全球一千万家工厂和二十万个商品将完成 ai 化,每个制造业工厂都将成为专属 ai 工厂,不断 实现荣幸生产。这些 ai 工厂不仅将提升生产效率,还将为出厂产品赋予智能,形成生产智能产品的智能。 四、核心板块。三、智能汽车从交通工具到 ai 机器人汽车正在从交通工具进化为带轮子的 ai 机器人,而 ai 计算能力就是这场进化的核心动力。今天我们发布一系列汽车领域的技术突破与合作成果。 一、下一代汽车处理器聪尔电脑落地聪尔是一款革命性的汽车级机器人,计算机计算能力达到上一代产品的二十倍,能够同时支撑自动驾驶、智能座舱、车载娱乐 以及 ai 需求。更重要的是,搭载了 drive o s, 已成为全球首个获得 a s i l d 最高计算 和计算机软件,为自动驾驶的安全保驾。二、全球车企合作 我们宣布比亚迪、理想、小米、吉克等中国车企,以及特斯拉、奔驰、丰田等海外车企将在下一代车型中搭载座舱处理器。同时,丰田、欧尔啊和大陆集团已加入我们的自动驾驶合作生态, 共同推进高度自动化车队的研发与部署。基于 omus 的 仿真能力,我们将为合作伙伴提供海量的虚拟驾驶场景,加配自动驾驶车型的 别来多往。基于当前的合作进程,我们预计英伟达的汽车业务将在二零二六年实现五十亿美元的营收目标, 成为公司既数据中心业务后又有回归增长引擎。五、战略延伸 ai 智能体育生态系统,打造外运能源视频除了硬件产品的突破,我们更关注 ai 生态的长期构。 今天,我们正式提出 ai 智能体战略,未来每个知识工作者、每个软件工程师都 将拥有专属的 ai 智能体,这将成为下一个万亿美元级的市场机会。为推动 ai 智能体的普及,我们将推出基于拉玛的全场景模型系统,包括面向 pc 和边缘设备、拉玛联盟特联研发企业级应用的新功能,以及 这些模型将具备强大的自然语言引擎、代码生成和任务执行能力,帮助用户提升工作效率。从本质上看,未来每家公司的 it 部门都将成为 ai 智能领域的一流管理者, 负责管理和优化 ai 智能领域。同时,我们将持续推进开源生态建设,中国的开发者和企业在 ai 领域里发挥了重要作用,目前已有一百万名中国开发者加入英美集团的生态体系, deepsea、 阿里巴巴、百度等企业开发的 ai 产品已达到世界级水平。开源是 ai 安全与经济的关键,我们呼吁全球行业伙伴共同制定 ai 国际标准,推动技术的健康发展。六、结尾, 拥抱 ai 革命,共建智能未来回顾历史,铁路、电力等技术颠覆了人类社会的发展轨迹,贵 今天, ai 驱动的物理世界变化将带来更深邃的影响,因为它将继续与加速计算为核心,推动 ai 机器人、智能汽车的深度融合,对 全技术支撑技术的进步从不忽略,它需要全球产业链的协调合作。中国供应链是全球创新的重要主题,我们将持续生化与全球伙伴的合作, 新的工业革命,共建更智能、更高效、更可持续的未来。谢谢大家!欧洲地中海特价,欢迎咨询和订 购!欧洲地中海就选欧银国际专业号,欧洲地中海,大家一起都要赢欧银欧银更多经济资讯,欢迎关注深圳欧银国际外保国际物流人,每天都来看!

欢迎收听,今天咱们要一起拆解一份呃,可以说非常重磅的材料。嗯,就是英伟达 ceo 黄仁勋在二零二六年 ces 上的那个主题演讲稿。我也看了,信息密度确实是高得有点吓人,是吧?将近一个小时,感觉他已经不是在简单地发几个新产品了,更像是在给我们画一张, 嗯,一张未来几年的科技藏宝图。没错,藏宝图这个比喻特别贴切,因为它描绘的那个未来啊, ai 不 再只是我们手机里某个 app 了,那是什么?而是未来所有 app 都必须构建于其上的一个地基啊,一个平台对,一个基础平台。所以我们今天的任务就是拿着这张图去挖里面的三个核心宝藏。 第一, ai 的 大脑本身它到底是怎么进化的?嗯,第二,这个大脑怎么才能长出身体,走到我们的物理世界里来,这个是关键。最后,就是驱动一切的那个心脏,就是底层的计算技术又发生了什么样的革命,咱们就从这个最核心的大脑开始挖吧。好,即使演讲一开始它就点名了,我们正处在一个巨大的转变期, 他管这个叫智能体 ai agentic ai。 智能体 ai agentic ai 这个词听起来就,呃,挺高深的,它跟我们现在天天用的那些聊天机器人有什么本质区别吗?区别太大了。 你可以这么想啊,就是现在的 ai 像一个特别博学的图书馆员。嗯?为什么?答什么?对,你问他才答,非常被动。但智能体 ai, 它更像一个能力超强的项目助理。项目助理?哎,比方说,你给他一个复杂的任务, 比如帮我规划一次去欧洲的旅行,要经济实惠又有特色。嗯哼,他不会只给你一堆搜索野果就完事了。那他会做什么?他会自己把这个任务拆解成好几个步骤哦,先去查机票和酒店 对比价格。然后呢,他可能会去社交媒体上去找当地人推荐的那些小众景点哇。接着,他会根据你的喜好给你规划出一份详细的行程表,甚至还能帮你直接预定。所以,他能主动调用各种工具去推理规划,然后执行完全正确。 演讲里就举了个他们内部工具的例子,叫 cursor, 说这个东西彻底改变了英威达工程师写软件的方式。这就是一个主动解决问题的智能体。嗯,这个主动解决问题听起来 怎么说呢,有点让人又兴奋又紧张。哈哈,怎么说?万一他主动地理解错了我的意图,会不会造成更大的麻烦?比方说,我想要经济油,他给我规划成了豪华油。 这确实是核心挑战之一,就是如何确保 ai 的 意图和我们完全一致。但更有意思的是实现这一切的寄宿路径。嗯,他在演讲里提了一个我第一次听到的说法。他说未来的 ai 不 仅是多模态的,就是能看懂文字、图片、视频这些。 这个我们知道。对,而且还是多模型的。多模型。等一下,这难道是让 ai 去套娃吗?一个 ai 里面还装了好几个 ai。 哈哈,套娃这个比喻可以说是非常形象了,也差不多就是这个意思。真的,这可能是整个演讲里最颠覆性的想法之一。你可以想象,未来会有一个扮演总指挥角色的 ai 智能体。嗯, 当他接到你那个复杂的旅行规划任务时,他会立刻判断哦,查机票,我需要调用 a 模型,他最擅长处理实时数据。明白了, 找小众景点呢,得靠 b 模型。它专门被社交媒体上那些海量帖子训练过,规划行程和语言润色的 c 模型最合适。我懂了,所以它不是一个 ai 包打天下。对, 而是向一个乐队指挥去协调各种有专长的 ai 演奏家一起来协调工作,就是这个意思。延长里把它比喻成一个智能路由器,根据你的需求自动把任务派给最合适的那个模型。智能路由器,这个比喻好,是吧?这个模式让整个 ai 系统变得极具扩展性和灵活性。 当然,这也直接引出了另一个问题,什么问题?这么复杂的系统,是不是只有那几家巨头公司才玩得起?对啊,我正想问呢,感觉门槛儿一下子高了好多。但黄任新的答案恰恰相反哦,他花了很长时间去强调开放模型的重要性。 正是因为现在有越来越多强大的开源 ai 模型,比方说演讲里提到的那个 deepsea r one, 嗯,才让这种多模型协调有了成为可能的土壤。话是这么说,但这会不会也造成一种军备竞赛的幻觉? 就是说,虽然模型是开放的,但你要真正把它用好,背后的算力、数据、人才、成本依然是一道巨大的门槛。对小公司真的能玩得转吗?嗯,你提的这一点非常现实。演讲里的观点呢,可能更乐观一些。他认为开源模型正在飞速追赶, 虽然现在可能比最顶尖的闭源模型还落后个半年左右,但这个差距在缩小。嗯,更重要的是,它给了全世界的创业公司、研究人员,甚至每个国家一个参与的机会。这至少是一种技术民主化的希望嘛,让创新不止发生在大公司的实验室里。我明白了, 所以 ai 的 大脑正在经历一次大升级,变得更像一个聪明的团队领导。可以这么说,但光有聪明的脑子还不够啊,如果他只能待在电脑里,那能力就太受限了。 所以,他们是怎么解决身体问题的?我猜这就是你说的物理 ai 要登场的地方了吗?没错,这正是演讲的第二部分,也是一个更大的挑战,怎么让 ai 走出屏幕,进入这个充满不确定性的物理世界?物理 ai? 对 physical ai 物理世界可比数字世界复杂太多了,有重力,有摩擦,有各种突发的意外, ai 必须得理解这些物理规律。那怎么教他呢? 总不能让机器人在现实世界里横冲直撞去试错吧,那代价也太大了。所以,英伟达提出的解决方案是需要三台机器人协同工作。三台对,一台是我们熟悉的,用来训研 ai 模型,一台是推理用的,比如装在汽车或者机器人里。嗯, 而最关键的是新增的第三台机器,它的唯一任务就是模拟。模拟?听起来像是呃,为 ai 专门打造了一个黑客帝国那样的虚拟世界,让它在里面先上个驾校。哈哈,完全正确。而且这个虚拟世界的操作系统,它们起名叫 cosmos, 一个世界基数模型 cosmos, 它通过学习海量的真实世界视频,人类的驾驶数据,还有物理模拟数据,来构建一个无限接近真实世界的数字。卵生,嗯,这里面有个真正的啊哈时刻。 cosmos 最强大的能力是生成、合成数据, 合成数据?对,我给你举个例子,你要交一辆自动驾驶汽车去处理一个非常罕见的紧急情况,比方说,前方高速公路上突然掉下来一个沙发,哈哈,这个场景确实罕见,是吧?在现实中,你可能永远也碰不到一次这种场景来收集数据。 但是在 cosmos 里,你可以生成成千上万种哈,各种角度、各种光线下的沙发掉落。没错,不同天气下的沙发掉落场景,让 ai 在 绝对安全的环境里反复练习,直到它学会为止。 这本质上就是把算力转化成了数据。这个思路太妙了,用无限的算力去弥补有限的真实时间数据这个概念是不是就直接引出了那个具体的自动驾驶产品 opalm? 是 的, opalm 就是 物理 ai 的 一个绝佳范例, 它是一个端到端的 ai, 就是 说从摄像头看到画面,直接输出方向盘、油门和刹车的指令。嗯,但最特别的一点是,奥巴莫不仅会开车,他还会解释解释他怎么解释。他会在行动之前,通过语音或者屏幕上的文字告诉你他打算做什么,以及为什么这么做。哦,比如,他会说, 我正在减速,因为我检测到前方有行人正在靠近人行道。哇,这个太关键了是吧?我现在又拿倒,有时候他让我突然拐一个莫名其妙的弯儿,我完全不知道为什么,心里就特别没底?我懂,如果他能提前告诉我前方一百米有事故,我将引导你从右侧小路绕行,我就会安心的躲。阿胖姆做的就是这事。说白了, ai 要是不解释清楚自己想干嘛, 谁敢把方向盘交给他?没错,信任就是这么来的,一点没错。而且为了确保万无一失,演讲里还提到一个为合作伙伴梅赛德斯奔驰设计的双重安全系统。双重安全对 车里同时运行两套系统,一套是先进的 iopomo, 另一套呢,是传统的逻辑绝对清晰,可以完全追溯的经典自动驾驶程序。嗯,车里还有一个安全评估器,实时判断路况。 如果路况简单, air power 信心足足就有它开。那如果遇到复杂的呢?如果遇到极端或者模糊的场景,系统会立刻无缝切换回那个更保守的经典系统来接管。就像一个也经验丰富的人类司机,旁边坐着一个极其谨慎的副驾驶, 随时准备介入。就是这个感觉。好了,一个更智能的大脑,一个能感知和行动的身体。我光是听着就觉得这得耗费惊人的能量。没错,驱动这一切的心脏得有多强大。演讲里也提到了, ai 模型的需求正以每年十倍的速度增长,摩尔定律早就跟不上了。这就引出了演讲的第三部分,也是最硬核部分, 全新的计算平台 very rubin, very rubin, 对 面对算力需求的爆炸式增长,英伟达的答案是极限协同设计。极限协同设计这个词听起来就 挺疯狂的,怎么个疯狂法?他们不再是像以前那样只升级一下 g p u 或者 c p u。 这一次,他们把整个数据中心机柜里的六款核心芯片,六款对,六款,从 c p u, vera、 g p u rubin 到网络芯片 connects、 nine、 数据处理单元 d p u、 bluefield、 four 等等,一口气全部重新设计了一遍。全部。 这不是简单的升级,是推倒重来了。是的,目标就是让整个系统作为一个整体发挥出极致的性能,不留任何短板。我理解了,之所以要这么疯狂的重新设计,就是因为它要同时满足我们前面聊的两种需求。嗯,你说说看。 既要支撑智能体 ai 那 种多模型协调的复杂推理,又要为物理 ai 的 模拟和训练提供海量的并行算力。它不是为了快而快,是需求逼出来的完全正确。演讲里有些数据我到现在都觉得难以置信。 比如那个新的 mv link 交换机,它内部传输数据的贷款是全球网络总贷款的两倍,嗯,等等。两倍于整个地球的网络贷款就在一个交换机里,不是用冰水, 这样能源效率反而大大提升了。这些细节都在展示一种系统级的创新思维。嗯,但我想特别提一个容易被忽略但极其重要的创新,就是它们针对 kv 存储的解决方案。 kv 存储, 这,这又是什么?你可以把它通俗地理解成 ai 在 跟你进行长对话时的短期记忆。短期记忆对,比如我们聊了十分钟, ai 需要记住前面都聊了些什么,才能理解上下文吗? 随着对话越来越长,这个短期记忆占用的空间就会变得非常非常大。霸道。芯片上自带的那点高速内存根本放不下。没错,我明白了,就像我们聊天聊久了,需要不断回忆之前说过什么,如果记忆力跟不上,对话就进行不下去了。数据要在芯片内存和外部内存之间来回倒腾,速度就慢下来了。完全正确, 这成了一个新的瓶颈。而他们的解决方案堪称神来之笔。怎么说,他们用新一代的 bluefield four 芯片在整个机柜村面直接构建了一个超高速共享的短期记忆存储层,他们管这个叫 dynamo kaby cache。 哦,一个共享的记忆池。对, 这样一来,所有 g p u 都不用自己费劲去倒腾数据了,直接从这个共享记忆池里高速读取就行。这一下就解决了大模型扩展性的一大痛点,也等于说创造了一个全新的存储类别。所以,它们不只是在造更快的芯片,而是在从系统架构的层面去寻找并且消灭任何可能出现的性能瓶颈。是的,从 底层芯片到系统架构再到软件,它们正在解决每一个层面遇到的问题。好了,那咱们来简单总结一下,从黄仁勋这张信息量巨大的未来走向, ai 正在从一个我们使用的工具快速进化成我们构建一切的平台。没错,而这些 ai 本身呢,正在变成能够自主推理、规划并与物理世界互动的智能体。对 演讲的结尾,它把所有这些技术都串联了起来,指向了一个终极的应用场景。是什么?就是用今天我们聊的这些 ai 技术去设计和建造未来生产这些 ai 系统的工厂。它把这称为一场新的工业革命, 机器人、造机器人、 ai、 设计 ai? 是 的,这听起来就像一个自我加速的循环。正是如此,所以最后留给你一个值得反复琢磨的问题。嗯, 如果一个 ai 可以 帮助我们设计下一代的芯片,另一个 ai 可以 操作机器人来建造、生产这些芯片的工厂。那么发展到哪个阶段上?整个创新、设计、自造的循环本身就会实现高度的自我净化, 甚至自我进化。哇,到那个时候,我们人类的创造力、整个产业结构又会发生怎样的变化?这可能是未来十年最激动人心,也最引人深思的问题。

二零二六年一月六日晚间消息,二零二六首场拉斯维加斯 c e s 现场,英伟达 ceo 黄仁勋带着价值三千亿美元订单的 rubin 超算平台炸翻全场,直接把 ai 推理成本砍到原来的十分之一,一个机柜的算力就能顶过去一整座机房。 这套平台之所以这么猛,核心就是六芯片协同设计的黑科技。 rubin gpu 的 宽带直接飙到二十二 tb 每秒,是上一代的二点八倍。 n v link 六的机架带宽更夸张,达到两百四十 tb 每秒,相当于全球互联网总带宽的两倍。这就意味着,训练十万亿参数的大模型,需要的 gpu 数量直接少了四分之三, 一颗新卡顶四颗老卡用,也难怪四大云厂商直接抢着下单数十万颗,今年下半年,咱们就能用上这波算力红利。更让人兴奋的是,黄仁勋口中物理 ai 的 check gpt 时刻真的来了, ai 彻底从实验室走进了现实, 全新的 newton 物理引擎能做到零点零一秒实时响应, cosmos 模型的推理延迟只有一毫秒。靠着这两项技术,工厂里的机器人分拣零件,自主运行率直接冲到百分之八十五。特斯拉 optimus 机器人借着这波东风,计划二零二六年量产十万台, 成本压到两万美元以下,小米优必选这些大厂也纷纷接入生态,未来一千万家工厂的生产模式,都要被这种工业原宇宙方案重构。聊完工业,再看大家最关心的自动驾驶。英伟达和奔驰联手搞的 l 四级自动驾驶核心就是搜尔芯片,单颗算力就有两千 tops, 双芯片搭配的话,推理速度比老款快九倍,故障率低到能做到十年三十万公里无故障运行,再加上开源的 oppo mario 模型加持,它能理解复杂路况的因果关系, 今年年底美国限定区域就能先跑起来,二零二七年咱们就能在全球看到 robot taxi 满街跑。最后说给游戏党, r t x 五十 super 系列虽然推迟到明年第一季度,但二十四 g p g d r 七大显存真的香到不行。到时候玩赛博朋克,二零七七的八 k 纹理包能流畅跑满帧, 四 k 光追帧率直接提升百分之四十,甚至还能本地运行七十亿参数的 ai 大 模型。 而且现在 d l s s 四点五已经更新新增的动态多帧生成功能,让 ai 视频渲染速度直接翻倍,刚需党可以蹲一波,现款降价等等,党这次绝对血赚! 从云端超算到工厂机器人,再到咱们的自动驾驶汽车,黄仁勋带着英伟达,靠着十倍成本下降、五倍性能暴涨,硬生生开启了物理 ai 的 新时代。

黄人勋 c e s 二零二六的演讲啊,大家一定要看一下,太牛了,给大家划三个重点啊!先看这个基础设施和算力层面,他通过这个极端的协调设计呢,破解了物理的极限,重构了数据中心的成本, 通过多种的平台技术呢,把算力性能提升了五倍, token 的 生成成本呢,却压低到了只有原来的十分之一。 来看模型演进层面啊,正是笃立了从生成式向推理型转移。 ai 那 不再是一次性的回答了,而是多步的思考和规划的思维链过程,让 ai 具备了逻辑推理能力和常识记忆能力,可以处理复杂场景。 最牛逼的呢,是在物理这种落地层面,物理 ai 正式进入了商业变现期, ai 那 不再存在于屏幕的后面了。 他确定了今年一季度奔驰 ai 实车上路的时间表,还展示了与西门子在工业原宇宙的深度合作。 ai 啊,不再仅仅是软件,将会全面融入到汽车、工厂、机器人这些硬机时硬件世界里面。英伟达这套组合拳呢,整个就震撼了世界,将会让这个 ai 的 估值呢,全面重估。

人工智能未来趋势与中美 ai 领域竞争合作分析黄仁勋二零二六 c e s 演讲清晰勾勒出 ai 产业的进化方向,结合英伟达技术升级路径,可看出 ai 正迈入技术深化加场景落地双轮驱动阶段, 中美在 ai 三要素领域呈现竞争与互补并存的格局。一、人工智能未来发展三大核心趋势一、技术范式转向系统及融合 ai 不 再是单一模型或芯片的比拼, 而是跨模态、跨模型、跨云的复杂系统。物理 ai 成为核心,赛道、自动驾驶、具身智能等实景应用加速落地,形成训练、推理简模拟的全流程计算体系。两、开源生态主导模型,发展开源模型,以展现超越闭源模型的迭代速度。 黄仁勋强调,英伟达将持续开源模型与训练数据,降低技术门槛,推动全球开发者共建共享。三、算力竞争进入平台化时代,模型参数年增十倍,推理需求年增五倍的增长趋势,到逼算力设备从单一芯片向集成化平台升级, 高效能、低功耗的全站解决方案成为核心竞争力。二、英伟达在 ai 三要素的全站解决方案成为核心竞争力。二、英伟达在 ai 三要素的跨越 一、全新 verran 超级芯片平台全面投产,集成 verc p u 与 rubin g p u, 性能较上一代提升两倍,组装时间从两小时压缩至五分钟。二、突破散热瓶颈,无需水冷设备即可支撑高密度计算, 满足物理、 ai 等场景的严苛需求。 cpu 内置八十八个定制核心晶体管,数量达两千两百七十亿。三、构建 q 的 x 库与 omnibus 工具链生态, 形成从芯片到软件的全站支持,适配自动驾驶、机器人仿真等多元场景大模型开源与垂直场景双布局。一、发布全球首个开源自动驾驶推理模型 app mail, 推动自动驾驶技术标准化落地, 已与梅赛德斯奔驰达成量产合作。二、英伟达、黄总认可 deep sec 二一等开源模型的技术突破,通过开放训练数据与工具链,强化在智能体领域的生态主导权。 三、聚焦长上下文模型等关键技术,通过并购 ai、 二十一 labs 等企业,补强团队,加速模型落地能力升级。 大数据构建场景化数据支撑体系。一、一托 cosmos 世界基础模型平台,为物理 ai 提供海量训练数据,打通虚拟仿真与现实应用的数据闭环。二、适配多模态数据处理需求,支持视频流传、感器数据等多元输入, 满足自动驾驶、工业仿真等场景的数据处理需求。三、中美 ai 领域的优势对比一、美国优势技术深度与生态主导权算力层面,英伟达垄断高端 ai 芯片市场, verry rubin 平台构建技术壁垒,芯片设计与制造工艺全球领先。模型层面, openni、 谷歌等企业在前沿模型研发上保持领先,基础算法创新能力突出,吸引全球顶尖人才。 生态层面,形成芯片模型应用的完整生态比环,开源社区与商业生态相互赋能,标准制定权占优。二、中国优势场景规模与基建红利 数据层面,中文高质量数据供给充足,多数模型中文数据占比超百分之六十,日军 tucker 消耗量突破三十万亿,应用数据积累丰富, 算力基建东数西算工程搭建全球最大算力网络,能源产能优势显著,算力成本控制能力突出。场景落地,超大规模人口与行业多样化形成独特优势。 ai 在 交通、工业、消费等领域的渗透率快速提升,落地速度全球领先,模型数量全球大,模型占比超百分之四十。 deepsea 二一等模型在推理能力上达到国际领先水平,开源路线成效显著。四、中美 ai 的 竞争性与互补性一、竞争性, 核心技术与规则主导权博弈。算力领域,美国高端芯片封锁与中国国产替代形成对抗,技术路线差异逐步扩大。模型领域闭源与开源路线竞争加聚, 双方在标准制定、人才争夺等方面博弈持续。应用领域,在全球 ai 市场拓展、行业标准输出等方面存在竞争, 技术壁垒与市场分割风险显现。二、互补性,产业链分工与技术协调空间算力互补,中国算力基建与美国芯片技术存在合作可能,共同满足全球 ai 算力需求。数据协同,中美在多模态数据标注、跨语言数据处理等领域可开展合作, 提升全球 ai 模型通用性。场景共建,在自动驾驶、医疗健康等全球性场景中可共享技术成果,推动行业标准统一。我们拭目以待,未来人工智能代表的第四次工业革命会带给世界什么影响力?

二零二六开年第一乍黄仁勋闪亮登场, c s 二零二六一口气甩出了多项重磅发布,这次不只是卖芯片,英伟达直接重新定义了下一代 ai 基础设施。老黄开场直接给出了一串惊人的数据,现在模型尺寸每年增长十倍,模型思考用的 to token 数量每年增长五倍, 但每个偷看的价格必须每年降低十倍。为了接住这种需求的暴涨, veruben pod ai 超级计算机来了,它由六款自研芯片组成,其中 c p u 性能提升两倍, g p u 推理性能飙升五倍。这些狠货组合在一起,让单机价算力达到了恐怖的三点六 evlops。 老黄称这头性能怪兽功耗翻倍, 却不需要冷水,直接用四十五度的温水就能冷却,一年能帮数据中心省下百分之六的电。其次,为了解决 ai 推理的效率问题, 老黄寄出了三大神器。第一是 spectrum x 以太网供风状光学器件,能效提升五倍,专门给数据中心省电。第二是推理上下文存储平台,将上下文作为一等数据类型处理,让长对话和复杂推理不再卡顿,推理性能直接翻五倍。第三是 d g x superpod, 基于 ruben 打造的 ai 工厂蓝图,可将大型 mo 模型的 token 成本降低至十分之一。最后是应用层面的王炸,因为达发布了首个开源的 能思考的自动驾驶模型 alpha male, 它不仅能开车,还能像人一样推理。老黄称,搭载这套系统的奔驰 c l a 已经量产,还被评为了全球最安全汽车。开源加硬件,英伟达这波操作可以说又让护城河伸了三尺。

天下苦,英伟达久矣。刚刚 c e s。 大 会上,苏兹峰硬刚黄仁勋抛出了一个极其反直觉的判断,他认为 ai 的 下一个万亿级市场不在云端,而在你的手机 pc 上。他的整个演讲围绕边缘计算革命展开。第一个中磅炸弹就是 rezen ai 四百处理器, 算力高达六十 tops, 这意味着这颗芯片的神经处理单元每秒钟可以进行六十万一次操作。它不再需要联网,不再需要把你的个人隐私照片上传到云端的服务器。你的笔记本电脑本身就是一个超级大脑, 它采用了 amd 最新的 z 五 cpu 架构、 rdna gpu 架构,以及专门为 ai 设计的 x dna 二代 npu 架构, 这三个一体的组合让他在处理多任务时游刃有余。现场演示了一台搭载 ryzen ai 四百的轻薄本,一边在后台运行着实时的语音转文字会议记录,一边在帮用户渲染一段复杂的四 k 视频,同时在本地还运行着一个私人法律顾问大模型,回答着复杂的合同问题。 整个过程行云流水,没有任何卡顿,而且完全没有联网。这就是苏兹峰想卖给你的未来,一个不需要依赖云端安全、隐私且极度强大的智能伙伴。他锁定了内容创作、商业应用等最核心的生产场景,并宣布预计将有超过一百二十款搭载该芯片的设备上市。 接着第二个重磅炸弹是 ryzen ai halo, 它采用了 c p u、 g p u 与 n p u 的 统一内存架构,支持在本地运行高达两千亿参数的大模型。两千亿参数的模型意味着好几张英伟达的专业级显卡搭建的卡式工作站,光是电费和散热噪音就足够劝退百分之九十九的开发者。 而现在,苏兹峰把他塞进了一个便当盒大小的设备里,专门面向开发者和初创公司。他在告诉这群最富有创造力的人,拿着 amd 的 小盒子,在家里就能训练和微调顶级的 ai 模型。苏兹峰知道在高端数据中心短期内很难撼动英伟达的地位,所以他选择了一条农村包围城市的道路。 他把算力的门槛儿降到了地板,把开发的自由度交还给每一个普通人。第三个众望炸弹就是李飞飞和他的独角兽公司 world laps。 苏自锋展示了 world laps 基于 amd instinct 加速器生成的可交互三 d 世界。当别人还在卷文本和图像, amd 已经在压住空间智能,为物理世界、机器人和自动驾驶而生了 ai。 第四个重磅炸弹,与 leku ai 联手发布了 lfm、 二点五和 lfm 三系列模型。英伟达之所以强大,是因为现在的 ai 主流架构是 transformer, 这种架构天生就适合英伟达 gpu 的 并行计算。 但是 leku ai 受的是非 transformer 架构,它的模型采用了全新的算法逻辑,不仅更小更快,而且能让多模态 ai 在 pc、 手机甚至是机器人等终端上实时运行,效率远超传统模型。 杜子锋这一招可谓是釜底抽薪,他在扶持一种全新的算法生态。在底座,他有像 ten yata flops 进军的 m i、 三二五 x 和正骨架构,保证高端算力不掉队。在中间层,有 passando plora 解决网络传输,有 ryzen ai heroes 降低开发门槛,把路铺平。在应用层,他通过拉拢 world labs 的 空间智能和 lequake ai 的 新架构,探索绕过英伟达护城河的新航路。这是一个全站式精心设计的包围圈,这次他在主动定义未来。

在今天举办的 c e s。 二零二六主题演讲中,英伟达 ceo 黄仁勋宣布机器人领域已迎来 check g p t 时刻,并发布了一系列开源物理 ai 模型。在本次活动中,黄仁勋谈到人工智能和机器人技术的未来时,带了一对可爱的 b d s 机 机器人上台,并向观众展示了 g 二零零 t 是 如何学习成为机器人。针对备受关注的人形机器人领域,发布了名为 isic g 二零零 t n 一 点六 v l a 模型,能够实现全身精准动作控制和环境感知,利用 cosmos 的 推理能力,实现了对人形机器人的全身精准控制。

科技圈的春晚 c e s 二零二六上英伟达 ceo 黄仁勋,我们的老黄又扔下了一枚核弹,新一代 ai 平台 vera rubin 宣布进入全面生产阶段。这可不是一次普通的产品迭代, 老黄这次带来的不是一个简单的芯片,而是一个名为 vera rubin 的 完整 ai 超级计算机平台。官方是怎么描述它的?由六颗芯片构成的一台 ai 超级计算机, 这六颗核心包括了全新的 veracube rubin gpu、 最新的交换芯片、网卡、 dpu 和 cpu, 可以 说 是从计算连接到网络安全进行了一次彻头彻尾的架构革新。那么这个 rubin 平台到底强在哪儿?它凭什么能让我们如此关注?首先是性能的恐怖飞跃,核心的 rubin gpu 搭载了第三代 transformer 引擎, 其 f p 四推理算力达到了五十 p f flops。 这个数字可能有点抽象,但做个对比你就明白了,它是英伟达上一代王者 blackwell gpu 的 五倍,这意味着在处理 ai 推理任务时,速度快了整整五倍。更关键的是,在模型训练上, 用 vero rubin 平台训练超大规模模型能达到同样的效果,但需要的 gpu 数量只有原来的七分之一。 成本和效率的优化,这对于 ai 大 规模应用来说是革命性的,这就像是从蒸汽时代突然跃迁到了电气时代,生产率指数级提升。其次是设计理念的颠覆, rubin 平台采用了第三代完全无氧化加上百分之一百全液冷设计,这意味着更高效的散热、更紧凑的布局,为的是支撑极致算力下的稳定运行。有观众调侃说,这配置是给 ai 烧香用的, 话糙理不糙,这确实是为了满足未来更疯狂 ai 算力需求的顶配香炉。好技术很牛,但对我们投资者来说,更关心的是这波浪潮谁能受益? 钱会流向哪里?老黄在演讲中确认, rubin 平台已经进入全面生产阶段,基于他的产品将在二零二六年下半年通过合作伙伴面试,这意味着供应链的订单和业绩兑现已经进入了倒计时。第一层最直接的是先进封装和芯片制造, rubin gpu 集成了两颗芯片,采用了 h p m 四高带宽显存,这继续指向了高端封装技术的持续需求。 黄仁勋在去年十一月就透露,台积正非常努力支援相关需求,并且三星 s k、 海力士、镁光三大存储芯片巨头都在扩产支持英伟达, 这预示着高端封装产物 h b m 存储芯片的需求将继续火爆。虽然 a 股直接参与核心芯片制造的公司不多,但整个半导体设备的景气度会被高高托起。第二层也是 a 股市场可能更有肉吃的环节。 高端 pcb 和上游材料,这就是我们常说的卖水人逻辑。 ai 服务器对数据传输速度和信号完整性要求极高,这就逼着承载芯片的 pcb 版必须升级。 ruby 平台将开启 aipcb 高端材料的新时代。 具体来说,像 m 九附铜板、 q 系列电子布等高端材料的需求将会爆发,因为这些材料能提供更低的介电传输和信号损耗,正好匹配 ruby 平台的高速性能。 关注标的包括 pcb 制造、上游材料,以及在上游树脂电子部领域有布局的相关企业。 这个方向的技术壁垒高、价值提升明显,是 rubin 浪潮中非常值得深挖的金矿。第三层是散热和电源管理,百分之一百全液冷设计,意味着对液冷解决方案、先进散热材料和电源管理芯片的需求会大幅提升。 好洞察完行业,我们具体到 a 股投资该怎么看?短期看,今天 a 股盘面上相关的 c p o 概念反而领跌,这其实反映了市场的一定分歧和利好兑现的短期情绪。 rubin 平台内部采用了 c p o 技术,长期逻辑是顺的,但短期股价受多种因素影响,因此追高需要谨慎。 更应该关注的是那些真正在技术上和供应链上能切入弱病生态,或者因行业技术升级而确定受益的公司。中长期看,核心主线是高端 pcb 及材料链,这是确定性最高的方向之一。 重点关注在高速高频 pcb 板上有技术积累以及能够生产 m 九级附铜板、高端电子部等材料的公司。需要仔细甄别哪些公司是真正有技术突破和客户认证的,而不是仅仅停留在概念上。 延伸机会是散热与电源液冷技术供应商,能够提供高效电源管理解决方案的公司,将伴随 ai 服务器功率密度不断提升而持续受益。基础支撑是半导体设备与材料, 无论芯片如何迭代,对先进制造设备、特种气体化学品等基础需求是刚性的。这个板块的景气度与整个半导体创新周期绑定。 总而言之,英伟达 rubin 平台的量产不是一个终点,而是一个新的起点,它宣告了 ai 算力军备竞赛进入了一个新的更激烈的阶段,成本的大幅下降可能会催生更多。我们现在还无法想象。 ai 应用 对于我们投资者而言,关键在于沿着技术升级的路径,找到那些不可或缺的卖水人和铲子股。这场由 rubin 点燃的算力之火,必将照亮一批真正有硬实力的中国供应链公司的发展之路。