00:00 / 05:07
连播
清屏
智能
倍速
点赞10
00:00 / 03:21
连播
清屏
智能
倍速
点赞33
00:00 / 06:21
连播
清屏
智能
倍速
点赞6689
00:00 / 01:16
连播
清屏
智能
倍速
点赞28
英伟达最近在社交媒体上罕见发声,一边为谷歌的AI进步点赞,一边明确表示"会继续给谷歌提供产品",直接打破了双方合作破裂的传言。更关键的是,英伟达特意强调,自家的GPU芯片比谷歌的TPU强在哪——那就是更高的性能、更多的用途,还能和不同系统兼容!反观TPU这种专用芯片,就像定制款的工具,只能给特定公司、干特定活儿,通用性差远了。 那英伟达为啥突然这么"高调回应"?核心原因就是市场慌了!本周一有重磅消息曝光:Meta竟然在考虑从二零二七年开始,把谷歌的TPU用在自己的数据中心里,甚至明年就可能通过谷歌云租用TPU的算力。要知道Meta可是AI领域的"大客户",它一旦转向,其他企业会不会跟风?这可直接戳中了英伟达的要害,所以赶紧出来安抚市场情绪:"我的优势还在,大家别慌!" 说到这,可能有朋友要问了:GPU和TPU到底啥区别?谷歌的TPU真有那么厉害吗?咱们用大白话拆解一下:GPU就像一个"万能工具箱",里面有扳手、螺丝刀、钳子,不管是AI训练、游戏渲染,还是数据分析,都能拿出来用,适配各种场景;而TPU是"定制款工具",专门为AI计算而生,就像一把精准的激光刀,只针对特定的AI任务发力。 客观说,TPU的优势很明显:针对AI任务的处理速度更快,功耗还更低。有数据显示,处理相同的AI训练任务,TPU的能效比能比普通GPU高一点二个百分点。但它的短板也致命——通用性太差!比如用TPU处理AI图像识别很高效,可要是换成视频渲染、科学计算,它就彻底"歇菜"了。而现在大部分企业的需求都是多样化的,不可能只靠单一任务的芯片撑场面。 再看权威数据,2025年三季度全球AI训练芯片市场报告显示,英伟达GPU的市场份额高达八十一点二个百分点,而谷歌TPU仅占六点三个百分点。而且英伟达的生态已经相当成熟,全球超九成的AI企业都在使用它的芯片和配套软件,这种生态优势可不是短时间能被超越的。所以短期来看,TPU想撼动英伟达的霸主地位,难度确实不小。 不过话说回来,科技行业从来没有永远的赢家。谷歌TPU吸引了Meta这样的大客户,是不是意味着专用AI芯片要迎来爆发期?你觉得未来英伟达还能稳坐头把交椅吗?欢迎在评论区聊聊你的看法。 #英伟达回应 #谷歌tpu芯片 #Meta购买TPU #TPU科普
00:00 / 02:33
连播
清屏
智能
倍速
点赞97
00:00 / 00:45
连播
清屏
智能
倍速
点赞351
谷歌、英伟达谁会是王者? 谷歌、英伟达谁会是王者?近期美股科技股呈现鲜明分化:谷歌股价连创新高,市值逼近4万亿美元;英伟达虽三季报亮眼,却在三日内盘中一度重挫7%以上,市值较峰值蒸发超1万亿美元。这场涨跌背离的核心并非AI泡沫破裂,而是谷歌TPU与英伟达GPU的芯片路径之争,以及Gemini 3与ChatGPT 5的大模型较量,谷歌模式正获得市场更多青睐。 一、谷歌崛起的关键是TPU(张量处理单元),这是专为AI任务设计的专用芯片,可以实现数据高度复用,算力成本仅为GPU的1/5,能效比优于同代产品。最新第七代TPU的集群算力堪比24台顶级超级计算机,不少企业大规模部署。依托TPU生态与Gemini大模型的协同,谷歌在AI推理场景形成独特优势。 二、GPU短板集中在能耗与成本,大规模部署面临电力瓶颈,通用架构导致特定AI任务性价比不足。尽管三季报显示数据中心营收增长66%,但高投入成本也在降低盈利能力。英伟达的新算力平台计划2026年量产,新芯片性能较前代提升10倍,但谷歌专用芯片的冲击不容忽视。 三、目前来看AI泡沫论并不成立,行业仍处高增长周期,超大规模云计算厂商资本支出预计达6000亿美元,OpenAI等企业用户持续扩张。市场波动是技术路径迭代竞争,而非行业衰退。英伟达作为通用算力龙头,其生态优势和订单储备量大,应当不会重蹈思科在2000年泡沫中的覆辙。 四、目前英伟达市值4.32万亿美元,谷歌逼近4万亿关口。谷歌凭借TPU的能效优势在专用场景突围,英伟达则以生态壁垒坚守通用市场。这场较量的走向取决于芯片技术迭代速度与AI应用场景的落地节奏。中国是继续复制追赶英伟达GPU芯片路径,还是借鉴谷歌TPU高效能专用芯片研发模式还需要观察,这对于研发全功能GPU的摩尔线程不算是好消息,但对寒武纪可能是新机遇。 市场有风险,投资需谨慎。本文所有分析基于公开信息,不构成任何投资建议。#谷歌 #英伟达
00:00 / 05:49
连播
清屏
智能
倍速
点赞75
00:00 / 01:30
连播
清屏
智能
倍速
点赞9
00:00 / 03:56
连播
清屏
智能
倍速
点赞1083
00:00 / 05:00
连播
清屏
智能
倍速
点赞18
英伟达谷歌怎么看? 谷歌TPU VS 英伟达GPU:AI算力王座之争,一场被严重误读的科技战争 一场围绕「算力」展开的隐形战争,正在重塑全球云计算与AI产业的版图。 它不是显卡之争,而是: 通用算力 vs 专用算力、开放生态 vs 垂直闭环、卖铁铲 vs 自建矿山。 今天,我们用最通俗、最直白、但逻辑最硬的方式,彻底拆解: Google TPU 与 Nvidia GPU,究竟谁更强?谁更有未来?普通人又该如何理解这场大战背后的资本密码? 一、为什么谷歌一定要造 TPU?不是为了炫技,而是被逼出来的 时间回到 2013 年。 那一年,Google 内部做了一个极其可怕的测算: 如果每一个安卓用户每天使用语音搜索 3 分钟,那么 Google 现有的数据中心需要翻倍,甚至更多。 换句话说: AI 一旦真正普及,传统 CPU + GPU 的算力结构,会把自己活活“撑死”。 不是因为技术不行,而是因为「不够经济」。 GPU 可以做 AI,但问题在于: 功耗高 单位算力昂贵 设计初衷并非为神经网络 当 AI 从“实验室玩具”开始迈向“全民基础设施”,Google 意识到一个残酷现实: 如果继续依赖通用芯片,AI 的成功将直接拖垮自己的成本结构。 于是,一个非常明确的方向诞生: 必须打造属于自己的 AI 专用芯片——TPU(Tensor Processing Unit) 它不是为了炫技术,而是为了两个字: 活下去。 从立项到实际部署,仅用了约 15 个月。2015 年,TPU 就已悄悄部署在 Google 搜索、Google 翻译、Google Photos、地图等核心业务背后,支撑着每日数十亿次的 AI 推理请求。 它不像 GPU 那样光鲜,但它是 Google AI 真正的“发动机”。 二、TPU 与 GPU 本质区别:不是谁快谁慢,而是物种不同 GPU:通用并行计算之王 GPU 原本为图形渲染设计,但由于天然并行结构,逐渐被应用到 AI 运算中。 它的优势在于: 灵活 通用 适配各种模型 软件生态极其成熟 但它的问题同样明显: 为图形而生,非为神经网络而生 架构复杂,功耗高 单位算力成本偏高 可以理解为: GPU 是一辆越野车,什么路都能走,但不是为某一条赛道而生。 TPU:专为神经网络而生的极简机器 TPU 则是 Google 按照 AI 运算特性“从零设计”的 ASIC(专用芯片)。
00:00 / 04:22
连播
清屏
智能
倍速
点赞821
00:00 / 02:56
连播
清屏
智能
倍速
点赞57
00:00 / 01:30
连播
清屏
智能
倍速
点赞2