大模型公司不优先适配英伟达,反而集体倒向国产芯片——这种“反常识”的操作,背后藏着怎样的财富密码? 4月4日消息,DeepSeek即将发布的新一代大语言模型V4,已基于华为等国产AI芯片完成深度优化。过去数月,DeepSeek与华为、寒武纪密切合作,对模型底层程序进行了调整与重写。这一次,DeepSeek打破行业惯例,没有向美国AI芯片供应商开放测试,而是将国产芯片置于优先位置。 大家想一想,这为什么值得高度关注?因为这是模型研发逻辑的根本性逆转。 在AI大模型这场游戏中,硬件和软件从来都是硬币的两面。 英伟达之所以垄断市场,靠的不仅是芯片算力,更是长达十年的软件生态壁垒——CUDA。大模型在英伟达芯片上运行、测试、优化,整个训练和推理流程早已深度绑定。DeepSeek这次操作意味着什么?意味着他们主动切断了对CUDA生态的路径依赖,用算法工程能力去适配国产硬件。 其实逻辑很简单:过去是“英伟达造路,大家开车”,路是英伟达铺的,你要换条路跑,性能立马打折。但DeepSeek过去数月联合华为、寒武纪,把底层代码重写了一遍,相当于自己修了一条适配国产芯片的路。当算法主动适配硬件,国产芯片的短板就不再是不可逾越的天堑。 更重要的是,下游巨头已经用脚投票。报道显示,阿里巴巴、字节跳动、腾讯为应对V4云服务上线需求,已提前向华为下单数十万颗新一代AI芯片。这意味着什么?意味着这不是DeepSeek一家企业的独立选择,而是一个正在成型的产业共识。 这对整个行业格局将产生深刻影响。第一,国产AI芯片的商业闭环正式形成。 过去国产芯片最缺的不是算力,而是真实的大规模应用场景去验证、去迭代。DeepSeekV4的推出,等于为国产算力提供了一个顶级的大规模实战测试场,这正是加速芯片性能追赶的催化剂。第二,推理市场将成为国产芯片的主战场。 据机构预测,2026年将是中国算力需求从“云端训练”向“训练+推理”双轮驱动转型的关键之年。DeepSeek还同步开发了两款针对不同场景的V4衍生版本,同样基于国产芯片设计。当推理侧大规模放量,国产芯片的市场空间将被迅速打开。 那么,在这个逻辑传导路径上,哪些环节会率先受益?沿着“模型适配—芯片放量—算力基建”这条线索来梳理。 #deepseekv4 #华为昇腾 #寒武纪 #deepseek优先适配国产芯片 #海光信息
00:00 / 03:57
连播
清屏
智能
倍速
点赞80
00:00 / 00:58
连播
清屏
智能
倍速
点赞1700
00:00 / 02:29
连播
清屏
智能
倍速
点赞23
00:00 / 00:43
连播
清屏
智能
倍速
点赞30
00:00 / 00:26
连播
清屏
智能
倍速
点赞411
00:00 / 01:50
连播
清屏
智能
倍速
点赞39
00:00 / 01:21
连播
清屏
智能
倍速
点赞252
00:00 / 00:51
连播
清屏
智能
倍速
点赞12
00:00 / 03:45
连播
清屏
智能
倍速
点赞3
00:00 / 01:30
连播
清屏
智能
倍速
点赞17
DeepSeek V4 预计将在下周发布 #DeepSeekV4 据《金融时报》报道,DeepSeek将于下周正式发布V4模型,这款原生多模态大模型支持图像、视频和文本生成,其最大突破在于绕过英伟达芯片,专门针对国产AI芯片进行深度优化。 三大核心突破重塑行业格局 V4具备原生多模态能力,彻底补齐DeepSeek在图像和视频生成的短板。测试显示其编码性能超越当前GPT和Claude模型,SVG图像质量显著提升。更关键的是,模型实现国产芯片全面适配,打破AI行业必须依赖英伟达硬件的传统,推动中国AI从“用别人芯片”转向“用自己的芯片”的历史性转变。 成本优势引发市场担忧 泄露信息表明,V4的API成本低至每百万token 0.27美元,比竞争对手便宜50倍以上。这一价格优势可能重演去年R1发布时的市场震荡——当时英伟达股价单日暴跌17%,市值蒸发5890亿美元。分析师预测,V4的发布可能再次冲击美股科技板块。 技术积累与战略布局 DeepSeek在静默期内持续技术迭代,先后发布V3.2、DeepSeekMath V2等重要更新,并突破百万token上下文处理技术。选择在下周重要会议前亮相,凸显其国家战略意义。尽管面临Anthropic等美企的“蒸馏攻击”指控,但DeepSeek通过持续创新证明了中国AI的硬实力。 此次发布标志着中国AI从依赖硬件算力转向架构创新的新阶段,或将重新定义全球AI竞争格局。
00:00 / 11:20
连播
清屏
智能
倍速
点赞117