00:00 / 00:15
连播
清屏
智能
倍速
点赞41
大模型公司不优先适配英伟达,反而集体倒向国产芯片——这种“反常识”的操作,背后藏着怎样的财富密码? 4月4日消息,DeepSeek即将发布的新一代大语言模型V4,已基于华为等国产AI芯片完成深度优化。过去数月,DeepSeek与华为、寒武纪密切合作,对模型底层程序进行了调整与重写。这一次,DeepSeek打破行业惯例,没有向美国AI芯片供应商开放测试,而是将国产芯片置于优先位置。 大家想一想,这为什么值得高度关注?因为这是模型研发逻辑的根本性逆转。 在AI大模型这场游戏中,硬件和软件从来都是硬币的两面。 英伟达之所以垄断市场,靠的不仅是芯片算力,更是长达十年的软件生态壁垒——CUDA。大模型在英伟达芯片上运行、测试、优化,整个训练和推理流程早已深度绑定。DeepSeek这次操作意味着什么?意味着他们主动切断了对CUDA生态的路径依赖,用算法工程能力去适配国产硬件。 其实逻辑很简单:过去是“英伟达造路,大家开车”,路是英伟达铺的,你要换条路跑,性能立马打折。但DeepSeek过去数月联合华为、寒武纪,把底层代码重写了一遍,相当于自己修了一条适配国产芯片的路。当算法主动适配硬件,国产芯片的短板就不再是不可逾越的天堑。 更重要的是,下游巨头已经用脚投票。报道显示,阿里巴巴、字节跳动、腾讯为应对V4云服务上线需求,已提前向华为下单数十万颗新一代AI芯片。这意味着什么?意味着这不是DeepSeek一家企业的独立选择,而是一个正在成型的产业共识。 这对整个行业格局将产生深刻影响。第一,国产AI芯片的商业闭环正式形成。 过去国产芯片最缺的不是算力,而是真实的大规模应用场景去验证、去迭代。DeepSeekV4的推出,等于为国产算力提供了一个顶级的大规模实战测试场,这正是加速芯片性能追赶的催化剂。第二,推理市场将成为国产芯片的主战场。 据机构预测,2026年将是中国算力需求从“云端训练”向“训练+推理”双轮驱动转型的关键之年。DeepSeek还同步开发了两款针对不同场景的V4衍生版本,同样基于国产芯片设计。当推理侧大规模放量,国产芯片的市场空间将被迅速打开。 那么,在这个逻辑传导路径上,哪些环节会率先受益?沿着“模型适配—芯片放量—算力基建”这条线索来梳理。 #deepseekv4 #华为昇腾 #寒武纪 #deepseek优先适配国产芯片 #海光信息
00:00 / 03:57
连播
清屏
智能
倍速
点赞77
00:00 / 02:17
连播
清屏
智能
倍速
点赞14
00:00 / 00:42
连播
清屏
智能
倍速
点赞29
00:00 / 03:56
连播
清屏
智能
倍速
点赞2
00:00 / 02:33
连播
清屏
智能
倍速
点赞NaN
00:00 / 02:33
连播
清屏
智能
倍速
点赞15