00:00 / 06:16
连播
清屏
智能
倍速
点赞105
00:00 / 04:06
连播
清屏
智能
倍速
点赞507
DeepSeek和混元四月预计同期发布重磅模型 国产AI模型的四月:DeepSeek V4与混元新模型预计同期发布 #DeepSeekV4 #混元新模型 #梁文锋 #姚顺雨 据最新爆料,中国AI界即将迎来一场重磅对决。DeepSeek V4和腾讯混元新模型预计将于2026年4月同期发布,这标志着国产大模型竞赛进入新阶段。 DeepSeek V4作为梁文锋精心打磨的多模态大模型,将在代码能力和长期记忆上实现重大突破。值得注意的是,DeepSeek团队近期的研究方向与V4的技术路线高度吻合。 今年1月发表的《Conditional Memory via Scalable Lookup》论文提出了“条件记忆”机制,而去年12月的《mHC: Manifold-Constrained Hyper-Connections》则聚焦底层架构优化,两者都直指Transformer在记忆和长上下文处理上的瓶颈。 更引人关注的是,DeepSeek V4将深度适配国产芯片,有望成为首个完全基于国产算力生态的大模型。与此同时,DeepSeek App的市场表现也令人瞩目,截至2025年2月累计下载量已超1.1亿次,周活跃用户峰值接近9700万。 腾讯方面,由首席AI科学家姚顺雨领衔的混元新模型同样值得期待。这款约300亿参数的模型体现了腾讯务实的技术路线。姚顺雨在内部明确要求团队“不要以打榜为导向”,避免因过度追求榜单成绩导致数据污染,转而专注于提升模型在真实场景中的稳定性。 技术路线上,两家公司展现出不同侧重:DeepSeek深耕长期记忆和多模态能力,而腾讯混元则强化上下文学习和Agent可用性。这种差异化竞争反映了行业对下一代大模型发展方向的不同思考,但共同目标都是让AI技术更好地服务于实际生产环境。 四月的这场“双雄会”不仅是一场技术展示,更是中国AI产业发展的一个重要里程碑,预示着国产大模型正从追赶到并跑的新阶段。
00:00 / 04:33
连播
清屏
智能
倍速
点赞17
T王T哥1月前
航锦科技:传统化工跨界AI算力 从烧碱到算力,这家传统化工企业的跨界转型正迎来资本市场的高度关注。 2月10日,航锦科技(000818.SZ)股价强势涨停,收盘涨幅10.01%,报收23.62元。 航锦科技的前身是成立于1997年的锦化氯碱,产品线覆盖烧碱、环氧丙烷、聚醚等基础化工原料。2017年,公司开启第一次转型,通过并购长沙韶光半导体和威科电子,切入军工电子领域。电子板块的核心产品是军用特种芯片,包括存储芯片、总线接口芯片、模拟芯片等,服务于国防和高端制造。 2023年,公司再次战略升级,布局智算算力板块,成立全资子公司航锦人工智能。 航锦人工智能通过“增资+股权受让+表决权委托”的组合拳,合计控制了超擎数智46.47%的表决权,从而成为其第一大股东并实现并表。 超擎数智作为英伟达 Compute(GPU)、Networking(网络)双Elite精英级合作伙伴,为用户提供算力和网络整体解决方案。 此后的半年时间内,航锦科技先后斩获武汉迈异信息科技有限公司、北京易起联科技有限公司、上海泛超数字科技有限公司等公司的算力服务订单,以及无锡众智联能科技有限公司、厦门吾芯科技有限公司的算力设备销售订单。 从最新业绩预告来看,航锦科技正处于转型阵痛期。公司预计2025年全年净利润为-1亿元至-1.8亿元,虽然仍为亏损,但较2024年大幅减亏。 这一业绩变化主要源于两方面因素:化工板块受行业周期影响,主要产品销售价格下降形成亏损;而智算算力板块受行业景气和前期项目逐步交付影响,经营业绩较前期增长。回顾历史数据,公司业绩波动较大:2021年净利润曾高达7.32亿元,随后逐年下滑,2024年出现近10亿元亏损。 尽管整体仍处亏损,但智算算力业务已成为公司第二大收入来源,且保持增长态势。市场看好公司在AI算力领域的布局前景。 #航锦科技 #算力 #AI算力 #英伟达 #智算中心
00:00 / 02:11
连播
清屏
智能
倍速
点赞80
00:00 / 00:53
连播
清屏
智能
倍速
点赞45
00:00 / 03:35
连播
清屏
智能
倍速
点赞307
00:00 / 00:26
连播
清屏
智能
倍速
点赞408
00:00 / 01:50
连播
清屏
智能
倍速
点赞39
00:00 / 05:05
连播
清屏
智能
倍速
点赞910
最近市场上有条消息特别有意思,DeepSeek新一代的AI模型V4,在发布之前,优先向华为昇腾这些国产芯片厂商开放了测试权限。大家想一想,以前这种顶级模型的适配,首选往往是英伟达,但这一次,国产模型选择了和国产芯片站在一起。这不仅仅是一次简单的技术测试,更像是一次“国产模型+国产芯片”协同作战的宣言。 我们先来聊聊当下的市场格局。根据2026年初全球知名研究机构伯恩斯坦的预测,中国AI芯片市场正在发生一场剧烈的洗牌。预计到2026年,华为昇腾的市场份额将飙升至50%,成为绝对的领导者。相比之下,英伟达的份额可能会骤降至8%左右 。这意味着什么呢?这意味着在短短几年内,中国AI算力的底座已经完成了从“买来的”到“自己造”的历史性转换,华为昇腾现在就是国产AI芯片的顶梁柱。 这么大的市场份额,背后肯定站着一整条产业链。华为昇腾采用的是“硬件开放、软件开源”的策略,所以围绕它生长出了一批核心的合作伙伴。这里面有做连接器的华丰科技,有提供PCB板的深南电路,还有做温控的申菱环境等等 。但今天特别想提一家代表企业叫天宽科技,它是华为昇腾生态的核心合作伙伴,深度参与了昇腾云的技術适配和算力优化,简单来说,它就是帮昇腾芯片在各种应用场景里跑得更顺畅的那个“调教师” 。 说到这儿,很多朋友会问,我们老在说对标英伟达,那昇腾产业链比起英伟达,到底牛在哪儿?其实逻辑很简单,如果说英伟达像是给你一把顶级的、削铁如泥的“青龙偃月刀”,那你得自己武艺高强才能挥得动。而华为昇腾的做法更像是在打造一个“航空母舰战斗群”。单芯片性能受制于工艺,咱们就用系统架构来补。华为通过全光互联这种技术,把几万颗芯片组合成一个超节点,让它们像一台计算机一样协同工作 。这种通过光信号代替电信号、用系统化创新来弥补制程短板的能力,是华为过去三十年通信技术的深厚积累,也是昇腾产业链独有的护城河。而且,华为还把核心的互联协议“灵衢”给开放了出来,让整个产业链都能参与共建 。 最后,我们来展望一下未来。随着像DeepSeek这样的大模型开始原生适配国产芯片,昇腾产业已经进入了“以用促技”的良性循环。从2026年开始,华为规划了昇腾950PR、950DT等一系列新品,基本保持一年一迭代的速度 。 #deepseekv4 #昇腾产业链 #华丰科技 #华工科技 #中际旭创
00:00 / 03:09
连播
清屏
智能
倍速
点赞197
DeepSeek V4 预计将在下周发布 #DeepSeekV4 据《金融时报》报道,DeepSeek将于下周正式发布V4模型,这款原生多模态大模型支持图像、视频和文本生成,其最大突破在于绕过英伟达芯片,专门针对国产AI芯片进行深度优化。 三大核心突破重塑行业格局 V4具备原生多模态能力,彻底补齐DeepSeek在图像和视频生成的短板。测试显示其编码性能超越当前GPT和Claude模型,SVG图像质量显著提升。更关键的是,模型实现国产芯片全面适配,打破AI行业必须依赖英伟达硬件的传统,推动中国AI从“用别人芯片”转向“用自己的芯片”的历史性转变。 成本优势引发市场担忧 泄露信息表明,V4的API成本低至每百万token 0.27美元,比竞争对手便宜50倍以上。这一价格优势可能重演去年R1发布时的市场震荡——当时英伟达股价单日暴跌17%,市值蒸发5890亿美元。分析师预测,V4的发布可能再次冲击美股科技板块。 技术积累与战略布局 DeepSeek在静默期内持续技术迭代,先后发布V3.2、DeepSeekMath V2等重要更新,并突破百万token上下文处理技术。选择在下周重要会议前亮相,凸显其国家战略意义。尽管面临Anthropic等美企的“蒸馏攻击”指控,但DeepSeek通过持续创新证明了中国AI的硬实力。 此次发布标志着中国AI从依赖硬件算力转向架构创新的新阶段,或将重新定义全球AI竞争格局。
00:00 / 11:20
连播
清屏
智能
倍速
点赞119
00:00 / 00:37
连播
清屏
智能
倍速
点赞929
DeepSeekV4前夕与北京大学清华大学联合发布重磅论文 DeepSeek联合清北发布DualPath系统:突破智能体推理I/O瓶颈 DeepSeek与北京大学、清华大学联合发布重磅论文,提出全新大模型推理系统DualPath,成功解决智能体应用中的存储I/O瓶颈问题,将推理吞吐量提升近一倍。 问题根源:智能体场景下的I/O失衡 当大模型进化为多轮交互的智能体时,计算瓶颈从GPU算力转向存储I/O带宽。由于每次只追加少量Token,KV-Cache命中率超过95%,GPU大量时间浪费在等待从外部存储读取海量历史数据。现有架构中,所有KV-Cache都从预填充节点加载,导致其存储网卡带宽饱和,而解码节点带宽闲置。 双路径创新:全局带宽资源池化 DualPath系统创新性地引入“存储->预填充”和“存储->解码->预填充”双路径加载机制。通过动态分配两条路径的数据流量,系统成功聚合所有节点的存储带宽,将离线推理吞吐量提升最高1.87倍,在线服务吞吐量平均提升1.96倍。 关键技术突破 流量隔离:利用InfiniBand虚拟通道机制,将模型推理通信分配至高优先级通道,KV-Cache传输在计算网络空闲间隙进行,避免相互干扰。 动态调度:自适应请求调度器实时监控节点负载,基于Token数量和网卡队列长度智能分配任务,最大化资源利用率。 大规模验证效果 在1152张GPU集群的测试中,系统支持DeepSeek-V3.2 660B等大模型,在线服务场景下请求处理能力提升最高2.25倍,且保持严格的延迟服务等级协议。系统展现出优秀的扩展性,为智能体时代的大模型推理奠定了坚实基础。 这项研究标志着大模型基础设施的重要突破,为即将到来的智能体普及扫清了性能障碍。
00:00 / 09:09
连播
清屏
智能
倍速
点赞90