00:00 / 01:03
连播
清屏
智能
倍速
点赞38
00:00 / 02:07
连播
清屏
智能
倍速
点赞222
00:00 / 01:46
连播
清屏
智能
倍速
点赞3719
00:00 / 03:29
连播
清屏
智能
倍速
点赞1846
刚刚!华为宣布开源盘古7B稠密和72B混合专家模型 6月30日,华为宣布开源盘古70亿参数稠密模型、720亿参数Pro MoE混合专家模型及基于昇腾的模型推理技术,标志着其昇腾生态战略再落关键一子。此次开源旨在推动大模型技术创新,助力AI在各行业深度应用。 据公告,盘古Pro MoE 72B模型权重与基础推理代码已上线开源平台,70亿参数小模型权重及代码将于近期开放。该模型通过动态激活专家网络设计,以720亿参数实现千亿级模型性能,在SuperCLUE 2025年5月榜单中位列国内同量级模型首位。华为专家称其“兼顾性能与成本,是行业AI改造的理想选择”。 除现有模型开源外,华为还推出参数规模达7180亿的盘古Ultra MoE,全流程基于昇腾AI平台训练,并发布技术报告披露架构细节。该模型在万卡集群训练中实现41%的算力利用率(MFU),实验室环境下达45%;配合CloudMatrix 384超节点,MoE大模型训练MFU突破50%。华为技术专家强调,昇腾超节点通过全对等高速互联架构及系统级优化,支持“Day0迁移、一键部署”,打破外界对昇腾算力的质疑。 在华为开发者大会(HDC 2025)上,盘古大模型5.5正式发布,升级涵盖自然语言处理、计算机视觉、多模态等五大领域。华为表示,将持续完善昇腾生态,兼容主流框架,推动AI技术普惠化。此次开源与生态布局,彰显华为构建AI产业闭环的决心。#真空回流炉 #芯片封装 #半导体设备 #华为
00:00 / 00:54
连播
清屏
智能
倍速
点赞187
00:00 / 01:41
连播
清屏
智能
倍速
点赞62
00:00 / 03:05
连播
清屏
智能
倍速
点赞112
00:00 / 00:43
连播
清屏
智能
倍速
点赞29