00:00 / 01:18
连播
清屏
智能
倍速
点赞81
00:00 / 00:11
连播
清屏
智能
倍速
点赞2017
00:00 / 00:36
连播
清屏
智能
倍速
点赞21
00:00 / 03:56
连播
清屏
智能
倍速
点赞46
00:00 / 05:01
连播
清屏
智能
倍速
点赞417
华为发布开源AI容器技术Flex:ai,算力资源利用率可提升30% 华为于2025年11月21日在上海举办的“2025 AI容器应用落地与发展论坛”上,正式发布并开源了其创新的AI容器技术Flex:ai。这项技术旨在解决当前AI产业面临的算力资源利用率低的痛点。 🔍 技术核心亮点 - 提升算力利用率:当前行业算力资源平均利用率仅为30%-40%。Flex:ai通过算力切分技术,能将单张GPU/NPU算力卡精细切分至10%的粒度,实现单卡同时承载多个AI工作负载,使资源平均利用率提升30%。 - 统一管理异构算力:与英伟达Run:ai等方案不同,Flex:ai通过软件创新,能够统一管理和调度英伟达GPU、华为昇腾NPU及其他第三方算力资源,有效屏蔽不同硬件间的差异,为企业混合算力环境提供一站式解决方案。 - 三大关键能力:技术的核心能力体现在算力资源切分、多级智能调度以及跨节点算力资源聚合(即“拉远虚拟化”)。后者能将集群内空闲算力聚合为“共享算力池”,使普通服务器也能通过网络调用远端的高性能算力卡。 - 开源共建生态:华为宣布将Flex:ai开源至魔擎社区,与其此前开源的Nexent智能体框架等工具共同构成ModelEngine开源生态,旨在吸引产学研各界开发者共同推动行业标准构建和应用落地。 💎 总结 总体来看,华为Flex:ai的发布是AI基础软件领域的一项重要进展。它通过“以软件补硬件”的思路,直接应对了当前算力成本高企和资源浪费的行业挑战。其开源策略和跨硬件兼容的特性,不仅有助于降低AI应用门槛、促进技术普及,也为国产算力芯片的生态发展提供了新的机遇。
00:00 / 00:28
连播
清屏
智能
倍速
点赞104
00:00 / 04:53
连播
清屏
智能
倍速
点赞5
00:00 / 01:40
连播
清屏
智能
倍速
点赞7
00:00 / 00:40
连播
清屏
智能
倍速
点赞16
00:00 / 00:31
连播
清屏
智能
倍速
点赞173
00:00 / 00:32
连播
清屏
智能
倍速
点赞18