00:00 / 04:37
连播
清屏
智能
倍速
点赞1189
00:00 / 02:20
连播
清屏
智能
倍速
点赞28
00:00 / 00:31
连播
清屏
智能
倍速
点赞170
00:00 / 05:01
连播
清屏
智能
倍速
点赞414
00:00 / 03:26
连播
清屏
智能
倍速
点赞59
00:00 / 00:27
连播
清屏
智能
倍速
点赞10
00:00 / 03:46
连播
清屏
智能
倍速
点赞1877
华为发布开源AI容器技术Flex:ai,算力资源利用率可提升30% 华为于2025年11月21日在上海举办的“2025 AI容器应用落地与发展论坛”上,正式发布并开源了其创新的AI容器技术Flex:ai。这项技术旨在解决当前AI产业面临的算力资源利用率低的痛点。 🔍 技术核心亮点 - 提升算力利用率:当前行业算力资源平均利用率仅为30%-40%。Flex:ai通过算力切分技术,能将单张GPU/NPU算力卡精细切分至10%的粒度,实现单卡同时承载多个AI工作负载,使资源平均利用率提升30%。 - 统一管理异构算力:与英伟达Run:ai等方案不同,Flex:ai通过软件创新,能够统一管理和调度英伟达GPU、华为昇腾NPU及其他第三方算力资源,有效屏蔽不同硬件间的差异,为企业混合算力环境提供一站式解决方案。 - 三大关键能力:技术的核心能力体现在算力资源切分、多级智能调度以及跨节点算力资源聚合(即“拉远虚拟化”)。后者能将集群内空闲算力聚合为“共享算力池”,使普通服务器也能通过网络调用远端的高性能算力卡。 - 开源共建生态:华为宣布将Flex:ai开源至魔擎社区,与其此前开源的Nexent智能体框架等工具共同构成ModelEngine开源生态,旨在吸引产学研各界开发者共同推动行业标准构建和应用落地。 💎 总结 总体来看,华为Flex:ai的发布是AI基础软件领域的一项重要进展。它通过“以软件补硬件”的思路,直接应对了当前算力成本高企和资源浪费的行业挑战。其开源策略和跨硬件兼容的特性,不仅有助于降低AI应用门槛、促进技术普及,也为国产算力芯片的生态发展提供了新的机遇。
00:00 / 00:28
连播
清屏
智能
倍速
点赞104
00:00 / 01:46
连播
清屏
智能
倍速
点赞322
00:00 / 01:41
连播
清屏
智能
倍速
点赞6
00:00 / 02:16
连播
清屏
智能
倍速
点赞1
00:00 / 01:05
连播
清屏
智能
倍速
点赞8
华为11月21日要发布AI领域的突破性技术“算力魔方”,专门解决算力浪费的老大难问题,这可能要改写整个AI行业的游戏规则! 先说说这事儿的大背景。当前GPU、NPU这些算力硬件,行业平均利用率只有30%-40%。更扎心的是,IDC数据显示,2025年企业IT支出里,算力基础设施占比超35%,还在每年12%的速度猛涨,一边是天价投入,一边是严重浪费,不少企业都陷入了“算力焦虑”。而华为即将在11月21日发布的“算力魔方”,就是要破解这个行业难题。 那华为的解题思路到底有多绝?核心就是“软件定义算力”,简单说就是不靠堆硬件,而是用软件当“智能管家”盘活所有资源。首先它能打破硬件壁垒,不管是英伟达、华为昇腾还是其他品牌的芯片,都能被整合进一个统一资源池,就像把不同品牌的货车都纳入同一个调度系统,不用再各自为战。再加上动态负载均衡技术,能根据任务需求灵活分配算力,避免有的设备忙到死机、有的却闲到“摸鱼”,调度效率直接提升50%以上。 可能有人会问,光靠软件优化,真的靠谱吗?答案是:不仅靠谱,还经过了实战验证!华为之前推出的CloudMatrix 384超节点架构,已经把算力利用率做到了41%,远超传统集群的30%平均水平。而且通过“数学补物理”的策略,昇腾芯片的推理性能已经能比肩英伟达H100,综合效能更是达到H20的3倍。 这项技术一旦落地,整个产业链都将迎来大变化。首先对华为昇腾芯片来说,2025年上半年它的市占率已经突破28%,拿下超七成国家级智算中心订单,“算力魔方”会进一步放大生态优势,未来市占率大概率还要再上一个台阶。对企业来说,更是降本福音——AI推理成本将降至每千Token 3分钱,中小企业不用再砸巨资买硬件,也能用上百亿参数级AI模型。而对国产自主来说,这更是里程碑式的突破:2025年国产AI芯片自给率已经达到65%,“算力魔方”能降低行业对单一品依赖,摩根士丹利预测到2027年,中国AI芯片自给率将飙升至82%,国产算力真的要崛起了! 从30%的利用率到70%的突破,华为用软件创新给算力行业来了一场“节水革命”。11月21日技术发布后,会不会引发新的产业浪潮?欢迎在评论区聊聊你的看法!#财经干货 #华为算力概念股 #芯片最新消息 #昇腾芯片 #算力魔方
00:00 / 02:30
连播
清屏
智能
倍速
点赞221
00:00 / 01:05
连播
清屏
智能
倍速
点赞28
华为灵衢协议,AI 下一个爆点!相关核心龙头企业有哪些? 华为即将发布的灵衢协议,是一个关于 AI 算力资源管理的协议。它会通过软件手段,整合和调度不同硬件的算力,大幅提升硬件利用率,同时推动国产 AI 算力生态发展,也是大家高度关注的话题。 我们直接开始今天的讨论。首先说灵衢协议的核心突破在哪?为什么能让大家这么兴奋?算力资源利用率到底提升了多少?背后解决了哪些行业难题?现在很多企业做 AI 训练或推理时,GPU、NPU 等算力硬件的利用率通常只有 30%-40%,导致大量投资浪费。 灵衢协议落地,哪些核心龙头企业会是最直接的受益者? 升腾整机与分销:拓维信息、四川长虹、神州数码; 高速互联与光模块:#华工科技 、#华丰科技 、#光迅科技 ; 散热与电源:#川润股份 ; 软件与算力服务:软通动力等。 这些升腾生态核心合作伙伴,在产业链中扮演什么角色?靠什么技术深度绑定灵衢协议并实现业绩增长? 拓维信息:华为鲲鹏和升腾双领先级合作伙伴,升腾服务器主力供应商。2025 年一季度升腾服务器订单超 30 亿元,兆翰系列服务器在国家级智算中心占比超 80%;基于升腾 9910C 研发的 AI 服务器深度适配灵衢协议,性能可提升 20% 以上。 #四川长虹 :通过控股华鲲振宇,成为华为升腾生态重要整机伙伴,市场份额领先;子公司长虹嘉华是华为多产品线中国总经销商,属 “超级渠道”;还拿下贵阳超节点夜冷机柜独家供应权,一个集群可带来 1200 万元价值。 神州数码:华为升腾最大分销商和服务商,A 股唯一同时获得鲲鹏、升腾双认证的公司。2024 年升腾相关销售额同比翻 1.2 倍,拿下武汉超节点 8.6 亿元采购大单,积极推动灵衢协议落地,承担系统集成和服务,是算力租赁领域重要玩家。 硬件基础设施供应商,在光连接、高速背板连接器、服务器代工、光模块等领域,掌握哪些核心技术成为灵衢生态不可或缺的一环? 华工科技:灵衢生态核心光连接伙伴,已获华为灵衢认证;研发灵衢接口光模块,计划 2026 年量产;新建产业园扩产 4000 万只光模块,2025 年首次实现对北美头部企业批量供货,同时发力国产超算和海外数通市场。 华丰科技:国内唯一能做 56Gbps 高速背板连接器的厂商,在升腾服务器市场占有率高达 60%,单台服务器对应价值约 3000 元;2024 年相关业务营收同比暴涨 127%,与华为、浪潮、阿里等一线企业合作紧密。
00:00 / 07:54
连播
清屏
智能
倍速
点赞143
00:00 / 01:14
连播
清屏
智能
倍速
点赞23
00:00 / 00:26
连播
清屏
智能
倍速
点赞39
00:00 / 01:39
连播
清屏
智能
倍速
点赞32
00:00 / 00:54
连播
清屏
智能
倍速
点赞30
00:00 / 01:23
连播
清屏
智能
倍速
点赞36