11月25日传来重磅消息:新加坡国家人工智能计划(AISG)居然果断放弃了Meta的模型,转头全面拥抱阿里巴巴的通义千问Qwen开源架构,专门用来打造东南亚语言大模型!这可是中国开源AI第一次被新加坡国家级项目选中,算不算咱们国产技术的高光时刻? 你可能会好奇,新加坡放着国际大厂的模型不用,为啥偏偏选中千问?核心原因就两个:一是“用着顺手”,二是“性价比超高”。之前Meta的Llama系列模型,处理印尼语、泰语、马来语这些东南亚本地语言时总掉链子,严重拖慢本地化应用开发。而千问早就解决了这个痛点,它能支持九十二种官方语言及方言,连爪哇语、僧伽罗语这种小众语种都能精准拿捏,覆盖全球百分之九十五以上的人口。更关键的是,千问采用轻量级架构,响应快还省钱,每百万token价格低至两块钱人民币,是国外大模型均价的几十分之一,性能却毫不逊色——在权威测试中,它比GPT-4.1-mini、Gemini 2.5 Flash表现更优,甚至能和顶级模型掰手腕。换作是你,又好用又省钱的选择,能不心动吗? 其实新加坡的选择,只是千问全球扩张的一个缩影。现在的千问,早已不是“宅家的技术宅”,而是走向世界的“香饽饽”!截至2025年八月,千问系列全球下载量已经超过三亿次,衍生模型突破十万个,直接超越Meta的Llama系列,成为全球最大的开源模型家族。从布局上看,千问已经在全球二十九个地域的九十个可用区落地,阿里云还专门在马来西亚、菲律宾新增了数据中心,让小语种服务延迟降到毫秒级。2025年第三季度,千问在海外的调用量一度占到百分之十一,连爱彼迎的CEO都公开表示,生产中更倾向于用千问这种“更快更经济”的模型。 那这事儿对阿里来说,到底意味着啥?简单说就是“口碑、业务、生态三丰收”!首先是品牌影响力飙升,作为首个被新加坡国家级计划选中的中国开源模型,千问直接打响了中国AI的国际名片,也让阿里云在全球AI基础设施市场更有底气——IDC报告显示,阿里云已经以百分之二十三的份额领跑中国AI基础设施市场。其次是商业价值爆发,千问不仅C端表现亮眼,公测一周下载量就突破一千万,创下国内C端AI应用增长纪录;还带动了整个产业链,比如浪潮信息七成的AI服务器都供应给阿里,数据港拿到了阿里一百六十亿元的长期订单,液冷供应商英维克的订单都排到2027年了。 #阿里qwen #新加坡aisg
00:00 / 02:55
连播
清屏
智能
倍速
点赞387
华为发布开源AI容器技术Flex:ai,算力资源利用率可提升30% 华为于2025年11月21日在上海举办的“2025 AI容器应用落地与发展论坛”上,正式发布并开源了其创新的AI容器技术Flex:ai。这项技术旨在解决当前AI产业面临的算力资源利用率低的痛点。 🔍 技术核心亮点 - 提升算力利用率:当前行业算力资源平均利用率仅为30%-40%。Flex:ai通过算力切分技术,能将单张GPU/NPU算力卡精细切分至10%的粒度,实现单卡同时承载多个AI工作负载,使资源平均利用率提升30%。 - 统一管理异构算力:与英伟达Run:ai等方案不同,Flex:ai通过软件创新,能够统一管理和调度英伟达GPU、华为昇腾NPU及其他第三方算力资源,有效屏蔽不同硬件间的差异,为企业混合算力环境提供一站式解决方案。 - 三大关键能力:技术的核心能力体现在算力资源切分、多级智能调度以及跨节点算力资源聚合(即“拉远虚拟化”)。后者能将集群内空闲算力聚合为“共享算力池”,使普通服务器也能通过网络调用远端的高性能算力卡。 - 开源共建生态:华为宣布将Flex:ai开源至魔擎社区,与其此前开源的Nexent智能体框架等工具共同构成ModelEngine开源生态,旨在吸引产学研各界开发者共同推动行业标准构建和应用落地。 💎 总结 总体来看,华为Flex:ai的发布是AI基础软件领域的一项重要进展。它通过“以软件补硬件”的思路,直接应对了当前算力成本高企和资源浪费的行业挑战。其开源策略和跨硬件兼容的特性,不仅有助于降低AI应用门槛、促进技术普及,也为国产算力芯片的生态发展提供了新的机遇。
00:00 / 00:28
连播
清屏
智能
倍速
点赞108
00:00 / 06:31
连播
清屏
智能
倍速
点赞195
00:00 / 00:41
连播
清屏
智能
倍速
点赞1518