阿里在春节全新开源大模型Qwen3.5! 阿里在春节全新开源大模型Qwen3.5! Qwen3.5-Plus拥有3970亿总参数,但激活参数仅170亿,性能超越了上一代万亿级模型。得益于创新的极致稀疏MoE架构,其推理效率大幅提升,最大吞吐量可达19倍,而API调用成本低至每百万Token 0.8元,性价比极高。 此次升级的核心是从“语言模型”进化为“原生多模态大模型”。与市面上常见的“拼装”方案不同,Qwen3.5从预训练第一天起,就让文本、图像、视频等多模态数据在同一架构下进行深度融合学习,使其具备了像人一样的跨模态直觉理解力。实测中,它能将手绘草图直接生成可用的网页代码,也能精准理解复杂图片中的物体、模糊文字并进行综合推理。 模型的技术突破在于四大核心创新:混合注意力机制提升了长文本处理效率;原生多Token预测使响应速度接近“秒回”;系统级训练稳定性优化(如获得NeurIPS 2025最佳论文奖的注意力门控机制)确保了大规模训练的稳定。这些技术共同实现了“以小博大”,在保持顶尖性能的同时,让部署成本大幅降低,变得更加“好用、实用、用得起”。 此外,Qwen3.5具备强大的智能体(Agent)能力,可作为视觉智能体自主操作手机与电脑完成任务,并与OpenClaw等工具集成,实现自动化流程。总体而言,Qwen3.5不仅再次刷新了开源模型的能力天花板,更将行业竞争的重点从单纯比拼参数规模,引向了追求极致效率与实用性的新阶段。
00:00 / 05:12
连播
清屏
智能
倍速
点赞34
00:00 / 07:54
连播
清屏
智能
倍速
点赞685
新闻标题: 阿里除夕夜开源Qwen3.5大模型,A股算力、应用与生态伙伴全面受益 简要概括: 2026年2月16日(除夕夜),阿里巴巴宣布将开源新一代千问大模型Qwen3.5,该模型实现了模型架构的创新。此举旨在降低AI应用门槛、繁荣开发者生态,并推动其“AI to C”战略落地。 核心影响与受益链条: 1. 算力基础设施直接受益:大模型训练与推理需求激增,利好服务器、IDC、芯片、光模块、温控等硬件供应商。例如,浪潮信息作为阿里云AI服务器核心供应商,业绩深度绑定;数据港为模型运行提供关键算力支撑。 2. 垂直行业应用加速落地:通过“千问伙伴计划”,模型能力渗透至酒店、交通、金融、医疗、电商等领域。石基信息、千方科技、恒生电子等合作伙伴将借助千问AI优化其行业解决方案。 3. 技术生态服务商扮演桥梁角色:软通动力、润建股份等公司提供模型集成、算力调度及企业级AI转型服务,是模型规模化落地的重要推动者。 4. 零售与营销场景优化体验:阿里系持股或深度合作的三江购物、蓝色光标等公司,将千问AI能力用于线下门店数字化、社区团购及智能营销,提升运营效率。 总结:阿里此次开源巩固了其在大模型生态的领导地位,从上游算力、中游行业应用到下游零售场景,形成了一条完整的A股受益产业链。同时需注意AI技术迭代、客户集中度及商业化进度等潜在风险。
00:00 / 00:27
连播
清屏
智能
倍速
点赞127
00:00 / 07:31
连播
清屏
智能
倍速
点赞190
00:00 / 00:55
连播
清屏
智能
倍速
点赞55
00:00 / 00:06
连播
清屏
智能
倍速
点赞13
00:00 / 00:16
连播
清屏
智能
倍速
点赞1398