00:00 / 07:54
连播
清屏
智能
倍速
点赞690
00:00 / 01:06
连播
清屏
智能
倍速
点赞45
00:00 / 01:42
连播
清屏
智能
倍速
点赞681
00:00 / 01:15
连播
清屏
智能
倍速
点赞40
新闻标题: 阿里除夕夜开源Qwen3.5大模型,A股算力、应用与生态伙伴全面受益 简要概括: 2026年2月16日(除夕夜),阿里巴巴宣布将开源新一代千问大模型Qwen3.5,该模型实现了模型架构的创新。此举旨在降低AI应用门槛、繁荣开发者生态,并推动其“AI to C”战略落地。 核心影响与受益链条: 1. 算力基础设施直接受益:大模型训练与推理需求激增,利好服务器、IDC、芯片、光模块、温控等硬件供应商。例如,浪潮信息作为阿里云AI服务器核心供应商,业绩深度绑定;数据港为模型运行提供关键算力支撑。 2. 垂直行业应用加速落地:通过“千问伙伴计划”,模型能力渗透至酒店、交通、金融、医疗、电商等领域。石基信息、千方科技、恒生电子等合作伙伴将借助千问AI优化其行业解决方案。 3. 技术生态服务商扮演桥梁角色:软通动力、润建股份等公司提供模型集成、算力调度及企业级AI转型服务,是模型规模化落地的重要推动者。 4. 零售与营销场景优化体验:阿里系持股或深度合作的三江购物、蓝色光标等公司,将千问AI能力用于线下门店数字化、社区团购及智能营销,提升运营效率。 总结:阿里此次开源巩固了其在大模型生态的领导地位,从上游算力、中游行业应用到下游零售场景,形成了一条完整的A股受益产业链。同时需注意AI技术迭代、客户集中度及商业化进度等潜在风险。
00:00 / 00:27
连播
清屏
智能
倍速
点赞127
Qiuming3天前
阿里开源千问3.5,性能对标谷歌Gemini 3 Pro 除夕夜重磅发布:阿里开源千问3.5,性能对标谷歌Gemini 3 Pro,价格仅为1/18 在除夕夜的喜庆气氛中,阿里悄然发布了一道“硬菜”——全新一代开源大模型千问Qwen3.5-Plus。这款模型以其卓越的性能和惊人的性价比,直接向谷歌Gemini 3 Pro和OpenAI GPT-5.2等国际巨头发起挑战。 千问3.5的核心突破在于其高效的架构设计。虽然拥有高达3970亿的总参数,但通过创新的混合专家(MoE)架构,每次推理仅需激活170亿参数,实现了“以小博大”的效果。其性能在多项权威评测中名列前茅: 知识推理:在MMLU-Pro评测中得分超过GPT-5.2。 科学推理:在博士级科学推理评测GPQA中超越Claude 4.5。 指令遵循:在IFBench评测中刷新历史纪录。 在效率与成本方面,千问3.5更是颠覆了行业认知。其推理吞吐量在长文本场景下最高可提升19倍,极大地降低了部署门槛。而最令人震撼的是其API价格——每百万tokens仅需0.8元人民币,不到一瓶矿泉水的价格,却只有性能对标产品谷歌Gemini 3 Pro的十八分之一。 作为原生多模态模型,千问3.5从预训练阶段就实现了文本与视觉的联合学习,具备强大的视频理解、视觉编程和智能体(Agent)能力。它不仅能看懂图片和视频,还能自主操作手机和电脑应用。在春节期间,基于其强大Agent能力的AI购物助手已在6天内帮助用户完成了1.2亿笔订单,展现了强大的商业化落地能力。 此次发布再次巩固了阿里在开源AI领域的领先地位。目前,千问系列的全球下载量已突破10亿次,开发者基于其开发的衍生模型超过20万个。千问3.5-Plus的发布只是一个开始,接下来还将有更多尺寸和功能的系列模型陆续开源。
00:00 / 03:58
连播
清屏
智能
倍速
点赞3
00:00 / 00:59
连播
清屏
智能
倍速
点赞73
00:00 / 01:36
连播
清屏
智能
倍速
点赞8
00:00 / 00:41
连播
清屏
智能
倍速
点赞13
《阿里千问3.5震撼发布!性能超GPT-5,价格仅1/18》 #阿里云 #通义千问 #大模型 #AI黑科技 #多模态大模型 一、千问3.5模型概述 1. 发布背景:阿里云通义千问团队最新发布的千问3.5系列,是继千问3之后的新一代多模态大模型。 2. 核心技术:将线性注意力机制与稀疏混合专家(MoE)结合,总参数达3970亿,但激活参数仅150亿,大幅降低部署成本,推理吞吐量提升19倍。 3. 多模态能力:支持视觉、语言,通过早期文本视觉融合、多模态旋转位置编码等技术,统一处理文本、图像、视频,语言支持从119种扩展到201种。 4. 性能与性价比:权威评测分数领先,API定价仅0.8元/百万token,为Gemini 3 Pro的1/18,性价比极高。 二、技术架构创新 1. 线性注意力机制:将传统注意力计算复杂度从O(n²)降至线性,引入门控网络,自适应决定信息处理路径,平衡效率与精度。 2. 混合注意力机制:以3:1比例混合门控网络(70%)和softmax注意力(20%),提升长距离效率,增强上下文学习能力。 3. MoE设计:128个专家池,每个token动态选择8个专家,复杂问题激活更多(如12+),简单问题激活更少(4-6),按需分配降低显存开销。 4. 混合推理:在千问3基础上优化,动态切换思考与非思考模式,通过思考预算参数(如token限制)控制推理深度,适应不同复杂度任务。 三、训练与性能表现 1. 数据处理:训练数据来自百度百科、代码仓库、学术论文等多渠道,结合千问2.5生成百万级合成数据,进行多阶段清洗(规则过滤、去重、质量评分)。 2. 多模态能力:支持高清图像理解与生成、语音输入翻译与情感识别、视频剧情理解、代码生成与解释。 3. 基准测试: MMU Pro(多学科选择题):87.8分,超越GPT-5.2的85.6分。 HumanEval(代码生成):超越GPT-4和Claude 4.5。 数学能力:同样领先。 4. 应用场景:智能客服、代码辅助、医疗辅助、金融风控与报告生成等。 四、部署与展望 1. 部署方式:支持Hugging Face下载、本地运行或VM部署,全参数模型需8个A100(约800GB显存),成本较高,但提供蒸馏模型降低门槛。 2. 未来方向:持续优化架构,提升性能与性价比,推动大模型在中小企业的应用。
00:00 / 01:27
连播
清屏
智能
倍速
点赞24
00:00 / 06:43
连播
清屏
智能
倍速
点赞1553
00:00 / 00:39
连播
清屏
智能
倍速
点赞4