00:00 / 00:16
连播
清屏
智能
倍速
点赞1398
00:00 / 03:53
连播
清屏
智能
倍速
点赞129
00:00 / 01:39
连播
清屏
智能
倍速
点赞26
00:00 / 01:09
连播
清屏
智能
倍速
点赞100
新闻标题: 阿里除夕夜开源Qwen3.5大模型,A股算力、应用与生态伙伴全面受益 简要概括: 2026年2月16日(除夕夜),阿里巴巴宣布将开源新一代千问大模型Qwen3.5,该模型实现了模型架构的创新。此举旨在降低AI应用门槛、繁荣开发者生态,并推动其“AI to C”战略落地。 核心影响与受益链条: 1. 算力基础设施直接受益:大模型训练与推理需求激增,利好服务器、IDC、芯片、光模块、温控等硬件供应商。例如,浪潮信息作为阿里云AI服务器核心供应商,业绩深度绑定;数据港为模型运行提供关键算力支撑。 2. 垂直行业应用加速落地:通过“千问伙伴计划”,模型能力渗透至酒店、交通、金融、医疗、电商等领域。石基信息、千方科技、恒生电子等合作伙伴将借助千问AI优化其行业解决方案。 3. 技术生态服务商扮演桥梁角色:软通动力、润建股份等公司提供模型集成、算力调度及企业级AI转型服务,是模型规模化落地的重要推动者。 4. 零售与营销场景优化体验:阿里系持股或深度合作的三江购物、蓝色光标等公司,将千问AI能力用于线下门店数字化、社区团购及智能营销,提升运营效率。 总结:阿里此次开源巩固了其在大模型生态的领导地位,从上游算力、中游行业应用到下游零售场景,形成了一条完整的A股受益产业链。同时需注意AI技术迭代、客户集中度及商业化进度等潜在风险。
00:00 / 00:27
连播
清屏
智能
倍速
点赞132
00:00 / 03:15
连播
清屏
智能
倍速
点赞76
Qwen3-Coder技术解析:开源代码大模型的性能突破与实践价值 作为近期开源领域的重要进展,Qwen3-Coder系列模型在代码生成与开发辅助领域展现出显著优势。本文将从技术特性、性能表现、训练逻辑及应用实践等维度,系统解析这一模型的核心价值。 一、模型核心特性与版本信息 Qwen3-Coder系列中,当前旗舰版本为Qwen3-Coder-480B-A35B-Instruct,采用混合专家(MoE)架构,总参数量达480B,激活参数量35B。该模型原生支持256K token上下文窗口,通过YaRN技术可扩展至1M token,在Agentic Coding(智能编程)、Agentic Browser-Use(浏览器协同)及Agentic Tool-Use(工具调用)场景中实现开源模型最优(SOTA)效果,性能可与Claude Sonnet4等专有模型对标。 二、性能基准与对比分析 在多项权威代码能力基准测试中,Qwen3-Coder-480B-A35B-Instruct表现突出: - 在SWE-bench系列(软件工程任务)、Aider-Polyglot(多语言编程)、Spider2(数据库操作)、BFCL-v3(代码逻辑推理)等测试中,其性能显著优于Kimi-K2 Instruct、DeepSeek-V3 0324等开源模型; - 与Claude Sonnet-4、OpenAI GPT-4.1等专有模型对比,部分核心指标已实现接近或持平,验证了开源模型在专业编程场景的实用性。 三、训练体系与技术优化 模型性能的突破源于系统性训练升级: - 预训练阶段:构建7.5T规模训练数据(代码占比70%),扩展上下文至原生256K并支持1M扩展;通过Qwen2.5-Coder对低质数据进行清洗重写,提升训练数据质量,强化代码基础能力。 - 后训练阶段:深化Code RL(代码强化学习)训练,聚焦真实场景代码任务;拓展Agent RL(智能体强化学习)至可验证环境,在SWE-bench Verified测试中斩获开源模型最优成绩,强化实际问题解决能力。 #计算机 #Ai应用 #大模型 #Qwen3 #代码编程
00:00 / 05:59
连播
清屏
智能
倍速
点赞344