00:00 / 01:45
连播
清屏
智能
倍速
点赞25
《阿里千问3.5震撼发布!性能超GPT-5,价格仅1/18》 #阿里云 #通义千问 #大模型 #AI黑科技 #多模态大模型 一、千问3.5模型概述 1. 发布背景:阿里云通义千问团队最新发布的千问3.5系列,是继千问3之后的新一代多模态大模型。 2. 核心技术:将线性注意力机制与稀疏混合专家(MoE)结合,总参数达3970亿,但激活参数仅150亿,大幅降低部署成本,推理吞吐量提升19倍。 3. 多模态能力:支持视觉、语言,通过早期文本视觉融合、多模态旋转位置编码等技术,统一处理文本、图像、视频,语言支持从119种扩展到201种。 4. 性能与性价比:权威评测分数领先,API定价仅0.8元/百万token,为Gemini 3 Pro的1/18,性价比极高。 二、技术架构创新 1. 线性注意力机制:将传统注意力计算复杂度从O(n²)降至线性,引入门控网络,自适应决定信息处理路径,平衡效率与精度。 2. 混合注意力机制:以3:1比例混合门控网络(70%)和softmax注意力(20%),提升长距离效率,增强上下文学习能力。 3. MoE设计:128个专家池,每个token动态选择8个专家,复杂问题激活更多(如12+),简单问题激活更少(4-6),按需分配降低显存开销。 4. 混合推理:在千问3基础上优化,动态切换思考与非思考模式,通过思考预算参数(如token限制)控制推理深度,适应不同复杂度任务。 三、训练与性能表现 1. 数据处理:训练数据来自百度百科、代码仓库、学术论文等多渠道,结合千问2.5生成百万级合成数据,进行多阶段清洗(规则过滤、去重、质量评分)。 2. 多模态能力:支持高清图像理解与生成、语音输入翻译与情感识别、视频剧情理解、代码生成与解释。 3. 基准测试: MMU Pro(多学科选择题):87.8分,超越GPT-5.2的85.6分。 HumanEval(代码生成):超越GPT-4和Claude 4.5。 数学能力:同样领先。 4. 应用场景:智能客服、代码辅助、医疗辅助、金融风控与报告生成等。 四、部署与展望 1. 部署方式:支持Hugging Face下载、本地运行或VM部署,全参数模型需8个A100(约800GB显存),成本较高,但提供蒸馏模型降低门槛。 2. 未来方向:持续优化架构,提升性能与性价比,推动大模型在中小企业的应用。
00:00 / 01:27
连播
清屏
智能
倍速
点赞28
00:00 / 01:18
连播
清屏
智能
倍速
点赞12
00:00 / 01:06
连播
清屏
智能
倍速
点赞45
00:00 / 01:49
连播
清屏
智能
倍速
点赞13
00:00 / 03:57
连播
清屏
智能
倍速
点赞119
实测翻车!千问3.5写个小游戏烧了我1000万Token! #大模型实测 #千问35 #避坑指南 #AI写代码 #Token刺客 一、实测背景:用千问3.5开发3D小游戏 1. 测试目的:通过TRAE平台,使用千问3.5生成一个3D滑雪小游戏,测试其代码生成能力和实际效果。 2. 生成结果:经过多次对话优化,最终生成了一个滑雪场小游戏,支持方向转动,但存在bug(如滑出屏幕外)。 二、严重问题:Token消耗惊人 1. Token消耗:整个开发过程调用138次,消耗超1000万Token。 2. 换算理解:100万Token约等于一本书,1000万Token相当于10本书的量。 3. 成本计算:按千问3.5定价0.8元/百万Token,消耗约8-10元。虽然单价低,但消耗量巨大,若换成高价模型则成本爆炸。 三、对比测试:谷歌Gemini 3表现 1. 同样提示词:使用谷歌平台生成同款滑雪小游戏。 2. 对比结果: - 运动逻辑:谷歌Gemini 3更还原滑雪场景,运动逻辑更真实。 - 画面表现:两者差距不大,但谷歌画面稍好。 - 成本优势:谷歌平台免费生成在线APP,无Token消耗压力。 四、模型排名:千问3.5实际表现 1. 查询平台:主流大模型竞技场排名(人工反馈评估)。 2. 排名数据: - 千问3.5(3397B):排名第20,超越GPT-4.5,但与头部差距明显。 - 亮点模型:豆包Seed模型排名第4,GLM-5排名第12。 - 榜首:Claude Opus 4.6。 结论:千问3.5声势虽大,但实测效果和排名均未达顶尖,与闭源模型仍有差距。
00:00 / 02:39
连播
清屏
智能
倍速
点赞19