Claude Opus蒸馏Qwen3.5 V3来了 9B的蒸馏模型,工具调用测试居然打了满分。大家好,我是AI学习的老章。Claude Opus蒸馏Qwen3.5这条线,我从v1追到现在。今天v3来了,这次改动大到连名字都换了,叫Qwopus3.5,Qwen加Opus的合体。v1是让小模型学会推理,v2是让它想得更少答得更快,v3的核心是让它学会用工具干活。从会思考,到会行动,这是一个质变。先看数据。9B的GGUF版本下载量10.9k,断崖式领先。说明什么?大家心里清楚,9B就是甜蜜点。16GB的MacBook就能跑,Windows上普通显卡也没压力。再看跑分。HumanEval,v3拿了87.8%,比原版Qwen3.5的9B高了将近5个百分点。v2在9B上其实没啥提升,v3一下子拉开了差距。MMLU-Pro,通用知识能力,v2掉了7.2%,当时我说这是代价。v3把这个问题修了,反超原版1.43个百分点。代码更准,知识也没丢,这在蒸馏模型里非常少见。效率方面,思维链缩短25%,推理效率提升31.7%,用更少的Token办更多的事。最让我兴奋的是工具调用。v3专门做了针对工具调用的强化学习训练。我用ToolCall-15跑了一遍,15道题全部通过,满分。之前v2的27B才做到这个成绩,现在9B就行了。我的判断,这是这个系列真正成熟的一代。想本地跑一个能写代码、能调工具、还不吃资源的模型,Qwopus3.5-9B-v3目前最值得试。关注老章,我们下期见。
00:00 / 01:53
连播
清屏
智能
倍速
点赞763
00:00 / 01:07
连播
清屏
智能
倍速
点赞24
00:00 / 01:13
连播
清屏
智能
倍速
点赞321
00:00 / 02:05
连播
清屏
智能
倍速
点赞397
00:00 / 01:19
连播
清屏
智能
倍速
点赞77
阿里开源四款Qwen3.5小模型,马斯克惊叹“智能密度”惊人 阿里近日开源Qwen3.5系列四款小尺寸模型(0.8B/2B/4B/9B),这些模型专为端侧设备优化,可在笔记本电脑甚至手机上运行。马斯克在社交媒体评价其具备“令人惊叹的智能密度”,引发开发者社区热烈反响。 #Qwen35 #马斯克 #阿里 #AI小模型 性能突破:小模型实现大能力 Qwen3.5-9B在多项基准测试中表现卓越,在GPQA Diamond、MMMU-Pro等评测中超越GPT-5 nano、Gemini 2.5 Flash-Lite等大型模型。特别是9B版本在MMMU-Pro测试中以13分优势击败GPT-5-Nano,展现出色性能。4B版本在多语言知识、视觉推理等任务接近9B水平,成为轻量级智能体的理想选择。 端侧部署优势明显 0.8B/2B版本专为移动设备和IoT边缘设备设计,具备低延时特性;4B版本支持多模态任务,平衡性能与资源消耗;9B版本在受限显存环境下提供高性价比服务。实测显示,Qwen3.5-9B在AMD Ryzen AI平台配合量化算法,处理速度达30 token/s,仅需16GB显存即可运行。 开发者积极验证应用潜力 开发者验证模型可在Mac mini等设备配合OpenClaw实现全天候运行,成本低于初级员工月薪。有用户成功在iPhone部署,引发移动端应用热潮。虽然小模型在复杂数学推理方面存在局限,但其在特定任务上已达到商用级水平。 此次开源标志着端侧AI能力显著提升,为低成本AI部署开辟新路径。模型已在魔搭社区和Hugging Face开放下载,助力全球开发者探索边缘计算新场景。
00:00 / 05:51
连播
清屏
智能
倍速
点赞37
00:00 / 01:49
连播
清屏
智能
倍速
点赞17
00:00 / 07:12
连播
清屏
智能
倍速
点赞813
00:00 / 00:38
连播
清屏
智能
倍速
点赞143
00:00 / 01:33
连播
清屏
智能
倍速
点赞110
00:00 / 00:38
连播
清屏
智能
倍速
点赞0