00:00 / 00:39
连播
清屏
智能
倍速
点赞160
00:00 / 00:53
连播
清屏
智能
倍速
点赞15
00:00 / 03:57
连播
清屏
智能
倍速
点赞106
00:00 / 01:00
连播
清屏
智能
倍速
点赞0
00:00 / 00:41
连播
清屏
智能
倍速
点赞0
00:00 / 00:33
连播
清屏
智能
倍速
点赞109
00:00 / 00:40
连播
清屏
智能
倍速
点赞0
阿里凌晨发布 Qwen 3.5新模型。太卷了!就在今天凌晨,阿里通义千问刚刚发布了 Qwen 3.5 Medium 中量级模型系列。这次更新的主题非常明确:用更小的算力,实现更强的智能。 老陈第一时间帮大家划了重点,尤其是对于咱们开发者和本地部署爱好者来说,这次的两个“小参数”版本简直是神作!👇 🚀 Qwen 3.5 核心亮点:以小博大的天花板 这次发布的系列包括 Flash、35B-A3B、122B-A10B 和 27B。最让老陈感到兴奋的是: 1️⃣Qwen3.5-35B-A3B 官方评测显示,它的性能竟然超越了去年 7 月发布的 Qwen3-235B-A22B。 总参数量和激活参数量仅为后者的 1/7。 简直是私有化神器:预计一张 RTX 4090 就能流畅跑起来量化版本。这意味着,普通个人电脑就能拥有超越去年顶级千亿模型的推理能力! 2️⃣Qwen3.5-27B 不同于 MoE(混合专家)架构,27B 是纯 Dense(稠密)模型。在复杂的终端任务和特定逻辑场景下,性能表现更加稳定、扎实。对于追求输出确定性的朋友,这个版本必冲。 3️⃣Qwen3.5-Flash 官方生产环境版本,默认支持 1M(100万)超长上下文。 自带官方插件工具链,API 调用首选。 想第一时间上手的宝子们,看一下开源下载: Hugging Face: 搜 Qwen 官方合集 ModelScope(魔搭): 国内下载首选,速度极快 在线体验: chat.qwen.ai(支持直接选择不同规格模型测试) API 接入: 阿里云 ModelStudio 已同步上线 Flash 版本 老陈已经迫不及待要开始实测 35B-A3B 的本地部署表现了!大家最期待哪个版本?评论区聊聊!👇 #Qwen #阿里 #LLM #大模型 #智能体
00:00 / 00:00
连播
清屏
智能
倍速
点赞21