00:00 / 02:00
连播
清屏
智能
倍速
点赞2023
00:00 / 05:03
连播
清屏
智能
倍速
点赞56
00:00 / 00:53
连播
清屏
智能
倍速
点赞344
00:00 / 02:41
连播
清屏
智能
倍速
点赞1
00:00 / 00:35
连播
清屏
智能
倍速
点赞13
00:00 / 00:50
连播
清屏
智能
倍速
点赞10
00:00 / 00:12
连播
清屏
智能
倍速
点赞4
00:00 / 02:12
连播
清屏
智能
倍速
点赞38
00:00 / 00:33
连播
清屏
智能
倍速
点赞5
阿里开源四款Qwen3.5小模型,马斯克惊叹“智能密度”惊人 阿里近日开源Qwen3.5系列四款小尺寸模型(0.8B/2B/4B/9B),这些模型专为端侧设备优化,可在笔记本电脑甚至手机上运行。马斯克在社交媒体评价其具备“令人惊叹的智能密度”,引发开发者社区热烈反响。 #Qwen35 #马斯克 #阿里 #AI小模型 性能突破:小模型实现大能力 Qwen3.5-9B在多项基准测试中表现卓越,在GPQA Diamond、MMMU-Pro等评测中超越GPT-5 nano、Gemini 2.5 Flash-Lite等大型模型。特别是9B版本在MMMU-Pro测试中以13分优势击败GPT-5-Nano,展现出色性能。4B版本在多语言知识、视觉推理等任务接近9B水平,成为轻量级智能体的理想选择。 端侧部署优势明显 0.8B/2B版本专为移动设备和IoT边缘设备设计,具备低延时特性;4B版本支持多模态任务,平衡性能与资源消耗;9B版本在受限显存环境下提供高性价比服务。实测显示,Qwen3.5-9B在AMD Ryzen AI平台配合量化算法,处理速度达30 token/s,仅需16GB显存即可运行。 开发者积极验证应用潜力 开发者验证模型可在Mac mini等设备配合OpenClaw实现全天候运行,成本低于初级员工月薪。有用户成功在iPhone部署,引发移动端应用热潮。虽然小模型在复杂数学推理方面存在局限,但其在特定任务上已达到商用级水平。 此次开源标志着端侧AI能力显著提升,为低成本AI部署开辟新路径。模型已在魔搭社区和Hugging Face开放下载,助力全球开发者探索边缘计算新场景。
00:00 / 05:51
连播
清屏
智能
倍速
点赞31
00:00 / 04:53
连播
清屏
智能
倍速
点赞2