查看AI文稿
量子位
量子位
认证徽章

粉丝27.1万获赞280.5万

相关视频

  • 马斯克惊呼太强了!阿里Qwen开源四款小模型 Qwen3.5-0.8B、Qwen3.5-2B、Qwen3.5-4B、Qwen3.5-9B,引发外网热议,在iPhone17pro上都能实现飞速运行,回答速度堪比云端。#马斯克  #阿里巴巴  #Qwen  #千问大模型
    01:00
    查看AI文稿
  • Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
    05:27
    查看AI文稿
  • Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 
你会看到: 
- 不同量化下的显存占用与推理速度差异
- 浏览器端 WebGPU 运行 0.8B 的体验
- 视觉识别/OCR 实测表现
- 9B 与 35B-A3B 在任务稳定性与效果上的差异
- LM Studio 关闭 thinking 的实操方法
- 在 OpenCode / Cline 中做工具调用与编码测试的结果 
如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 
时间戳 
00:00 Qwen3.5 中小模型简介
00:50 格式与部署
02:21 显存与速度实测
03:40 视觉/OCR能力对比
05:33 本地实战案例
11:00 工具调用与编码测试 
#Qwen35  #本地大模型  #Ollama   #LMStudio  #千问
    13:29
    查看AI文稿
  • #qwen3.5 #LLM #开源大模型 #mac #本地部署  在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
    02:12
    查看AI文稿
  • 一个视频学会部署无审查大模型 |VMLX + Ollama保姆级教程#ai新星计划#Google#qwen#gemma4#本地部署
    07:26
    查看AI文稿
  • 深度实测Qwen3.5,原生多模态表现如何 #AI新星计划 #qwen #千问大模型 #IT咖啡馆 #大模型
    07:52
    查看AI文稿
  • llama.cpp才是本地 OpenClaw 的终极形态 本地运行 256K 上下文真的会“崩”吗? 我们对 Qwen3.5、Gemma-4、Qwopus 等多款模型进行了全维度测速。
工具优势:深度解析 llama.cpp 相比 Ollama 在显存层级控制和 Flash Attention 开启上的核心优势。
OpenClaw 进阶:如何通过中间件将本地 API 映射为标准的 OpenAI 接口,实现跨设备无缝握手。#openclaw #gemma4 #本地大模型 #养虾人
    02:42
    查看AI文稿
  • Gemma 4炸场!谷歌开源模型碾压Llama 4 谷歌重磅发布Gemma 4开源大模型家族,在数学、编程、逻辑推理等核心基准测试中全面超越Llama 4和Qwen 3.5。更关键的是,这次采用Apache 2.0许可证,彻底取消商业限制。从4GB手机到单张4090显卡,四款模型覆盖全场景部署。最具突破性的"思考模式"让AIME数学得分从20.8%飙升至89.2%,开源模型首次触及封闭系统的推理天花板。 
亮点:
• 旗舰级31B稠密模型 + 26B MoE架构,128个专家网络仅激活3.8亿参数,算力节省87.5%却保持97%性能
• E系列支持原生音频处理,4-6GB内存的手机和笔记本即可运行OCR与语音转录
• Apache 2.0 + 链式思维推理 + MoE高效架构,企业级本地AI部署的游戏规则改变者 
#Gemma4  #谷歌开源   #本地部署  #MoE架构  #开源AI
    03:01
    Gemma 4炸场!谷歌开源模型碾压Llama 4 谷歌重磅发布Gemma 4开源大模型家族,在数学、编程、逻辑推理等核心基准测试中全面超越Llama 4和Qwen 3.5。更关键的是,这次采用Apache 2.0许可证,彻底取消商业限制。从4GB手机到单张4090显卡,四款模型覆盖全场景部署。最具突破性的"思考模式"让AIME数学得分从20.8%飙升至89.2%,开源模型首次触及封闭系统的推理天花板。
    亮点:
    • 旗舰级31B稠密模型 + 26B MoE架构,128个专家网络仅激活3.8亿参数,算力节省87.5%却保持97%性能
    • E系列支持原生音频处理,4-6GB内存的手机和笔记本即可运行OCR与语音转录
    • Apache 2.0 + 链式思维推理 + MoE高效架构,企业级本地AI部署的游戏规则改变者
    #Gemma4 #谷歌开源 #本地部署 #MoE架构 #开源AI
    查看AI文稿
  • 阿里发布千问新一代全模态大模型Qwen3.5-Omni,在音视频理解、识别、交互等215项任务中取得SOTA(性能最佳),成为目前全球最强的全模态大模型之一。
    00:47
    查看AI文稿
  • 一张 3090,真的能把 千问 3.5 35B 模型跑明白吗#本地ai #千问#ai #diy
    01:52
    查看AI文稿
  • 小块头,大智慧!四款 Qwen3.5 小模型开源 今天,阿里正式开源4款 Qwen3.5 小尺寸模型系列:Qwen3.5-0.8B/2B/4B/9B。这一系列模型继承了 Qwen3.5 家族的强大基因,采用原生多模态训练、最新的模型架构,表现出卓越的性能,以满足从极端资源受限到高性能轻量级应用的不同需求:
📌 0.8B / 2B:极致轻量,端侧首选
特点:体积极小,推理速度极快。
场景:非常适合移动设备、IoT 边缘设备部署,以及低延时的实时交互场景。
📌 4B:轻量级 Agent 的强劲基座
特点:性能强劲,多模态基座模型,适合Agent。
场景:适合作为轻量级智能体的核心大脑,完美平衡了性能与资源消耗。
📌 9B:紧凑尺寸,越级性能
特点:结构紧凑,但性能媲美gpt-oss-120B,让人惊艳。
场景:适合需要较高智力水平但受限显存资源的服务器端部署,是性价比极高的通用模型选择。#Qwen #开源
    06:03
    小块头,大智慧!四款 Qwen3.5 小模型开源 今天,阿里正式开源4款 Qwen3.5 小尺寸模型系列:Qwen3.5-0.8B/2B/4B/9B。这一系列模型继承了 Qwen3.5 家族的强大基因,采用原生多模态训练、最新的模型架构,表现出卓越的性能,以满足从极端资源受限到高性能轻量级应用的不同需求:
    📌 0.8B / 2B:极致轻量,端侧首选
    特点:体积极小,推理速度极快。
    场景:非常适合移动设备、IoT 边缘设备部署,以及低延时的实时交互场景。
    📌 4B:轻量级 Agent 的强劲基座
    特点:性能强劲,多模态基座模型,适合Agent。
    场景:适合作为轻量级智能体的核心大脑,完美平衡了性能与资源消耗。
    📌 9B:紧凑尺寸,越级性能
    特点:结构紧凑,但性能媲美gpt-oss-120B,让人惊艳。
    场景:适合需要较高智力水平但受限显存资源的服务器端部署,是性价比极高的通用模型选择。#Qwen #开源
    查看AI文稿
  • Qwen3.5 27B和35B选哪个?Ceval模型评测实践 #小工蚁 #通义千问 #开源大模型
    02:32
    查看AI文稿