Deepseek OCR2应用了Qwen模型框架 #AI #Deepseekocr2 #qwen #大模型

qwen模型怎么样

72
1
31
5
举报
发布时间:2026-03-27 09:55
查看AI文稿
杨博士说AI
杨博士说AI

粉丝3.5万获赞30.7万

相关视频

  • Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 
你会看到: 
- 不同量化下的显存占用与推理速度差异
- 浏览器端 WebGPU 运行 0.8B 的体验
- 视觉识别/OCR 实测表现
- 9B 与 35B-A3B 在任务稳定性与效果上的差异
- LM Studio 关闭 thinking 的实操方法
- 在 OpenCode / Cline 中做工具调用与编码测试的结果 
如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 
时间戳 
00:00 Qwen3.5 中小模型简介
00:50 格式与部署
02:21 显存与速度实测
03:40 视觉/OCR能力对比
05:33 本地实战案例
11:00 工具调用与编码测试 
#Qwen35  #本地大模型  #Ollama   #LMStudio  #千问
    13:29
    查看AI文稿
  • 一张 3090,真的能把 千问 3.5 35B 模型跑明白吗#本地ai #千问#ai #diy
    01:52
    查看AI文稿
  • 小块头,大智慧!四款 Qwen3.5 小模型开源 今天,阿里正式开源4款 Qwen3.5 小尺寸模型系列:Qwen3.5-0.8B/2B/4B/9B。这一系列模型继承了 Qwen3.5 家族的强大基因,采用原生多模态训练、最新的模型架构,表现出卓越的性能,以满足从极端资源受限到高性能轻量级应用的不同需求:
📌 0.8B / 2B:极致轻量,端侧首选
特点:体积极小,推理速度极快。
场景:非常适合移动设备、IoT 边缘设备部署,以及低延时的实时交互场景。
📌 4B:轻量级 Agent 的强劲基座
特点:性能强劲,多模态基座模型,适合Agent。
场景:适合作为轻量级智能体的核心大脑,完美平衡了性能与资源消耗。
📌 9B:紧凑尺寸,越级性能
特点:结构紧凑,但性能媲美gpt-oss-120B,让人惊艳。
场景:适合需要较高智力水平但受限显存资源的服务器端部署,是性价比极高的通用模型选择。#Qwen #开源
    06:03
    小块头,大智慧!四款 Qwen3.5 小模型开源 今天,阿里正式开源4款 Qwen3.5 小尺寸模型系列:Qwen3.5-0.8B/2B/4B/9B。这一系列模型继承了 Qwen3.5 家族的强大基因,采用原生多模态训练、最新的模型架构,表现出卓越的性能,以满足从极端资源受限到高性能轻量级应用的不同需求:
    📌 0.8B / 2B:极致轻量,端侧首选
    特点:体积极小,推理速度极快。
    场景:非常适合移动设备、IoT 边缘设备部署,以及低延时的实时交互场景。
    📌 4B:轻量级 Agent 的强劲基座
    特点:性能强劲,多模态基座模型,适合Agent。
    场景:适合作为轻量级智能体的核心大脑,完美平衡了性能与资源消耗。
    📌 9B:紧凑尺寸,越级性能
    特点:结构紧凑,但性能媲美gpt-oss-120B,让人惊艳。
    场景:适合需要较高智力水平但受限显存资源的服务器端部署,是性价比极高的通用模型选择。#Qwen #开源
    查看AI文稿
  • 养龙虾之LLM 篇#openclaw #macstudio #macmini #llm #qwn3.5
    06:36
    查看AI文稿
  • #qwen3.5 #LLM #开源大模型 #mac #本地部署  在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
    02:12
    查看AI文稿
  • 马斯克惊呼太强了!阿里Qwen开源四款小模型 Qwen3.5-0.8B、Qwen3.5-2B、Qwen3.5-4B、Qwen3.5-9B,引发外网热议,在iPhone17pro上都能实现飞速运行,回答速度堪比云端。#马斯克  #阿里巴巴  #Qwen  #千问大模型
    01:00
    查看AI文稿
  • Qwen3.5-27B太好玩,不小心养了一窝龙虾 #ai新星计划 #抖音年味新知贺岁  #openclaw #qwen #4090魔改
    08:30
    查看AI文稿
  • Qwen3.5-Max预览版首度亮相,千问登顶中国最强模型 #千问 #中美博弈 #AI起名
    01:03
    查看AI文稿
  • Qwen3.5中型模型以小搏大,性能超大模型价低18倍
    01:33
    查看AI文稿
  • OpenClaw 安装、配置使用本地 Qwen 3.5 模型 #OpenClaw #AI #本地大模型
    02:58
    查看AI文稿
  • 小模型超智能,3000元本地流畅运行Qwen3.5 系列模型 #随变ai随便玩 #这也能开播
    02:56
    查看AI文稿
  • 2026 最强图像编辑模型?Qwen 2511实测! #comfyui教程 #comfyui工作流 #comfyui整合包 #ai电商设计 #Ai生成
    04:52
    查看AI文稿
  • 千问3.5的视觉理解秒杀传统自动化方案! #qwen35 #千问大模型 #Qwen大模型 #Qwen3大模型  #打工人的春节闲聊
    02:33
    查看AI文稿
  • Qwen 3.5-9B性能直逼120B,体积小了13倍。这意味着:有些模型虽然长得胖,但真没这个9B的聪明。🚀 #阿里Qwen  #120B  #大模型  #iPhone17Pro  #26万   #InfoQ @抖音创作小助手
    03:15
    查看AI文稿
  • 养OpenClaw大龙虾的token噩梦,居然被阿里给治好了 #AI #OPENCLAW #Qwen #大模型 3月3日消息,阿里巴巴昨晚再度开源千问3.5系列模型,这次是4款小尺寸模型。其中最小的0.8B 和2B两款,体积极小,推理速度极快,适合移动设备、IoT 边缘设备部署,以及低延时的实时交互场景。4B的这款,性能强劲,适合作为轻量级Agent的核心大脑,平衡了性能与资源消耗。9B的这款,性能可媲美GPT-OSS-120B,适合需要较高智力水平但受限显存资源的服务器端部署,是性价比极高的通用模型选择。四款Qwen3.5新模型虽是小尺寸,但均拥有原生多模态能力,以极小的参数量实现了极大的性能提升。模型发布后,迅速引爆AI社区,马斯克也火速在社交媒体上点赞评论,称阿里千问模型“智能密度令人印象深刻”。
    04:06
    养OpenClaw大龙虾的token噩梦,居然被阿里给治好了 #AI #OPENCLAW #Qwen #大模型 3月3日消息,阿里巴巴昨晚再度开源千问3.5系列模型,这次是4款小尺寸模型。其中最小的0.8B 和2B两款,体积极小,推理速度极快,适合移动设备、IoT 边缘设备部署,以及低延时的实时交互场景。4B的这款,性能强劲,适合作为轻量级Agent的核心大脑,平衡了性能与资源消耗。9B的这款,性能可媲美GPT-OSS-120B,适合需要较高智力水平但受限显存资源的服务器端部署,是性价比极高的通用模型选择。四款Qwen3.5新模型虽是小尺寸,但均拥有原生多模态能力,以极小的参数量实现了极大的性能提升。模型发布后,迅速引爆AI社区,马斯克也火速在社交媒体上点赞评论,称阿里千问模型“智能密度令人印象深刻”。
    查看AI文稿
  • 一分钟用上本地小模型 🤩一分钟教你在 Windows 本地用上阿里 Qwen3.5 - 4B 大模型!超简单步骤,小白也能秒上手,赶紧来试试!#Qwen3.5 - 4B 模型 #本地部署 #阿里千问 #大模型使用 #Windows 操作 #LMStudio
    01:05
    查看AI文稿
  • 千问3.5小尺寸模型发布 手机本地运行的大模型越来越强了。真正完全免费完全隐私 #qwen #千问
    00:33
    查看AI文稿