61
8
39
3
举报
发布时间:2026-03-15 11:25
查看AI文稿
小工蚁
小工蚁

粉丝4.5万获赞32.3万

相关视频

  • Qwen3.5 4b/9b, 适配龙虾机器人的本地模型
    01:34
    查看AI文稿
  • Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 
你会看到: 
- 不同量化下的显存占用与推理速度差异
- 浏览器端 WebGPU 运行 0.8B 的体验
- 视觉识别/OCR 实测表现
- 9B 与 35B-A3B 在任务稳定性与效果上的差异
- LM Studio 关闭 thinking 的实操方法
- 在 OpenCode / Cline 中做工具调用与编码测试的结果 
如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 
时间戳 
00:00 Qwen3.5 中小模型简介
00:50 格式与部署
02:21 显存与速度实测
03:40 视觉/OCR能力对比
05:33 本地实战案例
11:00 工具调用与编码测试 
#Qwen35  #本地大模型  #Ollama   #LMStudio  #千问
    13:29
    查看AI文稿
  • AI贺岁,Qwen3.5刚刚发布,性能霸榜消耗减半 #AI贺岁 #大模型 #人工智能 #qwen35
    00:27
    查看AI文稿
  • 5090 vLLM 部署 Qwen3.5-27B-NVFP4 手把手教你 5090 部署 Qwen3.5 27B,解决 Docker 换源与 NVFP4 量化难题。
*参考github:aliez-ren/vllm-qwen3.5-nvfp4-sm120#Qwen3527B #RTX5090 #vLLM #大模型部署 #深度学习
    03:32
    查看AI文稿
  • Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
    05:27
    查看AI文稿
  • 满足千人并发的本地模型部署机器人视觉研发服务器 #本地部署 #深度学习 #组装服务器 #机器学习 #diy装机
    00:50
    查看AI文稿
  • Qwen3.5实测!来看贺岁档大模型的实力! 贺岁档大模型来啦! Qwen3.5 这次支持了文本、图片、视频多模态输入, 本次准备了全新的后端能力测试! 以及照例带来前端能力、Agent、长上下文能力的全面测试! 
来看本次新增的后端编程测试 vector DB Bench: 要求大模型从零实现一个高性能向量数据库, 只给提示词不给实现方案, 配合 coding agent 自动写代码、编译、跑分. 结果 Qwen3.5 直接甩出王炸 —— QPS 1405, 是 Kimi-K2.5 的 4.8 倍, GLM-5 的 25 倍! 关键在于它不仅用了 IVF 倒排索引 + AVX512F 指令集, 还在有限轮次内自主探索出了最优聚类参数 (K=2048, nprobe=30), 每次查询只需扫描约 15000 条数据, 而 Kimi-K2.5 的参数配比要扫描 75000 条, 正好解释了近 5 倍的性能差距. 这波调参堪称神之一手. 
前端编程也有进步: 大象牙膏测试终于能正确建模三角烧瓶, 鞭炮连锁爆炸的粒子光影效果不错, 支持多模态后甚至可以对着网站录屏直接克隆. 但空间理解仍是短板, 陀飞轮机芯测试中齿轮设计暴露了差距. 
指令遵循: 洛希极限测试中的指令遵循达到 85.9% (Gemini-3.0-Pro 为 90.6%), 主要扣分在未遵循加速曲线公式. Agent 能力: 硅基骑手测试得分 668.43, 仅次于 GLM-5 的 738.69, 也侧面解释了为什么后端编程 Agent 表现这么强. 
长文本召回: 256K 上下文召回 99.1%, 但不给原文时四选一蒙对率高达 75.6%, 结果完全不置信. 
总结: Qwen3.5 最亮眼的是后端编程能力, 同样的 IVF 算法靠调参拉开 5 倍差距, Agent 能力同样在线. 不过本次测试还发现了点小问题, 输出偶尔不太稳定, 会漏掉 markdown 语法或把答案输出到 thinking 标签里, 这点要注意, 目前我已经反馈给官方了.  
这份新年礼物, 大家觉得怎么样? 
#Qwen  #千问大模型  #Qwen35  #阿里千问  #通义实验室
    07:01
    Qwen3.5实测!来看贺岁档大模型的实力! 贺岁档大模型来啦! Qwen3.5 这次支持了文本、图片、视频多模态输入, 本次准备了全新的后端能力测试! 以及照例带来前端能力、Agent、长上下文能力的全面测试!
    来看本次新增的后端编程测试 vector DB Bench: 要求大模型从零实现一个高性能向量数据库, 只给提示词不给实现方案, 配合 coding agent 自动写代码、编译、跑分. 结果 Qwen3.5 直接甩出王炸 —— QPS 1405, 是 Kimi-K2.5 的 4.8 倍, GLM-5 的 25 倍! 关键在于它不仅用了 IVF 倒排索引 + AVX512F 指令集, 还在有限轮次内自主探索出了最优聚类参数 (K=2048, nprobe=30), 每次查询只需扫描约 15000 条数据, 而 Kimi-K2.5 的参数配比要扫描 75000 条, 正好解释了近 5 倍的性能差距. 这波调参堪称神之一手.
    前端编程也有进步: 大象牙膏测试终于能正确建模三角烧瓶, 鞭炮连锁爆炸的粒子光影效果不错, 支持多模态后甚至可以对着网站录屏直接克隆. 但空间理解仍是短板, 陀飞轮机芯测试中齿轮设计暴露了差距.
    指令遵循: 洛希极限测试中的指令遵循达到 85.9% (Gemini-3.0-Pro 为 90.6%), 主要扣分在未遵循加速曲线公式. Agent 能力: 硅基骑手测试得分 668.43, 仅次于 GLM-5 的 738.69, 也侧面解释了为什么后端编程 Agent 表现这么强.
    长文本召回: 256K 上下文召回 99.1%, 但不给原文时四选一蒙对率高达 75.6%, 结果完全不置信.
    总结: Qwen3.5 最亮眼的是后端编程能力, 同样的 IVF 算法靠调参拉开 5 倍差距, Agent 能力同样在线. 不过本次测试还发现了点小问题, 输出偶尔不太稳定, 会漏掉 markdown 语法或把答案输出到 thinking 标签里, 这点要注意, 目前我已经反馈给官方了.
    这份新年礼物, 大家觉得怎么样?
    #Qwen #千问大模型 #Qwen35 #阿里千问 #通义实验室
  • #qwen3.5 #LLM #开源大模型 #mac #本地部署  在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
    02:12
    查看AI文稿
  • 深度实测Qwen3.5,原生多模态表现如何 #AI新星计划 #qwen #千问大模型 #IT咖啡馆 #大模型
    07:52
    查看AI文稿
  • 使用免费32GB显存微调反人类qwen3.5-9b模型 代码:https://www.kaggle.com/code/liuweiq/qwen3-5-antihuman-lora-9b #人工智能
    05:25
    查看AI文稿
  • 小模型超智能,3000元本地流畅运行Qwen3.5 系列模型 #随变ai随便玩 #这也能开播
    02:56
    查看AI文稿
  • 神操作再现,单卡3090 起跑!Claude-Opus蒸馏Qwen3.5-27B #大模型#蒸馏 #程序员
    01:47
    查看AI文稿
  • 一张 3090,真的能把 千问 3.5 35B 模型跑明白吗#本地ai #千问#ai #diy
    01:52
    查看AI文稿
  • 一分钟用上本地小模型 🤩一分钟教你在 Windows 本地用上阿里 Qwen3.5 - 4B 大模型!超简单步骤,小白也能秒上手,赶紧来试试!#Qwen3.5 - 4B 模型 #本地部署 #阿里千问 #大模型使用 #Windows 操作 #LMStudio
    01:05
    查看AI文稿