Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
openclaw迁移到mac教程
OpenClaw如何找到云电脑
豆包的mermaid代码不正确
openclaw如何查到目前qpi
龙虾连接gbt模型详细教程
可以砰砰砰的deepseek代码
pjsk爆god解决办法
3.1api怎么使用
我得了一种看见shiro就想笑的病
特殊代码是什么
AI赚钱研究社
1月前
Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
00:00 / 05:26
连播
清屏
智能
倍速
点赞
791
AI躺平养龙虾🦞
5天前
养龙虾之LLM 篇#openclaw #macstudio #macmini #llm #qwn3.5
00:00 / 06:36
连播
清屏
智能
倍速
点赞
264
杨大哥
3周前
Qwen3.5 4b/9b, 适配龙虾机器人的本地模型
00:00 / 01:33
连播
清屏
智能
倍速
点赞
97
AI技能研究社
2周前
5090 vLLM 部署 Qwen3.5-27B-NVFP4 手把手教你 5090 部署 Qwen3.5 27B,解决 Docker 换源与 NVFP4 量化难题。 *参考github:aliez-ren/vllm-qwen3.5-nvfp4-sm120#Qwen3527B #RTX5090 #vLLM #大模型部署 #深度学习
00:00 / 03:31
连播
清屏
智能
倍速
点赞
899
子龙爱分享
5天前
我量化了Qwen3.5_35B!显存速度质量全拉满+本地养虾 完犊子!我不小心把Qwen3.5_35B量化了!显存速度质量全拉满+联网技巧,OpenClaw本地轻松养虾!50系显卡的春天#openclaw #本地模型 #ai #开源 #分享
00:00 / 25:48
连播
清屏
智能
倍速
点赞
67
敢抢我神棍名号
3周前
小核弹-千问3.5及节点支持-qwen3.5 #comfyui教程 去小破站(B)获取选在链接
00:00 / 01:51
连播
清屏
智能
倍速
点赞
5
路大师AI绘画
2周前
comfyui接入Qwen3.5,AI自动写提示词,快速解析图片生成专业prompt,本地部署离线可用 写提示词没灵感?给ComfyU装 上Qwen3.5这个A助手直接 搞定! 图片智能解析自动生成提示词 视频内容分析自动写分镜脚本 - 句话生成创意剧情 了本地运行无需联网,离线也能用 #ai新星计划 #comfyui #comfyui教程 #aigc #AI
00:00 / 10:20
连播
清屏
智能
倍速
点赞
12
遇见AI
3天前
ClaudeCode+Ollama本地部署 当热门流行AI工具遇上以9B参数碾压gpt-oss-120b的Qwen3.5,这绝对是极具性价比的组合。Claude 系列模型确实强大,但高额的定价对新手和普通玩家太不友好。Claudecode + Qwen3.5这套组合其实已经能满足80%的场景,完全本地运行,不产生Token费用,容错率极高,非常适合新手学习和普通玩家日常使用,AI时代已经来了,你还在等什么呢?#claude #qwen #ollama #AI工具 #AI编程
00:00 / 02:36
连播
清屏
智能
倍速
点赞
57
Ai 学习的老章
2周前
神操作再现,单卡3090 起跑!Claude-Opus蒸馏Qwen3.5-27B #大模型#蒸馏 #程序员
00:00 / 01:46
连播
清屏
智能
倍速
点赞
680
码上架构
1月前
Qwen3.5 多模态实战 使用Qwen3.5 来做 OCR 和目标检测任务 #ai #大模型 #qwen #ocr #目标检测
00:00 / 03:46
连播
清屏
智能
倍速
点赞
129
liuweiqing
2周前
使用免费32GB显存微调反人类qwen3.5-9b模型 代码:https://www.kaggle.com/code/liuweiq/qwen3-5-antihuman-lora-9b #人工智能
00:00 / 05:25
连播
清屏
智能
倍速
点赞
13
kate人不错
3周前
Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 你会看到: - 不同量化下的显存占用与推理速度差异 - 浏览器端 WebGPU 运行 0.8B 的体验 - 视觉识别/OCR 实测表现 - 9B 与 35B-A3B 在任务稳定性与效果上的差异 - LM Studio 关闭 thinking 的实操方法 - 在 OpenCode / Cline 中做工具调用与编码测试的结果 如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 时间戳 00:00 Qwen3.5 中小模型简介 00:50 格式与部署 02:21 显存与速度实测 03:40 视觉/OCR能力对比 05:33 本地实战案例 11:00 工具调用与编码测试 #Qwen35 #本地大模型 #Ollama #LMStudio #千问
00:00 / 13:28
连播
清屏
智能
倍速
点赞
554
ModelDaDa
3周前
一分钟用上本地小模型 🤩一分钟教你在 Windows 本地用上阿里 Qwen3.5 - 4B 大模型!超简单步骤,小白也能秒上手,赶紧来试试!#Qwen3.5 - 4B 模型 #本地部署 #阿里千问 #大模型使用 #Windows 操作 #LMStudio
00:00 / 01:04
连播
清屏
智能
倍速
点赞
154
挽风听雨
2周前
超简单OpenClaw+Qwen3.5-Plus+QQbot #openclaw #养龙虾 #OpenClaw#qwen3 #龙虾部署 #openclaw部署
00:00 / 05:44
连播
清屏
智能
倍速
点赞
45
liuweiqing
4天前
记录一次失败的DPO微调LLM过程 代码:https://www.kaggle.com/code/liuweiq/dpo-only-qwen3-5
00:00 / 03:52
连播
清屏
智能
倍速
点赞
1
沪上码仔AI
3周前
#qwen3.5 #LLM #开源大模型 #mac #本地部署 在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
00:00 / 02:11
连播
清屏
智能
倍速
点赞
364
机隐软件开发
5天前
8G显存笔记本跑小龙虾,Openclaw +OLLAMA +Qwen3.5#openclaw #小龙虾 #ollama #大模型
00:00 / 02:49
连播
清屏
智能
倍速
点赞
26
梅加雨
3周前
3090跑qwen3.5 27b测试#程序员科普 #ai #qwen
00:00 / 01:32
连播
清屏
智能
倍速
点赞
146
再见静无言
3周前
#qwen3.5 #ai #agent#自动操作电脑 利用本地的qwen3.5 9b量化模型借鉴autoglm项目让agent自主操作自己的电脑,可玩性较强
00:00 / 08:59
连播
清屏
智能
倍速
点赞
21
AI技能研究社
1周前
Qwen3.5-27B Opus蒸馏版实测 实测注入Claude Opus数据的Qwen3.5蒸馏版,解决原生报错并支持长任务稳定运行。#Qwen35蒸馏版 #ClaudeOpus #AIAgent #本地大模型 #编程助手
00:00 / 01:37
连播
清屏
智能
倍速
点赞
102
羊群中无助的狼
3周前
#copaw 手牵手小白本地部署教程 #copaw 本地安装教程 如果有不懂的或者需要安装的 可以留言 有偿代安装
00:00 / 13:37
连播
清屏
智能
倍速
点赞
251
Ai 学习的老章
1周前
单4090 本地实测 Claude 蒸馏版 Qwen3.5 我这次实测的是 Qwen3.5 27B 的一个高质量优化版本,用 llama.cpp 在 24GB 显存的 4090 上直接跑。结论先说: 第一,显存压力比我预想的小很多。单卡就能启动,而且 64K 上下文可以稳定开。这个上下文长度,比 GLM 4.7 Flash 高出不少,对个人使用已经很够了。 第二,速度确实不错,平均大概 46 token 每秒,日常对话、文档总结、代码理解,响应都很快。 第三,效果属于中等偏上。核心任务能完成,尤其是阅读理解、SVG 代码生成这类任务,表现已经挺优秀了。 缺点是并发能力相对一般,我后面调了一些更高性能参数,提升不算特别明显。
00:00 / 01:06
连播
清屏
智能
倍速
点赞
22
郝点儿
3周前
一张 3090,真的能把 千问 3.5 35B 模型跑明白吗#本地ai #千问#ai #diy
00:00 / 01:52
连播
清屏
智能
倍速
点赞
4312
大曼哒
1周前
本地部署智能体:Qwen3.5 + Claude Code 本视频将演示如何使用 Llama.cpp 和 Claude Code 在本地安装 Qwen3.5 4B 模型 #claude #ai编程 #千问qwen #ai #智能体
00:00 / 06:07
连播
清屏
智能
倍速
点赞
121
AI技能研究社
2周前
oMLX 框架部署Qwen3.5 实测oMLX让Qwen3.5生成速度提升4.14倍,解决长上下文响应慢与智能体解析报错难题。#oMLX #Qwen35 #Mac #本地大模型 #AI智能体
00:00 / 01:59
连播
清屏
智能
倍速
点赞
552
Ai 学习的老章
1周前
vLLM 紧急补丁!Qwen3.5 越跑越蠢,元凶找到了 Qwen3.5 的大模型用了 Mamba 加 Attention 的混合架构,两种层共享 GPU 上同一套缓存空间。Mamba 往里写的是 32 位浮点数,attention 用的是 8 位或 16 位。一个缓存块先被 Mamba 用过,回收后分配给 attention,旧数据在新的精度下直接变成了 NaN。更坑的是,attention 的掩码机制用的是乘以零。零乘正常数字等于零,但零乘 NaN 还是 NaN。脏数据就这么一路扩散,所以服务刚启动没事,跑一阵之后精度才悄悄往下掉。 这种 bug 排查起来最折磨人,你查模型、查数据、查 prompt,全都没问题。但输出就是在变差。vLLM 这次修复方案很朴素:新分配的缓存块,用之前先清零。性能代价不到百分之一。只要你在跑 Qwen3.5 混合架构,建议尽快升级。 除了这个,0.17.1 还正式支持了 Nemotron 3 Super。英伟达 120B 参数的开源模型,OpenClaw 排行榜杀进前五,前五里唯一的开源选手。现在 vLLM 一航命令就能部署了。
00:00 / 01:13
连播
清屏
智能
倍速
点赞
85
杨大哥
4周前
Qwen3.5 35b本地部署适配OpenClaw
00:00 / 02:00
连播
清屏
智能
倍速
点赞
2807
一蛙AI
2周前
Qwen3.5上用Claude最新工具调用方法 如果你的 AI Agent 可以通过“按需搜索工具”并编写代码来编排数十个工具调用,而不是让大语言模型(LLM)逐一处理,从而大幅降低 Token 消耗,会怎样? 在这段视频中,我们将 Anthropic 工程博客中提到的两种高级工具调用模式,实现在我们自定义的 Python 和 React AI Agent 中:即工具搜索工具(Tool Search Tool)以及通过代码执行沙箱实现的程序化工具调用。 这些并非 Claude 的专属功能。它们是通用的 Agent 设计模式,你可以将其应用于任何模型或框架。 我们对这两种方法进行了侧重对比,将传统的工具调用与程序化执行进行衡量,并在 Claude Haiku 和运行在 RTX 5090 本地环境下的全新 Qwen 3.5 27B 上运行了相同的任务。 #大模型 #Qwen #aiagent #openclaw
00:00 / 19:02
连播
清屏
智能
倍速
点赞
102
AI绘视玩家
1周前
Qwen3.5 破限 无审核模型更新 #comfyui教程 #aigc #ai教程
00:00 / 01:52
连播
清屏
智能
倍速
点赞
10
lukeewin
6天前
终于本地跑起来了大模型 | 本地化部署Qwen3.5大模型 | 本地部署多模态大模型 #多模态大模型 #大模型 #ai #人工智能 #Qwen3.5
00:00 / 03:00
连播
清屏
智能
倍速
点赞
8
Aiden
2周前
ComfyUI-Qwen3.5本地的安装方法 #AIGC#COMFYUI#comfyui教程#comfyui设计#runninghub
00:00 / 10:21
连播
清屏
智能
倍速
点赞
14
小天fotos
1月前
Qwen3.5-27B太好玩,不小心养了一窝龙虾 #ai新星计划 #抖音年味新知贺岁 #openclaw #qwen #4090魔改
00:00 / 08:29
连播
清屏
智能
倍速
点赞
NaN
博弈
3周前
使用22G单卡的2080ti,2卡即可运行Qwen3.5-35B-A3B-Q8_0.gguf量化版,上下文设置130K ,每卡占约20G显存,模型大小35G,总显存占用40G左右,在0上下文情况下,首句话速度70token/s,使用opencode在vscode进行编程测试,首上下文1.3K,首句话速度66token/s,当上下文2万时,速度62token/s,当上下文5万时,速度52token/s,当上下文50%,7万时,速度45token/s 运行命令:CUDA_VISIBLE_DEVICES=4,5 ~/llama.cpp/build/bin/llama-server --port 8000 --host 0.0.0.0 --n-gpu-layers -1 --parallel 1 --ctx-size 130000 --flash-attn on --batch-size 4096 --ubatch-size 2048 --cont-batching --no-mmap --mlock --split-mode layer --cache-type-k q8_0 --cache-type-v q8_0 --temp 0.6 --top-p 0.95 --top-k 20 -m /home/boyiu/models/GGUF/Qwen3.5/Qwen3.5-35B-A3B-Q8_0.gguf --jinja --chat-template-file /home/boyiu/models/jinja/Qwen3.5-35B-A3B-Q8_0/chat_template.jinja 由于GGUF量化版在llama.cpp运行时,会出现"System message must be at the beginning"(系统消息必须在开头)的错误问题,需要下载原.jinja发送给大模型,修改为,模板允许系统消息不在开头,单独使用--jinja即可正常回复,与Qwen3.5-122B-A10B同样问题 编码能力与Qwen3.5-122B-A10B相当,由于速度快,能力并不弱,所以完胜A10B,但是在编码指令遵循,逻辑方面还差点意思,在60G以下模型体积下,这款模型应该没有对手,性价比超高,期待deepseek v4版本发布后进行测评#大模型 #量化
00:00 / 00:31
连播
清屏
智能
倍速
点赞
929
人工大黑
1月前
我让7个AI给我的猫建了个天堂 | 国产AI编程大横评 Qwen3.5、GLM-5、Seed 2.0、MiniMax、Kimi、Step、Claude,统一提示词,全程录屏。有惊喜,有翻车,有后门账号,有代码彩蛋。这不是benchmark,是一次赛博斗蛐蛐。祝各大国内厂商早日干翻Claude。 #Qwen #kimi #GLM #Seed #ai新星计划
00:00 / 10:59
连播
清屏
智能
倍速
点赞
7659
Aiwood爱屋研究室
3周前
开源绝唱?如何在Comfyui部署qwen3.5
00:00 / 05:03
连播
清屏
智能
倍速
点赞
73
小天fotos
1月前
测完Qwen3.5,我哭了,期待了好久的场景终于实现了 #ai新星计划 #抖音年味新知贺岁 #qwen35 #qwen3 #AI教育
00:00 / 06:14
连播
清屏
智能
倍速
点赞
2739
双脑实验室
4天前
Qwen3.5-397B 在 iPhone 上运行 #大模型
00:00 / 00:55
连播
清屏
智能
倍速
点赞
27
用户793874482068
3周前
小模型超智能,3000元本地流畅运行Qwen3.5 系列模型 #随变ai随便玩 #这也能开播
00:00 / 02:55
连播
清屏
智能
倍速
点赞
115
小工蚁
3周前
Qwen3.5 27B和35B选哪个?Ceval模型评测实践 #小工蚁 #通义千问 #开源大模型
00:00 / 02:31
连播
清屏
智能
倍速
点赞
192
郑州智沛科技
2周前
Openclaw用本地模型也可以干活了,先养着玩玩
00:00 / 00:38
连播
清屏
智能
倍速
点赞
144
船长⁶
1周前
#创作者扶持计划 #ollama #千问3.5 #Qwen #本地部署 洋垃圾V100大战5070ti! 结果显而易见,V100是什么路边一条啊!!!
00:00 / 01:40
连播
清屏
智能
倍速
点赞
16
王耀鐭
1周前
本地部署Qwen3.5: vllm VS llama.cpp #大模型部署 #大模型 #学习日常
00:00 / 07:32
连播
清屏
智能
倍速
点赞
24
澳門AI佬
3周前
国产 AI 太牛了!阿里巴巴Qwen3.5(2B 6bit量化版)在 iPhone 17 Pro 上纯本地实时跑通了! 不用联网、不用云端,飞机模式下秒出超详细巴黎7天旅行攻略! 隐私拉满、速度飞起(MLX优化),性能直逼4倍大的模型! 小模型真的要把大模型卷翻了?#每日ai #qwen3.5
00:00 / 00:22
连播
清屏
智能
倍速
点赞
31
AI绘视玩家
2周前
Qwen3.5 提示词反推|提示词助手 安装与避坑指南 #ComfyUI教程 #ai短视频教程 #Qwen35 #提示词反推
00:00 / 05:40
连播
清屏
智能
倍速
点赞
7
沐凌熙
3周前
Qwen3.5小模型实现手机端本地运OCR兼顾效率与隐私 #Ai #电脑 #科技
00:00 / 02:19
连播
清屏
智能
倍速
点赞
6
Eden.区块链开发
3周前
有人已经直接用 Qwen3.5-27B + DGX Spark 做成 Android Agent,通过 Web UI 下发任务,让模型自己读屏、决策、点按,推理速度提升 4 倍。#OpenClaw #Ai
00:00 / 00:18
连播
清屏
智能
倍速
点赞
1586
爱开车的程序猿
1周前
#代码 #千问#qwen #macmini #大模型
00:00 / 01:49
连播
清屏
智能
倍速
点赞
15
AI绘视玩家
2周前
LTX2.3+Qwen3.5持续优化 #ComfyUI教程 #Ai短视频制作 #提示词
00:00 / 04:07
连播
清屏
智能
倍速
点赞
16
IT极客.J
1周前
国产 AI 王炸! Qwen3.5 让旧笔记本跑顶级大模型,算力平权时代来了!
00:00 / 07:48
连播
清屏
智能
倍速
点赞
0
46wg
1周前
在vllm轻松关闭qwen3.5 推理功能 只需要一行参数轻松关闭qwen3.5推理。 #vllm #qwen #qwen3 #think #关闭推理
00:00 / 07:02
连播
清屏
智能
倍速
点赞
8
AI小菜园
2周前
Ameper架构的布署Qwen 3.5 满血版养虾 两台GPU IB网络互联,布署满血Qwen3.5 397B, 升级龙虾的脑子。使用A800 原生bf16, 不用量化,虽然吐字只有68 token/s ,但感觉智商还可以,用几天再看下效果。#qwen #通义千问 #openclaw #小龙虾 #Ampere
00:00 / 00:51
连播
清屏
智能
倍速
点赞
47
麦汁服务器
3周前
openclaw龙虾本地要千问3.5-27b模型,不用担心token问题了!#openclaw #qwen3.5-27b
00:00 / 00:33
连播
清屏
智能
倍速
点赞
44
IT咖啡馆
1月前
深度实测Qwen3.5,原生多模态表现如何 #AI新星计划 #qwen #千问大模型 #IT咖啡馆 #大模型
00:00 / 07:52
连播
清屏
智能
倍速
点赞
2453
爱开车的程序猿
1周前
!千问框架怎么洗车?有这么难嘛! 千问qwen3.5-9b-4bit在大师兄上实测,洗车问题大翻车。 好了言归正传,我是来测速度的,和上期对比,oMLX框架在Mac上面确实快,基本是两倍的速度,完胜ollama。 oMLX的SSD KV Cache在首次请求时优势不明显,但重复/长上下文场景会更快,纯推理速度oMLX赢! 机型Mac mini m4 pro 64g ollama:25 t/s oMLX:45 t/s 详细参数放在视频最后和评论区#大模型 #小龙虾 #openclaw #千问qwen
00:00 / 02:00
连播
清屏
智能
倍速
点赞
2
长夜有歌
2周前
都说 OpenClaw 很好安装,结果真自己上手,还是各种报错、卡住、跑不起来…… 我这次直接把自己从安装到接入 阿里百炼 Qwen 的完整流程,整理成了一套 零基础也能无脑跟做 的步骤。 尤其是很多人最容易卡住的几个地方,我都讲清楚了: 为什么不要一开始就急着配模型 为什么 Dashboard 打开了也可能根本用不了 为什么要先开 Gateway 页面能打开但不能聊天,到底是不是安装失败 怎么把 阿里百炼 API 正确接进 OpenClaw 如果你也正在折腾 OpenClaw,这条真的能帮你少走很多弯路。 想要完整可复制版命令,或者后面继续看 OpenClaw 实操教程,欢迎关注我:长夜有歌。 #OpenClaw #Qwen #阿里百炼 #AI工具 #AI教程 #保姆级教程 #零基础教程 #避坑指南
00:00 / 04:58
连播
清屏
智能
倍速
点赞
48
IT产品及方案专业供应商__田工
3天前
1534 纯本地openclaw+Qwen3.54b运行环境 #openclaw
00:00 / 01:23
连播
清屏
智能
倍速
点赞
21
爱聊AI的小石头
3天前
本地大模型 #AI #大模型 #MacBook#flash-moe#科技前沿 #qwen3.5 #人工神经网络 #算力平权
00:00 / 01:22
连播
清屏
智能
倍速
点赞
22
985华工学长讲计算机毕设
2周前
目前较低成本codingplan方案推荐 目前较低成本codingplan方案推荐(通吃glm-5、kimi、qwen3.5)|附claude、opencode配置方法
00:00 / 08:20
连播
清屏
智能
倍速
点赞
1
周伯仲
4天前
OpenClaw小龙虾,最佳本地部署,LMstudio微调设置,不要用ollama,显卡24g显存,蒸馏的qwen3.5:27B,270亿稠密模型,多模态支持,自己做文件,改文档表格,自己汇总任务并修改代码,还能做带ai对手的小程序,速度快,出错少,不重复叨叨,效果和超能模式豆包差不多,真顶。 Token自由,电费不高,但智商吊锤9B以及moe的35b,让ai可以从0-1的跃进#电脑硬件 #OpenClaw #电脑技巧
00:00 / 00:48
连播
清屏
智能
倍速
点赞
202
简介:
您在查找“
qwen3.5量化教程
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-03-26 07:44
最新推荐:
cayla塌房吗
牛牛小游戏小程序11关怎么玩
悟空浏览器能看五十公里桃花坞吗
杯贴工坊小程序怎么用
砂狼白子房产证办理流程
真正相爱的人会如何处理矛盾和分歧?
明日方舟食物酥香油润在哪买
钝感力教程 猪
青岛海信广场团购
台版太阳之子专辑有没有签名海报
相关推荐:
湖南未来90天降雨在哪看
教育的意义不只是分数而是启迪
《逐玉》齐旻弹幕孤的扮演者是谁
莫妮卡最后一关需要多少天
洛克王国是大世界探索吗
你们觉得好笑就黑别人喜欢的
蛇皮果什么味道
天堂经典版精灵老木在哪
钢铁是怎样炼成的好书推荐PPT背景图
26.4怎么关掉动画
热门推荐:
交际群功能
英伟达DGX如何打开
瓦港服认证器启用怎么扫
美团多邻国蜡烛怎么用
bubblex语擦怎么注销
摩托三人组特效怎么弄
qq浏览器旧版本免流吗
阿里悟空领取方式
杨博文魔改棒怎么充电
憨豆先生背景图4k怎么设置