Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
妮姬主页面音乐怎么换
我知道你是那种打开抖音提示
漫截原po 入会方式
微信给人删了还有备注是怎么回事
抖省省加入会员怎么关闭
布布一二表盘设置
野草助手光影捕手怎么用
claudepro 限额怎么办
苹果qclaw安装命令行开发者工具
askamod安装教程
碳基生物退役指南
3周前
Qwen3.6-35B-A3B:2千到3万,三档本地部署实战 这期视频,我把 Qwen 3.6 35B A3B 装进 3 台价格完全不同的设备里,实测识图、OCR、手写数学题、写作、算法题和代码生成。最让我意外的,不只是它比预期更能打,而是我那台 2500 块手搓丐版战神,居然跟这个模型异常般配。便宜设备不可怕,可怕的是本地模型这次真的能干活了。 这次让我真正改观的,是 Qwen 3.6 35B A3B 在不同任务之间,整体都没有明显掉链子。识图能看,OCR 能用,代码能写,逻辑题也能认真推,放到真实项目里,不再是那种“偶尔灵光一现”的状态了,而是已经开始成为稳定的生产力工具了。本地开源模型这次,是真的往前走了一大步。 #qwen #ai智能体 #openclaw#大语言模型 #ai
00:00 / 09:31
连播
清屏
智能
倍速
点赞
836
ai景行小博士
3周前
Qwen3.6_35B模型部署设置全流程,冲80词元/s #热点 #本地部署 #Qwen35B #全流程 #词元
00:00 / 04:04
连播
清屏
智能
倍速
点赞
639
戚向北
1周前
Qwen 3.6 35B模型能力测试 测试内容一:自动搜索并下载图片到本地 #hermes #hermes爱马仕 #本地模型 #openclaw #qwen3.6
00:00 / 02:07
连播
清屏
智能
倍速
点赞
25
Ai 学习的老章
3周前
Qwen3.6-35B-A3B开源了,本地部署教程
00:00 / 00:56
连播
清屏
智能
倍速
点赞
548
啊牛二
4天前
llama.cpp安装版添加模型参数设置 生成极致推理参数 链接:https://pan.quark.cn/s/eb0d1ba25220 *里面Qwen3.6-35B-A3B-uncensored-APEX-I-Compact是去限制版
00:00 / 28:54
连播
清屏
智能
倍速
点赞
0
大海资源
3周前
本地安装Hermes Agent保姆级教程,本地大模型免费 搭配千问3.6 A3B模型丝滑运行!#hermes爱马仕 #爱马仕智能体 #hermes教程 #openclaw教程 #qwen3
00:00 / 20:30
连播
清屏
智能
倍速
点赞
44
Mr.Chen
3周前
qwen3.6 35B在12G显存上跑起来了 现在技术发展真快,以前还只能装8B,9B的模型还很笨,现在直接跳过14B,26B上到35B,当然模型有点不一样,反正很厉害了那个技术最新出的叫turboquant,可以试试看。#openclaw#hermes
00:00 / 01:56
连播
清屏
智能
倍速
点赞
129
小红AI
4周前
Qwen3.6-35B-A3B尝鲜体验 一张图片给你一个网站或APP#qwen #claude
00:00 / 01:15
连播
清屏
智能
倍速
点赞
108
AI技能研究社
3周前
Qwen3.6-35B-A3B部署指南 深度解析Qwen3.6-35B-A3B的MoE架构优势,涵盖SGLang、vLLM、Unsloth等多种部署方案及思维链参数配置技巧。#Qwen3635BA3B #MoE模型 #大模型部署 #SGLang #vLLM
00:00 / 03:11
连播
清屏
智能
倍速
点赞
344
AI Lab
2周前
Mac Studio 3 Ultra跑本地模型效果如何? 今天装机qwen3.6-35b,网红模型,效果满意,你们觉得怎么样? #macstudio #本地模型 #openclaw #科技下一站 #长期主义好物清单
00:00 / 01:54
连播
清屏
智能
倍速
点赞
40
搬砖最勤快
3周前
把本地部署的QWEN3.6 35ba3b接入龙虾试了下,怎么说呢。。动是可以动,就是这次的结果有点拉,等我下个视频在测测。#qwen3.6 #ai #ai本地部署 #5060ti
00:00 / 04:47
连播
清屏
智能
倍速
点赞
7
焱垚言夏
3周前
从0配置qwen3.6:35b模型在苹果电脑用MLX运行龙虾 #创作者中心 #创作灵感 #openclaw#qwen36 #本地大模型
00:00 / 06:32
连播
清屏
智能
倍速
点赞
50
小辰Ai智能
1周前
模型越大就一定越好吗? 我这台英伟达N卡5090 本地部署了千问3.5-35B-A3B的Q4量化和最新的千问3.6版本,整套方案成本三万出头,速度稳定跑180–220 token/s。#openclaw #本地大模型 #macstudio #Ai应用 #英伟达
00:00 / 01:19
连播
清屏
智能
倍速
点赞
49
AI赚钱研究社
2月前
Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
00:00 / 05:26
连播
清屏
智能
倍速
点赞
888
AI 博士嗨嗨
9月前
嘎嘎香!免费AI代码神器Qwen Code上手教程 #QwenCode #通义千问 #AI编程 #cline #AIAgent
00:00 / 08:02
连播
清屏
智能
倍速
点赞
717
㤅
1周前
#本地大模型 #qwen #ai #本地部署 #3080显卡
00:00 / 05:36
连播
清屏
智能
倍速
点赞
14
AI猿姗姗
1年前
20分钟学会qwen大模型本地部署+微调法律大模型,只需5G 20分钟学会qwen大模型本地部署+微调法律大模型(只需5G内存) #大语言模型 #qwen #通义千问 #大模型本地部署 #大模型微调
00:00 / 25:56
连播
清屏
智能
倍速
点赞
215
titan909
4周前
实测开源Qwen3.6运行OpenClaw的效果 #Qwen36 #OpenClaw
00:00 / 04:21
连播
清屏
智能
倍速
点赞
256
搬砖最勤快
2周前
我用openclaw+Qwen3.6 35b a3b+5060ti 16g,画了一幅黑神话悟空简笔画 虽然结果一坨 但感觉执行得还蛮顺畅的🤣🤣🤣🤣#Ai #本地部署大模型 #qwen3.6 #龙虾 #openclaw
00:00 / 02:30
连播
清屏
智能
倍速
点赞
39
Ai 学习的老章
3周前
Qwen3.6-35B,量化、蒸馏版本推荐 今天聊 Qwen3.6-35B-A3B 的社区生态。这个模型是 MoE 架构,参数35B,每次只激活3B。性能很强,但显存占用不小。社区迅速搞出了三条优化路线。 第一条,量化。三个团队分别出了 AWQ 和 NVFP4 的4bit量化版。有网友实测,两张4060就能跑出83tok每秒。Red Hat 的 NVFP4 版更有意思,量化后准确率居然还涨了一点。 第二条,DFlash 推理加速。这是一种基于扩散模型的推测解码方法。跟传统方案不同,它一次能并行生成一整块 token。实测5到6倍加速,完全无损,输出跟原版一模一样。 第三条,Claude Opus 蒸馏。用1.4万条推理数据做 LoRA 微调,MMLU-Pro 直接涨了32个百分点。数据量不大,效果很猛。 这三条路完全不冲突。量化解决跑得起,DFlash 解决跑得快,蒸馏解决跑得好。我觉得最值得关注的,是开源社区围绕一个模型形成了完整的优化链条。这种协作效率,比单个模型发布更有意义。
00:00 / 01:20
连播
清屏
智能
倍速
点赞
366
浩然天地邢
1周前
#硬件是dgx spark 128g统一内存。因为有个娃儿急着看数据,所以没有来得及修改直接发出来。 hermes agent自己生成的ppt。
00:00 / 01:22
连播
清屏
智能
倍速
点赞
14
GG 爆玩 AI
2周前
Qwen3.6_35BClaude4.6蒸馏本地部署 #本地部署大模型#openclaw 本地部署实测,8G部署的35B大模型到底有多大的用处#ai
00:00 / 16:51
连播
清屏
智能
倍速
点赞
17
千问大模型
9月前
不只是写代码!Qwen3-Coder 来啦! Qwen3-Coder,现在开源! 480B参数,MoE架构,每次运行激活35B。 从代码生成到页面交互,Qwen3-coder都不在话下。 人民需要什么,千问就开源什么! 欢迎体验! #Qwen #AI #大模型 #开源 #通义千问
00:00 / 00:35
连播
清屏
智能
倍速
点赞
1478
宇图瑞视
4周前
Qwen3.6开源了!3B激活打爆300亿稠密模型,阿里这波 Qwen3.6-35B-A3B开源!SWE-bench 73.4%超Gemma4-31B整整21分,RTX 4090单卡就能跑!深度解析阿里为何Plus闭源、35B开源 #Qwen3.6 #开源大模型 #阿里AI #国产AI #大模型 #ai编程入门
00:00 / 01:06
连播
清屏
智能
倍速
点赞
62
搬砖最勤快
3周前
5060TI16G 测试Llama和TurboQuant 测试Llama-cpp原版框架vsLlama-cpp-TurboQuant框架 同参数跑千问Qwen3.6-35b-a3b-Q4km速度对比 小显存卡确实太吃力了 结果还蛮奇特的 有点意外 评论区哥们@喵 #Qwen36 #TurboQuant #35ba3b #本地部署 #本地部署大模型
00:00 / 02:48
连播
清屏
智能
倍速
点赞
124
橙色溪流
3周前
Turboquant+DFlash组合🔥本地实操💻 折腾了两天,终于把这个组合跑通了。中间的录制还出了问题,不过最终结果还算比较理想。 - Qwen 3.6 35B: 原生 60 已经很快,满血优化后直冲 90。最关键的是,内存从43G被压回到了23G的基准线水平! - Qwen 3.5 27B:速度从19提升到了37,将近2倍。而内存从46G被压缩到了20! - Qwen 3.5 9B: 优化后速度翻了 2.95 倍!内存稳定在20,效果非常惊人。 9B在DFlash下,没有跑出来官方的效果,可能和设备性能有关。 不过27B和网上大神的效果已经非常接近。 #科技下一站 #我在抖音聊科技 #turboquant #dflash
00:00 / 01:08
连播
清屏
智能
倍速
点赞
990
纯文资讯
1周前
测工作流,顺便推荐个linux系统 #linux #系统 #AI 未人工干预的,IQ4量化qwen3.6-35b-a3b模型一次成品视频,其实还是挺瑕疵的,主要是硬件环境受限,无法全量专家数。内容有些是错误的,比如steam下载游戏速度其实可以跑满的,就是玩容易不稳,纯内外网问题,实际比win要安定。有任何相关问题均欢迎留言交流
00:00 / 02:46
连播
清屏
智能
倍速
点赞
2
呼呼数学
2周前
感谢Qwen大善人🥰😘🤩,我们可以使用更好的开源大模型Qwen3.6 35B A3B APEX。效果更好,速度还快了🤫🤫🤫。#大语言模型 #千问 #程序员 #代码 #人工智能
00:00 / 02:28
连播
清屏
智能
倍速
点赞
69
莫失莫忘
4周前
4月17日 #Qwen3 .6 35B #千问大模型 #大模型算力 #5060ti显卡 #显卡
00:00 / 04:07
连播
清屏
智能
倍速
点赞
68
来财
1年前
qwen3.0下载教程,qwen3.0手机版下载教程,通义千问3下载教程,qwen下载途径,qwen3.0下载入口#qwen #qwen3 #qwen3下载方法 #通义千问 #通义千问3
00:00 / 00:27
连播
清屏
智能
倍速
点赞
323
单车酒吧搞机社
1周前
Qwen3.5大模型本地部署的高性价比服务器怎么配 #Qwen#AI本地部署 #AI装机 #硬件配置 #大模型本地部署
00:00 / 06:54
连播
清屏
智能
倍速
点赞
1476
橙色溪流
4周前
决战Gemma4⚡阿里深夜开源Qwen3.6-35B-A3B Qwen3.6-35B-A3B 依然采用MoE框架 但是在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwen3.5-27B 和 Gemma-31B 等Dense模型一较高下。 而且具备强大的多模态感知与推理能力,在大多数视觉语言基准上,它的表现已与 Claude Sonnet 4.5 持平,甚至在部分任务上实现超越。 另外,这周末我打算用turboquant+昨天发布的DFlash块扩散技术一起跑下Qwen3.5 27B 大家等着看效果吧 #科技下一站 #我在抖音聊科技 #qwen大模型 #DFlash #开源项目
00:00 / 00:47
连播
清屏
智能
倍速
点赞
1034
程序员寒山
1年前
本地部署Qwen3小参数版本实测:并非鸡肋 实测多个本地模型 本期视频主要给大家介绍本地部署大模的相关知识,实测Qwen3 小参数模型的过程,包括与DeepSeek r1 8b和在线版本的对比。更多往期视频内容可以到主页列表下查看(程序员寒山:CxyHanShan),欢迎大家留言关注讨论。#Qwen3 #Deepseek #本地部署 #ollama
00:00 / 08:58
连播
清屏
智能
倍速
点赞
403
尤李好家伙😏
2周前
#qwen3.5:35b a3b 模型速度怎么样?双卡1080ti继续发挥余热,很强!#openclaw
00:00 / 01:08
连播
清屏
智能
倍速
点赞
7
剑道尘心
4天前
qwen3.6 35b可以刻蚀到cpu么?之前看到过相关新闻 具体原理不太懂,不记得是刻到cpu还是别的什么东西里面,就是国外团队研究的技术,说是有点是极大降低推理成本,缺点是刻死了某个具体的模型无法更新。reddit上和yt上,很多人说qwen3.5 27b,或者qwen3.6 35b a3b已经可以算作生产力模型了,把这种用这种技术做到我能买得起,我肯定入手一台。有懂行的来说说么? #qwen #本地部署大模型 #生产力工具 #tinyai #本地大模型
00:00 / 01:46
连播
清屏
智能
倍速
点赞
54
是老白没错jack stone
9月前
intel之虎超能打! 极摩客 EVO-T1 Ultra 9 285H 迷你主机全面评测!64G内存畅跑Qwen3 coder 30B A3B大语言模型!降低本地AI门槛!
00:00 / 18:53
连播
清屏
智能
倍速
点赞
108
AI技能教学网
3周前
Qwen3.6-35B量化方案选择 针对显存、速度与推理能力,深度对比Qwen3.6-35B的量化版、DFlash加速版及Claude Opus蒸馏版方案。#Qwen3635B #LLM优化 #vLLM #量化技术 #AI推理加速
00:00 / 04:28
连播
清屏
智能
倍速
点赞
239
Ai 学习的老章
3周前
英伟达加速版Qwen3.6,NVFP 4 性能实测 今天聊的是 Qwen3.6-35B 的 NVFP4 量化版,Red Hat AI 团队出品 NVFP4 是什么,简单说就是权重和激活同时量化到 4-bit 浮点 也叫 W4A4,用的是 E2M1 格式,还加了微块缩放技术 相比普通 INT4,FP4 对极端值的处理更精细,理论上精度损失更小 Red Hat 跑了 GSM8K Platinum 评测,数据很惊艳 原版 BF16 准确率 95.62%,NVFP4 量化版 96.28% 量化之后精度反而比原版高了一点 当然这有统计波动,但至少证明 NVFP4 的精度损失几乎可以忽略 这比 AWQ 的量化质量要高一个级别 我在双 4090 服务器上用 Docker 加 vLLM 部署了这个模型 说几个关键数据 每卡显存只用 10.61 GB,对比 BF16 版省了接近一半 模型加载 24 秒,加上 torch compile 总初始化在 2 分半 支持 102K 上下文,KV Cache 能装 49 万 token 最大并发能跑 17 倍 有一个细节我必须说清楚 4090 是 Ada Lovelace 架构,不支持原生 FP4 计算 vLLM 看到之后会自动退回 Marlin 内核 推理时权重先从 FP4 解压到高精度再参与计算 激活量化那部分的加速就没了 所以在 Ada 架构上,NVFP4 的核心收益是省显存 推理速度提升主要来自模型更小、内存带宽压力降低 要真正用满 W4A4 的全量化加速,得有 Blackwell GPU 也就是 B100 或者 B200 这一点很重要,别被参数说明误导了 跟之前测的 AWQ-4bit 版对比,NVFP4 各方面都有提升 实测吞吐量更高,多轮对话体感也更流畅 部署稳定性也更好 我的建议是这样 如果你有双 4090,NVFP4 量化版值得换上去 显存省了,精度没损失,相比 AWQ 是一次真实的升级 等 Blackwell GPU 普及了,收益会更大
00:00 / 02:21
连播
清屏
智能
倍速
点赞
169
尤李好家伙😏
5天前
#本地部署大模型 #OpenClaw #ClaudeCode qwen3. 6-35b:a3b 模型速度。#编程
00:00 / 00:53
连播
清屏
智能
倍速
点赞
31
🍁
3周前
#大模型 #vivo #英伟达 端侧手机App本地部署测试大模型 今日测试 Qwen3.6-35B-A3B-BF16.gguf大约60G
00:00 / 03:23
连播
清屏
智能
倍速
点赞
8
雨林木风📷
1周前
本地千问35B量化模型接入树莓派小车,实测速度挺快的#智能车编程 #开源
00:00 / 00:49
连播
清屏
智能
倍速
点赞
30
搬砖最勤快
3周前
qwen3.6 35b a3b实测16G显存下速度#qwen #ai
00:00 / 02:10
连播
清屏
智能
倍速
点赞
458
酋长师兄
2周前
本地大模型提速三倍方法Qwen3.6模型跑出200t/s生成 4090单显卡,本地大模型提速三倍Qwen3.6模型跑出200t/s生成 #本地大模型提速 #本地大模型配置 #MTP配置
00:00 / 04:40
连播
清屏
智能
倍速
点赞
330
小工蚁
1月前
压测Qwen3.5-27B和35B-A3B比较性能差异 #小工蚁 #通义千问 #大模型性能
00:00 / 03:10
连播
清屏
智能
倍速
点赞
80
郝点儿(AI 最严厉的法则)
2月前
一张 3090,真的能把 千问 3.5 35B 模型跑明白吗#本地ai #千问#ai #diy
00:00 / 01:52
连播
清屏
智能
倍速
点赞
4853
郑工说AI+
1月前
为什么不用英伟达? Mac的CPU和GPU共用内存架构, 64G全部可以当显存 ,英伟达的4090显存才24G ,同等配置代价是它三倍!你说选什么呢?#openclaw #电商 #macstudio #Ai应用 #英伟达
00:00 / 01:19
连播
清屏
智能
倍速
点赞
3280
沙里趴
1周前
不是很懂,5060ti 16G 跑qwen 3.6-35b a3b这么流畅,显存占用才3G, 是因为moe模型的原因吗,但是龙虾调用老失败是怎么回事,是要在llama.cpp加什么参数吗#本地模型 #5060ti
00:00 / 00:17
连播
清屏
智能
倍速
点赞
61
A情报猿
1周前
开机…继续量化系统搭建,欢迎各路大神交流分享#量化交易 #token #a股
00:00 / 00:12
连播
清屏
智能
倍速
点赞
387
赋范课堂
1年前
从零接入Qwen3,手把手教你代码编写MCP客户端! #人工智能 #ai #Qwen3 #MCP #大模型
00:00 / 14:43
连播
清屏
智能
倍速
点赞
37
名小龙虾字牛马
3周前
国产 MoE 新王!Qwen3.6-35B-A3B 正式开源 智能体编码(Agentic Coding):模型现在能以更高的流畅度和精确度处理前端工作流和仓库级推理。 思维保留(Thinking Preservation):引入了一项新功能,可保留历史消息中的推理上下文,从而简化迭代开发并降低开销。 #大模型 #千问 #qwen #开源
00:00 / 00:43
连播
清屏
智能
倍速
点赞
17
天工开帧
3周前
社区模型新探,Qwen3.627B和opus-GLM-18B 彻夜长测,16G显卡端侧模型初选名单:Qwen3.6-27B-IQ3 ,Qwopus-GLM-18B-IQ5,Qwen 3.6-35B-A3B MoE-IQ4。跑轻度任务可以,写项目就算了。推理参数参考:-c 36864 -ngl 64 -t 5 --reasoning-budget 1024 --temp 0.6 --top-p 0.95 --top-k 20 --min-p 0.00 --flash-attn 1 --host 192.168.101.136 --port 13631 pause #程序代码 #AI前沿 #Qwen #llama
00:00 / 02:14
连播
清屏
智能
倍速
点赞
50
剑道尘心
2周前
Qwen3.6-35B-A3B-APEX-I-Compact 本地3060ti显卡部署qwen3.6-35b-a3b-q4模型,实测数据,14t/s context 32k 12gb显存用了10852m多,cpu 1031%,mem 23.6% 回答复杂问题think要think三分多钟😂,还是不行。参数如下: docker run -d --gpus all \ -v /home/jobsfan/Documents/codes/llama.cpp/models:/models \ -p 8080:8080 \ --name qwen36-3060-optimized \ ghcr.io/ggml-org/llama.cpp:full-cuda \ --server \ -m /models/Qwen3.6-35B-A3B-APEX-I-Compact.gguf \ --host 0.0.0.0 \ --port 8080 \ -ngl 28 \ --n-cpu-moe 12 \ -ctk q4_0 \ -ctv q4_0 \ -t 12 \ -fa on \ -c 32768 \ -b 512 \ --ubatch-size 256 \ --jinja #本地部署大模型 #llama.cpp #dflash #turboquant #kvcache
00:00 / 01:18
连播
清屏
智能
倍速
点赞
3
元味
1周前
5090dv2 24G显卡64内存测试本地AI部暑 2.6w的电脑,5090dv2 24G显卡64内存测试本地布署qwen3.6-35b大模型!#5090显卡 #diy电脑 #电脑配置 #本地部署gpt #电脑性能监测
00:00 / 02:18
连播
清屏
智能
倍速
点赞
34
GitHubStore
4周前
无需租GPU,一台24GB内存的笔记本就够了封面! 阿里开源Qwen3.6-35B-A3B,无需租GPU,一台24GB内存的笔记本就够了封面! #AI #llm #大模型
00:00 / 00:18
连播
清屏
智能
倍速
点赞
169
绘世玩家
1周前
llama.cpp本地部署 llama.cpp本地部署&集成Qwen3.6大模型-效率起飞 #comfyui #ComfyUI教程 #llama #qwen
00:00 / 08:21
连播
清屏
智能
倍速
点赞
31
不夜
2周前
本地4种软件部署qwen3.6-27b性能测试 ollama,llama.cpp,LMstudio,vLLM本地部署测试#ollama#llamacpp#lmstudio#AI#vLLM
00:00 / 10:27
连播
清屏
智能
倍速
点赞
152
Mr.Chen
3周前
qwen3.6 35B配置hermes大脑 就是玩,这么新的大模型怎么能不体验一下呢 #hermes爱马仕 #hermes #qwen #openclaw
00:00 / 02:08
连播
清屏
智能
倍速
点赞
39
胡诌
1周前
双2080魔改22g显存共44g显存跑本地模型qwen3.6-35b比27b要快点#龙虾 #opencaw
00:00 / 00:40
连播
清屏
智能
倍速
点赞
53
剑道尘心
1周前
qwen3.6 35b a3b q4-s 多模态实测 其实早就测试了,到现在才发出来,可能这个测试算是难的,所以效果不理想,等了11分钟,最后得到一个错误答案😂 #笑死了 #拉完了 #qwen36 #本地部署大模型 #多模态大模型
00:00 / 01:09
连播
清屏
智能
倍速
点赞
3
Ai 学习的老章
3周前
Qwen3.6-35B 量化版 vLLM 实测 Qwen3.6 35B 的 AWQ 4bit 量化版,模型文件 20 来个 G,对比原始的 70 多 G,可玩性高多了,4090 24G 跑起来很轻松。 部署用 vLLM,我选了 0.17 版本。官方建议 0.19 起步,但我发现 0.17 完全可以拉起来,稳定跑着呢。 启动脚本用 Docker,两张 GPU,tensor parallel size 2,最大上下文 10 万 2,关闭思考模式,启用前缀缓存。 100K 上下文下,显存占用控制得很好,不会撑爆。 关闭思考之后的性能测试,单并发能到 148 Token 每秒,内网跑业务完全够用。 对比 Qwen3.5 35B,性能差距真的微乎其微,基本可以认为持平。 我还做了个编程对比,让两个模型分别写烟花动画。 3.5 写了 477 行,全是 CSS 动画,代码长但前后不一致,刷新页面才能看到效果。 3.6 写了 256 行,思路更清晰,用 Canvas 模拟物理重力,但画面位置判断有偏差,几乎是黑屏。 初版都有 bug,半斤八两,指出问题重新生成各自都能改好。 最后跑了一下生成速度,150 Token 每秒上下,很赏心悦目。 综合来看,Qwen3.6 35B 量化版,vLLM 本地部署,性能稳、速度快,工程上没什么坑,值得搞起来。
00:00 / 01:38
连播
清屏
智能
倍速
点赞
123
叶侠
1周前
本地openclaw用来分析股票效果怎样 openclaw+本地llama.cpp+qwen3.6_35b_a3b大模型,自动部署github上的开源股票分析项目,没有买token,只能用本地大模型分析,效果还不错,token自由+分析自由+财务自由
00:00 / 01:46
连播
清屏
智能
倍速
点赞
0
科技主观说
2周前
华为MatePad Edge本地部署qwen3.6-35b
00:00 / 02:02
连播
清屏
智能
倍速
点赞
10
简介:
您在查找“
qwen3.6 35b a3b安装
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-14 05:51
最新推荐:
哪个地方可以做晴儿服装仿妆
所啥所有小狗小时候长的差不对
河南人叫广东人的花名是啥
白颈乌鸦能悬停吗
松岛辉空采访发誓后面两人是谁
陪伴之旅星球冠名计划什么时候结束
传说萧炎潜能
酷比得电动沙发谁代言
和平精英翻牌子怎么问豆包
脆筒甜甜果实放哪个庇护所出不同形态
相关推荐:
炫彩肯小桶手机端怎么拿
九号N1短轴小钢炮
可以叫的玩偶搞笑的
第五人格宁芙晚宴怎么退出
蜀上人间悠悠注销原因
蓝蛙汉堡套餐
双声道版在哪听
就喜欢发一些意义不明的东西
扑克牌iQKA怎么
伦敦世乒赛男团升旗仪式
热门推荐:
它博会身份验证失败怎么办
电视安装酷咖模拟器教程
电脑豆包记录自己会清吗
无人机能飞3万米高空吗
首形机器人和宇树机器人有什么区别
极光设置工具AE4 max2+
怎么和crush聊天绑关系
一分购13507
一只手特效教程
电脑汽水音乐播控怎么关