Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
gpt的风格豆包怎么弄
烽火挑战杯队友已经入局我可以进入吗
影刀怎么把分享的源代码转变为自己的
烽火挑战赛如果弯了会保存吗
claude omlx配置文件
谦和编译器哪里兑换
如何给豆包下达指令让他提取脚本
智人tv没学过代码不配开发吗
连发G18教程
deepsleep黄色指令怎么写
橙色溪流
3周前
Turboquant+DFlash组合🔥本地实操💻 折腾了两天,终于把这个组合跑通了。中间的录制还出了问题,不过最终结果还算比较理想。 - Qwen 3.6 35B: 原生 60 已经很快,满血优化后直冲 90。最关键的是,内存从43G被压回到了23G的基准线水平! - Qwen 3.5 27B:速度从19提升到了37,将近2倍。而内存从46G被压缩到了20! - Qwen 3.5 9B: 优化后速度翻了 2.95 倍!内存稳定在20,效果非常惊人。 9B在DFlash下,没有跑出来官方的效果,可能和设备性能有关。 不过27B和网上大神的效果已经非常接近。 #科技下一站 #我在抖音聊科技 #turboquant #dflash
00:00 / 01:08
连播
清屏
智能
倍速
点赞
972
程序员晓刘
9月前
阿里Qwen3-Coder比肩Grok4,开源大模型真的强? #程序员 #编程 #开源 #Qwen #大模型
00:00 / 04:44
连播
清屏
智能
倍速
点赞
509
AI技能教学网
3周前
Qwen3.6-35B量化方案选择 针对显存、速度与推理能力,深度对比Qwen3.6-35B的量化版、DFlash加速版及Claude Opus蒸馏版方案。#Qwen3635B #LLM优化 #vLLM #量化技术 #AI推理加速
00:00 / 04:28
连播
清屏
智能
倍速
点赞
236
碳基生物退役指南
3周前
Qwen3.6-35B-A3B:2千到3万,三档本地部署实战 这期视频,我把 Qwen 3.6 35B A3B 装进 3 台价格完全不同的设备里,实测识图、OCR、手写数学题、写作、算法题和代码生成。最让我意外的,不只是它比预期更能打,而是我那台 2500 块手搓丐版战神,居然跟这个模型异常般配。便宜设备不可怕,可怕的是本地模型这次真的能干活了。 这次让我真正改观的,是 Qwen 3.6 35B A3B 在不同任务之间,整体都没有明显掉链子。识图能看,OCR 能用,代码能写,逻辑题也能认真推,放到真实项目里,不再是那种“偶尔灵光一现”的状态了,而是已经开始成为稳定的生产力工具了。本地开源模型这次,是真的往前走了一大步。 #qwen #ai智能体 #openclaw#大语言模型 #ai
00:00 / 09:31
连播
清屏
智能
倍速
点赞
808
titan909
3周前
实测开源Qwen3.6运行OpenClaw的效果 #Qwen36 #OpenClaw
00:00 / 04:21
连播
清屏
智能
倍速
点赞
254
恒信电子
1周前
你们要的16gv100显卡测试qwen3.6-27B-Q4测试结果来了#人工智能 #ai #v100显卡 #龙虾 #openclaw
00:00 / 00:15
连播
清屏
智能
倍速
点赞
36
小红AI
3周前
Qwen3.6-35B-A3B尝鲜体验 一张图片给你一个网站或APP#qwen #claude
00:00 / 01:15
连播
清屏
智能
倍速
点赞
108
Ai 学习的老章
3周前
一个更神奇的Qwen3.5-27B版本,推理速度暴涨5倍 今天介绍一个让我非常兴奋的项目,叫 DFlash,来自 UCSD 的 z-lab 团队。它能让 Qwen3.5-27B 的推理速度暴涨到原来的5倍,关键是——生成质量完全不打折 先说原理。大模型生成文字,是一个 token 一个 token 往外蹦的,串行瓶颈在那摆着。之前业界用推测解码来加速,先用小模型猜一串 token,再让大模型验证。但之前最强的方案 EAGLE-3,加速比也就2到3倍 DFlash 把"猜"的过程,从自回归换成了扩散模型。一次前向传播,直接并行生成一整个 block 的 token。不管你猜8个还是16个,都是一次搞定。这就是它快的核心原因 更精妙的是,DFlash 会从大模型的隐藏层抽特征,注入到小模型的每一层。这样小模型猜得特别准,HumanEval 上平均每轮能猜中9个 token 实测数据很能说明问题。在 HumanEval 上,单并发直接5.2倍加速。Math500 上4.7倍。哪怕高并发场景下,也能维持1.5到1.9倍。而且 drafter 模型只有2B 参数,加载几乎不占额外显存 最关键的是,已经适配了 vLLM、SGLang 和 Transformers 三大框架。生产环境直接能用 我的判断是,如果你在用 Qwen3.5-27B 做推理服务,DFlash 几乎是个无脑加分项。多加载一个 2B 的小模型,吞吐量翻好几倍,简直是免费的午餐
00:00 / 01:50
连播
清屏
智能
倍速
点赞
493
Mr.Chen
3周前
qwen3.6 35B在12G显存上跑起来了 现在技术发展真快,以前还只能装8B,9B的模型还很笨,现在直接跳过14B,26B上到35B,当然模型有点不一样,反正很厉害了那个技术最新出的叫turboquant,可以试试看。#openclaw#hermes
00:00 / 01:56
连播
清屏
智能
倍速
点赞
129
titan909
5天前
实战利用MTP补丁免费大幅提升Qwen3.6-27B运行速度 #mtp补丁
00:00 / 04:04
连播
清屏
智能
倍速
点赞
170
莫失莫忘
1周前
5月4日 (1)(1) llama.cpp windows11 下源码编译#下源码编译 #llama#本地部署ai #Qwen #ai应用
00:00 / 03:26
连播
清屏
智能
倍速
点赞
9
不夜
2周前
本地4种软件部署qwen3.6-27b性能测试 ollama,llama.cpp,LMstudio,vLLM本地部署测试#ollama#llamacpp#lmstudio#AI#vLLM
00:00 / 10:27
连播
清屏
智能
倍速
点赞
147
Ai 学习的老章
2周前
英伟达加速版Qwen3.6,NVFP 4 性能实测 今天聊的是 Qwen3.6-35B 的 NVFP4 量化版,Red Hat AI 团队出品 NVFP4 是什么,简单说就是权重和激活同时量化到 4-bit 浮点 也叫 W4A4,用的是 E2M1 格式,还加了微块缩放技术 相比普通 INT4,FP4 对极端值的处理更精细,理论上精度损失更小 Red Hat 跑了 GSM8K Platinum 评测,数据很惊艳 原版 BF16 准确率 95.62%,NVFP4 量化版 96.28% 量化之后精度反而比原版高了一点 当然这有统计波动,但至少证明 NVFP4 的精度损失几乎可以忽略 这比 AWQ 的量化质量要高一个级别 我在双 4090 服务器上用 Docker 加 vLLM 部署了这个模型 说几个关键数据 每卡显存只用 10.61 GB,对比 BF16 版省了接近一半 模型加载 24 秒,加上 torch compile 总初始化在 2 分半 支持 102K 上下文,KV Cache 能装 49 万 token 最大并发能跑 17 倍 有一个细节我必须说清楚 4090 是 Ada Lovelace 架构,不支持原生 FP4 计算 vLLM 看到之后会自动退回 Marlin 内核 推理时权重先从 FP4 解压到高精度再参与计算 激活量化那部分的加速就没了 所以在 Ada 架构上,NVFP4 的核心收益是省显存 推理速度提升主要来自模型更小、内存带宽压力降低 要真正用满 W4A4 的全量化加速,得有 Blackwell GPU 也就是 B100 或者 B200 这一点很重要,别被参数说明误导了 跟之前测的 AWQ-4bit 版对比,NVFP4 各方面都有提升 实测吞吐量更高,多轮对话体感也更流畅 部署稳定性也更好 我的建议是这样 如果你有双 4090,NVFP4 量化版值得换上去 显存省了,精度没损失,相比 AWQ 是一次真实的升级 等 Blackwell GPU 普及了,收益会更大
00:00 / 02:21
连播
清屏
智能
倍速
点赞
166
爱玩的极客
2周前
千问3.6本地运行,这个是真生产力#AI #QWEN #QWEN3.6 #蒸馏
00:00 / 01:13
连播
清屏
智能
倍速
点赞
23
Token就是词元
2周前
屎山测评-02:Kimi2.6,GLM5.1,Qwen3.6 本期视频我们升级了各家模型到最新版本,继续用他们挑战真实项目中的一个屎山BUG。抛开评分不谈,看看他们在真实场景下,能否名副其实。 #十一流量扶持计划 #AI #Kimi #GLM #AI应用开发
00:00 / 08:39
连播
清屏
智能
倍速
点赞
2399
教你宇宙级AI编程(求关注)
3周前
qwen3.6Max 旗舰大模型来了,但是有两点让人很失望,不敢对标 opus4.7 首先居然对标的是 claude opus4.5,这也太没自信了;然后居然不支持多模态。 现在的 Qwen 连 GLM 都打不过了
00:00 / 01:50
连播
清屏
智能
倍速
点赞
114
一把老骨头
4天前
周末计划:vLLM测试Qwen3.6 27B大模型 #vLLM #Qwen #大模型 #好好过周末
00:00 / 00:57
连播
清屏
智能
倍速
点赞
18
蓝发少年
5天前
骁龙笔记本跑35B大模型? | Qwen3.6 | Gemma4 | 骁龙X2 Elite Extreme | 华硕灵耀16 Air #AI #qwen #Gemma4 #笔记本 #骁龙X2Elite
00:00 / 03:09
连播
清屏
智能
倍速
点赞
11
搬砖最勤快
3周前
把本地部署的QWEN3.6 35ba3b接入龙虾试了下,怎么说呢。。动是可以动,就是这次的结果有点拉,等我下个视频在测测。#qwen3.6 #ai #ai本地部署 #5060ti
00:00 / 04:47
连播
清屏
智能
倍速
点赞
7
橘橘橙AI
2周前
Qwen3.6-27B 实测:本地模型已经能替代前端开发? Qwen3.6-27B 本地实测:飞机大战、电商页、音乐播放器,一次生成完整前端项目。本地模型进入生产力时代。 #qwen #千问 #大模型
00:00 / 07:15
连播
清屏
智能
倍速
点赞
195
找我呀AI知识助手
6天前
5090D的24G显卡,实测qwen3.6:27b,推理能力和生成速度都非常的不错,适合各企业低成本试点部署大模型 #AI知识助手 #本地部署大模型模型 #ollama #llamacpp
00:00 / 03:11
连播
清屏
智能
倍速
点赞
72
Ai 学习的老章
2周前
相较DeepSeek V4,我更喜欢Qwen3.6-27B Qwen3.6-27B 原版 FP16 要 55 个 G,你的机器大概率跑不了。但现在量化版本已经百花齐放了,今天老章带你盘一遍,按硬件找你的版本。服务端三条路:官方 FP8 约 27GB,性能几乎无损,双卡 A100 或 H100 首选;消费级单卡 4090,选 cyankiwi 的 AWQ-INT4,压到 20GB,vLLM 直接起;手里有 5090 这类 Blackwell 卡,选 NVFP4,压到 19.7GB,充分吃满 FP4 算力。本地跑 GGUF 的话,首推 Unsloth Dynamic 2.0,UD-Q4_K_XL 版本只要 18GB 显存,质量比普通 GGUF 好一个档次。用 LM Studio 做面板的,直接搜 lmstudio-community 版本,开箱即用。注意一个大坑:Ollama 目前还跑不了 Qwen3.6,等适配再说。Mac 用户有两个选项:Unsloth 的 UD-MLX-4bit,32GB 统一内存就够;或者 mlx-community 的 nvfp4,走 Metal 加速,速度更快。最后一张选择表:4090 选 AWQ,5090 选 NVFP4,PC 本地选 Unsloth GGUF,Mac 选 MLX
00:00 / 01:39
连播
清屏
智能
倍速
点赞
105
搬砖最勤快
3周前
qwen3.6 35b a3b实测16G显存下速度#qwen #ai
00:00 / 02:10
连播
清屏
智能
倍速
点赞
400
小天fotos
2周前
离谱!Qwen3.6 27B生成速度飙到184t/s Qwen3.6 27B绝对是一个里程碑的时刻 现在全世界的极客都在拼命优化它 我也盘点了多个框架,做了完整测试 最终从20/s的速度跑到184t/s 有完整报告在我的repo里 你可以错过我的视频,但不能错过这个模型 #ai新星计划 #qwen36 #turboquant #dflash #deepseekv4
00:00 / 18:09
连播
清屏
智能
倍速
点赞
3755
杨大哥
2周前
千问Qwen3.6 27b发布
00:00 / 00:55
连播
清屏
智能
倍速
点赞
1732
AI 博士嗨嗨
9月前
个人电脑最强AI模型,Qwen3-30B本地部署教程! #qwen3 #本地部署 #Ollama #AI模型 #大模型
00:00 / 12:41
连播
清屏
智能
倍速
点赞
1799
呼呼数学
2周前
感谢Qwen大善人🥰😘🤩,我们可以使用更好的开源大模型Qwen3.6 35B A3B APEX。效果更好,速度还快了🤫🤫🤫。#大语言模型 #千问 #程序员 #代码 #人工智能
00:00 / 02:28
连播
清屏
智能
倍速
点赞
67
Ai 学习的老章
3周前
Qwen3.6-35B,量化、蒸馏版本推荐 今天聊 Qwen3.6-35B-A3B 的社区生态。这个模型是 MoE 架构,参数35B,每次只激活3B。性能很强,但显存占用不小。社区迅速搞出了三条优化路线。 第一条,量化。三个团队分别出了 AWQ 和 NVFP4 的4bit量化版。有网友实测,两张4060就能跑出83tok每秒。Red Hat 的 NVFP4 版更有意思,量化后准确率居然还涨了一点。 第二条,DFlash 推理加速。这是一种基于扩散模型的推测解码方法。跟传统方案不同,它一次能并行生成一整块 token。实测5到6倍加速,完全无损,输出跟原版一模一样。 第三条,Claude Opus 蒸馏。用1.4万条推理数据做 LoRA 微调,MMLU-Pro 直接涨了32个百分点。数据量不大,效果很猛。 这三条路完全不冲突。量化解决跑得起,DFlash 解决跑得快,蒸馏解决跑得好。我觉得最值得关注的,是开源社区围绕一个模型形成了完整的优化链条。这种协作效率,比单个模型发布更有意义。
00:00 / 01:20
连播
清屏
智能
倍速
点赞
359
AIGC 蛮子
3周前
Qwen3.6开源重磅来袭! Qwen3.6开源重磅来袭!ComfyUI llama.cpp插件轻松上手教程#comfyui #qwen #开源模型
00:00 / 07:38
连播
清屏
智能
倍速
点赞
5
搬砖最勤快
2周前
5060TI16G 测试Llama和TurboQuant 测试Llama-cpp原版框架vsLlama-cpp-TurboQuant框架 同参数跑千问Qwen3.6-35b-a3b-Q4km速度对比 小显存卡确实太吃力了 结果还蛮奇特的 有点意外 评论区哥们@喵 #Qwen36 #TurboQuant #35ba3b #本地部署 #本地部署大模型
00:00 / 02:48
连播
清屏
智能
倍速
点赞
122
程序猿老马
4周前
阿里千问Qwen3.6-Plus实测 阿里新一代大模型Qwen3.6-Plus,仅一天就登顶OpenRouter的日榜榜首,今天就来实测一下,Qwen3.6-Plus(free)版日常使用问题不大,如果进行比较重的任务,编写代码、生成网页等,就会出现稳定性不足,如不想浪费可尝试付费版本。 #千问大模型 #Qwen #AI大模型 #AI实测
00:00 / 01:25
连播
清屏
智能
倍速
点赞
22
Ai 学习的老章
2周前
Qwopus3.6-27B 本地部署,24G 显卡轻松跑 Qwen 加 Opus,缝合怪又来了,这次是 27B 本地版。大家好,我是AI学习的老章。今天聊一个有意思的开源模型,Qwopus3.6-27B-v1-preview,作者 Jackrong。光看名字你就懂了,Qwen 加 Opus,意思是拿 Claude Opus 的蒸馏数据,去调教 Qwen3.6-27B。底座是阿里的 Qwen3.6-27B 稠密模型,原生 262K 上下文,能扩到 1M。训练用的 Unsloth,数据是 Claude 蒸馏数据集打底,混入 GLM-5.1、Kimi-K2.5、Qwen3.5 的推理数据。最关键的一步在这,作者用一个 8B 模型当过滤器,把风格跑偏的样本剔掉,最后只留 12K 条调性统一的高质量数据。这思路特别反直觉,别人都是越多越好,他在做减法。我觉得这个项目最值得琢磨的就是这个点,吃什么长什么样,数据干净,比数据多重要得多。早期评测合作者用 16 条 prompt,单卡 5090 跑 GGUF 量化版,覆盖 Agentic 推理、前端设计、创意 Canvas 三类场景,对比的是 Qwen3.6-27B 原版。但说实话,16 条样本,作者自己都说是 early signal,谁也别当定论。GGUF 仓库已经放出来,量化档位很全,IQ4_XS 是 15.2 G,单张 24G 显卡就能跑,4090、5090、3090 都行。Q2_K 是 10.7 G,16G 显卡能塞但损失不小。直接用 llama.cpp 或者 Ollama 拉起来就行。我的看法是,值得关注,但别神化。它是 preview 版,作者自己都说在探路。但这个思路把 Claude 风格用工程手段迁移到可本地部署的 27B 模型上,加上 Apache-2.0 协议商用友好,给国产开源生态加了一个有 Claude 味儿的选择,这个角度挺难得。手上有 4090、5090 的玩家可以尝个鲜,正式版出来我再拉出来实测一波
00:00 / 02:13
连播
清屏
智能
倍速
点赞
190
宇图瑞视
3周前
Qwen3.6开源了!3B激活打爆300亿稠密模型,阿里这波 Qwen3.6-35B-A3B开源!SWE-bench 73.4%超Gemma4-31B整整21分,RTX 4090单卡就能跑!深度解析阿里为何Plus闭源、35B开源 #Qwen3.6 #开源大模型 #阿里AI #国产AI #大模型 #ai编程入门
00:00 / 01:06
连播
清屏
智能
倍速
点赞
62
橙色溪流
3周前
决战Gemma4⚡阿里深夜开源Qwen3.6-35B-A3B Qwen3.6-35B-A3B 依然采用MoE框架 但是在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwen3.5-27B 和 Gemma-31B 等Dense模型一较高下。 而且具备强大的多模态感知与推理能力,在大多数视觉语言基准上,它的表现已与 Claude Sonnet 4.5 持平,甚至在部分任务上实现超越。 另外,这周末我打算用turboquant+昨天发布的DFlash块扩散技术一起跑下Qwen3.5 27B 大家等着看效果吧 #科技下一站 #我在抖音聊科技 #qwen大模型 #DFlash #开源项目
00:00 / 00:47
连播
清屏
智能
倍速
点赞
1035
Ai 学习的老章
3周前
Qwen3.6-35B 量化版 vLLM 实测 Qwen3.6 35B 的 AWQ 4bit 量化版,模型文件 20 来个 G,对比原始的 70 多 G,可玩性高多了,4090 24G 跑起来很轻松。 部署用 vLLM,我选了 0.17 版本。官方建议 0.19 起步,但我发现 0.17 完全可以拉起来,稳定跑着呢。 启动脚本用 Docker,两张 GPU,tensor parallel size 2,最大上下文 10 万 2,关闭思考模式,启用前缀缓存。 100K 上下文下,显存占用控制得很好,不会撑爆。 关闭思考之后的性能测试,单并发能到 148 Token 每秒,内网跑业务完全够用。 对比 Qwen3.5 35B,性能差距真的微乎其微,基本可以认为持平。 我还做了个编程对比,让两个模型分别写烟花动画。 3.5 写了 477 行,全是 CSS 动画,代码长但前后不一致,刷新页面才能看到效果。 3.6 写了 256 行,思路更清晰,用 Canvas 模拟物理重力,但画面位置判断有偏差,几乎是黑屏。 初版都有 bug,半斤八两,指出问题重新生成各自都能改好。 最后跑了一下生成速度,150 Token 每秒上下,很赏心悦目。 综合来看,Qwen3.6 35B 量化版,vLLM 本地部署,性能稳、速度快,工程上没什么坑,值得搞起来。
00:00 / 01:38
连播
清屏
智能
倍速
点赞
119
肝帝AI
9月前
更快的Qwen3-Coder来啦 千问3半夜炸塘,发布极速版Qwen3 Coder,全称Qwen3 Coder Flash 包含3个特性:1,超强的Agent能力;2,超长上下文;3,已经正式开源。 RTX4090、RTX5090都可以跑 #qwen3 #通义千问 #ai编程 #qwen3coder #大模型
00:00 / 00:43
连播
清屏
智能
倍速
点赞
330
单车酒吧搞机社
1周前
Qwen3.5大模型本地部署的高性价比服务器怎么配 #Qwen#AI本地部署 #AI装机 #硬件配置 #大模型本地部署
00:00 / 06:54
连播
清屏
智能
倍速
点赞
1322
酋长师兄
1周前
本地大模型提速三倍方法Qwen3.6模型跑出200t/s生成 4090单显卡,本地大模型提速三倍Qwen3.6模型跑出200t/s生成 #本地大模型提速 #本地大模型配置 #MTP配置
00:00 / 04:40
连播
清屏
智能
倍速
点赞
318
通义实验室
11月前
手机也能跑 Qwen3?手把手教你部署! 全球开源模型冠军 Qwen3 、端到端全模态模型 Qwen2.5- Omni 在手机上也能跑通啦!Android、 iOS、桌面端通通安排~ #通义 #Qwen #大模型 #教程 #涨知识
00:00 / 01:40
连播
清屏
智能
倍速
点赞
NaN
🍁
3周前
#大模型 #vivo #英伟达 端侧手机App本地部署测试大模型 今日测试 Qwen3.6-35B-A3B-BF16.gguf大约60G
00:00 / 03:23
连播
清屏
智能
倍速
点赞
8
AI技能教学网
1月前
Qwen3.5蒸馏版本地部署教程 解析Qwopus核心优势:专注代码与硬逻辑,支持3090及Mac本地部署,拒绝废话干活快。#Qwen35 #大模型 #本地部署 #ClaudeCode #人工智能
00:00 / 03:31
连播
清屏
智能
倍速
点赞
369
灵峰云雾
3周前
Qwen3.6来了,气势很明确,对标谷歌Gemma4
00:00 / 00:30
连播
清屏
智能
倍速
点赞
7
新哥言选
3周前
Qwen3.6大模型Token速度媲美云端 #ai #大模型 #macbookpro #苹果电脑 #MacBook
00:00 / 00:35
连播
清屏
智能
倍速
点赞
85
阿传电脑
3月前
贝尔XG-040g-MD刷OpenWrt教程,某鱼25元购买#光猫刷机 #OpenWrt #nas
00:00 / 05:36
连播
清屏
智能
倍速
点赞
2042
声译看世界
3周前
Qwen3 6对决Gemma4 本地AI 深度测试Qwen3 6 35B与Gemma4 31B等多款开源大模型 在3090 4090 5060Ti等不同GPU配置下的本地运行表现 涵盖推理速度 量化等级
00:00 / 31:43
连播
清屏
智能
倍速
点赞
45
Ai 学习的老章
3周前
Qwen3.6-35B-A3B开源了,本地部署教程
00:00 / 00:56
连播
清屏
智能
倍速
点赞
549
神烦老狗
1月前
开源对闭源! Google Gemma 4 与阿里 Qwen 3.6 同日发布,都有哪些更新? #ai新星计划#Google#qwen #gemma4
00:00 / 05:58
连播
清屏
智能
倍速
点赞
6289
ai景行小博士
3周前
Qwen3.6_35B模型部署设置全流程,冲80词元/s #热点 #本地部署 #Qwen35B #全流程 #词元
00:00 / 04:04
连播
清屏
智能
倍速
点赞
629
莫失莫忘
3周前
4月17日 #Qwen3 .6 35B #千问大模型 #大模型算力 #5060ti显卡 #显卡
00:00 / 04:07
连播
清屏
智能
倍速
点赞
66
AI极客老高
1周前
阿里Qwen3.6连续更新 #人工智能 #AI #科技 #千问 #阿里 @DOU+小助手
00:00 / 00:57
连播
清屏
智能
倍速
点赞
5
尤李好家伙😏
2周前
#qwen3.5:35b a3b 模型速度怎么样?双卡1080ti继续发挥余热,很强!#openclaw
00:00 / 01:08
连播
清屏
智能
倍速
点赞
7
Enine 亿玖
3天前
帮广州某高校私有化部署Deepseek-V4, 3卡RTX PRO6000+512G内存,深度学习推理生物科研计算数据中心服务器#diy装机 #组装服务器 #pro6000显卡 #数据中心 #深度学习
00:00 / 02:04
连播
清屏
智能
倍速
点赞
133
橙色溪流
2周前
开源大模型巅峰之作⛰️ Qwen3.6-27B惊世发布🔥 它不仅是一个 270 亿参数的稠密多模态模型,更标志着开源模型进入了“小尺寸,高性能”的新纪元 。 它以 27B 的参数规模,在所有核心编程基准测试中,全面超越了上一代拥有 397B 参数的开源旗舰 Qwen3.5-397B-A17B ,并全面追上甚至超越了Opus 4.5,证明了架构优化与训练深度的力量。 #科技下一站 #还有什么是不能ai的 #开源大模型 #与ai同行 #本地大模型
00:00 / 00:48
连播
清屏
智能
倍速
点赞
713
轻算力AI实验室
3周前
千问3.6新鲜实测显存占用8G qwen3.6 ,5060TI可跑,35BA3B,22TOKEN/秒,智商超上代千问3.5 #qwen36 #qwen36实测 #qwen36本地部署 #qwen36开源 #qwen36硬件要求
00:00 / 00:51
连播
清屏
智能
倍速
点赞
672
小伙子Ai实验室
5天前
GEMMA4推理速度提升6X!Dflash工具来咯
00:00 / 00:16
连播
清屏
智能
倍速
点赞
0
Token就是词元
1周前
屎山测试:模型大乱斗解决实际BUG DeepSeekV4,GPT5.5,MiMo2.5,GLM5.1,Kimi2.6,Qwen3.6大乱斗,解决实际项目中遇到的一个BUG,看解决的最靠谱#十亿流量扶持计划 #AI #大模型
00:00 / 14:58
连播
清屏
智能
倍速
点赞
8208
卢松松日常
2周前
价格竟然便宜一半,DeepSeek旗舰版刚发布,价格比Qwen 3.6 Max便宜了一倍! #AI价格战 #DeepSeek-V4 #Qwen36MAX
00:00 / 00:51
连播
清屏
智能
倍速
点赞
63
Mr.Chen
2周前
qwen3.6 35B配置hermes大脑 就是玩,这么新的大模型怎么能不体验一下呢 #hermes爱马仕 #hermes #qwen #openclaw
00:00 / 02:08
连播
清屏
智能
倍速
点赞
39
尤李好家伙😏
2天前
#本地部署大模型 #OpenClaw #ClaudeCode qwen3. 6-35b:a3b 模型速度。#编程
00:00 / 00:53
连播
清屏
智能
倍速
点赞
31
AI技能研究社
3周前
Qwen3.6-35B-A3B部署指南 深度解析Qwen3.6-35B-A3B的MoE架构优势,涵盖SGLang、vLLM、Unsloth等多种部署方案及思维链参数配置技巧。#Qwen3635BA3B #MoE模型 #大模型部署 #SGLang #vLLM
00:00 / 03:11
连播
清屏
智能
倍速
点赞
344
杨大哥
1月前
Qwen3.6-Plus
00:00 / 00:58
连播
清屏
智能
倍速
点赞
542
kate人不错
3周前
实测 Qwen3.6-Max-Preview Qwen3.6-Max-Preview 相比 3.6 Plus 进步非常明显,速度快、流程顺,编程能力在千问系列里是目前最能打的一次;但在整体页面质感上,Opus 4.7 仍然更胜一筹。 跑分亮点:SuperGPQA 领先、Terminal-Bench 2.0 超过 GLM-5.1、SWE-bench Pro 略低于 GLM-5.1。 #Qwen #Qwen36 #Qwen36MaxPreview #千问 #claude
00:00 / 11:20
连播
清屏
智能
倍速
点赞
60
剑道尘心
2周前
Qwen3.6-35B-A3B-APEX-I-Compact 本地3060ti显卡部署qwen3.6-35b-a3b-q4模型,实测数据,14t/s context 32k 12gb显存用了10852m多,cpu 1031%,mem 23.6% 回答复杂问题think要think三分多钟😂,还是不行。参数如下: docker run -d --gpus all \ -v /home/jobsfan/Documents/codes/llama.cpp/models:/models \ -p 8080:8080 \ --name qwen36-3060-optimized \ ghcr.io/ggml-org/llama.cpp:full-cuda \ --server \ -m /models/Qwen3.6-35B-A3B-APEX-I-Compact.gguf \ --host 0.0.0.0 \ --port 8080 \ -ngl 28 \ --n-cpu-moe 12 \ -ctk q4_0 \ -ctv q4_0 \ -t 12 \ -fa on \ -c 32768 \ -b 512 \ --ubatch-size 256 \ --jinja #本地部署大模型 #llama.cpp #dflash #turboquant #kvcache
00:00 / 01:18
连播
清屏
智能
倍速
点赞
3
西湖有大葱
4周前
Qwen3.6-plus 阿里最强编程大模型 #qwen #国产大模型
00:00 / 02:00
连播
清屏
智能
倍速
点赞
13
简介:
您在查找“
qwen3.6哪个版本dflash
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-11 06:05
最新推荐:
如果你和你十几岁认识的人还是好朋友
怎么没有奇丽草出没
陈皮白术砂仁功效
三角洲如何对话拿肯小桶
牛角契约在哪里三角洲
谈个弟弟问你爱我吗很烦人力竭了
暗黑413赛季军械贡品哪里掉
段子轩还为哪些动画配过音?
韩国棒球怎么上大屏幕
和平精英玩游戏为什么要选苹果手机
相关推荐:
广悦生活超市
允许宋雨琦萌混过关怎么转发到微信
xtt是喜悦w谁的缩写
吴一泽和莫菲的第三阶段什么时候开始
为什么现在的歌曲都是拼好歌
鹿先森家寿司团购
冰墩墩是什么吉祥物
贵州话押韵歌曲
王雅濡脏腑点穴教程
我在等你喊停是什么歌
热门推荐:
豆包fairy音效设置
fc26怎么用盖世小鸡手柄玩
仓库高级藏品箱怎么卸载
飞手交流群怎么进
苹果动态壁纸只有一秒怎么设置
一不小心安装claude
claude code进阶玩法
Mo语的使用教程
ipi鼠标3955什么时候出
劳拉之星怎么安装