Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
套索工具怎么切换载具
亏损3D的模型怎么做出来
pantone7590c怎么调色
黎明之塔ai衣服制作教程
嘴巴分界线明显怎么p
属性图怎么做橹穆模板
鎏金卡牌转场机密文件怎么做
AI去烟怎么剪辑
顶级建模是什么样的
豆包把原图改成室内cdd效果指令
AI赚钱研究社
2月前
Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
00:00 / 05:26
连播
清屏
智能
倍速
点赞
890
kate人不错
2月前
Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 你会看到: - 不同量化下的显存占用与推理速度差异 - 浏览器端 WebGPU 运行 0.8B 的体验 - 视觉识别/OCR 实测表现 - 9B 与 35B-A3B 在任务稳定性与效果上的差异 - LM Studio 关闭 thinking 的实操方法 - 在 OpenCode / Cline 中做工具调用与编码测试的结果 如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 时间戳 00:00 Qwen3.5 中小模型简介 00:50 格式与部署 02:21 显存与速度实测 03:40 视觉/OCR能力对比 05:33 本地实战案例 11:00 工具调用与编码测试 #Qwen35 #本地大模型 #Ollama #LMStudio #千问
00:00 / 13:28
连播
清屏
智能
倍速
点赞
690
刘东-长乐未央
1月前
OpenClaw 安装、配置使用本地 Qwen 3.5 模型 #OpenClaw #AI #本地大模型
00:00 / 02:57
连播
清屏
智能
倍速
点赞
313
程序员寒山
2周前
小龙虾养成日记:Openclaw安装和Ollama本地模型 2B小模型能干啥?#2B小模型能 #Openclaw #Ollama #Qwen3 #小龙虾
00:00 / 05:12
连播
清屏
智能
倍速
点赞
36
子沐AIGC
1月前
告别API!5090本地部署千问QWEN3.5 27b模型 Windows+vllm+chatbox全流程#AI #OPENCLAW #本地部署 #5090
00:00 / 00:54
连播
清屏
智能
倍速
点赞
68
AI躺平养龙虾🦞
2周前
养龙虾|本地模型的选择 #养龙虾 #openclaw #MacStudio #本地模型 #qwen
00:00 / 08:36
连播
清屏
智能
倍速
点赞
326
千问大模型
9月前
教你正确打开 Qwen3-Coder 自动制定项目计划、网络搜索、素材整理、独立完成项目!Qwen3-Coder正确打开方式教会你,通通都可以实现! #Qwen #AI #通义千问 #大模型 #教程
00:00 / 01:33
连播
清屏
智能
倍速
点赞
1318
王耀鐭
1月前
本地部署Qwen3.5: vllm VS llama.cpp #大模型部署 #大模型 #学习日常
00:00 / 07:32
连播
清屏
智能
倍速
点赞
36
IT咖啡馆
2月前
深度实测Qwen3.5,原生多模态表现如何 #AI新星计划 #qwen #千问大模型 #IT咖啡馆 #大模型
00:00 / 07:52
连播
清屏
智能
倍速
点赞
2505
子龙爱分享
1月前
我量化了Qwen3.5_35B!显存速度质量全拉满+本地养虾 完犊子!我不小心把Qwen3.5_35B量化了!显存速度质量全拉满+联网技巧,OpenClaw本地轻松养虾!50系显卡的春天#openclaw #本地模型 #ai #开源 #分享
00:00 / 25:48
连播
清屏
智能
倍速
点赞
134
大曼哒
1月前
本地部署智能体:Qwen3.5 + Claude Code 本视频将演示如何使用 Llama.cpp 和 Claude Code 在本地安装 Qwen3.5 4B 模型 #claude #ai编程 #千问qwen #ai #智能体
00:00 / 06:07
连播
清屏
智能
倍速
点赞
406
Igor Udot 吴一格
9月前
千问3免费api怎么用教程 openrouter 有很多模型,有些免费的例如千问,我们看看怎么用起来 #千问 #qwen #qwen3 #ai #大模型
00:00 / 02:32
连播
清屏
智能
倍速
点赞
423
一蛙AI
1月前
Qwen3.5上用Claude最新工具调用方法 如果你的 AI Agent 可以通过“按需搜索工具”并编写代码来编排数十个工具调用,而不是让大语言模型(LLM)逐一处理,从而大幅降低 Token 消耗,会怎样? 在这段视频中,我们将 Anthropic 工程博客中提到的两种高级工具调用模式,实现在我们自定义的 Python 和 React AI Agent 中:即工具搜索工具(Tool Search Tool)以及通过代码执行沙箱实现的程序化工具调用。 这些并非 Claude 的专属功能。它们是通用的 Agent 设计模式,你可以将其应用于任何模型或框架。 我们对这两种方法进行了侧重对比,将传统的工具调用与程序化执行进行衡量,并在 Claude Haiku 和运行在 RTX 5090 本地环境下的全新 Qwen 3.5 27B 上运行了相同的任务。 #大模型 #Qwen #aiagent #openclaw
00:00 / 19:02
连播
清屏
智能
倍速
点赞
104
AI 博士嗨嗨
1年前
人人都能玩! Qwen3最强开源模型保姆级本地部署教程 #qwen3 #ollama #本地部署 #cherrystudio #AI模型
00:00 / 08:09
连播
清屏
智能
倍速
点赞
659
Et-beta
2周前
三台MBP跑400亿大模型! 博主搞了三台 M5 MacBook Pro 组集群,用雷雳 5 线把它们串起来跑大模型推理,这操作属实硬核 💪 先用 Qwen 3 4B 小模型验证集群可用性,双节点比单节点提速 22%;然后上 Qwen 3.5 122B,双节点达到每秒 73 token;再挑战 122GB 的 8 位量化版,单机根本装不下,双节点直接跑到每秒 51 token——集群从"锦上添花"变成了"唯一选择" 🔥 接着又用 EXO 搞流水线并行,三台机器 384GB 内存池,硬是把 323GB 的 Qwen 3.5 397B 跑了起来,每秒 28 token,完全可以拿来写代码。最后还和 M3 Ultra Mac Studio 集群正面 PK,M5 笔记本快了 29%。博主说了,虽然干不过 H100,但比微波炉省电还能塞背包里 😂来自:Alex Ziskind#M5MBP #苹果芯片 #大模型推理 #MLX分布式 #人间观察计划
00:00 / 13:46
连播
清屏
智能
倍速
点赞
176
数字宅民MuteZ
2周前
最新qwen3.5 27b 蒸馏版v3.5#openclaw #千问 #大模型 #本地部署 #小龙虾
00:00 / 01:18
连播
清屏
智能
倍速
点赞
844
狗头-泠歌
1月前
DGX Spark 部署 Qwen3.5 模型 本期视频详细介绍了如何使用 Sglang 在 DGX Spark 上部署 Qwen3.5-122B-A10B 四位量化版 简介文字限制没办法放下所有东西,所有的命令和网址,可以私信找我
00:00 / 12:13
连播
清屏
智能
倍速
点赞
68
Ai 学习的老章
1月前
Claude Opus蒸馏Qwen3.5 V3来了 9B的蒸馏模型,工具调用测试居然打了满分。大家好,我是AI学习的老章。Claude Opus蒸馏Qwen3.5这条线,我从v1追到现在。今天v3来了,这次改动大到连名字都换了,叫Qwopus3.5,Qwen加Opus的合体。v1是让小模型学会推理,v2是让它想得更少答得更快,v3的核心是让它学会用工具干活。从会思考,到会行动,这是一个质变。先看数据。9B的GGUF版本下载量10.9k,断崖式领先。说明什么?大家心里清楚,9B就是甜蜜点。16GB的MacBook就能跑,Windows上普通显卡也没压力。再看跑分。HumanEval,v3拿了87.8%,比原版Qwen3.5的9B高了将近5个百分点。v2在9B上其实没啥提升,v3一下子拉开了差距。MMLU-Pro,通用知识能力,v2掉了7.2%,当时我说这是代价。v3把这个问题修了,反超原版1.43个百分点。代码更准,知识也没丢,这在蒸馏模型里非常少见。效率方面,思维链缩短25%,推理效率提升31.7%,用更少的Token办更多的事。最让我兴奋的是工具调用。v3专门做了针对工具调用的强化学习训练。我用ToolCall-15跑了一遍,15道题全部通过,满分。之前v2的27B才做到这个成绩,现在9B就行了。我的判断,这是这个系列真正成熟的一代。想本地跑一个能写代码、能调工具、还不吃资源的模型,Qwopus3.5-9B-v3目前最值得试。关注老章,我们下期见。
00:00 / 01:53
连播
清屏
智能
倍速
点赞
748
l l l
3周前
OpenClaw 接入本地 Ollama 运行的大模型 #openclaw #Ollama #Qwen3 #飞书
00:00 / 08:49
连播
清屏
智能
倍速
点赞
13
神烦老狗
4周前
一个视频学会部署无审查大模型 |VMLX + Ollama保姆级教程#ai新星计划#Google#qwen#gemma4#本地部署
00:00 / 07:26
连播
清屏
智能
倍速
点赞
853
跟着小坛学AI
11月前
10分钟手把手教会你微调Qwen3大模型,超详细教程,草履虫都能学会!!#创作者中心 #创作灵感 #大模型 #AI #程序员
00:00 / 13:40
连播
清屏
智能
倍速
点赞
63
刚哥不刚
3周前
第 529 集 m5max 128g 的 MacBook Pro 本地跑 qwen3.5 122b 4bit 量化版本,token 速度可以跑到 50 左右,这个速度我很满意,接下来可以很多东西都不依靠于云端模型,大部分的工作本地都能完成,自动语音识别,自动生成语音,本地知识库,本地翻译等等等等。为做内容跨境,ai 客服,ai 拆单训练来做各种测试。#本地大模型 #Qwen #本地知识库 #刚哥不刚 #语音识别
00:00 / 01:23
连播
清屏
智能
倍速
点赞
70
豆芽AI笔记本
3周前
告别敲键盘!边画边说的VibeCoding太上头了 #通义实验室 #千问大模型 #qwen #qwen35omni #AI工具
00:00 / 02:05
连播
清屏
智能
倍速
点赞
48
AI技能教学网
1月前
Qwen3.5蒸馏版本地部署教程 解析Qwopus核心优势:专注代码与硬逻辑,支持3090及Mac本地部署,拒绝废话干活快。#Qwen35 #大模型 #本地部署 #ClaudeCode #人工智能
00:00 / 03:31
连播
清屏
智能
倍速
点赞
366
蔡不菜Caitlyn
2周前
0文字,手绘草图直接vibe coding出网页😯 #通义实验室 #千问大模型 #qwen #qwen35omni #vibecoding
00:00 / 02:25
连播
清屏
智能
倍速
点赞
145
耍耍Al
1周前
本地Qwen3.5能取代线上模型吗-2/4#编程Agent #本地化 #Qwen3.5
00:00 / 02:03
连播
清屏
智能
倍速
点赞
4
ai景行小博士
2周前
Qwen3.6_35B模型部署设置全流程,冲80词元/s #热点 #本地部署 #Qwen35B #全流程 #词元
00:00 / 04:04
连播
清屏
智能
倍速
点赞
583
尤里好家伙😏
2周前
#qwen3.5 #本地部署大模型 #1080ti显卡跑模型怎么样? #双卡跑模型速度实测 #养openclaw小龙虾
00:00 / 01:02
连播
清屏
智能
倍速
点赞
4
寒于水Cother
3周前
本地模型对比(上部分) Qwen3.5 9b vs Gemma4 31b 个人使用场景体验 #ollama #qwen #gemma4 #claude
00:00 / 36:45
连播
清屏
智能
倍速
点赞
25
小天fotos
2月前
Qwen3.5-27B太好玩,不小心养了一窝龙虾 #ai新星计划 #抖音年味新知贺岁 #openclaw #qwen #4090魔改
00:00 / 08:29
连播
清屏
智能
倍速
点赞
NaN
Enine 亿玖
3周前
天花板级别的8卡RTX 5090 32G服务器,Qwen / Qwen3.5模型与企业级OpenClaw本地部署#5090显卡 #diy装机 #组装服务器 #模型训练 #本地部署
00:00 / 00:41
连播
清屏
智能
倍速
点赞
385
耍耍Al
1周前
本地Qwen3.5能取代线上模型吗-4/4#编程Agent #本地化 #Qwen3.5
00:00 / 02:11
连播
清屏
智能
倍速
点赞
5
尤里好家伙😏
1周前
#qwen3.5:35b a3b 模型速度怎么样?双卡1080ti继续发挥余热,很强!#openclaw
00:00 / 01:08
连播
清屏
智能
倍速
点赞
7
隆哒隆
1年前
qwen 3.0下载教程 #qwen3模型下载方法 #Qwen3 #人工智能 通义千问3下载教程
00:00 / 00:31
连播
清屏
智能
倍速
点赞
22
耍耍Al
1周前
本地Qwen3.5能取代线上模型吗-3/4#编程Agent #本地化 #Qwen3.5
00:00 / 02:05
连播
清屏
智能
倍速
点赞
1
小溪水
1年前
最强快远模型Qwen3的使用教程来啦! Qwen3保姆级使用教程#人工智能 #Qwen3 #MCP
00:00 / 05:40
连播
清屏
智能
倍速
点赞
87
爱玩的极客
1周前
千问3.6本地运行,这个是真生产力#AI #QWEN #QWEN3.6 #蒸馏
00:00 / 01:13
连播
清屏
智能
倍速
点赞
23
光屿拾梦
2周前
ltx2.3多图参考生成视频多图一致性qwen3.5文本反推 ltx2.3多图参考生成视频多图一致性,qwen3.5文本反推提示词生成,视频丝滑转场,物理逻辑优化,#AI #ai动画 #comfyui #人间观察计划
00:00 / 03:27
连播
清屏
智能
倍速
点赞
17
懂AI的引路哥
1月前
本地Qwen3.5 9B接OpenClaw #Qwen3.5 9B #OpenClaw #模型调优 #本地部署 #bug修复
00:00 / 01:30
连播
清屏
智能
倍速
点赞
45
Ai 学习的老章
2周前
Qwen3.6-35B 量化版 vLLM 实测 Qwen3.6 35B 的 AWQ 4bit 量化版,模型文件 20 来个 G,对比原始的 70 多 G,可玩性高多了,4090 24G 跑起来很轻松。 部署用 vLLM,我选了 0.17 版本。官方建议 0.19 起步,但我发现 0.17 完全可以拉起来,稳定跑着呢。 启动脚本用 Docker,两张 GPU,tensor parallel size 2,最大上下文 10 万 2,关闭思考模式,启用前缀缓存。 100K 上下文下,显存占用控制得很好,不会撑爆。 关闭思考之后的性能测试,单并发能到 148 Token 每秒,内网跑业务完全够用。 对比 Qwen3.5 35B,性能差距真的微乎其微,基本可以认为持平。 我还做了个编程对比,让两个模型分别写烟花动画。 3.5 写了 477 行,全是 CSS 动画,代码长但前后不一致,刷新页面才能看到效果。 3.6 写了 256 行,思路更清晰,用 Canvas 模拟物理重力,但画面位置判断有偏差,几乎是黑屏。 初版都有 bug,半斤八两,指出问题重新生成各自都能改好。 最后跑了一下生成速度,150 Token 每秒上下,很赏心悦目。 综合来看,Qwen3.6 35B 量化版,vLLM 本地部署,性能稳、速度快,工程上没什么坑,值得搞起来。
00:00 / 01:38
连播
清屏
智能
倍速
点赞
115
李岚9256
1周前
#真实生活分享计划 在高铁出差途中用Claude Code结合LM Studio工具,采用Qwopus3.5-9B-v3-GGUF大模型完成工作任务。总有场景是需要本地大模型的。#macbook #Claudecode#qwen #大模型
00:00 / 01:29
连播
清屏
智能
倍速
点赞
70
添柴Ai
2周前
QWEN3.5反推之王本地部署 !comfyui训练打标新王 QWEN3.5本地部署 杜绝破坏Comfyui环境 支持各种环境! #comfyui #教程 #模型训练 #打标 #QWEN35
00:00 / 06:37
连播
清屏
智能
倍速
点赞
2
Token就是词元
6天前
屎山测试:模型大乱斗解决实际BUG DeepSeekV4,GPT5.5,MiMo2.5,GLM5.1,Kimi2.6,Qwen3.6大乱斗,解决实际项目中遇到的一个BUG,看解决的最靠谱#十亿流量扶持计划 #AI #大模型
00:00 / 14:58
连播
清屏
智能
倍速
点赞
6505
小天fotos
2月前
测完Qwen3.5,我哭了,期待了好久的场景终于实现了 #ai新星计划 #抖音年味新知贺岁 #qwen35 #qwen3 #AI教育
00:00 / 06:14
连播
清屏
智能
倍速
点赞
2820
实验式
2周前
开源模型视觉能力测试:Qwen3.5 vs Kimi2.5 #qwen #kimi #视觉能力 #千问
00:00 / 17:37
连播
清屏
智能
倍速
点赞
15
海洋AI笔记
3周前
Qwen3.5开源暴击,免费商用+201种语言#Qwen35 #AI
00:00 / 01:24
连播
清屏
智能
倍速
点赞
9506
天工开帧
4周前
llama.cpp才是本地 OpenClaw 的终极形态 本地运行 256K 上下文真的会“崩”吗? 我们对 Qwen3.5、Gemma-4、Qwopus 等多款模型进行了全维度测速。 工具优势:深度解析 llama.cpp 相比 Ollama 在显存层级控制和 Flash Attention 开启上的核心优势。 OpenClaw 进阶:如何通过中间件将本地 API 映射为标准的 OpenAI 接口,实现跨设备无缝握手。#openclaw #gemma4 #本地大模型 #养虾人
00:00 / 02:41
连播
清屏
智能
倍速
点赞
747
人类一败涂地
1周前
本地部署ai大模型+openclaw+向量数据库 #openclaw #本地ai 模型 #nvidia #qwen35 #向量数据库
00:00 / 02:54
连播
清屏
智能
倍速
点赞
2224
爱开车的程序猿
1周前
我训了 1 周本地 Qwen,架构循环救活了吗? 第三集留了个钩子:硬塞架构循环必崩,那如果训呢?这一集用一周时间给出答案。 实验设置:M4 Pro 64GB · Qwen 3.5-9B 4-bit · 冻结主干 · 中间 8 层挂 LoRA · 20K 数学样本 · 2 epoch · GSM8K 30 题评估。 四个深度依次跑: · Loop×1(depth 32 · 纯 LoRA)→ 83.3% · Loop×2(depth 40 · PEAK)→ 90.0%,超过 CoT 长思考的 86.7% · Loop×4(depth 56)→ 80.0%,反而退步 · Loop×8(depth 88)→ 训到 iter 250 直接 NaN,eval 抢救出 23.3% 倒 U 形给出双重洞察: ① 存在最优深度。多加 8 层就是甜蜜点,再多变成训练负担 ② 训练算力有边界。Depth 88 不是练得不够,是数值结构本身撑不住,必须用 OpenMythos 的 LTI 谱半径约束 完整训练journey:撞墙四次、阈值从 1GB 一路降到清缓存每步、grad_accum 从 16 砍到 1、断点续跑机制全部从零搭起。视频里都有。 #Qwen #LoRA #本地AI #MLX
00:00 / 02:16
连播
清屏
智能
倍速
点赞
44
/菘蓝
2周前
Qwen3.5全模态模型 #Qwen #AI #全模态 #多模态 #口播知识分享
00:00 / 00:34
连播
清屏
智能
倍速
点赞
18
Ai 学习的老章
2周前
大模型世界缝合怪,两个9B拼成18B,吊打Qwen3.6 这次拼的两个模型都基于Qwen3.5-9B,但方向完全不同。前半部分用Claude Opus蒸馏,擅长代码生成和工具调用。后半部分用GLM-5.1蒸馏,擅长结构化推理和任务分解。两套推理引擎,形成互补 直接拼当然有问题,代码输出全是乱的,HTML标签不闭合,括号各种丢。作者用1000步QLoRA做了一次缝合修复,RTX 5090上跑了14小时,Loss降了39%,代码能力直接恢复 结果非常炸裂。9.2GB的量化模型,44项测试拿了40分,通过率90.9%。而22GB的Qwen 3.6-35B只有38分。工具调用满分,Agent推理满分,前端代码生成98.4%通过率。关键是,12GB显存的消费级显卡就能跑 我觉得这个实验最牛的发现是,推理能力可能比我们想象中更模块化。两种完全不同的推理范式堆在一起,居然能协同工作,1000步就能修好层边界。这给未来按需拼装模型打开了巨大的想象空间 当然,评测用的是自建套件,还需要标准benchmark来验证。但9.2GB打赢22GB这件事本身,对显存有限的开发者来说,真的是个好消息
00:00 / 01:51
连播
清屏
智能
倍速
点赞
653
Ai 学习的老章
3周前
一个更神奇的Qwen3.5-27B版本,推理速度暴涨5倍 今天介绍一个让我非常兴奋的项目,叫 DFlash,来自 UCSD 的 z-lab 团队。它能让 Qwen3.5-27B 的推理速度暴涨到原来的5倍,关键是——生成质量完全不打折 先说原理。大模型生成文字,是一个 token 一个 token 往外蹦的,串行瓶颈在那摆着。之前业界用推测解码来加速,先用小模型猜一串 token,再让大模型验证。但之前最强的方案 EAGLE-3,加速比也就2到3倍 DFlash 把"猜"的过程,从自回归换成了扩散模型。一次前向传播,直接并行生成一整个 block 的 token。不管你猜8个还是16个,都是一次搞定。这就是它快的核心原因 更精妙的是,DFlash 会从大模型的隐藏层抽特征,注入到小模型的每一层。这样小模型猜得特别准,HumanEval 上平均每轮能猜中9个 token 实测数据很能说明问题。在 HumanEval 上,单并发直接5.2倍加速。Math500 上4.7倍。哪怕高并发场景下,也能维持1.5到1.9倍。而且 drafter 模型只有2B 参数,加载几乎不占额外显存 最关键的是,已经适配了 vLLM、SGLang 和 Transformers 三大框架。生产环境直接能用 我的判断是,如果你在用 Qwen3.5-27B 做推理服务,DFlash 几乎是个无脑加分项。多加载一个 2B 的小模型,吞吐量翻好几倍,简直是免费的午餐
00:00 / 01:50
连播
清屏
智能
倍速
点赞
490
企业服务器-妮子
1周前
8卡RTX 5090+3TB内存!这台AI服务器直接把Qwen3.5模型性能拉满!#AI服务器 #5090显卡 #模型训练
00:00 / 00:39
连播
清屏
智能
倍速
点赞
95
潦草小狗
6天前
#AI学习 #大模型微调 #qwen #程序员日常
00:00 / 02:14
连播
清屏
智能
倍速
点赞
282
声译看世界
2周前
Qwen3 6对决Gemma4 本地AI 深度测试Qwen3 6 35B与Gemma4 31B等多款开源大模型 在3090 4090 5060Ti等不同GPU配置下的本地运行表现 涵盖推理速度 量化等级
00:00 / 31:43
连播
清屏
智能
倍速
点赞
40
橘橘橙AI
1周前
Qwen3.6-27B 实测:本地模型已经能替代前端开发? Qwen3.6-27B 本地实测:飞机大战、电商页、音乐播放器,一次生成完整前端项目。本地模型进入生产力时代。 #qwen #千问 #大模型
00:00 / 07:15
连播
清屏
智能
倍速
点赞
170
Ai 学习的老章
1周前
Qwopus3.6-27B 本地部署,24G 显卡轻松跑 Qwen 加 Opus,缝合怪又来了,这次是 27B 本地版。大家好,我是AI学习的老章。今天聊一个有意思的开源模型,Qwopus3.6-27B-v1-preview,作者 Jackrong。光看名字你就懂了,Qwen 加 Opus,意思是拿 Claude Opus 的蒸馏数据,去调教 Qwen3.6-27B。底座是阿里的 Qwen3.6-27B 稠密模型,原生 262K 上下文,能扩到 1M。训练用的 Unsloth,数据是 Claude 蒸馏数据集打底,混入 GLM-5.1、Kimi-K2.5、Qwen3.5 的推理数据。最关键的一步在这,作者用一个 8B 模型当过滤器,把风格跑偏的样本剔掉,最后只留 12K 条调性统一的高质量数据。这思路特别反直觉,别人都是越多越好,他在做减法。我觉得这个项目最值得琢磨的就是这个点,吃什么长什么样,数据干净,比数据多重要得多。早期评测合作者用 16 条 prompt,单卡 5090 跑 GGUF 量化版,覆盖 Agentic 推理、前端设计、创意 Canvas 三类场景,对比的是 Qwen3.6-27B 原版。但说实话,16 条样本,作者自己都说是 early signal,谁也别当定论。GGUF 仓库已经放出来,量化档位很全,IQ4_XS 是 15.2 G,单张 24G 显卡就能跑,4090、5090、3090 都行。Q2_K 是 10.7 G,16G 显卡能塞但损失不小。直接用 llama.cpp 或者 Ollama 拉起来就行。我的看法是,值得关注,但别神化。它是 preview 版,作者自己都说在探路。但这个思路把 Claude 风格用工程手段迁移到可本地部署的 27B 模型上,加上 Apache-2.0 协议商用友好,给国产开源生态加了一个有 Claude 味儿的选择,这个角度挺难得。手上有 4090、5090 的玩家可以尝个鲜,正式版出来我再拉出来实测一波
00:00 / 02:13
连播
清屏
智能
倍速
点赞
189
Ai 学习的老章
1月前
神操作再现,单卡3090 起跑!Claude-Opus蒸馏Qwen3.5-27B #大模型#蒸馏 #程序员
00:00 / 01:46
连播
清屏
智能
倍速
点赞
1023
沪上码仔AI
2月前
#qwen3.5 #LLM #开源大模型 #mac #本地部署 在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
00:00 / 02:11
连播
清屏
智能
倍速
点赞
440
森哥@AI产品创业者
2月前
千问3.5的视觉理解秒杀传统自动化方案! #qwen35 #千问大模型 #Qwen大模型 #Qwen3大模型 #打工人的春节闲聊
00:00 / 02:32
连播
清屏
智能
倍速
点赞
20
程序员御风
2月前
Qwen3.5 实测:会写代码,能读视频 原生多模态到底强在哪? #AI #Qwen #千问大模型 #人工智能 #开源
00:00 / 06:07
连播
清屏
智能
倍速
点赞
242
赛脖古
1月前
阿里模型三连发震撼来袭 刚发布的Qwen3.5-Omni,215项评测全面超越Gemini-3.1 Pro。能直接看完整条视频,视频理解能力爆表 #Qwen #千问 #AI视频理解 #跨境电商 #爆款拆解
00:00 / 02:27
连播
清屏
智能
倍速
点赞
5199
简介:
您在查找“
qwen3.5草稿模型使用教程
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-05 20:10
最新推荐:
陈泽为啥不和娃娃玩了
可以在中国打铁花
鸭吉吉领地试炼怎么打满练度
无尽关卡陈塘关元素连击怎么点
比较甜的歌无歌词复古
鸭吉吉领地试炼能联机吗
只有龙卷风怎么获得猎豹拦截车
虾头不是重金属吗怎么熬汤
我聊天的情商belike可以可以
不敢想象咱俩在一起要吃胖多少斤。
相关推荐:
我从小到大所受到的教育下一句是什么
微信防封功能开关
异环18级大亨攻略
在微信怎么搜到四代的表情包
定制券怎么删除
西藏昌都93岁老奶奶
人洗澡大作战的玩法
陈塘关第4卡怎么过
奥克斯吸尘器吸猫毛
我本是高山用的演员是素人吗?
热门推荐:
充气城堡的AI怎么让豆瓣生成
锦轩设计稿在哪里用
黎明之塔ai衣服制作教程
随变ai电击制作教程
国外水果ai
美图秀秀最好看的模板
红底寸照要求
地垄沟ai水印怎么去除
星空图ai指令版权限制弄不了怎么办
色块拼接叫什么风