Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
双路X99怎么解坐标加密
opencli是什么
openclaw沙箱限制解除步骤
相亲算法1776数值含义
小龙虾agent怎么一直运行
结束循环用什么语句
oii怎么调用seedance2
CYW为什么卡密显示不存在
如何才能用核桃编程做苏西的餐厅
异色中断还会出吗
AI赚钱研究社
1月前
Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
00:00 / 05:26
连播
清屏
智能
倍速
点赞
858
Enine 亿玖
1月前
满足千人并发的本地模型部署机器人视觉研发服务器 #本地部署 #深度学习 #组装服务器 #机器学习 #diy装机
00:00 / 00:49
连播
清屏
智能
倍速
点赞
592
AI技能教学网
1周前
Qwen3.5蒸馏版本地部署教程 解析Qwopus核心优势:专注代码与硬逻辑,支持3090及Mac本地部署,拒绝废话干活快。#Qwen35 #大模型 #本地部署 #ClaudeCode #人工智能
00:00 / 03:31
连播
清屏
智能
倍速
点赞
274
懂AI的引路哥
1周前
本地Qwen3.5 9B接OpenClaw #Qwen3.5 9B #OpenClaw #模型调优 #本地部署 #bug修复
00:00 / 01:30
连播
清屏
智能
倍速
点赞
18
刘东-长乐未央
2周前
OpenClaw 安装、配置使用本地 Qwen 3.5 模型 #OpenClaw #AI #本地大模型
00:00 / 02:57
连播
清屏
智能
倍速
点赞
208
Ai 学习的老章
3周前
神操作再现,单卡3090 起跑!Claude-Opus蒸馏Qwen3.5-27B #大模型#蒸馏 #程序员
00:00 / 01:46
连播
清屏
智能
倍速
点赞
879
yx1n
1周前
日常基础能力测试 Qwen3.5-9B-Claude-4.6 蒸馏版模型 #Ai #OpenClaw #大模型 #编程 #计算机 本地部署
00:00 / 05:08
连播
清屏
智能
倍速
点赞
94
大海资源
1周前
OpenClaw一键直达,10分钟完成本地龙虾部署! #openclaw #vmware虚拟机 #ollama #本地大模型 #qwen3
00:00 / 13:51
连播
清屏
智能
倍速
点赞
25
轻算力AI实验室
2周前
16g显存32G内存流畅运行龙虾+35B稀疏大模型 #OPENCLAW #QWEN35 #本地部署 #5060TI本地部署 #16G显卡本地部署
00:00 / 02:30
连播
清屏
智能
倍速
点赞
534
薛定谔的叨叨
3周前
阿里千问qwen3.5-35B-A3B大模型本地部署体验,实现养龙虾模型自由#大模型 #本地大模型 #部署大模型
00:00 / 06:47
连播
清屏
智能
倍速
点赞
95
周伯仲
2周前
OpenClaw小龙虾,最佳本地部署,LMstudio微调设置,不要用ollama,显卡24g显存,蒸馏的qwen3.5:27B,270亿稠密模型,多模态支持,自己做文件,改文档表格,自己汇总任务并修改代码,还能做带ai对手的小程序,速度快,出错少,不重复叨叨,效果和超能模式豆包差不多,真顶。 Token自由,电费不高,但智商吊锤9B以及moe的35b,让ai可以从0-1的跃进#电脑硬件 #OpenClaw #电脑技巧
00:00 / 00:48
连播
清屏
智能
倍速
点赞
333
步六孤道
2天前
[飞升智算]虚拟显存的推测解码 本地部署Qwen3.5-397B-FP8 画个鱼缸: Make an html animation of fishes in an aquarium. The aquarium is pretty, the fishes vary in colors and sizes and swim realistically. You can left click to place a piece of fish food in aquarium. Each fish chases a food piece closest to it, trying to eat it. Once there are no more food pieces, fishes resume swimming as usual.
00:00 / 01:56
连播
清屏
智能
倍速
点赞
0
沪上码仔AI
1月前
#qwen3.5 #LLM #开源大模型 #mac #本地部署 在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
00:00 / 02:11
连播
清屏
智能
倍速
点赞
418
芦苇草server
2周前
4090 96G显存Qwen3.5-35B实时视频语言测试 #SGLANG框架 #本地模型部署# Live-VLM-WebUI #多模态大模型 #视觉语言测试
00:00 / 01:48
连播
清屏
智能
倍速
点赞
18
子沐AIGC
1天前
本地部署Qwen3.5速度飞快#openclaw #养龙虾 #AI
00:00 / 00:33
连播
清屏
智能
倍速
点赞
244
画伞
3天前
大模型本地部署 从理解概念到实现 总共不超过3小时 #本地部署 #Qwen #codex
00:00 / 04:47
连播
清屏
智能
倍速
点赞
125
AI 博士嗨嗨
11月前
人人都能玩! Qwen3最强开源模型保姆级本地部署教程 #qwen3 #ollama #本地部署 #cherrystudio #AI模型
00:00 / 08:09
连播
清屏
智能
倍速
点赞
642
badgehu
4周前
本地部署openclaw也是养上龙虾了 调用本地qwen3.5 9b模型,又省下token了#openclaw #ollama #AI
00:00 / 00:39
连播
清屏
智能
倍速
点赞
6
遇见AI
2周前
ClaudeCode+Ollama本地部署 当热门流行AI工具遇上以9B参数碾压gpt-oss-120b的Qwen3.5,这绝对是极具性价比的组合。Claude 系列模型确实强大,但高额的定价对新手和普通玩家太不友好。Claudecode + Qwen3.5这套组合其实已经能满足80%的场景,完全本地运行,不产生Token费用,容错率极高,非常适合新手学习和普通玩家日常使用,AI时代已经来了,你还在等什么呢?#claude #qwen #ollama #AI工具 #AI编程
00:00 / 02:36
连播
清屏
智能
倍速
点赞
124
lukeewin
2周前
本地服务器部署AI大模型 | 本地化部署Qwen3.5-4B大模型 | 人工智能 | 生成式AI | 多模态AI大模型本地化部署 #大模型本地化部署 #大模型 #ai #Qwen3.5 #多模态大模型
00:00 / 02:08
连播
清屏
智能
倍速
点赞
9
AI技能教学网
1周前
低成本部署Qwen3.5教程:企业级API高并发方案 详解T10/2080Ti显卡选型、Ubuntu环境搭建及Qwen3.5量化部署全流程,实现企业级API并发。#本地大模型部署 #Qwen35 #龙虾 #Qwen3527B #私有化部署
00:00 / 03:13
连播
清屏
智能
倍速
点赞
80
lukeewin
2周前
终于本地跑起来了大模型 | 本地化部署Qwen3.5大模型 | 本地部署多模态大模型 #多模态大模型 #大模型 #ai #人工智能 #Qwen3.5
00:00 / 03:00
连播
清屏
智能
倍速
点赞
9
杨大哥
2周前
千问3.5本地部署避坑指南
00:00 / 01:45
连播
清屏
智能
倍速
点赞
510
子龙爱分享
2周前
我量化了Qwen3.5_35B!显存速度质量全拉满+本地养虾 完犊子!我不小心把Qwen3.5_35B量化了!显存速度质量全拉满+联网技巧,OpenClaw本地轻松养虾!50系显卡的春天#openclaw #本地模型 #ai #开源 #分享
00:00 / 25:48
连播
清屏
智能
倍速
点赞
101
小工蚁
1周前
OpenClaw运行独立部署模型推荐 Qwen3.5-27B #小工蚁 #openclaw #开源大模型
00:00 / 00:37
连播
清屏
智能
倍速
点赞
436
程序员寒山
11月前
Qwen3小参数模型对比实测:真香还是鸡肋?本地部署如何选择 本期视频主要给大家演示本地部署大模的对比测试,实测Qwen3 小参数模型的过程,包括与DeepSeek r1 8b和在线版本的对比,包括大家如何选择自己的本地模型。更多往期视频内容可以到主页列表下查看(程序员寒山:CxyHanShan),欢迎大家留言关注讨论。#qwen3 #ollama #本地部署 #模型实测
00:00 / 06:59
连播
清屏
智能
倍速
点赞
212
九姨小课堂
2月前
全网最牛TTS!零成本克隆专属音色+多音色对话克隆 全网最牛TTS!Qwen3本地一键启动:零成本克隆专属音色+多音色对话克隆,仅4G显存就能跑出真人质感,自媒体自动化必备! #Qwen3 #TTS #声音克隆 #语音合成 #人工智能
00:00 / 10:12
连播
清屏
智能
倍速
点赞
276
神烦老狗
2天前
一个视频学会部署无审查大模型 |VMLX + Ollama保姆级教程#ai新星计划#Google#qwen#gemma4#本地部署
00:00 / 07:26
连播
清屏
智能
倍速
点赞
351
轻算力AI实验室
1周前
16G显存如何跑QWEN3.5-35BA3B模型,速度很快 速度很快,还有剩余6G空闲显存 #QWEN3535BA3B #大模型硬件要求 #5060TI本地部署大模型
00:00 / 01:33
连播
清屏
智能
倍速
点赞
66
薛饿喵的腚
1周前
#qwen3.5 #手机本地部署大模型
00:00 / 03:22
连播
清屏
智能
倍速
点赞
17
AI Oasis
3周前
保姆级!windows本地部署大龙虾 #openclaw #龙虾 #本地部署 #windows #qwen
00:00 / 08:37
连播
清屏
智能
倍速
点赞
988
博哥讲Al
11月前
最强开源模型千问3!一分钟教会本地部署! #阿里云 #通义千问 #Qwen3 #博哥讲AI
00:00 / 01:16
连播
清屏
智能
倍速
点赞
51
Ai 学习的老章
2周前
单4090 本地实测 Claude 蒸馏版 Qwen3.5 我这次实测的是 Qwen3.5 27B 的一个高质量优化版本,用 llama.cpp 在 24GB 显存的 4090 上直接跑。结论先说: 第一,显存压力比我预想的小很多。单卡就能启动,而且 64K 上下文可以稳定开。这个上下文长度,比 GLM 4.7 Flash 高出不少,对个人使用已经很够了。 第二,速度确实不错,平均大概 46 token 每秒,日常对话、文档总结、代码理解,响应都很快。 第三,效果属于中等偏上。核心任务能完成,尤其是阅读理解、SVG 代码生成这类任务,表现已经挺优秀了。 缺点是并发能力相对一般,我后面调了一些更高性能参数,提升不算特别明显。
00:00 / 01:06
连播
清屏
智能
倍速
点赞
27
AI Oasis
3周前
大龙虾连接本地模型,你就说香不香! #openclaw #龙虾 #windows #ollama #qwen
00:00 / 07:01
连播
清屏
智能
倍速
点赞
1047
子龙爱分享
1周前
OpenClaw免费养虾爽到飞起,Qwen3.5速度翻倍 ✅ 零成本通用提速方案,不用复杂量化,小白也能轻松上手 ✅ 详细参数设置步骤,一步步跟着操作,直接让模型速度翻倍 ✅ OpenClaw 本地部署教程,免费畅玩大模型,隐私安全有保障 ⚠️ 重要声明 本视频内容仅为人工智能技术学习与研究交流,仅限个人本地测试使用。 严禁用于任何违法违规、商业盈利及未获授权的传播场景。 所有操作需遵守相关法律法规及开源协议,违规使用产生的一切责任由使用者自行承担。#Qwen3.5, #大模型提速,# 本地大模型,#OpenClaw, #AI 养虾,# 大模型部署,#AI 教程,# 本地 AI, #Qwen3.5, #LLMSpeedUp, #LocalLLM, #OpenClaw, #AIForFree, #LLMDeployment, #AITutorial, #LocalAI,
00:00 / 08:25
连播
清屏
智能
倍速
点赞
30
零壹日记
1周前
本地部署Ai大模型详细教程,小白也能轻松搞定!#Ai #大模型 #本地部署 #电脑知识 #教程
00:00 / 06:14
连播
清屏
智能
倍速
点赞
141
AI技能研究社
4周前
oMLX 框架部署Qwen3.5 实测oMLX让Qwen3.5生成速度提升4.14倍,解决长上下文响应慢与智能体解析报错难题。#oMLX #Qwen35 #Mac #本地大模型 #AI智能体
00:00 / 01:59
连播
清屏
智能
倍速
点赞
692
抓耳挠腮
2周前
本地部新模型千问3.5 Qwen3.5-Claude-4.6-Opus-abliterated#我的专业 #程序猿日常
00:00 / 00:27
连播
清屏
智能
倍速
点赞
1739
T1实验室
2月前
本地部署ollama+qwen3-vl模型,快速识别发票台账数据#qwen3-vl识别门诊住院发票台账
00:00 / 01:55
连播
清屏
智能
倍速
点赞
170
小宇玩AI
1周前
本地部署claude code,运行本地模型和云端模型对比? 在本地部署的claude code中进行测试本地模型qwen3.5和5.4的模型,差距很大,当然两个模型不是一个量级,但是展现的效果确实是要比没使用这个层壳,直接运行的情况下强一点。#ai #claude #claudecode #qwen #codex
00:00 / 02:45
连播
清屏
智能
倍速
点赞
58
第四种黑猩猩
1周前
哪个本地部署模型适合跑agent?#人工智能 #大模型 #智能体 #本地部署
00:00 / 03:14
连播
清屏
智能
倍速
点赞
3809
Igor Udot 吴一格
8月前
千问3免费api怎么用教程 openrouter 有很多模型,有些免费的例如千问,我们看看怎么用起来 #千问 #qwen #qwen3 #ai #大模型
00:00 / 02:32
连播
清屏
智能
倍速
点赞
382
是Skye学姐呀
8月前
5分钟学会本地部署Deepseek R1模型 #每天跟我涨知识 #deepseek本地部署 #deepseek #办公软件技巧 #知识分享
00:00 / 03:49
连播
清屏
智能
倍速
点赞
7602
大曼哒
3周前
本地部署智能体:Qwen3.5 + Claude Code 本视频将演示如何使用 Llama.cpp 和 Claude Code 在本地安装 Qwen3.5 4B 模型 #claude #ai编程 #千问qwen #ai #智能体
00:00 / 06:07
连播
清屏
智能
倍速
点赞
270
比尔
1周前
ollama部署大模型并对接openclaw ollama部署大模型并对接openclaw,安装的是QWen3.5 0.8b 显存 6G ,吃力
00:00 / 09:34
连播
清屏
智能
倍速
点赞
18
芥末拔丝香菜
11月前
qwen3本地部署实操4B模型就够让你的其他api吃灰 #qwen3 #mcp #ai实操 #千问3 #ai本地部署
00:00 / 01:17
连播
清屏
智能
倍速
点赞
89
跟陈博士学AI
1周前
2026年 本地部署大模型需要什么配置 2026年了,想在自己电脑跑大模型?别被必须4090起步吓住——关键不是显卡多贵,而是显存够不够。 显存才是命门,其他都是配角。#大模型部署
00:00 / 02:10
连播
清屏
智能
倍速
点赞
39
抓耳挠腮
1周前
LMstudio手把手保姆级本地大模型部署教程 #ollama #lmstudio #qwen3 #token #大模型 如果你的ollama很卡的话,请看看这个lmstudio,手把手保姆级教程以及测试报告
00:00 / 00:57
连播
清屏
智能
倍速
点赞
11
王纯迅
6天前
OpenCLaw终于在本地把qwen3.5-27b跑起来了 #openclaw #人工智能 #qwen #ollama #vLLM
00:00 / 08:12
连播
清屏
智能
倍速
点赞
136
nxlz
11月前
qwen3 本地实测 🚀 本地运行Qwen3模型零门槛教程 📱 小白也能快速上手的AI大模型教程 🔥 无需高配置,轻松本地运行Qwen3模型 ⚙️ LM Studio客户端一键下载部署Qwen3 🌐 Cherry Studio跨平台调用,扩展应用场景 #Qwen3 #LMStudio #AI大模型 #本地部署 #技术教程
00:00 / 03:48
连播
清屏
智能
倍速
点赞
76
山⛰️
2周前
本地部署大模型,8GB显卡,也能有还不错的表现啊,直接就帮我完成部署了#openclaw #qwen3.5 #4060ti
00:00 / 00:17
连播
清屏
智能
倍速
点赞
0
五里墩茶社
8月前
100%成功 - 开源Coze的本地部署教程 Coze开源了,本期视频我会分享在本地部署运行中踩的坑,以及填坑手法。跟着我走,保证100%部署成功。 #ai #coze #字节跳动 #扣子
00:00 / 09:15
连播
清屏
智能
倍速
点赞
2186
王知风
1年前
本地部署大模型千问2.5详细教程 #qwen #qwen2.5 #千问2.5 #整合包 #本地部署
00:00 / 08:11
连播
清屏
智能
倍速
点赞
38
aiaihaozhe9527
1年前
openthinker-32B windows整合包,基于qwen2.5-32B,使用通过蒸馏DeepSeek-R1得出的数据集微调,本地部署,20G显存。#ai #ai本地部署 #ai整合包
00:00 / 02:05
连播
清屏
智能
倍速
点赞
0
T8star.Aix
10月前
破限版!DeepSeekR1 Qwen3 0528本地部署,微调ModelFile教程!AI酒馆SillyTavern实测及满血版685B API半价调用! #AI #人工智能 #DeepSeekR1
00:00 / 08:26
连播
清屏
智能
倍速
点赞
17
小元老师
8月前
挑战16分钟搞定,Dify+Qwen3构建合同审查系统 #人工智能 #大模型 #AI大模型 #大模型学习 #大模型入门
00:00 / 16:15
连播
清屏
智能
倍速
点赞
1232
智慧办公坊
4天前
8G显存也能起飞?llama.cpp+qwen模型深度调优 为什么显存没占满,速度却掉到了脚脖子? 为什么 CPU 线程拉满,性能反而缩水 50%? 本期视频带你实测 RTX 3050 8G 在运行 Qwen 3.5 9B 时的性能极限。 通过《三体》3 万字压力测试,深度拆解上下文长度、KV Cache 量化、Batch Size 以及 CPU 线程对推理速度的真实影响。 【核心调优结论】 8G 显存黄金平衡点:32k 上下文--ctx-size 64k 极限模式:必开缓存量化 --cache-type-k/v q4_0 预处理加速:调大吞吐量 --batch-size 远比增加 CPU 线程有效。#模型调优 #本地部署ai 【我的配置】显卡: 3050 8G | 内存: 32G DDR4 | CPU: i3-12100
00:00 / 06:03
连播
清屏
智能
倍速
点赞
32
智慧办公坊
1周前
Qwen 3.5本地部署全攻略 2026算力大饥荒:别再排队等API #Qwen3.5 #ai教程
00:00 / 05:07
连播
清屏
智能
倍速
点赞
22
王耀鐭
3周前
本地部署Qwen3.5: vllm VS llama.cpp #大模型部署 #大模型 #学习日常
00:00 / 07:32
连播
清屏
智能
倍速
点赞
29
爱弹琴的程序猿
4天前
第53集|ClaudeCode源码本地部署从0到会,还能直接开发游戏🔥udecode源码本地部署教程#claudecode本地部署教程 #claudecode源码本地部署教程 #claudecode配置本地大模型教程 #claudecode源码泄露 #claudecode开发游戏
00:00 / 01:28
连播
清屏
智能
倍速
点赞
118
赵逍遥Xavier
3天前
Google最强开源Gemma4,一键部署指南!【小白必会】 #ai新星计划 #人工智能 #谷歌 #教程 #本地部署
00:00 / 05:28
连播
清屏
智能
倍速
点赞
5974
爱吃🍒的AI学姐
10月前
最强开源大模型QWen3场景实测+本地部署教程 #QWen3 #大模型 #ai #人工智能 #互联网
00:00 / 08:54
连播
清屏
智能
倍速
点赞
3
简介:
您在查找“
Qwen3.5蒸馏版本地部署教程
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-04-08 05:45
最新推荐:
达妮娅可以替代琳奈吗
4月4号寒食节为什么不点火?
魔兽世界装备纹章升级错误能恢复吗
主播的准星密码是多少
怎么让男朋友给我朋友圈点赞
洛克王国房间怎么改名
洛克王国怎么让龙鱼浮起来
莫娜内测时的衣服
小鸟依人这个成语怎么画
超好看女头像冷脸萌
相关推荐:
金毛的弟弟是谁
白雪仙刘德华聚会
翠顶夫人可以学阻断吗
任务送的伊蕾龙蛋和同行的哪个好
泰剧食君之爱播出时间
有一个女孩舞蹈怎么跳
华子大叔的舞蹈属于什么类型
空白蛋糕象征什么寓意
烤肠机太好玩了
可以去别人打卡的位置相机
热门推荐:
飞书的龙虾怎么配置即梦的key
我又来拜祖宗怎么设置微信铃声
苹果可以接收别人的短信吗
苹果手机评论区特效怎么设置
mimoclaw怎么部署到飞书
openclaq使用飞书能发语音吗
即梦ai如何获取录音权限
瞧一瞧看一看全五块便宜
迅雷tito安装教程
statch如何制作电子斗蛐蛐