Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
异环对话卡死怎么办
blv双男编码获取方法
ml-intern功能介绍
trae如何上传prd文档
烽火挑战赛需要三个人一起破译吗
pad thai模因动画怎么玩
image2. fun怎么进入
codex怎么装fronted
token中转站怎么维护
ai教育没有办法帮助其他人
小工蚁
10月前
Llamafactory SFT训练Qwen3函数调用 #小工蚁 #大模型训练 #开源软件
00:00 / 03:50
连播
清屏
智能
倍速
点赞
79
大曼哒
1月前
本地部署智能体:Qwen3.5 + Claude Code 本视频将演示如何使用 Llama.cpp 和 Claude Code 在本地安装 Qwen3.5 4B 模型 #claude #ai编程 #千问qwen #ai #智能体
00:00 / 06:07
连播
清屏
智能
倍速
点赞
419
刘东-长乐未央
1月前
OpenClaw 安装、配置使用本地 Qwen 3.5 模型 #OpenClaw #AI #本地大模型
00:00 / 02:57
连播
清屏
智能
倍速
点赞
321
AI 博士嗨嗨
1年前
人人都能玩! Qwen3最强开源模型保姆级本地部署教程 #qwen3 #ollama #本地部署 #cherrystudio #AI模型
00:00 / 08:09
连播
清屏
智能
倍速
点赞
660
nxlz
1年前
qwen3 本地实测 🚀 本地运行Qwen3模型零门槛教程 📱 小白也能快速上手的AI大模型教程 🔥 无需高配置,轻松本地运行Qwen3模型 ⚙️ LM Studio客户端一键下载部署Qwen3 🌐 Cherry Studio跨平台调用,扩展应用场景 #Qwen3 #LMStudio #AI大模型 #本地部署 #技术教程
00:00 / 03:48
连播
清屏
智能
倍速
点赞
76
沪上码仔AI
2月前
#qwen3.5 #LLM #开源大模型 #mac #本地部署 在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
00:00 / 02:11
连播
清屏
智能
倍速
点赞
439
九姨小课堂
3月前
全网最牛TTS!零成本克隆专属音色+多音色对话克隆 全网最牛TTS!Qwen3本地一键启动:零成本克隆专属音色+多音色对话克隆,仅4G显存就能跑出真人质感,自媒体自动化必备! #Qwen3 #TTS #声音克隆 #语音合成 #人工智能
00:00 / 10:12
连播
清屏
智能
倍速
点赞
380
小天fotos
2月前
用Qwen3.5做一个Tutor Skill数学题转讲解视频 #ai新星计划 #抖音年味新知贺岁 #qwen35 #qwen #skills
00:00 / 08:34
连播
清屏
智能
倍速
点赞
2712
一蛙AI
2月前
Qwen3.5上用Claude最新工具调用方法 如果你的 AI Agent 可以通过“按需搜索工具”并编写代码来编排数十个工具调用,而不是让大语言模型(LLM)逐一处理,从而大幅降低 Token 消耗,会怎样? 在这段视频中,我们将 Anthropic 工程博客中提到的两种高级工具调用模式,实现在我们自定义的 Python 和 React AI Agent 中:即工具搜索工具(Tool Search Tool)以及通过代码执行沙箱实现的程序化工具调用。 这些并非 Claude 的专属功能。它们是通用的 Agent 设计模式,你可以将其应用于任何模型或框架。 我们对这两种方法进行了侧重对比,将传统的工具调用与程序化执行进行衡量,并在 Claude Haiku 和运行在 RTX 5090 本地环境下的全新 Qwen 3.5 27B 上运行了相同的任务。 #大模型 #Qwen #aiagent #openclaw
00:00 / 19:02
连播
清屏
智能
倍速
点赞
104
AI技术大本营
3月前
Qwen3-TTS音频生成工具,3秒极速克隆效果演示,本地离 Qwen3-TTS音频生成工具,3秒极速克隆效果演示,本地离线解压即用整合包 Qwen3-TTS音频克隆生成工具解压即用整合包下载链接: 链接:https://pan.quark.cn/s/9562a7fe9ee8 经测试,极个别参考音频生成的结果会有电流声,大部分生成的效果都很好
00:00 / 04:33
连播
清屏
智能
倍速
点赞
42
焱垚言夏
3周前
从0配置qwen3.6:35b模型在苹果电脑用MLX运行龙虾 #创作者中心 #创作灵感 #openclaw#qwen36 #本地大模型
00:00 / 06:32
连播
清屏
智能
倍速
点赞
50
无限进步的Rangen
9月前
手把手教你接入Qwen3Coder写代码的三种方法 手把手教你接入Qwen3Coder写代码的三种方法#AI #千问 #Qwen3 #编程
00:00 / 06:32
连播
清屏
智能
倍速
点赞
78
王耀鐭
1月前
本地部署Qwen3.5: vllm VS llama.cpp #大模型部署 #大模型 #学习日常
00:00 / 07:32
连播
清屏
智能
倍速
点赞
36
懂AI的引路哥
1月前
本地Qwen3.5 9B接OpenClaw #Qwen3.5 9B #OpenClaw #模型调优 #本地部署 #bug修复
00:00 / 01:30
连播
清屏
智能
倍速
点赞
49
AI小马达
1月前
#qwen #openclaw #AI #人工智能 #AI编程 OpenClaw使用qwen3.5、qwen3.6都有问题,竟然还能输出假的工具调用!
00:00 / 00:42
连播
清屏
智能
倍速
点赞
42
子龙爱分享
1月前
我量化了Qwen3.5_35B!显存速度质量全拉满+本地养虾 完犊子!我不小心把Qwen3.5_35B量化了!显存速度质量全拉满+联网技巧,OpenClaw本地轻松养虾!50系显卡的春天#openclaw #本地模型 #ai #开源 #分享
00:00 / 25:48
连播
清屏
智能
倍速
点赞
135
IT产品及方案专业供应商__田工
1月前
1534 纯本地openclaw+Qwen3.54b运行环境 #openclaw
00:00 / 01:23
连播
清屏
智能
倍速
点赞
22
titan909
3周前
实测开源Qwen3.6运行OpenClaw的效果 #Qwen36 #OpenClaw
00:00 / 04:21
连播
清屏
智能
倍速
点赞
251
ai景行小博士
3周前
Qwen3.6_35B模型部署设置全流程,冲80词元/s #热点 #本地部署 #Qwen35B #全流程 #词元
00:00 / 04:04
连播
清屏
智能
倍速
点赞
625
AI技能教学网
1月前
Qwen3.5蒸馏版本地部署教程 解析Qwopus核心优势:专注代码与硬逻辑,支持3090及Mac本地部署,拒绝废话干活快。#Qwen35 #大模型 #本地部署 #ClaudeCode #人工智能
00:00 / 03:31
连播
清屏
智能
倍速
点赞
367
GitHubStore
3周前
DFlash专为M系列芯片优化,Mac用户本地跑模型再也不卡 ✅ Qwen3.5-4B:53→219 tok/s(x4.10) ✅ Qwen3.5-9B:31→127 tok/s(x4.13) ✅ 27B/35B量化模型也1.7-1.9x提速 ✅ Block-diffusion一次生成16 token,一次验证,100% lossless #LLM #大模型 #Qwen #推理
00:00 / 00:41
连播
清屏
智能
倍速
点赞
18
人工大黑
2月前
我让7个AI给我的猫建了个天堂 | 国产AI编程大横评 Qwen3.5、GLM-5、Seed 2.0、MiniMax、Kimi、Step、Claude,统一提示词,全程录屏。有惊喜,有翻车,有后门账号,有代码彩蛋。这不是benchmark,是一次赛博斗蛐蛐。祝各大国内厂商早日干翻Claude。 #Qwen #kimi #GLM #Seed #ai新星计划
00:00 / 10:59
连播
清屏
智能
倍速
点赞
9220
碳基生物退役指南
2周前
Qwen3.6-35B-A3B:2千到3万,三档本地部署实战 这期视频,我把 Qwen 3.6 35B A3B 装进 3 台价格完全不同的设备里,实测识图、OCR、手写数学题、写作、算法题和代码生成。最让我意外的,不只是它比预期更能打,而是我那台 2500 块手搓丐版战神,居然跟这个模型异常般配。便宜设备不可怕,可怕的是本地模型这次真的能干活了。 这次让我真正改观的,是 Qwen 3.6 35B A3B 在不同任务之间,整体都没有明显掉链子。识图能看,OCR 能用,代码能写,逻辑题也能认真推,放到真实项目里,不再是那种“偶尔灵光一现”的状态了,而是已经开始成为稳定的生产力工具了。本地开源模型这次,是真的往前走了一大步。 #qwen #ai智能体 #openclaw#大语言模型 #ai
00:00 / 09:31
连播
清屏
智能
倍速
点赞
784
灵音之境
1周前
基于Qwen3大模型批量填标题和关键词的自动化工具 我图网ai图片批量上传标注软件。#Qwen #自动标注 #自动填表 #我图网
00:00 / 02:26
连播
清屏
智能
倍速
点赞
0
九天Hector
10月前
Qwen3接入MCP,企业级智能体开发实战!Qwen3原生MCP能力解析|MCP Client源码级开发|Qwen-Agen接入海量MCP高效搭建智能体!#ai #Qwen3 #mcp #ai新星计划
00:00 / 01:42:45
连播
清屏
智能
倍速
点赞
286
小天fotos
2月前
Qwen3.5-27B太好玩,不小心养了一窝龙虾 #ai新星计划 #抖音年味新知贺岁 #openclaw #qwen #4090魔改
00:00 / 08:29
连播
清屏
智能
倍速
点赞
NaN
东日
11月前
qwen3图谱提取比较-思考模型提取模型 #llama #qwen #deepseek
00:00 / 11:41
连播
清屏
智能
倍速
点赞
5
芥末拔丝香菜
1年前
qwen3本地部署实操4B模型就够让你的其他api吃灰 #qwen3 #mcp #ai实操 #千问3 #ai本地部署
00:00 / 01:17
连播
清屏
智能
倍速
点赞
88
戚向北
4天前
Qwen 3.5 9B本地模型测试 测试一:自动搜索并下载图片 #hermes #qwen3.5 #本地模型 #aiagent
00:00 / 01:53
连播
清屏
智能
倍速
点赞
15
AI搅拌手
4天前
LoRA训练自动化打标系统,重磅发布!支持qwen3.5破限 LoRA训练大师官网下载地址 https://loramaster.com/ 夸克: https://pan.quark.cn/s/a770f2051e2e 百度: https://pan.baidu.com/s/1yOgv2L3AvNJLA2FyJNC8BA?pwd=55hj #lora #lora训练 #lora训练大师#comfyui #ai
00:00 / 08:02
连播
清屏
智能
倍速
点赞
0
titan909
3天前
实战利用MTP补丁免费大幅提升Qwen3.6-27B运行速度 #mtp补丁
00:00 / 04:04
连播
清屏
智能
倍速
点赞
151
搬砖最勤快
3周前
把本地部署的QWEN3.6 35ba3b接入龙虾试了下,怎么说呢。。动是可以动,就是这次的结果有点拉,等我下个视频在测测。#qwen3.6 #ai #ai本地部署 #5060ti
00:00 / 04:47
连播
清屏
智能
倍速
点赞
7
㤅
3天前
#本地大模型 #qwen #ai #本地部署 #3080显卡
00:00 / 05:36
连播
清屏
智能
倍速
点赞
15
添柴Ai
2周前
QWEN3.5反推之王本地部署 !comfyui训练打标新王 QWEN3.5本地部署 杜绝破坏Comfyui环境 支持各种环境! #comfyui #教程 #模型训练 #打标 #QWEN35
00:00 / 06:37
连播
清屏
智能
倍速
点赞
2
阿莫同学
2周前
30秒学会,使用skill完成视频创意点分析、提示词反推。 视频理解用的是刚发的Qwen3.5-Omni。使用时不用本地部署、也不没有网络要求。 #qwen #skill #agentskill #提示词反推 #AI工具
00:00 / 00:42
连播
清屏
智能
倍速
点赞
31
阿水Ai说
1月前
开源对闭源!深度解析开源模型从下载到使用全流程,Google Gemma4都有哪些更新?#ai新星计划 #真实生活分享计划 #Gemma4 #开源模型 #Ai工具
00:00 / 08:06
连播
清屏
智能
倍速
点赞
70
吴杨峰
3天前
局部修改 + 局部参考图|Qwen Image 2511 局部修改 + 局部参考图|Qwen Image 2511 +RefineAny LoRA|ComfyUI|工作流下载安装设置教程
00:00 / 10:56
连播
清屏
智能
倍速
点赞
2
找我呀AI知识助手
4天前
5090D的24G显卡,实测qwen3.6:27b,推理能力和生成速度都非常的不错,适合各企业低成本试点部署大模型 #AI知识助手 #本地部署大模型模型 #ollama #llamacpp
00:00 / 03:11
连播
清屏
智能
倍速
点赞
67
单车酒吧搞机社
1周前
Qwen3.5大模型本地部署的高性价比服务器怎么配 #Qwen#AI本地部署 #AI装机 #硬件配置 #大模型本地部署
00:00 / 06:54
连播
清屏
智能
倍速
点赞
1191
科技主观说
1周前
华为Mate80 Pro max本地部署qwen3.5-4b
00:00 / 02:51
连播
清屏
智能
倍速
点赞
13
AI科技讲解员
3周前
OpenClaw小龙虾智能体应用(三)之word技能 本人采用显卡Nvidia RTX 3060TI 8G,Ubuntu系统进行部署,openclaw版本为 2026.4.11,大模型为qwen3.5:4b版本,采用本地部署亲测,本期是自动创建word文档及导出PDF格式技能#openclaw #ai机器人 #千问 #skills #word
00:00 / 03:13
连播
清屏
智能
倍速
点赞
11
耍耍Al
2周前
本地Qwen3.5能取代线上模型吗-4/4#编程Agent #本地化 #Qwen3.5
00:00 / 02:11
连播
清屏
智能
倍速
点赞
5
Ai 学习的老章
3周前
一个更神奇的Qwen3.5-27B版本,推理速度暴涨5倍 今天介绍一个让我非常兴奋的项目,叫 DFlash,来自 UCSD 的 z-lab 团队。它能让 Qwen3.5-27B 的推理速度暴涨到原来的5倍,关键是——生成质量完全不打折 先说原理。大模型生成文字,是一个 token 一个 token 往外蹦的,串行瓶颈在那摆着。之前业界用推测解码来加速,先用小模型猜一串 token,再让大模型验证。但之前最强的方案 EAGLE-3,加速比也就2到3倍 DFlash 把"猜"的过程,从自回归换成了扩散模型。一次前向传播,直接并行生成一整个 block 的 token。不管你猜8个还是16个,都是一次搞定。这就是它快的核心原因 更精妙的是,DFlash 会从大模型的隐藏层抽特征,注入到小模型的每一层。这样小模型猜得特别准,HumanEval 上平均每轮能猜中9个 token 实测数据很能说明问题。在 HumanEval 上,单并发直接5.2倍加速。Math500 上4.7倍。哪怕高并发场景下,也能维持1.5到1.9倍。而且 drafter 模型只有2B 参数,加载几乎不占额外显存 最关键的是,已经适配了 vLLM、SGLang 和 Transformers 三大框架。生产环境直接能用 我的判断是,如果你在用 Qwen3.5-27B 做推理服务,DFlash 几乎是个无脑加分项。多加载一个 2B 的小模型,吞吐量翻好几倍,简直是免费的午餐
00:00 / 01:50
连播
清屏
智能
倍速
点赞
494
程序员寒山
1年前
Qwen3小参数模型对比实测:真香还是鸡肋?本地部署如何选择 本期视频主要给大家演示本地部署大模的对比测试,实测Qwen3 小参数模型的过程,包括与DeepSeek r1 8b和在线版本的对比,包括大家如何选择自己的本地模型。更多往期视频内容可以到主页列表下查看(程序员寒山:CxyHanShan),欢迎大家留言关注讨论。#qwen3 #ollama #本地部署 #模型实测
00:00 / 06:59
连播
清屏
智能
倍速
点赞
213
卢菁老师讲AI
11月前
qwen3使用心得 #qwen #通义千问 #qwen3 #ai大模型 #大模型微调
00:00 / 00:29
连播
清屏
智能
倍速
点赞
34
小彭友🌈
1年前
qwen 3.0下载教程 #qwen3模型下载方法 #Qwen3 #人工智能 通义千问3下载教程
00:00 / 00:29
连播
清屏
智能
倍速
点赞
163
隆哒隆
1年前
qwen 3.0下载教程 #qwen3模型下载方法 #Qwen3 #人工智能 通义千问3下载教程
00:00 / 00:31
连播
清屏
智能
倍速
点赞
22
绘世玩家
4天前
llama.cpp本地部署 llama.cpp本地部署&集成Qwen3.6大模型-效率起飞 #comfyui #ComfyUI教程 #llama #qwen
00:00 / 08:21
连播
清屏
智能
倍速
点赞
20
/菘蓝
2周前
Qwen3.5全模态模型 #Qwen #AI #全模态 #多模态 #口播知识分享
00:00 / 00:34
连播
清屏
智能
倍速
点赞
19
富贵羊羊AI
1周前
可以任意调整照片视角的AI工具 #3dcameracontrol #qwenimage #3d图片 #我在抖音聊科技 #科技下一站
00:00 / 00:44
连播
清屏
智能
倍速
点赞
6951
星辰大海@志愿填报&职业规划
2月前
阿里推出的Qwen3大模型,助力教育教学,提高工作效率。#人工智能大模型的应用 #教育有方 #小知识大作用
00:00 / 03:12
连播
清屏
智能
倍速
点赞
595
新尊锐服务器
2周前
想本地部署Qwen的小伙伴们看过来,整理了Qwen3.5本地部署所需的硬件配置信息 #Qwen #千问 #ai本地部署 #电脑硬件 #ai
00:00 / 01:41
连播
清屏
智能
倍速
点赞
9
卡哇塞
4周前
用维语和AI实时对话的保姆级教程 视频中的语音对话模型是阿里巴巴@通义实验室 研发的 Qwen3.5-omni #ai #qwen #维语 #哈萨克语
00:00 / 06:11
连播
清屏
智能
倍速
点赞
56
不夜
1周前
本地4种软件部署qwen3.6-27b性能测试 ollama,llama.cpp,LMstudio,vLLM本地部署测试#ollama#llamacpp#lmstudio#AI#vLLM
00:00 / 10:27
连播
清屏
智能
倍速
点赞
143
程序员御风
2月前
Qwen3.5 实测:会写代码,能读视频 原生多模态到底强在哪? #AI #Qwen #千问大模型 #人工智能 #开源
00:00 / 06:07
连播
清屏
智能
倍速
点赞
242
AI赚钱研究社
2月前
Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
00:00 / 05:26
连播
清屏
智能
倍速
点赞
889
耍耍Al
2周前
本地Qwen3.5能取代线上模型吗-3/4#编程Agent #本地化 #Qwen3.5
00:00 / 02:05
连播
清屏
智能
倍速
点赞
1
lly
4周前
2026 本地部署大模型,你的显卡够跑吗?🤖 想在本地跑大模型?这份 2026 最新配置指南帮你选对模型!💻 📊 显存配置对照表: • 8GB:Qwen3.5-4B(3-4GB)、Gemma4-E4B(5GB) • 12GB:Qwen3.5-9B(5-6GB)⭐性价比之王 • 24GB:Qwen3.5-27B(15-17GB)专业级选择 • 48GB 双卡:可跑 4bit 量化版本 💡 核心技巧: • 4bit 量化能省一半显存! • Ollama 一行命令就能部署 • 响应速度可达 10-20 字/秒 🎯 选购建议: 预算有限直接上 12GB+Qwen3.5-9B,日常使用完全够用! 专业用户选 24GB+Qwen3.5-27B,体验最佳! #本地大模型 #AI 部署 #Qwen3.5 #Ollama #显卡推荐
00:00 / 02:12
连播
清屏
智能
倍速
点赞
13
小天fotos
2月前
测完Qwen3.5,我哭了,期待了好久的场景终于实现了 #ai新星计划 #抖音年味新知贺岁 #qwen35 #qwen3 #AI教育
00:00 / 06:14
连播
清屏
智能
倍速
点赞
2824
titan909
1天前
保持上下文窗口的同时利用mtp提升Qwen3.6模型运行速度 #MTP加速模型运行 #TurboQuant #加速Qwen27B
00:00 / 03:17
连播
清屏
智能
倍速
点赞
18
简介:
您在查找“
qwen3.5-4b-q4如何调用工具
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-10 05:20
最新推荐:
吕虎提亲全过程
逆水寒沙海楼兰独珍有哪些
叛教者城堡1点pl可以进吗
喜颜美肤巾
甜宠漫剧更新时间
吃单修仙,神皇怎么卡无限时间
洛克王国现在还能刷炫彩吗
狗狗碎碎什么意思
12.0酒仙更新内容如何应对
猴姐家条纹t透吗
相关推荐:
日本歌曲干不得
王者农场偷菜怎么看黑液
风姓什么脑筋急转弯
郝熠然我看到你们是怎么进来的
超自然小青蛙怎么抓
神秘复苏第二次八音盒怎么解决
王者荣耀世界岩凿回道鱼里怎么进去
王者陈塘关如何卡飞行怪
神灯许愿怦然心动小胡写了什么
赵芸一说工资
热门推荐:
超级飞侠转场囚于永夜教程
苹果20天线功能
实质存在switch设置
大疆无人机5月1号怎么备案
刷到野生炫彩怎么挂闲鱼卖
豆包收费和基础版有什么区别
手机里的芯片怎么才能取出来
华辰ai智评维护了吗
三角洲联动肯德基怎么线上核销外卖
龙虾agent如何设置炒股人设