Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
bro类型大全
ai文游怎么玩的
trae编辑完成如何导出文件
ray解密教程
三角洲dfm内核频道怎么用
ask和psk是什么调制
共创次数用完了可以接受共创吗
llm工具是什么
豆包怎么解签开发
谷歌kv缓存压缩是什么时候发布的
一蛙AI
3周前
Qwen3.5上用Claude最新工具调用方法 如果你的 AI Agent 可以通过“按需搜索工具”并编写代码来编排数十个工具调用,而不是让大语言模型(LLM)逐一处理,从而大幅降低 Token 消耗,会怎样? 在这段视频中,我们将 Anthropic 工程博客中提到的两种高级工具调用模式,实现在我们自定义的 Python 和 React AI Agent 中:即工具搜索工具(Tool Search Tool)以及通过代码执行沙箱实现的程序化工具调用。 这些并非 Claude 的专属功能。它们是通用的 Agent 设计模式,你可以将其应用于任何模型或框架。 我们对这两种方法进行了侧重对比,将传统的工具调用与程序化执行进行衡量,并在 Claude Haiku 和运行在 RTX 5090 本地环境下的全新 Qwen 3.5 27B 上运行了相同的任务。 #大模型 #Qwen #aiagent #openclaw
00:00 / 19:02
连播
清屏
智能
倍速
点赞
102
沐凌熙
3周前
Qwen3.5小模型实现手机端本地运OCR兼顾效率与隐私 #Ai #电脑 #科技
00:00 / 02:19
连播
清屏
智能
倍速
点赞
6
瑞克老张有话说
3周前
养OpenClaw大龙虾的token噩梦,居然被阿里给治好了 #AI #OPENCLAW #Qwen #大模型 3月3日消息,阿里巴巴昨晚再度开源千问3.5系列模型,这次是4款小尺寸模型。其中最小的0.8B 和2B两款,体积极小,推理速度极快,适合移动设备、IoT 边缘设备部署,以及低延时的实时交互场景。4B的这款,性能强劲,适合作为轻量级Agent的核心大脑,平衡了性能与资源消耗。9B的这款,性能可媲美GPT-OSS-120B,适合需要较高智力水平但受限显存资源的服务器端部署,是性价比极高的通用模型选择。四款Qwen3.5新模型虽是小尺寸,但均拥有原生多模态能力,以极小的参数量实现了极大的性能提升。模型发布后,迅速引爆AI社区,马斯克也火速在社交媒体上点赞评论,称阿里千问模型“智能密度令人印象深刻”。
00:00 / 04:06
连播
清屏
智能
倍速
点赞
1124
Ai 学习的老章
4天前
Claude Opus 蒸馏版 Qwen3.5 V2 来了 Claude Opus 4.6 蒸馏版 Qwen3.5 V2 这次最值钱的地方,在于每个 token 都更值。 官方数据里,HumanEval 基本持平,但思维链缩短了大约百分之二十四,每个 token 的正确率还提升了百分之三十一点六。也就是说,同一道题,它想得更短,答得更快,显卡压力也更小。 我觉得这特别适合本地部署。我们真正卡住的地方,经常是生成太慢、等待太久。现在它能用更少的 token 办同样的事,这个提升非常实在。 更重要的是,这次主打的是通用推理数据迁移,最后代码能力依然很稳。要是你主要写代码、做逻辑推理、解题,这个版本我觉得很值得优先试。
00:00 / 00:53
连播
清屏
智能
倍速
点赞
39
麦汁服务器
4周前
openclaw龙虾本地要千问3.5-27b模型,不用担心token问题了!#openclaw #qwen3.5-27b
00:00 / 00:33
连播
清屏
智能
倍速
点赞
44
kate人不错
3周前
Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 你会看到: - 不同量化下的显存占用与推理速度差异 - 浏览器端 WebGPU 运行 0.8B 的体验 - 视觉识别/OCR 实测表现 - 9B 与 35B-A3B 在任务稳定性与效果上的差异 - LM Studio 关闭 thinking 的实操方法 - 在 OpenCode / Cline 中做工具调用与编码测试的结果 如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 时间戳 00:00 Qwen3.5 中小模型简介 00:50 格式与部署 02:21 显存与速度实测 03:40 视觉/OCR能力对比 05:33 本地实战案例 11:00 工具调用与编码测试 #Qwen35 #本地大模型 #Ollama #LMStudio #千问
00:00 / 13:28
连播
清屏
智能
倍速
点赞
581
飞多学堂
3周前
老古董电脑的春天:OpenClaw+Qwen2.5 本地大模型,彻底告别Token费! #openclaw
00:00 / 01:01
连播
清屏
智能
倍速
点赞
78
奶黄包💋
1周前
Qwen3.5-35B视觉多模态本地跑通,性价比炸裂💥 在2026年的今天,想跑大模型还要花几十万买H100/A800?NO! 🙅♂️今天给大家展示一套“极度务实”的国产化AI推理服务器方案。 CPU: 国产之光海光3490(16核32线程) 显卡: 2张 RTX 4090 48GB 魔改版(显存翻倍,快乐翻倍!) 目标: 完美运行 Qwen3.5-35B-A3B-FB8 视觉多模态模型! 总成本不到专业卡的零头,性能却足以应付绝大多数私有化部署场景!🔥 🤖 为什么选这套配置跑 Qwen3.5-35B? 1️⃣ 显存才是硬道理!💰 Qwen3.5-35B 是一个巨大的模型。 FP16精度:需要约 70GB+ 显存。 INT4量化:需要约 20-24GB 显存。 但是! 我们要跑视觉多模态 (Vision) + 长上下文 (Long Context) + 高并发。 图像编码需要额外显存。 KV Cache 在长文本下会吃掉大量显存。 双路4090 48G = 96GB 总显存。这意味着你可以: ✅ 轻松运行 FP8/INT4 精度的全量模型。 ✅ 预留充足显存给 高分辨率图片输入。 ✅ 支持 更长上下文 (32k+) 而不爆显存。 ✅ 甚至可以做小规模的 LoRA 微调!🛠️ 2️⃣ 海光3490:被低估的国产老将 🇨🇳 很多人觉得16核不够用? 在推理 (Inference) 场景下,瓶颈主要在 GPU 和 PCIe带宽,CPU主要负责数据预处理和调度。 海光3490基于Zen架构,PCIe通道数充足,能喂饱双卡数据流。 重点: 在信创、政企、涉密场景,国产CPU是刚需。这套方案完美符合“自主可控”要求,且成本极低! 📝 总结 这套 “海光3490 + 双4090 48G” 的方案,是2026年中小型企业、科研实验室、极客玩家部署私有化大模型的版本答案。 不要迷信原厂标,适合业务的才是最好的!如果你也想搭建自己的AI大脑,这套作业可以直接抄!📝 #大模型 #Qwen35 #国产芯片#RTX4090 #多模态AI
00:00 / 02:13
连播
清屏
智能
倍速
点赞
5
Igor Udot 吴一格
8月前
千问3免费api怎么用教程 openrouter 有很多模型,有些免费的例如千问,我们看看怎么用起来 #千问 #qwen #qwen3 #ai #大模型
00:00 / 02:32
连播
清屏
智能
倍速
点赞
368
马可爱科技
8月前
开发属于自己的本地大模型语音助手 LLM: Ollama+Qwen3/Deepseek ASR:Whisper 完全离线无Token消耗 #每天学习一点点AI
00:00 / 02:24
连播
清屏
智能
倍速
点赞
148
亲爱的小路路
3周前
用了一天写了一个龙虾管理程序将部署在本地的Qwen3.5Ai模型与OpenClaw龙虾🦞集成到了一起,现在实现了Token 自由!不用花钱买算力!完美闭环!
00:00 / 02:04
连播
清屏
智能
倍速
点赞
169
遇见AI
6天前
ClaudeCode+Ollama本地部署 当热门流行AI工具遇上以9B参数碾压gpt-oss-120b的Qwen3.5,这绝对是极具性价比的组合。Claude 系列模型确实强大,但高额的定价对新手和普通玩家太不友好。Claudecode + Qwen3.5这套组合其实已经能满足80%的场景,完全本地运行,不产生Token费用,容错率极高,非常适合新手学习和普通玩家日常使用,AI时代已经来了,你还在等什么呢?#claude #qwen #ollama #AI工具 #AI编程
00:00 / 02:36
连播
清屏
智能
倍速
点赞
67
OpenClaw俱乐部
2周前
💥太猛了!巴掌大AI一体机搭建100%本地安全的AI战队! 💥太猛了!巴掌大AI一体机搭建100%本地安全的AI战队!让本地Qwen-3.5-35B完胜公有在线模型!还在为企业 AI 数据安全、Token 成本和响应速度头疼?这套 OpenClaw 本地化一体机方案帮你一次性解决!巴掌大的 GB10 AI 超算,本地部署 Qwen 3.5 35B 大模型,数据不出内网更安全。可一键为团队成员创建独立 AI 助理,支持10-20人并发使用。实测速度、稳定性与效果全面超越公有在线模型,一台设备即可打造高效私有 AI 战队。#AI #OpenClaw #AI工具 #Qwen #AIGC
00:00 / 04:48
连播
清屏
智能
倍速
点赞
137
badgehu
2周前
本地部署openclaw也是养上龙虾了 调用本地qwen3.5 9b模型,又省下token了#openclaw #ollama #AI
00:00 / 00:39
连播
清屏
智能
倍速
点赞
5
lukeewin
1周前
终于本地跑起来了大模型 | 本地化部署Qwen3.5大模型 | 本地部署多模态大模型 #多模态大模型 #大模型 #ai #人工智能 #Qwen3.5
00:00 / 03:00
连播
清屏
智能
倍速
点赞
9
再见静无言
3周前
#qwen3.5 #ai #agent#自动操作电脑 利用本地的qwen3.5 9b量化模型借鉴autoglm项目让agent自主操作自己的电脑,可玩性较强
00:00 / 08:59
连播
清屏
智能
倍速
点赞
21
Tony沈哲
3周前
本地 AI 推理平台 第十一期 Vol.11|Qwen3.5-9B 实测:代码 + VLM + Agent 这一期我们实测一个新的本地模型:Qwen3.5-9B。 它不仅是一个 9B 参数的代码模型,同时还是一个 VLM(视觉语言模型),支持图像理解。 所以这一期我设计了三个测试场景,看看这个模型在真实工程中的表现: 测试 1:纯 LLM 能力 让模型实现一个 OpenCV C++ 的直方图匹配算法, 主要观察: * 代码质量 * OpenCV API 使用 * 算法逻辑 看看一个 9B 模型本身的代码能力到底如何。 测试 2:VLM 多模态能力 因为 Qwen3.5-9B 是 多模态模型, 我们给它输入一张图片,让模型描述图片内容。 测试它的 图像理解能力。 测试 3:Agent 工程能力(重点) 在真实工程里,模型不仅要回答问题,还要 完成任务。 所以这一部分让 Agent 自动完成一个工程操作: 生成一个 OpenCV C++ 的直方图匹配函数 并自动保存为: histogram_match.cpp 通过这个例子可以看到: 模型能力 → 如何变成 Agent 的工程能力 这一期主要想回答一个问题: 一个 9B 的本地模型,在代码、视觉、多工具 Agent 场景下到底能做到什么程度? 如果你对 本地 AI 推理 / Agent / RAG / 小模型能力实测感兴趣,欢迎关注这个系列。 #Qwen #本地大模型 #LLM #VLM #Agent
00:00 / 07:43
连播
清屏
智能
倍速
点赞
38
AI赚钱研究社
1月前
Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
00:00 / 05:26
连播
清屏
智能
倍速
点赞
811
刘东-长乐未央
1周前
OpenClaw 安装、配置使用本地 Qwen 3.5 模型 #OpenClaw #AI #本地大模型
00:00 / 02:57
连播
清屏
智能
倍速
点赞
126
lukeewin
1周前
本地服务器部署AI大模型 | 本地化部署Qwen3.5-4B大模型 | 人工智能 | 生成式AI | 多模态AI大模型本地化部署 #大模型本地化部署 #大模型 #ai #Qwen3.5 #多模态大模型
00:00 / 02:08
连播
清屏
智能
倍速
点赞
9
杨大哥
6天前
千问3.5本地部署避坑指南
00:00 / 01:45
连播
清屏
智能
倍速
点赞
410
无忌师兄
4天前
通过ollama本地部署qwen3.5-35b模型,干活速度和质量都杠杠的!#openclaw#qwen3.5
00:00 / 00:27
连播
清屏
智能
倍速
点赞
8
AI技能研究社
4周前
SGLang部署Qwen3.5-27B实战踩坑记录 详解 SGLang 部署 Qwen3.5 27B 流程,攻克工具调用、显存优化及 OpenClaw 对接等 5 大实战坑位。#SGLang #Qwen35 #大模型部署 #AIAgent #人工智能
00:00 / 06:08
连播
清屏
智能
倍速
点赞
461
刘东-长乐未央
1周前
mac 使用 oMLX 本地运行 Qwen 3.5 AI模型 文字版内容,请看课程讲义文档:https://clwy.cn/courses/openclaw 注意:本课程使用oMLX部署,仅支持M 系列芯片的Mac。 Windows 用户,请改为Ollama或LM Studio。 #oMLX #千问 #Qwen #AI大模型
00:00 / 02:17
连播
清屏
智能
倍速
点赞
122
沪上码仔AI
4周前
#qwen3.5 #LLM #开源大模型 #mac #本地部署 在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
00:00 / 02:11
连播
清屏
智能
倍速
点赞
380
Tony沈哲
2周前
本地 AI 推理平台 第十三期 Vol.13|OpenClaw 接入本地推理:Qwen3.5-27B 实测 这一期测试一个比较有意思的组合: OpenClaw + 本地 AI 推理平台 + Qwen3.5-27B 模型。 我将 OpenClaw 接入到我正在开发的 本地 AI 推理平台, 让 OpenClaw 使用本地模型作为 推理后端。 本次使用的模型是: Qwen3.5-27B-Claude-4.6-Opus-Distilled(MLX 4bit) 这是一个基于 Qwen3.5-27B 的模型,并蒸馏了 Claude Opus 风格行为, 同时使用 MLX 框架 + 4bit 量化进行本地推理优化。 需要说明的是: 这个模型 并不是真正的 Claude, 而是一个 Claude 风格的蒸馏模型。 在这一期视频中主要演示: 1️⃣ OpenClaw 接入本地推理平台 通过接口让 OpenClaw 使用 本地 AI 推理平台作为推理后端: OpenClaw ↓ 本地 AI 推理平台 ↓ Qwen3.5-27B Claude Distilled 这样 OpenClaw 就可以使用 本地模型进行推理。 2️⃣ Qwen3.5-27B Claude Distilled 简单实测 通过几个简单示例测试模型能力: 代码生成能力 概念解释能力 实际使用体验 例如: 生成 OpenCV C++ 直方图匹配算法 解释 Transformer 为什么可以处理长文本 这一期主要展示的是: 如何让 OpenClaw 接入本地模型推理能力, 并测试 Qwen3.5-27B Claude Distilled 的实际效果。 如果你对 本地 AI 推理、Agent 架构、或 AI 系统开发感兴趣, 欢迎关注这个系列。 我会持续记录 本地 AI 推理平台的开发过程与实验。 #OpenClaw #抖音养虾人俱乐部 #Qwen #本地大模型
00:00 / 10:49
连播
清屏
智能
倍速
点赞
30
机隐软件开发
1周前
8G显存笔记本跑小龙虾,Openclaw +OLLAMA +Qwen3.5#openclaw #小龙虾 #ollama #大模型
00:00 / 02:49
连播
清屏
智能
倍速
点赞
32
程序员DT
1周前
#ai #本地大模型 #本地token 一步一步带你在本地安装大模型 超简单版
00:00 / 02:21
连播
清屏
智能
倍速
点赞
8
懂AI的引路哥
4天前
本地Qwen3.5 9B接OpenClaw #Qwen3.5 9B #OpenClaw #模型调优 #本地部署 #bug修复
00:00 / 01:30
连播
清屏
智能
倍速
点赞
6
双脑实验室
1周前
Qwen3.5-397B 在 iPhone 上运行 #大模型
00:00 / 00:55
连播
清屏
智能
倍速
点赞
27
抓耳挠腮
6天前
本地部新模型千问3.5 Qwen3.5-Claude-4.6-Opus-abliterated#我的专业 #程序猿日常
00:00 / 00:27
连播
清屏
智能
倍速
点赞
1540
算力实验室
2周前
Qwen 3.5 122B大模型测试 #大模型 #显卡 #服务器 #显卡测试
00:00 / 00:31
连播
清屏
智能
倍速
点赞
227
程序员寒山
10月前
Qwen3小参数模型对比实测:真香还是鸡肋?本地部署如何选择 本期视频主要给大家演示本地部署大模的对比测试,实测Qwen3 小参数模型的过程,包括与DeepSeek r1 8b和在线版本的对比,包括大家如何选择自己的本地模型。更多往期视频内容可以到主页列表下查看(程序员寒山:CxyHanShan),欢迎大家留言关注讨论。#qwen3 #ollama #本地部署 #模型实测
00:00 / 06:59
连播
清屏
智能
倍速
点赞
212
大曼哒
2周前
本地部署智能体:Qwen3.5 + Claude Code 本视频将演示如何使用 Llama.cpp 和 Claude Code 在本地安装 Qwen3.5 4B 模型 #claude #ai编程 #千问qwen #ai #智能体
00:00 / 06:07
连播
清屏
智能
倍速
点赞
147
东日
10月前
qwen3-30b-目前推荐使用的本地大语言模型 可以选择8845hs机器,推理速度最快24tokens/s
00:00 / 07:07
连播
清屏
智能
倍速
点赞
64
Pt925
3周前
#openclaw本地部署#Qwen端模型 #openclaw本地部署#Qwen端模型#Token永久免费了
00:00 / 00:10
连播
清屏
智能
倍速
点赞
142
平步青云
4天前
想本地跑Qwen 3.5 72B大模型,却被显存、内存分配搞懵的?手里拿着RTX6000 Pro 96G显卡、256G大内存,愣是不知道怎么让模型各司其职,生怕一跑就爆显存、卡成狗! 今天我用漫画给你讲透,Ubuntu系统下,大模型、小模型到底该怎么分配资源,纯干货,看完直接抄作业! 首先咱先搞懂一个核心误区:不是所有模型都要挤显存!很多人以为模型运行全靠显卡,结果把TTS、ASR这些小模型也往显存里塞,直接把96G显存挤爆,这完全是错的! 我的配置是Ubuntu桌面版,RTX6000 Pro满血96G显存,256G大内存,要跑Qwen3.5 72B 8比特大模型,再加Qwen轻量ASR、TTS,还有视觉模型,怎么配才不卡? 记死了!大模型专属显存,小模型全扔内存,这是铁律!Qwen3.5 72B这种大模型,必须全塞进显存,咱们用llama.cpp启动,加两行关键参数,-n-gpu-layers 100让所有模型层都进显存,--no-cpu-offload禁止往内存跑,满负荷运行也就占80多G显存,96G完全够用,还留余量! 那小模型咋办?语音识别、语音合成、视觉小模型,代码里加一句.to("cpu"),强制跑内存,别碰显存!别觉得小模型不吃内存,就像我之前Mac跑TTS,小模型运行也能占十几G内存,但咱有256G大内存,三个小模型全跑内存,加系统开销,顶天也就七八十G,剩下一百多G随便造,根本不会爆! 很多人纳闷,72B这么大的模型,内存才占一二十G,小模型反而占更多?很简单!大模型权重全在显存,内存只负责调度打杂,小模型没显卡算力加持,全靠内存运行,所以占比看着反常,实则完全合理! 还有人问,用工具部署会自动分配吗?千万别信!llama这些工具不会智能区分,你不手动设置,它就全往显存塞,必爆无疑!必须人工干预,大模型锁显存,小模型锁内存,互不抢资源,运行起来流畅不卡顿! 总结一下,Ubuntu部署就这么干:大模型加参数全跑显存,小模型加代码全跑内存,96G显存+256G内存,这套组合跑72B大模型+多小模型,稳稳当当,再也不用担心爆显存、卡机! 同款配置的兄弟,直接照着这个方法配,新手也能一次成功,觉得有用的赶紧收藏,别等用的时候找不到!
00:00 / 03:02
连播
清屏
智能
倍速
点赞
11
AI 博士嗨嗨
11月前
人人都能玩! Qwen3最强开源模型保姆级本地部署教程 #qwen3 #ollama #本地部署 #cherrystudio #AI模型
00:00 / 08:09
连播
清屏
智能
倍速
点赞
629
导哥
3周前
我给粉丝免费送100万千问token,教大家如何跑通龙虾openclaw,构建自己的数字员工 #openclaw #龙虾 #ai #千问
00:00 / 01:46
连播
清屏
智能
倍速
点赞
62
Tim
3周前
533兆的AI能看懂图片 一个APP都比它大。533兆,装手机里,每秒吐140个字。 关键是——它还能看懂图片。 别的小模型都是先学文字再硬接视觉,它是从出生第一天就眼睛耳朵一起长的。 端侧能做到这个的,目前几乎没有。 #AI #人工智能 #千问 #小模型 #黑科技
00:00 / 00:37
连播
清屏
智能
倍速
点赞
83
啦啦啦的小黄瓜
7月前
Qwen-Image开源,人人秒变设计师! Qwen-Image开源,完全免费。23个效果以及提示词,详细本地教程!#ComfyUI #AI #AI设计 #Qwenimage #科技
00:00 / 19:21
连播
清屏
智能
倍速
点赞
616
赛脖古
7月前
AI编程工具的收费政策,你可能永远算不清 🤔AI编程工具收费就像手机流量,用多用少你算不清楚,一切都是"运营商说了算"。 #AI编程工具 #ClaudeCode #qwen3 #科技测评 #编程神器
00:00 / 01:34
连播
清屏
智能
倍速
点赞
20
Anre_Yu🐟
2周前
在M4 Max MacBook Pro上完整跑通了纯本地OpenClaw工作流,模型qwen3.5-35b-a3b四比特量化,~100 token/s,跟在线AI差不多
00:00 / 00:10
连播
清屏
智能
倍速
点赞
1368
AI猿姗姗
10月前
10分钟教你使用Dify+Qwen3构建合同审查助手 ,提升效率、降低风险并节约成本!附文档代码! #人工智能 #ai #Dify #Qwen3 #大模型
00:00 / 15:02
连播
清屏
智能
倍速
点赞
797
AI Oasis
2周前
大龙虾连接本地模型,你就说香不香! #openclaw #龙虾 #windows #ollama #qwen
00:00 / 07:01
连播
清屏
智能
倍速
点赞
756
AI 博士嗨嗨
7月前
个人电脑最强AI模型,Qwen3-30B本地部署教程! #qwen3 #本地部署 #Ollama #AI模型 #大模型
00:00 / 12:41
连播
清屏
智能
倍速
点赞
1701
轻算力AI实验室
1周前
16g显存32G内存流畅运行龙虾+35B稀疏大模型 #OPENCLAW #QWEN35 #本地部署 #5060TI本地部署 #16G显卡本地部署
00:00 / 02:30
连播
清屏
智能
倍速
点赞
79
王耀鐭
2周前
本地部署Qwen3.5: vllm VS llama.cpp #大模型部署 #大模型 #学习日常
00:00 / 07:32
连播
清屏
智能
倍速
点赞
28
子龙爱分享
1周前
我量化了Qwen3.5_35B!显存速度质量全拉满+本地养虾 完犊子!我不小心把Qwen3.5_35B量化了!显存速度质量全拉满+联网技巧,OpenClaw本地轻松养虾!50系显卡的春天#openclaw #本地模型 #ai #开源 #分享
00:00 / 25:48
连播
清屏
智能
倍速
点赞
80
鸦无量
8月前
2025年AI本地部署性价比之王!双卡V100! 32G大显存,deepseek-r1:32b、qwen3:32b等模型随便跑。比同价位2080Ti 22G算力更高、显存更大!安装有些麻烦,但是值得!#ai本地部署 #v100显卡 #显卡坞 #deepseek #qwen
00:00 / 05:20
连播
清屏
智能
倍速
点赞
2357
AI伙夫长
1年前
全网都在找Qwen2.5-omni多模态大模型如何使用 这里我将告诉大家两个使用和申请他的方法,第一个直接就能使用,第二个可在手机端操作,快来拿走吧!#AI #AI工具 #qwen25omni #多模态ai
00:00 / 01:19
连播
清屏
智能
倍速
点赞
643
用户793874482068
3周前
小模型超智能,3000元本地流畅运行Qwen3.5 系列模型 #随变ai随便玩 #这也能开播
00:00 / 02:55
连播
清屏
智能
倍速
点赞
117
AI猿姗姗
1年前
20分钟学会qwen大模型本地部署+微调法律大模型,只需5G 20分钟学会qwen大模型本地部署+微调法律大模型(只需5G内存) #大语言模型 #qwen #通义千问 #大模型本地部署 #大模型微调
00:00 / 25:56
连播
清屏
智能
倍速
点赞
214
Ning好
6天前
无Token消耗,Openclaw调用本地部署大模型 #token #openclaw #大模型 #知识分享 #涨知识
00:00 / 01:48
连播
清屏
智能
倍速
点赞
42
薛定谔的叨叨
2周前
阿里千问qwen3.5-35B-A3B大模型本地部署体验,实现养龙虾模型自由#大模型 #本地大模型 #部署大模型
00:00 / 06:47
连播
清屏
智能
倍速
点赞
83
Paper朱
1周前
token到底是什么?如何使用以及怎么调用api#我的养虾日记 #api #ai #我在抖音写日记 #openclaw
00:00 / 03:39
连播
清屏
智能
倍速
点赞
49
爱弹琴的程序猿
4天前
第49集 | 免费获取 2亿Token,快去领给Openclaw #openclaw #免费token #2亿token #免费算力 #1000万Tokens领取
00:00 / 01:01
连播
清屏
智能
倍速
点赞
87
AI溪水哥
6天前
一篇讲完 openclaw 的模型配置 openclaw25种模型介绍,kimi配置教程,qwen配置教程,deepseek配置教程,多模型切换教程 #openclaw #model #大模型 #模型配置
00:00 / 11:04
连播
清屏
智能
倍速
点赞
35
一品Ai说
2周前
本地跑大模型!不花1分钱Token,超简单教程#ollama
00:00 / 02:49
连播
清屏
智能
倍速
点赞
46
零刻官方旗舰店
4天前
零刻OpenClaw | Ubuntu本地部署及QQ接入指南 #零刻OpenClaw #openclaw教程 #qq接入openclaw
00:00 / 02:52
连播
清屏
智能
倍速
点赞
13
芦苇草server
1周前
4090 96G显存Qwen3.5-35B实时视频语言测试 #SGLANG框架 #本地模型部署# Live-VLM-WebUI #多模态大模型 #视觉语言测试
00:00 / 01:48
连播
清屏
智能
倍速
点赞
18
羊群中无助的狼
3周前
#copaw 手牵手小白本地部署教程 #copaw 本地安装教程 如果有不懂的或者需要安装的 可以留言 有偿代安装
00:00 / 13:37
连播
清屏
智能
倍速
点赞
253
哈工老韩
2周前
完全本地部署的龙虾和大模型的速度#哈工老韩
00:00 / 00:31
连播
清屏
智能
倍速
点赞
287
比格熊
3周前
Ai编程本地大模型实测 #AI编程 #本地大模型 #java Ai编程本地大模型实测 #AI编程 #本地大模型 #java #continue #AI
00:00 / 02:08
连播
清屏
智能
倍速
点赞
39
懂AI的引路哥
4天前
OpenClaw免费模型实测推荐 #OpenClaw #免费模型 #AI agent #Kimi K2.5 #阿里Qwen
00:00 / 02:23
连播
清屏
智能
倍速
点赞
2
简介:
您在查找“
qwen3.5本地怎么看token
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-03-28 06:00
最新推荐:
洛克王国为佳抖在哪爪
彼得大道魔法粉尘怎么获得
061洛克王国怎么没有
宇宙到底有多大地球宛如一粒尘埃
热身运动给翼王吗
艾比加惊魂寻宝队的玩法
善良又孝心人还可以
洛克王国洛克币哪个柜子出可可果
我不学三角函数的几何
36周胎儿劲有多大
相关推荐:
卢昱晓手语舞有错误吗
酸辣汤有料包怎么做
108国道山西收费的依据是什么
王者荣耀s41海月皮肤什么时候出
压心包经的功效与作用
周杰伦淘金小镇在哪里拍的mv
什么树的作息跟梧桐树像
头七你得来啊原片段
魔力之源沙滩在哪
洛克王国七朵伞伞菌在哪
热门推荐:
80版本制作界面去哪里了
飞书助手权限设置
红仿大师怎么解压
codex适合跨境电商卖家吗
temu上架抱枕流程
拼多多联合营销是怎么回事
atk地平线耳机是谁代工的
codex保姆教程
ok math怎么获取验证码
ai在飞书群里面互聊怎么弄