Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
焊工专用围裙
华电550兆瓦燃气轮机上市了吗
消防控制柜原理讲解及接线图
木纤维如何造纸
法兰ISOK型与ISOF型有啥区别
卷扬机钢丝绳
多功能刨锯购买
中捷6113
高空作业一镜到底
2026年战略能源是什么
智东西
3周前
马斯克惊呼太强了!阿里Qwen开源四款小模型 Qwen3.5-0.8B、Qwen3.5-2B、Qwen3.5-4B、Qwen3.5-9B,引发外网热议,在iPhone17pro上都能实现飞速运行,回答速度堪比云端。#马斯克 #阿里巴巴 #Qwen #千问大模型
00:00 / 01:00
连播
清屏
智能
倍速
点赞
3465
杨大哥
4周前
Qwen3.5 4b/9b, 适配龙虾机器人的本地模型
00:00 / 01:33
连播
清屏
智能
倍速
点赞
101
kate人不错
3周前
Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 你会看到: - 不同量化下的显存占用与推理速度差异 - 浏览器端 WebGPU 运行 0.8B 的体验 - 视觉识别/OCR 实测表现 - 9B 与 35B-A3B 在任务稳定性与效果上的差异 - LM Studio 关闭 thinking 的实操方法 - 在 OpenCode / Cline 中做工具调用与编码测试的结果 如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 时间戳 00:00 Qwen3.5 中小模型简介 00:50 格式与部署 02:21 显存与速度实测 03:40 视觉/OCR能力对比 05:33 本地实战案例 11:00 工具调用与编码测试 #Qwen35 #本地大模型 #Ollama #LMStudio #千问
00:00 / 13:28
连播
清屏
智能
倍速
点赞
572
badgehu
2周前
本地部署openclaw也是养上龙虾了 调用本地qwen3.5 9b模型,又省下token了#openclaw #ollama #AI
00:00 / 00:39
连播
清屏
智能
倍速
点赞
5
千问大模型
10月前
九年吃灰老手机,轻松部署Qwen 3大模型 别不信!这台“古董”手机在我抽屉里躺了快十年,成功部署上了Qwen3大语言模型,还能丝滑运行,现在就手把手教你实现。 #Qwen #人工智能 #大模型 #本地部署
00:00 / 02:23
连播
清屏
智能
倍速
点赞
2163
澳門AI佬
3周前
9B 参数干翻 80B? 阿里开源四款Qwen3.5系列小模型 - 可在手机、笔记本、普通电脑上运行... - 而且都是多模态,支持文字、图片、视频输入 - 百万 Agent 级别 RL 训练,Agent 任务能力显著提升 - 支持 201 种语言 - 支持 262K token 的超长上下文,可扩展到100万 下面是2B版本在手机上本地运行#玩个很新的东西 #每日ai
00:00 / 00:07
连播
清屏
智能
倍速
点赞
83
老王Bingo
3周前
小块头,大智慧!四款 Qwen3.5 小模型开源 今天,阿里正式开源4款 Qwen3.5 小尺寸模型系列:Qwen3.5-0.8B/2B/4B/9B。这一系列模型继承了 Qwen3.5 家族的强大基因,采用原生多模态训练、最新的模型架构,表现出卓越的性能,以满足从极端资源受限到高性能轻量级应用的不同需求: 📌 0.8B / 2B:极致轻量,端侧首选 特点:体积极小,推理速度极快。 场景:非常适合移动设备、IoT 边缘设备部署,以及低延时的实时交互场景。 📌 4B:轻量级 Agent 的强劲基座 特点:性能强劲,多模态基座模型,适合Agent。 场景:适合作为轻量级智能体的核心大脑,完美平衡了性能与资源消耗。 📌 9B:紧凑尺寸,越级性能 特点:结构紧凑,但性能媲美gpt-oss-120B,让人惊艳。 场景:适合需要较高智力水平但受限显存资源的服务器端部署,是性价比极高的通用模型选择。#Qwen #开源
00:00 / 06:02
连播
清屏
智能
倍速
点赞
22
liuweiqing
2周前
使用免费32GB显存微调反人类qwen3.5-9b模型 代码:https://www.kaggle.com/code/liuweiq/qwen3-5-antihuman-lora-9b #人工智能
00:00 / 05:25
连播
清屏
智能
倍速
点赞
13
InfoQ
3周前
Qwen 3.5-9B性能直逼120B,体积小了13倍。这意味着:有些模型虽然长得胖,但真没这个9B的聪明。🚀 #阿里Qwen #120B #大模型 #iPhone17Pro #26万 #InfoQ @抖音创作小助手
00:00 / 03:14
连播
清屏
智能
倍速
点赞
63
遇见AI
5天前
ClaudeCode+Ollama本地部署 当热门流行AI工具遇上以9B参数碾压gpt-oss-120b的Qwen3.5,这绝对是极具性价比的组合。Claude 系列模型确实强大,但高额的定价对新手和普通玩家太不友好。Claudecode + Qwen3.5这套组合其实已经能满足80%的场景,完全本地运行,不产生Token费用,容错率极高,非常适合新手学习和普通玩家日常使用,AI时代已经来了,你还在等什么呢?#claude #qwen #ollama #AI工具 #AI编程
00:00 / 02:36
连播
清屏
智能
倍速
点赞
65
ModelDaDa
3周前
一分钟用上本地小模型 🤩一分钟教你在 Windows 本地用上阿里 Qwen3.5 - 4B 大模型!超简单步骤,小白也能秒上手,赶紧来试试!#Qwen3.5 - 4B 模型 #本地部署 #阿里千问 #大模型使用 #Windows 操作 #LMStudio
00:00 / 01:04
连播
清屏
智能
倍速
点赞
160
Tony沈哲
3周前
本地 AI 推理平台 第十一期 Vol.11|Qwen3.5-9B 实测:代码 + VLM + Agent 这一期我们实测一个新的本地模型:Qwen3.5-9B。 它不仅是一个 9B 参数的代码模型,同时还是一个 VLM(视觉语言模型),支持图像理解。 所以这一期我设计了三个测试场景,看看这个模型在真实工程中的表现: 测试 1:纯 LLM 能力 让模型实现一个 OpenCV C++ 的直方图匹配算法, 主要观察: * 代码质量 * OpenCV API 使用 * 算法逻辑 看看一个 9B 模型本身的代码能力到底如何。 测试 2:VLM 多模态能力 因为 Qwen3.5-9B 是 多模态模型, 我们给它输入一张图片,让模型描述图片内容。 测试它的 图像理解能力。 测试 3:Agent 工程能力(重点) 在真实工程里,模型不仅要回答问题,还要 完成任务。 所以这一部分让 Agent 自动完成一个工程操作: 生成一个 OpenCV C++ 的直方图匹配函数 并自动保存为: histogram_match.cpp 通过这个例子可以看到: 模型能力 → 如何变成 Agent 的工程能力 这一期主要想回答一个问题: 一个 9B 的本地模型,在代码、视觉、多工具 Agent 场景下到底能做到什么程度? 如果你对 本地 AI 推理 / Agent / RAG / 小模型能力实测感兴趣,欢迎关注这个系列。 #Qwen #本地大模型 #LLM #VLM #Agent
00:00 / 07:43
连播
清屏
智能
倍速
点赞
38
技术爬爬虾
11月前
全球最强开源模型Qwen3,全场景实测+本地部署教程 今天凌晨阿里开源了重磅的Qwen3大模型。作为AI大模型开源届的“源神",最近几个月阿里密集地开源了一系列模型,覆盖了众多场景与功能。 今天Qwen的版本号更是直接跃升到了3.0,足见这次开源的重量级地位。本期视频我会介绍下Qwen3的新特点,并且从全场景实战测试下,视频最后我们一起看下如何本地部署,使用家用显卡4090能跑多大模型,速度怎样。 #阿里云 #通义千问 #Qwen3 #AI #人工智能
00:00 / 10:06
连播
清屏
智能
倍速
点赞
2677
Ruby_Axxx
2周前
手搓本地agent测试 测试模型为qwen3.5-9b-q8_0量化版本,采用llama.cpp编译运行,测试过程的任务执行速度和工具调用能力在小参数模型里是一绝的#qwen #ai #agent #openclaw
00:00 / 01:40
连播
清屏
智能
倍速
点赞
2
蓝发少年
2周前
天玑9500+Qwen3.5,都很强!但有硬伤 最近Qwen3.5刚发,大家都说是移动端新神。今天实测了一下天玑9500在MNN框架下跑Qwen3.5(涵盖0.8B到9B)。#Qwen #AI #天玑9500 #大模型 #手机
00:00 / 02:21
连播
清屏
智能
倍速
点赞
16
AI逐风
3周前
千问3.5小尺寸模型发布 手机本地运行的大模型越来越强了。真正完全免费完全隐私 #qwen #千问
00:00 / 00:32
连播
清屏
智能
倍速
点赞
59
沪上码仔AI
4周前
#qwen3.5 #LLM #开源大模型 #mac #本地部署 在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
00:00 / 02:11
连播
清屏
智能
倍速
点赞
373
用户793874482068
3周前
小模型超智能,3000元本地流畅运行Qwen3.5 系列模型 #随变ai随便玩 #这也能开播
00:00 / 02:55
连播
清屏
智能
倍速
点赞
116
清华鑫哥讲AI智能体
11月前
阿里千问大模型qwen3发布超越deepseekr1登顶全球 阿里千万大模型qwen3深夜发布!性能超越deepseekr1模型,登顶全球开源模型第一名,也是国内首个混合推理模型。 #qwen3 #阿里千问 #千问3 #通义千问 #智能体搭建
00:00 / 02:13
连播
清屏
智能
倍速
点赞
137
船长⁶
1周前
#创作者扶持计划 #ollama #千问3.5 #Qwen #本地部署 洋垃圾V100大战5070ti! 结果显而易见,V100是什么路边一条啊!!!
00:00 / 01:40
连播
清屏
智能
倍速
点赞
16
刘东-长乐未央
1周前
mac 使用 oMLX 本地运行 Qwen 3.5 AI模型 文字版内容,请看课程讲义文档:https://clwy.cn/courses/openclaw 注意:本课程使用oMLX部署,仅支持M 系列芯片的Mac。 Windows 用户,请改为Ollama或LM Studio。 #oMLX #千问 #Qwen #AI大模型
00:00 / 02:17
连播
清屏
智能
倍速
点赞
107
小工蚁
3天前
OpenClaw运行独立部署模型推荐 Qwen3.5-27B #小工蚁 #openclaw #开源大模型
00:00 / 00:37
连播
清屏
智能
倍速
点赞
380
EgoAI(特斯拉FSD)
3周前
丐版Mac mini测试Qwen 3.5 9B模型,性能惊艳 #千问 #千问大模型 #macmini
00:00 / 01:33
连播
清屏
智能
倍速
点赞
49
瑞克老张有话说
3周前
养OpenClaw大龙虾的token噩梦,居然被阿里给治好了 #AI #OPENCLAW #Qwen #大模型 3月3日消息,阿里巴巴昨晚再度开源千问3.5系列模型,这次是4款小尺寸模型。其中最小的0.8B 和2B两款,体积极小,推理速度极快,适合移动设备、IoT 边缘设备部署,以及低延时的实时交互场景。4B的这款,性能强劲,适合作为轻量级Agent的核心大脑,平衡了性能与资源消耗。9B的这款,性能可媲美GPT-OSS-120B,适合需要较高智力水平但受限显存资源的服务器端部署,是性价比极高的通用模型选择。四款Qwen3.5新模型虽是小尺寸,但均拥有原生多模态能力,以极小的参数量实现了极大的性能提升。模型发布后,迅速引爆AI社区,马斯克也火速在社交媒体上点赞评论,称阿里千问模型“智能密度令人印象深刻”。
00:00 / 04:06
连播
清屏
智能
倍速
点赞
1121
木火相助
3天前
虽然电脑配置有限,但我还是装了本地大模型,关键还能顺畅地用起来,而且智力不低。虽然暂时还没解决怎么用它来养本地龙虾,但我相信会找到办法的。#本地大模型 #openclaw #ollama #创作者扶持计划 #创作者激励计划
00:00 / 04:57
连播
清屏
智能
倍速
点赞
124
再见静无言
3周前
#qwen3.5 #ai #agent#自动操作电脑 利用本地的qwen3.5 9b量化模型借鉴autoglm项目让agent自主操作自己的电脑,可玩性较强
00:00 / 08:59
连播
清屏
智能
倍速
点赞
21
沐凌熙
3周前
Qwen3.5小模型实现手机端本地运OCR兼顾效率与隐私 #Ai #电脑 #科技
00:00 / 02:19
连播
清屏
智能
倍速
点赞
6
赋范课堂
10月前
一文讲透Qwen3 8款模型及其关键技术! #人工智能 #ai #Qwen3 #大模型 #混合推理模型
00:00 / 13:27
连播
清屏
智能
倍速
点赞
39
Ai 学习的老章
2周前
神操作再现,单卡3090 起跑!Claude-Opus蒸馏Qwen3.5-27B #大模型#蒸馏 #程序员
00:00 / 01:46
连播
清屏
智能
倍速
点赞
734
郑州智沛科技
2周前
Openclaw用本地模型也可以干活了,先养着玩玩
00:00 / 00:38
连播
清屏
智能
倍速
点赞
144
Peter在深港
3周前
真的好感谢 #千问 qwen3.5 开源的模型,让我变成了故事里的男主角。 #AI
00:00 / 01:24
连播
清屏
智能
倍速
点赞
353
小萌芽科技
3周前
阿里开源四款Qwen3.5小模型,马斯克惊叹“智能密度”惊人 阿里近日开源Qwen3.5系列四款小尺寸模型(0.8B/2B/4B/9B),这些模型专为端侧设备优化,可在笔记本电脑甚至手机上运行。马斯克在社交媒体评价其具备“令人惊叹的智能密度”,引发开发者社区热烈反响。 #Qwen35 #马斯克 #阿里 #AI小模型 性能突破:小模型实现大能力 Qwen3.5-9B在多项基准测试中表现卓越,在GPQA Diamond、MMMU-Pro等评测中超越GPT-5 nano、Gemini 2.5 Flash-Lite等大型模型。特别是9B版本在MMMU-Pro测试中以13分优势击败GPT-5-Nano,展现出色性能。4B版本在多语言知识、视觉推理等任务接近9B水平,成为轻量级智能体的理想选择。 端侧部署优势明显 0.8B/2B版本专为移动设备和IoT边缘设备设计,具备低延时特性;4B版本支持多模态任务,平衡性能与资源消耗;9B版本在受限显存环境下提供高性价比服务。实测显示,Qwen3.5-9B在AMD Ryzen AI平台配合量化算法,处理速度达30 token/s,仅需16GB显存即可运行。 开发者积极验证应用潜力 开发者验证模型可在Mac mini等设备配合OpenClaw实现全天候运行,成本低于初级员工月薪。有用户成功在iPhone部署,引发移动端应用热潮。虽然小模型在复杂数学推理方面存在局限,但其在特定任务上已达到商用级水平。 此次开源标志着端侧AI能力显著提升,为低成本AI部署开辟新路径。模型已在魔搭社区和Hugging Face开放下载,助力全球开发者探索边缘计算新场景。
00:00 / 05:51
连播
清屏
智能
倍速
点赞
36
AI硬核说
3周前
端侧AI模型怎么选?6 款主流超轻量AI模型深度测评! 还在为选择合适的端侧 AI 模型而烦恼吗?本视频为你带来超轻量 AI 模型(0.5B-1.5B 参数)的技术选型全攻略!我们深度对比了阿里 Qwen3.5-0.8B、Meta Llama 3.1-1B、Google Gemma3-1B、面壁智能 MiniCPM-4.0-0.5B、深度求索 DeepSeek-R1-1.3B、阿里 Qwen2-0.5B 这 6 款主流开源模型,一次讲透!你也能成为端侧 AI 选型专家! #端侧AI #超轻量大模型 #AI模型选型 #Llama #Qwen
00:00 / 08:11
连播
清屏
智能
倍速
点赞
19
Pt925
3周前
#openclaw本地部署#Qwen端模型 #openclaw本地部署#Qwen端模型#Token永久免费了
00:00 / 00:10
连播
清屏
智能
倍速
点赞
142
境无止境
3周前
阿里Qwen 3.5 small 模型发布! 原生多模态 260k 上下文 #ai
00:00 / 00:31
连播
清屏
智能
倍速
点赞
27
子龙爱分享
3天前
OpenClaw免费养虾爽到飞起,Qwen3.5速度翻倍 ✅ 零成本通用提速方案,不用复杂量化,小白也能轻松上手 ✅ 详细参数设置步骤,一步步跟着操作,直接让模型速度翻倍 ✅ OpenClaw 本地部署教程,免费畅玩大模型,隐私安全有保障 ⚠️ 重要声明 本视频内容仅为人工智能技术学习与研究交流,仅限个人本地测试使用。 严禁用于任何违法违规、商业盈利及未获授权的传播场景。 所有操作需遵守相关法律法规及开源协议,违规使用产生的一切责任由使用者自行承担。#Qwen3.5, #大模型提速,# 本地大模型,#OpenClaw, #AI 养虾,# 大模型部署,#AI 教程,# 本地 AI, #Qwen3.5, #LLMSpeedUp, #LocalLLM, #OpenClaw, #AIForFree, #LLMDeployment, #AITutorial, #LocalAI,
00:00 / 08:25
连播
清屏
智能
倍速
点赞
15
懂AI的引路哥
3天前
OpenClaw免费模型实测推荐 #OpenClaw #免费模型 #AI agent #Kimi K2.5 #阿里Qwen
00:00 / 02:23
连播
清屏
智能
倍速
点赞
2
平步青云
3天前
想本地跑Qwen 3.5 72B大模型,却被显存、内存分配搞懵的?手里拿着RTX6000 Pro 96G显卡、256G大内存,愣是不知道怎么让模型各司其职,生怕一跑就爆显存、卡成狗! 今天我用漫画给你讲透,Ubuntu系统下,大模型、小模型到底该怎么分配资源,纯干货,看完直接抄作业! 首先咱先搞懂一个核心误区:不是所有模型都要挤显存!很多人以为模型运行全靠显卡,结果把TTS、ASR这些小模型也往显存里塞,直接把96G显存挤爆,这完全是错的! 我的配置是Ubuntu桌面版,RTX6000 Pro满血96G显存,256G大内存,要跑Qwen3.5 72B 8比特大模型,再加Qwen轻量ASR、TTS,还有视觉模型,怎么配才不卡? 记死了!大模型专属显存,小模型全扔内存,这是铁律!Qwen3.5 72B这种大模型,必须全塞进显存,咱们用llama.cpp启动,加两行关键参数,-n-gpu-layers 100让所有模型层都进显存,--no-cpu-offload禁止往内存跑,满负荷运行也就占80多G显存,96G完全够用,还留余量! 那小模型咋办?语音识别、语音合成、视觉小模型,代码里加一句.to("cpu"),强制跑内存,别碰显存!别觉得小模型不吃内存,就像我之前Mac跑TTS,小模型运行也能占十几G内存,但咱有256G大内存,三个小模型全跑内存,加系统开销,顶天也就七八十G,剩下一百多G随便造,根本不会爆! 很多人纳闷,72B这么大的模型,内存才占一二十G,小模型反而占更多?很简单!大模型权重全在显存,内存只负责调度打杂,小模型没显卡算力加持,全靠内存运行,所以占比看着反常,实则完全合理! 还有人问,用工具部署会自动分配吗?千万别信!llama这些工具不会智能区分,你不手动设置,它就全往显存塞,必爆无疑!必须人工干预,大模型锁显存,小模型锁内存,互不抢资源,运行起来流畅不卡顿! 总结一下,Ubuntu部署就这么干:大模型加参数全跑显存,小模型加代码全跑内存,96G显存+256G内存,这套组合跑72B大模型+多小模型,稳稳当当,再也不用担心爆显存、卡机! 同款配置的兄弟,直接照着这个方法配,新手也能一次成功,觉得有用的赶紧收藏,别等用的时候找不到!
00:00 / 03:02
连播
清屏
智能
倍速
点赞
11
程序员御风
1月前
Qwen3.5 实测:会写代码,能读视频 原生多模态到底强在哪? #AI #Qwen #千问大模型 #人工智能 #开源
00:00 / 06:07
连播
清屏
智能
倍速
点赞
236
一只犯懒的猫
1周前
Qwen3.59B跑自己的Openclaw龙虾是什么表现? Qwen3.59B运行自己的Openclaw龙虾是什么表现? 小模型大智慧,表现比较亮眼。可惜我电脑配置不够。 #Openclaw #Qwen
00:00 / 23:33
连播
清屏
智能
倍速
点赞
6
lukeewin
1周前
终于本地跑起来了大模型 | 本地化部署Qwen3.5大模型 | 本地部署多模态大模型 #多模态大模型 #大模型 #ai #人工智能 #Qwen3.5
00:00 / 03:00
连播
清屏
智能
倍速
点赞
8
AGI-Eval 大模型评测
3周前
阿里Qwen3.5开源小模型,端侧AI性能再突破 阿里发布Qwen3.5系列轻量化模型,小参数强性能,手机端也能流畅运行,引爆业界关注。 #AGIEval #通义千问 #AI大模型 #端侧AI
00:00 / 00:11
连播
清屏
智能
倍速
点赞
0
快科技
3周前
阿里开源4款Qwen3.5小尺寸模型 马斯克点赞:惊人的智能水平#阿里#马斯克
00:00 / 00:11
连播
清屏
智能
倍速
点赞
42
瑞克老张有话说
8月前
阿里连续开源三个模型,干懵硅谷 #大模型 #AI #阿里 #Qwen 一周内连续开源三个核心模型,从通用到编程到推理,通通霸榜,这就是新时代AI开发基础设施阿里云的实力,也是中国开源模型地位的进一步体现。
00:00 / 04:57
连播
清屏
智能
倍速
点赞
666
王耀鐭
1周前
本地部署Qwen3.5: vllm VS llama.cpp #大模型部署 #大模型 #学习日常
00:00 / 07:32
连播
清屏
智能
倍速
点赞
27
IT极客.J
2周前
国产 AI 王炸! Qwen3.5 让旧笔记本跑顶级大模型,算力平权时代来了!
00:00 / 07:48
连播
清屏
智能
倍速
点赞
0
大曼哒
2周前
本地部署智能体:Qwen3.5 + Claude Code 本视频将演示如何使用 Llama.cpp 和 Claude Code 在本地安装 Qwen3.5 4B 模型 #claude #ai编程 #千问qwen #ai #智能体
00:00 / 06:07
连播
清屏
智能
倍速
点赞
138
东日
10月前
qwen3-30b-目前推荐使用的本地大语言模型 可以选择8845hs机器,推理速度最快24tokens/s
00:00 / 07:07
连播
清屏
智能
倍速
点赞
64
五里墩茶社
1月前
Qwen3.5发布,集成OpenClaw打造最强国产AI助手 通义千问正式发布Qwen3.5,并推出Qwen3.5系列的第一款模型 Qwen3.5-397B-A17B 的开放权重版本。这是一款原生视觉-语言模型。 配合近期大火的OpenClaw,集成Qwen3.5-397B-A17B,真能打造最强国产AI助手。 #ai #通义千问 #qwen @通义实验室
00:00 / 09:09
连播
清屏
智能
倍速
点赞
1027
小天fotos
1月前
Qwen3.5-27B太好玩,不小心养了一窝龙虾 #ai新星计划 #抖音年味新知贺岁 #openclaw #qwen #4090魔改
00:00 / 08:29
连播
清屏
智能
倍速
点赞
NaN
通义实验室
1月前
除夕!Qwen3.5来了!我们很高兴正式发布 Qwen3.5,并推出Qwen3.5系列的第一款模型—— Qwen3.5-397B-A17B 的开放权重版本,作为原生视觉-语言模型,在推理、编程、智能体能力与多模态理解等全方位基准评估中表现优异。 亮点速览: ✦ 基于混合结构,397B总参/17B激活,能力匹配>1T参数的Qwen3-Max; ✦ 原生多模态设计,同等规模下超越Qwen3-VL; ✦ 覆盖201种语言; ✦ 在代码生成、智能体推理与多模态理解方面表现卓越! #Qwen #千问大模型 #大模型 #除夕 #新年快乐
00:00 / 01:15
连播
清屏
智能
倍速
点赞
NaN
小工蚁
2周前
Ktransformers发布新版本支持Qwen3.5等模型 #小工蚁 #大模型推理 #开源软件
00:00 / 02:35
连播
清屏
智能
倍速
点赞
68
tornado
3周前
#Qwen小模型大智慧
00:00 / 04:53
连播
清屏
智能
倍速
点赞
2
子龙爱分享
1周前
我量化了Qwen3.5_35B!显存速度质量全拉满+本地养虾 完犊子!我不小心把Qwen3.5_35B量化了!显存速度质量全拉满+联网技巧,OpenClaw本地轻松养虾!50系显卡的春天#openclaw #本地模型 #ai #开源 #分享
00:00 / 25:48
连播
清屏
智能
倍速
点赞
76
码上架构
1月前
Qwen3.5 多模态实战 使用Qwen3.5 来做 OCR 和目标检测任务 #ai #大模型 #qwen #ocr #目标检测
00:00 / 03:46
连播
清屏
智能
倍速
点赞
129
lukeewin
1周前
本地服务器部署AI大模型 | 本地化部署Qwen3.5-4B大模型 | 人工智能 | 生成式AI | 多模态AI大模型本地化部署 #大模型本地化部署 #大模型 #ai #Qwen3.5 #多模态大模型
00:00 / 02:08
连播
清屏
智能
倍速
点赞
9
懂AI的引路哥
5天前
4060 8G 白嫖 NVIDIA NIM #4060 8G #NVIDIA NIM #大模型 #免费福利 #教程
00:00 / 02:34
连播
清屏
智能
倍速
点赞
2
抓耳挠腮
5天前
本地部新模型千问3.5 Qwen3.5-Claude-4.6-Opus-abliterated#我的专业 #程序猿日常
00:00 / 00:27
连播
清屏
智能
倍速
点赞
1469
也好
4天前
本地ai桌宠测试之别走开广告之后更精彩 #AI #桌宠 #本地大模型 用的qwen3.5和qwen3-tts,这个合成速度太慢了,RTF达到了惊人的四点多,没招了,笔记本的性能还是太差了
00:00 / 01:08
连播
清屏
智能
倍速
点赞
0
IT咖啡馆
1月前
深度实测Qwen3.5,原生多模态表现如何 #AI新星计划 #qwen #千问大模型 #IT咖啡馆 #大模型
00:00 / 07:52
连播
清屏
智能
倍速
点赞
2459
爱聊AI的小石头
5天前
本地大模型 #AI #大模型 #MacBook#flash-moe#科技前沿 #qwen3.5 #人工神经网络 #算力平权
00:00 / 01:22
连播
清屏
智能
倍速
点赞
22
刘东-长乐未央
6天前
OpenClaw 安装、配置使用本地 Qwen 3.5 模型 #OpenClaw #AI #本地大模型
00:00 / 02:57
连播
清屏
智能
倍速
点赞
116
简介:
您在查找“
Qwen3.5-9B多功能模型
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-03-28 07:02
最新推荐:
微观游乐园
洛克王国怎么去好友世界捉虫
蝴蝶喜欢采摘什么
如果不带娃你想干什么
3月26更新完怎么掉模拟了
西安导游的素质为何那么高
洛克王国孵蛋后可以用棱彩球吗
不是首领的精灵怎么超进化
什么班干啥事你我们别的
德州扒鸡是非物质文化遗产吗
相关推荐:
Al瑶池温泉看够了吗
十二生肖中谁最会装病
女子马拉松张水华最好成绩
源轩有道招募合伙人靠谱吗
距离2027年腊八还有多少天
指甲撕到肉里肿了怎么办
Hp installer是什么意思
楼层低虫多有宠物怎么办
什么虫子的粪便是白色分末
想去你的森林听流水声什么意思
热门推荐:
鸭痘是淋巴吗
焊工专用围裙
木纤维如何造纸
早优3015旱稻种子
元梦之星兔子该如何预防
多功能刨锯购买
中捷6113
冈比亚水稻回国详细过程
2026年战略能源是什么
桌面履带车材料包