Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
faye atom最后什么姿势
xy李傲铭干声效果
程艾影716是什么意思
五一什么时候才送读孤单赤胆修仙糖豆
九原早雾手法
甘竹心是如何设置的
梦俊送的杯子是什么
豆包豆包这个蘑菇可以吃吗寸头女博主
谁说你了?
龙浩天一枝梅嘉年华怎么算
数字宅民MuteZ
2周前
最新qwen3.5 27b 蒸馏版v3.5#openclaw #千问 #大模型 #本地部署 #小龙虾
00:00 / 01:18
连播
清屏
智能
倍速
点赞
847
赛博杨千幻
3周前
🚀 DFlash - Qwen3.5-27B 推理速度暴涨5倍!UCSD Z-Lab 最新开源项目扩散模型投机解码 + vLLM/SGLang 直连仅加2B小模型,吞吐量翻5倍。#github优质项目 #github开源 #大模型 @赛博杨千幻 #DFlash #Qwen3.5
00:00 / 02:09
连播
清屏
智能
倍速
点赞
90
Ai 学习的老章
3周前
一个更神奇的Qwen3.5-27B版本,推理速度暴涨5倍 今天介绍一个让我非常兴奋的项目,叫 DFlash,来自 UCSD 的 z-lab 团队。它能让 Qwen3.5-27B 的推理速度暴涨到原来的5倍,关键是——生成质量完全不打折 先说原理。大模型生成文字,是一个 token 一个 token 往外蹦的,串行瓶颈在那摆着。之前业界用推测解码来加速,先用小模型猜一串 token,再让大模型验证。但之前最强的方案 EAGLE-3,加速比也就2到3倍 DFlash 把"猜"的过程,从自回归换成了扩散模型。一次前向传播,直接并行生成一整个 block 的 token。不管你猜8个还是16个,都是一次搞定。这就是它快的核心原因 更精妙的是,DFlash 会从大模型的隐藏层抽特征,注入到小模型的每一层。这样小模型猜得特别准,HumanEval 上平均每轮能猜中9个 token 实测数据很能说明问题。在 HumanEval 上,单并发直接5.2倍加速。Math500 上4.7倍。哪怕高并发场景下,也能维持1.5到1.9倍。而且 drafter 模型只有2B 参数,加载几乎不占额外显存 最关键的是,已经适配了 vLLM、SGLang 和 Transformers 三大框架。生产环境直接能用 我的判断是,如果你在用 Qwen3.5-27B 做推理服务,DFlash 几乎是个无脑加分项。多加载一个 2B 的小模型,吞吐量翻好几倍,简直是免费的午餐
00:00 / 01:50
连播
清屏
智能
倍速
点赞
490
智冷算力工作站
3周前
VLLM QWEN3.5-27B AWQ 养龙虾大模型#千问大模型 #龙虾#ai服务器
00:00 / 01:43
连播
清屏
智能
倍速
点赞
13
杨大哥
2周前
千问Qwen3.6 27b发布
00:00 / 00:55
连播
清屏
智能
倍速
点赞
1729
小天fotos
2月前
Qwen3.5-27B太好玩,不小心养了一窝龙虾 #ai新星计划 #抖音年味新知贺岁 #openclaw #qwen #4090魔改
00:00 / 08:29
连播
清屏
智能
倍速
点赞
NaN
Ai 学习的老章
1月前
神操作再现,单卡3090 起跑!Claude-Opus蒸馏Qwen3.5-27B #大模型#蒸馏 #程序员
00:00 / 01:46
连播
清屏
智能
倍速
点赞
1024
小天fotos
1周前
离谱!Qwen3.6 27B生成速度飙到184t/s Qwen3.6 27B绝对是一个里程碑的时刻 现在全世界的极客都在拼命优化它 我也盘点了多个框架,做了完整测试 最终从20/s的速度跑到184t/s 有完整报告在我的repo里 你可以错过我的视频,但不能错过这个模型 #ai新星计划 #qwen36 #turboquant #dflash #deepseekv4
00:00 / 18:09
连播
清屏
智能
倍速
点赞
3451
爱玩的极客
1周前
千问3.6本地运行,这个是真生产力#AI #QWEN #QWEN3.6 #蒸馏
00:00 / 01:13
连播
清屏
智能
倍速
点赞
23
小工蚁
2月前
Qwen3.5 27B和35B选哪个?Ceval模型评测实践 #小工蚁 #通义千问 #开源大模型
00:00 / 02:31
连播
清屏
智能
倍速
点赞
228
橙色溪流
2周前
决战Gemma4⚡阿里深夜开源Qwen3.6-35B-A3B Qwen3.6-35B-A3B 依然采用MoE框架 但是在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwen3.5-27B 和 Gemma-31B 等Dense模型一较高下。 而且具备强大的多模态感知与推理能力,在大多数视觉语言基准上,它的表现已与 Claude Sonnet 4.5 持平,甚至在部分任务上实现超越。 另外,这周末我打算用turboquant+昨天发布的DFlash块扩散技术一起跑下Qwen3.5 27B 大家等着看效果吧 #科技下一站 #我在抖音聊科技 #qwen大模型 #DFlash #开源项目
00:00 / 00:47
连播
清屏
智能
倍速
点赞
1033
橙色溪流
1周前
开源大模型巅峰之作⛰️ Qwen3.6-27B惊世发布🔥 它不仅是一个 270 亿参数的稠密多模态模型,更标志着开源模型进入了“小尺寸,高性能”的新纪元 。 它以 27B 的参数规模,在所有核心编程基准测试中,全面超越了上一代拥有 397B 参数的开源旗舰 Qwen3.5-397B-A17B ,并全面追上甚至超越了Opus 4.5,证明了架构优化与训练深度的力量。 #科技下一站 #还有什么是不能ai的 #开源大模型 #与ai同行 #本地大模型
00:00 / 00:48
连播
清屏
智能
倍速
点赞
646
AI技能教学网
1月前
Qwen3.5蒸馏版本地部署教程 解析Qwopus核心优势:专注代码与硬逻辑,支持3090及Mac本地部署,拒绝废话干活快。#Qwen35 #大模型 #本地部署 #ClaudeCode #人工智能
00:00 / 03:31
连播
清屏
智能
倍速
点赞
366
天工开帧
2周前
社区模型新探,Qwen3.627B和opus-GLM-18B 彻夜长测,16G显卡端侧模型初选名单:Qwen3.6-27B-IQ3 ,Qwopus-GLM-18B-IQ5,Qwen 3.6-35B-A3B MoE-IQ4。跑轻度任务可以,写项目就算了。推理参数参考:-c 36864 -ngl 64 -t 5 --reasoning-budget 1024 --temp 0.6 --top-p 0.95 --top-k 20 --min-p 0.00 --flash-attn 1 --host 192.168.101.136 --port 13631 pause #程序代码 #AI前沿 #Qwen #llama
00:00 / 02:14
连播
清屏
智能
倍速
点赞
49
不夜
1周前
本地4种软件部署qwen3.6-27b性能测试 ollama,llama.cpp,LMstudio,vLLM本地部署测试#ollama#llamacpp#lmstudio#AI#vLLM
00:00 / 10:27
连播
清屏
智能
倍速
点赞
137
比格熊
1月前
Ai编程本地大模型实测 #AI编程 #本地大模型 #java Ai编程本地大模型实测 #AI编程 #本地大模型 #java #continue #AI
00:00 / 02:08
连播
清屏
智能
倍速
点赞
44
Tony沈哲
1月前
本地 AI 推理平台 第十三期 Vol.13|OpenClaw 接入本地推理:Qwen3.5-27B 实测 这一期测试一个比较有意思的组合: OpenClaw + 本地 AI 推理平台 + Qwen3.5-27B 模型。 我将 OpenClaw 接入到我正在开发的 本地 AI 推理平台, 让 OpenClaw 使用本地模型作为 推理后端。 本次使用的模型是: Qwen3.5-27B-Claude-4.6-Opus-Distilled(MLX 4bit) 这是一个基于 Qwen3.5-27B 的模型,并蒸馏了 Claude Opus 风格行为, 同时使用 MLX 框架 + 4bit 量化进行本地推理优化。 需要说明的是: 这个模型 并不是真正的 Claude, 而是一个 Claude 风格的蒸馏模型。 在这一期视频中主要演示: 1️⃣ OpenClaw 接入本地推理平台 通过接口让 OpenClaw 使用 本地 AI 推理平台作为推理后端: OpenClaw ↓ 本地 AI 推理平台 ↓ Qwen3.5-27B Claude Distilled 这样 OpenClaw 就可以使用 本地模型进行推理。 2️⃣ Qwen3.5-27B Claude Distilled 简单实测 通过几个简单示例测试模型能力: 代码生成能力 概念解释能力 实际使用体验 例如: 生成 OpenCV C++ 直方图匹配算法 解释 Transformer 为什么可以处理长文本 这一期主要展示的是: 如何让 OpenClaw 接入本地模型推理能力, 并测试 Qwen3.5-27B Claude Distilled 的实际效果。 如果你对 本地 AI 推理、Agent 架构、或 AI 系统开发感兴趣, 欢迎关注这个系列。 我会持续记录 本地 AI 推理平台的开发过程与实验。 #OpenClaw #抖音养虾人俱乐部 #Qwen #本地大模型
00:00 / 10:49
连播
清屏
智能
倍速
点赞
31
王纯迅
1月前
OpenCLaw终于在本地把qwen3.5-27b跑起来了 #openclaw #人工智能 #qwen #ollama #vLLM
00:00 / 08:12
连播
清屏
智能
倍速
点赞
282
小工蚁
1月前
评测Qwen3.5-27B理解CAD图纸能力究竟如何? #小工蚁 #开源大模型 #通义千问
00:00 / 06:47
连播
清屏
智能
倍速
点赞
75
小工蚁
1月前
OpenClaw运行独立部署模型推荐 Qwen3.5-27B #小工蚁 #openclaw #开源大模型
00:00 / 00:37
连播
清屏
智能
倍速
点赞
444
小工蚁
1月前
Qwen3.5-27B接入OpenClaw 能力会不会不靠谱 #小工蚁 #开源模型 #openclaw
00:00 / 00:41
连播
清屏
智能
倍速
点赞
46
橘橘橙AI
1周前
Qwen3.6-27B 实测:本地模型已经能替代前端开发? Qwen3.6-27B 本地实测:飞机大战、电商页、音乐播放器,一次生成完整前端项目。本地模型进入生产力时代。 #qwen #千问 #大模型
00:00 / 07:15
连播
清屏
智能
倍速
点赞
172
Ai 学习的老章
1月前
Qwen3.5 系列,最优选择 27B,最优精度 Q6 大模型光能聊天没用,得能调工具才算真能干活。有人用 ToolCall-15 这个开源基准,把 Qwen3.5 从 0.8B 到 397B 全系列拉出来测了一遍。15 个实战场景,覆盖工具选择、参数精度、多步链式调用、错误恢复这些硬指标。结果呢?27B 拿了满分,15 题全对。是唯一满分的原版模型。122B 丢了一题,397B 丢了两题。你没看错,参数越大反而越拉。 最能说明问题的是第 15 题。搜索冰岛人口然后算 2%。小模型直接编数据,搜都不搜。大模型呢?搜到了精确数字 372520,偏偏不用,非要用自己记忆里的大约 37 万去算。只有 27B 老老实实搜到数据,传给计算器,完美。一句话:小模型凭空捏造,大模型忽略数据,27B 直接串行搞定。 量化版本也测了。Q8 和 Q6 都拿满分,Q5 开始丢分。结论很清晰:Q6 就是最佳甜蜜点。跟 Q8 一样的满分,体积更小,速度更快。我觉得这个测试最牛的地方在于,它揭示了一个反直觉的事实:大参数模型因为见多识广,反而更不信工具返回的数据。
00:00 / 01:52
连播
清屏
智能
倍速
点赞
477
AI赚钱研究社
2月前
Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
00:00 / 05:26
连播
清屏
智能
倍速
点赞
890
AI技能研究社
1月前
Qwen3.5-27B Opus蒸馏版实测 实测注入Claude Opus数据的Qwen3.5蒸馏版,解决原生报错并支持长任务稳定运行。#Qwen35蒸馏版 #ClaudeOpus #AIAgent #本地大模型 #编程助手
00:00 / 01:37
连播
清屏
智能
倍速
点赞
123
万大叔来了
2周前
不堆参数堆效率,阿里这款小模型编程能力有多强! #阿里开源 #Qwen36 #AI编程 #大模型 #开发者工具
00:00 / 01:40
连播
清屏
智能
倍速
点赞
1
波波脑💛🇨🇳
1周前
小模型反杀大模型?本地AI性能全面起飞 很多人还在拼“大模型参数”, 但这次,规则变了。 27B小模型, 直接对标甚至碾压十倍体量的大模型。 更离谱的是—— 一张3090,就能本地跑到飞起。 不再依赖云,不再烧钱算力, 普通人,也能拥有“私有AI大脑”。 推理更快、成本更低、性能更猛, 这不是优化,这是一次“降维打击”。 当小模型开始吊打大模型, AI的真正拐点,才刚刚开始。 下一波红利,不属于堆参数的人, 而属于会用模型的人。 #AI模型 #本地部署 #开源AI #算力革命 #科技趋势
00:00 / 00:10
连播
清屏
智能
倍速
点赞
413
小工蚁
1月前
压测Qwen3.5-27B和35B-A3B比较性能差异 #小工蚁 #通义千问 #大模型性能
00:00 / 03:10
连播
清屏
智能
倍速
点赞
76
小工蚁
1周前
开源Qwen3.6-27B Agent编程比3.5有较进步 #小工蚁 #开源大模型 #通义千问
00:00 / 03:15
连播
清屏
智能
倍速
点赞
76
Ai 学习的老章
1周前
Qwopus3.6-27B 本地部署,24G 显卡轻松跑 Qwen 加 Opus,缝合怪又来了,这次是 27B 本地版。大家好,我是AI学习的老章。今天聊一个有意思的开源模型,Qwopus3.6-27B-v1-preview,作者 Jackrong。光看名字你就懂了,Qwen 加 Opus,意思是拿 Claude Opus 的蒸馏数据,去调教 Qwen3.6-27B。底座是阿里的 Qwen3.6-27B 稠密模型,原生 262K 上下文,能扩到 1M。训练用的 Unsloth,数据是 Claude 蒸馏数据集打底,混入 GLM-5.1、Kimi-K2.5、Qwen3.5 的推理数据。最关键的一步在这,作者用一个 8B 模型当过滤器,把风格跑偏的样本剔掉,最后只留 12K 条调性统一的高质量数据。这思路特别反直觉,别人都是越多越好,他在做减法。我觉得这个项目最值得琢磨的就是这个点,吃什么长什么样,数据干净,比数据多重要得多。早期评测合作者用 16 条 prompt,单卡 5090 跑 GGUF 量化版,覆盖 Agentic 推理、前端设计、创意 Canvas 三类场景,对比的是 Qwen3.6-27B 原版。但说实话,16 条样本,作者自己都说是 early signal,谁也别当定论。GGUF 仓库已经放出来,量化档位很全,IQ4_XS 是 15.2 G,单张 24G 显卡就能跑,4090、5090、3090 都行。Q2_K 是 10.7 G,16G 显卡能塞但损失不小。直接用 llama.cpp 或者 Ollama 拉起来就行。我的看法是,值得关注,但别神化。它是 preview 版,作者自己都说在探路。但这个思路把 Claude 风格用工程手段迁移到可本地部署的 27B 模型上,加上 Apache-2.0 协议商用友好,给国产开源生态加了一个有 Claude 味儿的选择,这个角度挺难得。手上有 4090、5090 的玩家可以尝个鲜,正式版出来我再拉出来实测一波
00:00 / 02:13
连播
清屏
智能
倍速
点赞
189
尤里好家伙😏
1周前
#qwen3.5:35b a3b 模型速度怎么样?双卡1080ti继续发挥余热,很强!#openclaw
00:00 / 01:08
连播
清屏
智能
倍速
点赞
7
五里墩茶社
2月前
Qwen3.5发布,集成OpenClaw打造最强国产AI助手 通义千问正式发布Qwen3.5,并推出Qwen3.5系列的第一款模型 Qwen3.5-397B-A17B 的开放权重版本。这是一款原生视觉-语言模型。 配合近期大火的OpenClaw,集成Qwen3.5-397B-A17B,真能打造最强国产AI助手。 #ai #通义千问 #qwen @通义实验室
00:00 / 09:09
连播
清屏
智能
倍速
点赞
1038
kate人不错
2月前
Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 你会看到: - 不同量化下的显存占用与推理速度差异 - 浏览器端 WebGPU 运行 0.8B 的体验 - 视觉识别/OCR 实测表现 - 9B 与 35B-A3B 在任务稳定性与效果上的差异 - LM Studio 关闭 thinking 的实操方法 - 在 OpenCode / Cline 中做工具调用与编码测试的结果 如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 时间戳 00:00 Qwen3.5 中小模型简介 00:50 格式与部署 02:21 显存与速度实测 03:40 视觉/OCR能力对比 05:33 本地实战案例 11:00 工具调用与编码测试 #Qwen35 #本地大模型 #Ollama #LMStudio #千问
00:00 / 13:28
连播
清屏
智能
倍速
点赞
690
kate人不错
2月前
实测 Qwen3.5-Plus,性价比极高 千问 3.5 正式发布了,我重点实测了 Qwen3.5-Plus(开源 397B-A17B): - 架构:混合线性注意力 + MoE,基于 Qwen3-Next,推理效率高 - 体验:知识截止更新到 2026 年 - 多模态/OCR:论文图空间理解、反写铅活字、反光复杂大图、模糊小票文字识别 - 推理/指令遵循:40 字严格计数、红包礼仪规则抽象、年夜饭方案、7 语种翻译 - 复杂规则:让它当“产品政策审核员”找冲突、判案例、补边界 - 编程:生成气候数据故事网页、无限循环动画、复古终端文字冒险游戏 时间戳 00:00 Qwen 3.5 发布 01:17 多模态实测 04:37 推理能力实测 07:05 编程实测 #Qwen #Qwen35 #Qwen35Plus #千问 #开源AI
00:00 / 08:59
连播
清屏
智能
倍速
点赞
102
通义实验室
2月前
除夕!Qwen3.5来了!我们很高兴正式发布 Qwen3.5,并推出Qwen3.5系列的第一款模型—— Qwen3.5-397B-A17B 的开放权重版本,作为原生视觉-语言模型,在推理、编程、智能体能力与多模态理解等全方位基准评估中表现优异。 亮点速览: ✦ 基于混合结构,397B总参/17B激活,能力匹配>1T参数的Qwen3-Max; ✦ 原生多模态设计,同等规模下超越Qwen3-VL; ✦ 覆盖201种语言; ✦ 在代码生成、智能体推理与多模态理解方面表现卓越! #Qwen #千问大模型 #大模型 #除夕 #新年快乐
00:00 / 01:15
连播
清屏
智能
倍速
点赞
NaN
搬砖最勤快
2周前
qwen3.6 35b a3b实测16G显存下速度#qwen #ai
00:00 / 02:10
连播
清屏
智能
倍速
点赞
392
titan909
2周前
实测开源Qwen3.6运行OpenClaw的效果 #Qwen36 #OpenClaw
00:00 / 04:21
连播
清屏
智能
倍速
点赞
247
程序员御风
2月前
Qwen3.5 实测:会写代码,能读视频 原生多模态到底强在哪? #AI #Qwen #千问大模型 #人工智能 #开源
00:00 / 06:07
连播
清屏
智能
倍速
点赞
242
NovaLink®区块链Ai开发
2月前
有人已经直接用 Qwen3.5-27B + DGX Spark 做成 Android Agent,通过 Web UI 下发任务,让模型自己读屏、决策、点按,推理速度提升 4 倍。#OpenClaw #Ai
00:00 / 00:18
连播
清屏
智能
倍速
点赞
1649
AI踩坑指南
2月前
千问3.5 27B实测!SOTA的实力,稠密模型依旧强大! 千问3.5家族中小模型的最后一块拼图,27B稠密模型实测。顶级SOTA性能!稠密模型还是你大爷。 #qwen #千问大模型 #ai干货分享 #普通人学ai #ai零基础入门教程
00:00 / 03:00
连播
清屏
智能
倍速
点赞
91
ai景行小博士
2周前
Qwen3.6_35B模型部署设置全流程,冲80词元/s #热点 #本地部署 #Qwen35B #全流程 #词元
00:00 / 04:04
连播
清屏
智能
倍速
点赞
594
麦汁服务器
2月前
本地模型推荐qwen3.5-27b#qwen2.5-27b
00:00 / 00:35
连播
清屏
智能
倍速
点赞
29
元味
3天前
Qwen3.6-35B-A3B本地部署实测 昨晚刚布署好Qwen3.6-35B-A3B模型,速度快,但……难道这是思考的过程,并不是sha? #qwen3.5 #本地部署gpt #deepseek #ollama #openwebui
00:00 / 01:51
连播
清屏
智能
倍速
点赞
13
GitHubStore
1周前
Qwen 3.6-27B 正式开源!单卡战神降临 Qwen 3.6-27B 正式开源!单卡战神降临!单张 RTX 4090 即可跑 Q4 量化版,羊驼 Ollama 一键部署,小模型、大效果!#ai #大模型 #开源 #千问
00:00 / 00:10
连播
清屏
智能
倍速
点赞
10
小红AI
2周前
Qwen3.6-35B-A3B尝鲜体验 一张图片给你一个网站或APP#qwen #claude
00:00 / 01:15
连播
清屏
智能
倍速
点赞
107
Ai 学习的老章
1周前
Qwen3.6-27B,27B 干翻 397B 巨无霸 直接说结论:这是 27B 的 Dense 多模态模型,在 SWE-bench 编码测试上,把上一代 397B 的大哥干翻了。小了整整 15 倍,反手一巴掌。 为啥说这个尺寸是甜点?FP8 量化版只要 27GB 显存,单卡 L40S 或者 A6000 Ada 就够跑,门槛直接砍一半。 这次两个核心卖点:Agentic Coding,real-world 编码直接对标 Claude 4.5 Opus,Terminal-Bench 打平;Thinking Preservation,多轮对话保留历史思考上下文,代码迭代再也不用每轮重新想一遍。 部署用 vLLM,加上 --reasoning-parser qwen3 就行。显存不够,直接把模型名换成 FP8 版,其他参数一毛一样,显存需求腰斩。 权重在 HF 和 ModelScope 都有,商用随便用。阿里这波,是真卷出来了。
00:00 / 00:56
连播
清屏
智能
倍速
点赞
92
郝点儿(AI 最严厉的法则)
2月前
一张 3090,真的能把 千问 3.5 35B 模型跑明白吗#本地ai #千问#ai #diy
00:00 / 01:52
连播
清屏
智能
倍速
点赞
4852
寒于水Cother
3周前
本地模型对比(上部分) Qwen3.5 9b vs Gemma4 31b 个人使用场景体验 #ollama #qwen #gemma4 #claude
00:00 / 36:45
连播
清屏
智能
倍速
点赞
25
子龙爱分享
1月前
我量化了Qwen3.5_35B!显存速度质量全拉满+本地养虾 完犊子!我不小心把Qwen3.5_35B量化了!显存速度质量全拉满+联网技巧,OpenClaw本地轻松养虾!50系显卡的春天#openclaw #本地模型 #ai #开源 #分享
00:00 / 25:48
连播
清屏
智能
倍速
点赞
134
懂AI的引路哥
1月前
本地Qwen3.5 9B接OpenClaw #Qwen3.5 9B #OpenClaw #模型调优 #本地部署 #bug修复
00:00 / 01:30
连播
清屏
智能
倍速
点赞
45
智东西
2月前
马斯克惊呼太强了!阿里Qwen开源四款小模型 Qwen3.5-0.8B、Qwen3.5-2B、Qwen3.5-4B、Qwen3.5-9B,引发外网热议,在iPhone17pro上都能实现飞速运行,回答速度堪比云端。#马斯克 #阿里巴巴 #Qwen #千问大模型
00:00 / 01:00
连播
清屏
智能
倍速
点赞
3482
IT产品及方案专业供应商__田工
3周前
1544 纯CPU跑Qwen3.527b什么效果? #大模型
00:00 / 01:31
连播
清屏
智能
倍速
点赞
11
搬砖最勤快
2周前
把本地部署的QWEN3.6 35ba3b接入龙虾试了下,怎么说呢。。动是可以动,就是这次的结果有点拉,等我下个视频在测测。#qwen3.6 #ai #ai本地部署 #5060ti
00:00 / 04:47
连播
清屏
智能
倍速
点赞
7
九天Hector
2月前
Qwen3.5除夕夜炸场💥除夕夜特辑! Qwen3.5-397B-A17B模型解读与深度评测!视觉+推理+对话+编程四项全能,全面追平Gemini 3.0 Pro!视频解读&视频生成一键直达,开启多模态智能体新时代!#AI新星计划 #新知贺岁眼界大开 #AI #llm #大模型开发
00:00 / 05:59
连播
清屏
智能
倍速
点赞
126
EgoAI(特斯拉FSD)
2月前
丐版Mac mini测试Qwen 3.5 9B模型,性能惊艳 #千问 #千问大模型 #macmini
00:00 / 01:33
连播
清屏
智能
倍速
点赞
63
杨大哥
2月前
Qwen3.5
00:00 / 00:53
连播
清屏
智能
倍速
点赞
347
GitHubStore
2周前
无需租GPU,一台24GB内存的笔记本就够了封面! 阿里开源Qwen3.6-35B-A3B,无需租GPU,一台24GB内存的笔记本就够了封面! #AI #llm #大模型
00:00 / 00:18
连播
清屏
智能
倍速
点赞
169
海洋AI笔记
3周前
Qwen3.5开源暴击,免费商用+201种语言#Qwen35 #AI
00:00 / 01:24
连播
清屏
智能
倍速
点赞
9506
AI技能研究社
2月前
SGLang部署Qwen3.5-27B实战踩坑记录 详解 SGLang 部署 Qwen3.5 27B 流程,攻克工具调用、显存优化及 OpenClaw 对接等 5 大实战坑位。#SGLang #Qwen35 #大模型部署 #AIAgent #人工智能
00:00 / 06:08
连播
清屏
智能
倍速
点赞
600
波音、喵四七
3周前
我是这样突破限制并部署手机离线大模型 Gemma4 26B 的,大部分玩不了 26B 包括 E4B 模型,都是因为你的系统限制不能发挥最大性能,然后我就想到了我手机自带了一个游戏空间的工具,果然有效#Gemma4 26B 手机跑模型 #本地模型
00:00 / 01:46
连播
清屏
智能
倍速
点赞
146
浩然天地邢
3天前
#硬件是dgx spark 128g统一内存。因为有个娃儿急着看数据,所以没有来得及修改直接发出来。 hermes agent自己生成的ppt。
00:00 / 01:22
连播
清屏
智能
倍速
点赞
12
千问大模型
2月前
最新旗舰模型Qwen3.5:来吧,展示! 原生多模态模型千问3.5,开源! 总参数397B 激活参数17B 极致性能 超高效率 2小时视频解析 支持201种语言 Agent能力大幅度提升 采用Apache2.0宽松型开源协议,免费下载商用 速来体验! #Qwen #千问 #千问大模型
00:00 / 02:15
连播
清屏
智能
倍速
点赞
3868
子非鱼
3天前
不用敲代码!llama.cpp极简部署。 让你的 Qwen3.6 35B 提速 30% #大模型本地部署 #国产大模型 #llamacpp
00:00 / 14:42
连播
清屏
智能
倍速
点赞
29
赵逍遥Xavier
2周前
Gemma vs Qwen!到底谁才是开源模型之王? #ai新星计划 #谷歌 #千问 #ai #测评
00:00 / 10:39
连播
清屏
智能
倍速
点赞
129
简介:
您在查找“
qwen3.5-27b太好玩
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-06 05:55
最新推荐:
飞鱼怎么了
世界装140怎么获得
重生之乞丐的彩蛋是什么
尔尔为什么是重复1003次
夏天煎饼enemy有些剧情删减了吗
子茵家为什么搬家
演唱会点歌最好听的
琪咋备注抽象
蚊香盘自制
墙里秋千墙外道墙外行人墙里笑谁唱的
相关推荐:
广州一个人带孩子定居好么
正弦余弦求导公式
露娜联动金皮
你愿意吗怎么画
黑马秀是什么
永劫无间摸金守珍是什么意思
关咏荷香港警察
两口子哪有不吵架的噻生么子气噻
地质带挤压形成原因
piggod和dream
热门推荐:
我的朋友让献上一朵电子鲜花怎么献不会学学
需要查证的信息用豆包怎么都是胡编
誘惑カウントダウン是哪个公司的
不知道哪里都是歌舞
绽放多元季22场怎么算的
郝熠燃饭撒云旗哎个啥
变装夫妻就像什么的泡沫一出就
小禾出生全过程
哪张看不懂的可以问我答案
伊斯坦布尔爱猫之城 对猫毛过敏呢