Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
异环up紫色空幕驱动块怎么填满
异环为什么境外应用
即梦ai展示产品效果提示词
gpt生成好看的女孩提示词
axis汇川怎么填
libtv主体功能做什么的
ai脱口秀制作教程libtv
烽火挑战赛可以shrubm
token中转站用户从哪里来
gptimage2生图如何分页
小工蚁
1月前
Qwen3.5-27B接入OpenClaw 能力会不会不靠谱 #小工蚁 #开源模型 #openclaw
00:00 / 00:41
连播
清屏
智能
倍速
点赞
46
AI赚钱研究社
2月前
Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
00:00 / 05:26
连播
清屏
智能
倍速
点赞
890
子沐AIGC
1月前
告别API!5090本地部署千问QWEN3.5 27b模型 Windows+vllm+chatbox全流程#AI #OPENCLAW #本地部署 #5090
00:00 / 00:54
连播
清屏
智能
倍速
点赞
68
Ai 学习的老章
1月前
神操作再现,单卡3090 起跑!Claude-Opus蒸馏Qwen3.5-27B #大模型#蒸馏 #程序员
00:00 / 01:46
连播
清屏
智能
倍速
点赞
1023
小工蚁
10月前
Llamafactory SFT训练Qwen3函数调用 #小工蚁 #大模型训练 #开源软件
00:00 / 03:50
连播
清屏
智能
倍速
点赞
79
小工蚁
1月前
评测Qwen3.5-27B理解CAD图纸能力究竟如何? #小工蚁 #开源大模型 #通义千问
00:00 / 06:47
连播
清屏
智能
倍速
点赞
75
Tony沈哲
1月前
本地 AI 推理平台 第十三期 Vol.13|OpenClaw 接入本地推理:Qwen3.5-27B 实测 这一期测试一个比较有意思的组合: OpenClaw + 本地 AI 推理平台 + Qwen3.5-27B 模型。 我将 OpenClaw 接入到我正在开发的 本地 AI 推理平台, 让 OpenClaw 使用本地模型作为 推理后端。 本次使用的模型是: Qwen3.5-27B-Claude-4.6-Opus-Distilled(MLX 4bit) 这是一个基于 Qwen3.5-27B 的模型,并蒸馏了 Claude Opus 风格行为, 同时使用 MLX 框架 + 4bit 量化进行本地推理优化。 需要说明的是: 这个模型 并不是真正的 Claude, 而是一个 Claude 风格的蒸馏模型。 在这一期视频中主要演示: 1️⃣ OpenClaw 接入本地推理平台 通过接口让 OpenClaw 使用 本地 AI 推理平台作为推理后端: OpenClaw ↓ 本地 AI 推理平台 ↓ Qwen3.5-27B Claude Distilled 这样 OpenClaw 就可以使用 本地模型进行推理。 2️⃣ Qwen3.5-27B Claude Distilled 简单实测 通过几个简单示例测试模型能力: 代码生成能力 概念解释能力 实际使用体验 例如: 生成 OpenCV C++ 直方图匹配算法 解释 Transformer 为什么可以处理长文本 这一期主要展示的是: 如何让 OpenClaw 接入本地模型推理能力, 并测试 Qwen3.5-27B Claude Distilled 的实际效果。 如果你对 本地 AI 推理、Agent 架构、或 AI 系统开发感兴趣, 欢迎关注这个系列。 我会持续记录 本地 AI 推理平台的开发过程与实验。 #OpenClaw #抖音养虾人俱乐部 #Qwen #本地大模型
00:00 / 10:49
连播
清屏
智能
倍速
点赞
31
AI技能教学网
1月前
Qwen3.5蒸馏版本地部署教程 解析Qwopus核心优势:专注代码与硬逻辑,支持3090及Mac本地部署,拒绝废话干活快。#Qwen35 #大模型 #本地部署 #ClaudeCode #人工智能
00:00 / 03:31
连播
清屏
智能
倍速
点赞
366
赛博杨千幻
2周前
🚀 DFlash - Qwen3.5-27B 推理速度暴涨5倍!UCSD Z-Lab 最新开源项目扩散模型投机解码 + vLLM/SGLang 直连仅加2B小模型,吞吐量翻5倍。#github优质项目 #github开源 #大模型 @赛博杨千幻 #DFlash #Qwen3.5
00:00 / 02:09
连播
清屏
智能
倍速
点赞
90
AI技能研究社
1月前
Qwen3.5-27B Opus蒸馏版实测 实测注入Claude Opus数据的Qwen3.5蒸馏版,解决原生报错并支持长任务稳定运行。#Qwen35蒸馏版 #ClaudeOpus #AIAgent #本地大模型 #编程助手
00:00 / 01:37
连播
清屏
智能
倍速
点赞
123
AI技能研究社
2月前
SGLang部署Qwen3.5-27B实战踩坑记录 详解 SGLang 部署 Qwen3.5 27B 流程,攻克工具调用、显存优化及 OpenClaw 对接等 5 大实战坑位。#SGLang #Qwen35 #大模型部署 #AIAgent #人工智能
00:00 / 06:08
连播
清屏
智能
倍速
点赞
600
kate人不错
2月前
Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 你会看到: - 不同量化下的显存占用与推理速度差异 - 浏览器端 WebGPU 运行 0.8B 的体验 - 视觉识别/OCR 实测表现 - 9B 与 35B-A3B 在任务稳定性与效果上的差异 - LM Studio 关闭 thinking 的实操方法 - 在 OpenCode / Cline 中做工具调用与编码测试的结果 如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 时间戳 00:00 Qwen3.5 中小模型简介 00:50 格式与部署 02:21 显存与速度实测 03:40 视觉/OCR能力对比 05:33 本地实战案例 11:00 工具调用与编码测试 #Qwen35 #本地大模型 #Ollama #LMStudio #千问
00:00 / 13:28
连播
清屏
智能
倍速
点赞
690
sirius77777777
1周前
Qwen 3.6 27B 本地部署测试【油-搬运】 #ai #qwen #本地部署 #异环 #tts
00:00 / 11:10
连播
清屏
智能
倍速
点赞
2
比格熊
1月前
Ai编程本地大模型实测 #AI编程 #本地大模型 #java Ai编程本地大模型实测 #AI编程 #本地大模型 #java #continue #AI
00:00 / 02:08
连播
清屏
智能
倍速
点赞
44
AI躺平养龙虾🦞
1周前
养龙虾|本地模型的选择 #养龙虾 #openclaw #MacStudio #本地模型 #qwen
00:00 / 08:36
连播
清屏
智能
倍速
点赞
325
芥末拔丝香菜
1年前
qwen3本地部署实操4B模型就够让你的其他api吃灰 #qwen3 #mcp #ai实操 #千问3 #ai本地部署
00:00 / 01:17
连播
清屏
智能
倍速
点赞
88
小工蚁
1月前
OpenClaw运行独立部署模型推荐 Qwen3.5-27B #小工蚁 #openclaw #开源大模型
00:00 / 00:37
连播
清屏
智能
倍速
点赞
444
Ai 学习的老章
2周前
一个更神奇的Qwen3.5-27B版本,推理速度暴涨5倍 今天介绍一个让我非常兴奋的项目,叫 DFlash,来自 UCSD 的 z-lab 团队。它能让 Qwen3.5-27B 的推理速度暴涨到原来的5倍,关键是——生成质量完全不打折 先说原理。大模型生成文字,是一个 token 一个 token 往外蹦的,串行瓶颈在那摆着。之前业界用推测解码来加速,先用小模型猜一串 token,再让大模型验证。但之前最强的方案 EAGLE-3,加速比也就2到3倍 DFlash 把"猜"的过程,从自回归换成了扩散模型。一次前向传播,直接并行生成一整个 block 的 token。不管你猜8个还是16个,都是一次搞定。这就是它快的核心原因 更精妙的是,DFlash 会从大模型的隐藏层抽特征,注入到小模型的每一层。这样小模型猜得特别准,HumanEval 上平均每轮能猜中9个 token 实测数据很能说明问题。在 HumanEval 上,单并发直接5.2倍加速。Math500 上4.7倍。哪怕高并发场景下,也能维持1.5到1.9倍。而且 drafter 模型只有2B 参数,加载几乎不占额外显存 最关键的是,已经适配了 vLLM、SGLang 和 Transformers 三大框架。生产环境直接能用 我的判断是,如果你在用 Qwen3.5-27B 做推理服务,DFlash 几乎是个无脑加分项。多加载一个 2B 的小模型,吞吐量翻好几倍,简直是免费的午餐
00:00 / 01:50
连播
清屏
智能
倍速
点赞
490
Ai 学习的老章
1月前
Qwen3.5 系列,最优选择 27B,最优精度 Q6 大模型光能聊天没用,得能调工具才算真能干活。有人用 ToolCall-15 这个开源基准,把 Qwen3.5 从 0.8B 到 397B 全系列拉出来测了一遍。15 个实战场景,覆盖工具选择、参数精度、多步链式调用、错误恢复这些硬指标。结果呢?27B 拿了满分,15 题全对。是唯一满分的原版模型。122B 丢了一题,397B 丢了两题。你没看错,参数越大反而越拉。 最能说明问题的是第 15 题。搜索冰岛人口然后算 2%。小模型直接编数据,搜都不搜。大模型呢?搜到了精确数字 372520,偏偏不用,非要用自己记忆里的大约 37 万去算。只有 27B 老老实实搜到数据,传给计算器,完美。一句话:小模型凭空捏造,大模型忽略数据,27B 直接串行搞定。 量化版本也测了。Q8 和 Q6 都拿满分,Q5 开始丢分。结论很清晰:Q6 就是最佳甜蜜点。跟 Q8 一样的满分,体积更小,速度更快。我觉得这个测试最牛的地方在于,它揭示了一个反直觉的事实:大参数模型因为见多识广,反而更不信工具返回的数据。
00:00 / 01:52
连播
清屏
智能
倍速
点赞
477
周辉
1年前
阿里Qwen3模型实战:图片转网页,轻松上手 视频简介: 中文:本视频展示了如何利用阿里开源的Qwen3模型和腾讯的EdgeOne MCP工具,通过一张图片快速生成HTML页面。全程演示了从图片上传到生成公网可访问URL的完整流程,展现了AI技术在网页开发中的强大应用。 English: This video demonstrates how to use Alibaba's open-source Qwen3 model and Tencent's EdgeOne MCP tool to quickly generate an HTML page from a single image. The entire process from image upload to generating a publicly accessible URL is showcased, highlighting the powerful application of AI technology in web development. 时间轴: 中文时间轴: 00:00 视频开场,展示生成的HTML页面 01:16 介绍阿里Qwen3模型的特点和开源情况 03:40 演示如何使用EdgeOne MCP工具生成HTML页面 05:33 展示生成的HTML页面与原图的对比 07:20 总结AI技术在网页开发中的应用 English Timeline: 00:00 Video introduction, showcasing the generated HTML page 01:16 Introduction to Alibaba's Qwen3 model features and open-source status 03:40 Demonstration of using EdgeOne MCP tool to generate HTML page 05:33 Comparison of generated HTML page with the original image 07:20 Summary of AI technology applications in web development #Qwen3 #EdgeOne #MCP #HTML生成 #AI网页开发 #阿里开源 #腾讯技术
00:00 / 04:42
连播
清屏
智能
倍速
点赞
78
数字宅民MuteZ
2周前
最新qwen3.5 27b 蒸馏版v3.5#openclaw #千问 #大模型 #本地部署 #小龙虾
00:00 / 01:18
连播
清屏
智能
倍速
点赞
843
万大叔来了
1周前
不堆参数堆效率,阿里这款小模型编程能力有多强! #阿里开源 #Qwen36 #AI编程 #大模型 #开发者工具
00:00 / 01:40
连播
清屏
智能
倍速
点赞
1
智冷算力工作站
3周前
VLLM QWEN3.5-27B AWQ 养龙虾大模型#千问大模型 #龙虾#ai服务器
00:00 / 01:43
连播
清屏
智能
倍速
点赞
12
yral
1周前
把qwen3.5-27b的稠密模型跑起来了 前天运气好强行编译了turboquant和dflash成功,结果llama不给cache,导致claude和opencode每次都要传入大量的重复的harness,速度奇慢 折腾了一晚上,最后自己找到了问题,参考github大神的代码,把llama重新编译了,然后把opencode也编译了加了个信号位,现在在我的strix halo机器上27b的稠密模型已经跑的飞起来了
00:00 / 00:27
连播
清屏
智能
倍速
点赞
5
不夜
1周前
本地4种软件部署qwen3.6-27b性能测试 ollama,llama.cpp,LMstudio,vLLM本地部署测试#ollama#llamacpp#lmstudio#AI#vLLM
00:00 / 10:27
连播
清屏
智能
倍速
点赞
135
大曼哒
1月前
本地部署智能体:Qwen3.5 + Claude Code 本视频将演示如何使用 Llama.cpp 和 Claude Code 在本地安装 Qwen3.5 4B 模型 #claude #ai编程 #千问qwen #ai #智能体
00:00 / 06:07
连播
清屏
智能
倍速
点赞
406
杨大哥
1周前
千问Qwen3.6 27b发布
00:00 / 00:55
连播
清屏
智能
倍速
点赞
1729
小工蚁
1周前
开源Qwen3.6-27B Agent编程比3.5有较进步 #小工蚁 #开源大模型 #通义千问
00:00 / 03:15
连播
清屏
智能
倍速
点赞
76
王纯迅
1月前
OpenCLaw终于在本地把qwen3.5-27b跑起来了 #openclaw #人工智能 #qwen #ollama #vLLM
00:00 / 08:12
连播
清屏
智能
倍速
点赞
281
小天fotos
1周前
离谱!Qwen3.6 27B生成速度飙到184t/s Qwen3.6 27B绝对是一个里程碑的时刻 现在全世界的极客都在拼命优化它 我也盘点了多个框架,做了完整测试 最终从20/s的速度跑到184t/s 有完整报告在我的repo里 你可以错过我的视频,但不能错过这个模型 #ai新星计划 #qwen36 #turboquant #dflash #deepseekv4
00:00 / 18:09
连播
清屏
智能
倍速
点赞
3420
千问大模型
9月前
不只是写代码!Qwen3-Coder 来啦! Qwen3-Coder,现在开源! 480B参数,MoE架构,每次运行激活35B。 从代码生成到页面交互,Qwen3-coder都不在话下。 人民需要什么,千问就开源什么! 欢迎体验! #Qwen #AI #大模型 #开源 #通义千问
00:00 / 00:35
连播
清屏
智能
倍速
点赞
1478
天工开帧
1周前
社区模型新探,Qwen3.627B和opus-GLM-18B 彻夜长测,16G显卡端侧模型初选名单:Qwen3.6-27B-IQ3 ,Qwopus-GLM-18B-IQ5,Qwen 3.6-35B-A3B MoE-IQ4。跑轻度任务可以,写项目就算了。推理参数参考:-c 36864 -ngl 64 -t 5 --reasoning-budget 1024 --temp 0.6 --top-p 0.95 --top-k 20 --min-p 0.00 --flash-attn 1 --host 192.168.101.136 --port 13631 pause #程序代码 #AI前沿 #Qwen #llama
00:00 / 02:14
连播
清屏
智能
倍速
点赞
49
橙色溪流
2周前
决战Gemma4⚡阿里深夜开源Qwen3.6-35B-A3B Qwen3.6-35B-A3B 依然采用MoE框架 但是在智能体编程方面表现卓越,大幅超越前代模型 Qwen3.5-35B-A3B,并可与 Qwen3.5-27B 和 Gemma-31B 等Dense模型一较高下。 而且具备强大的多模态感知与推理能力,在大多数视觉语言基准上,它的表现已与 Claude Sonnet 4.5 持平,甚至在部分任务上实现超越。 另外,这周末我打算用turboquant+昨天发布的DFlash块扩散技术一起跑下Qwen3.5 27B 大家等着看效果吧 #科技下一站 #我在抖音聊科技 #qwen大模型 #DFlash #开源项目
00:00 / 00:47
连播
清屏
智能
倍速
点赞
1031
橙色溪流
1周前
开源大模型巅峰之作⛰️ Qwen3.6-27B惊世发布🔥 它不仅是一个 270 亿参数的稠密多模态模型,更标志着开源模型进入了“小尺寸,高性能”的新纪元 。 它以 27B 的参数规模,在所有核心编程基准测试中,全面超越了上一代拥有 397B 参数的开源旗舰 Qwen3.5-397B-A17B ,并全面追上甚至超越了Opus 4.5,证明了架构优化与训练深度的力量。 #科技下一站 #还有什么是不能ai的 #开源大模型 #与ai同行 #本地大模型
00:00 / 00:48
连播
清屏
智能
倍速
点赞
633
小天fotos
2月前
Qwen3.5-27B太好玩,不小心养了一窝龙虾 #ai新星计划 #抖音年味新知贺岁 #openclaw #qwen #4090魔改
00:00 / 08:29
连播
清屏
智能
倍速
点赞
NaN
添柴Ai
2周前
QWEN3.5反推之王本地部署 !comfyui训练打标新王 QWEN3.5本地部署 杜绝破坏Comfyui环境 支持各种环境! #comfyui #教程 #模型训练 #打标 #QWEN35
00:00 / 06:37
连播
清屏
智能
倍速
点赞
2
AI大模型-Zack
9月前
【Qwen3+N8N】5分钟0代码构建个人AI知识库 【Qwen3+N8N】5分钟0代码构建个人AI知识库,轻松实现专业级RAG检索系统,检索精确度达到95%,支持100多种语言!小白教程,不会编程也能学会!#Qwen3 #n8n #AI大模型 #AI知识库 #LLM
00:00 / 23:50
连播
清屏
智能
倍速
点赞
39
程序员御风
2月前
Qwen3.5 实测:会写代码,能读视频 原生多模态到底强在哪? #AI #Qwen #千问大模型 #人工智能 #开源
00:00 / 06:07
连播
清屏
智能
倍速
点赞
242
ArkAPI
1周前
深度拆解Qwen3.6-27B的"越级"逻辑 #ArkAPI#大模型#Qwen#api#Qwen36
00:00 / 03:15
连播
清屏
智能
倍速
点赞
52
橘橘橙AI
1周前
Qwen3.6-27B 实测:本地模型已经能替代前端开发? Qwen3.6-27B 本地实测:飞机大战、电商页、音乐播放器,一次生成完整前端项目。本地模型进入生产力时代。 #qwen #千问 #大模型
00:00 / 07:15
连播
清屏
智能
倍速
点赞
168
小工蚁
1月前
压测Qwen3.5-27B和35B-A3B比较性能差异 #小工蚁 #通义千问 #大模型性能
00:00 / 03:10
连播
清屏
智能
倍速
点赞
76
莫失莫忘
1周前
4月27日(1) #opencode #qwen #AI应用 #大模型 #ai龙虾 #claudecode
00:00 / 02:01
连播
清屏
智能
倍速
点赞
15
IT产品及方案专业供应商__田工
3周前
1544 纯CPU跑Qwen3.527b什么效果? #大模型
00:00 / 01:31
连播
清屏
智能
倍速
点赞
11
AI技能研究社
2周前
Qwen3.6-35B-A3B部署指南 深度解析Qwen3.6-35B-A3B的MoE架构优势,涵盖SGLang、vLLM、Unsloth等多种部署方案及思维链参数配置技巧。#Qwen3635BA3B #MoE模型 #大模型部署 #SGLang #vLLM
00:00 / 03:11
连播
清屏
智能
倍速
点赞
322
Ai 学习的老章
1周前
Qwopus3.6-27B 本地部署,24G 显卡轻松跑 Qwen 加 Opus,缝合怪又来了,这次是 27B 本地版。大家好,我是AI学习的老章。今天聊一个有意思的开源模型,Qwopus3.6-27B-v1-preview,作者 Jackrong。光看名字你就懂了,Qwen 加 Opus,意思是拿 Claude Opus 的蒸馏数据,去调教 Qwen3.6-27B。底座是阿里的 Qwen3.6-27B 稠密模型,原生 262K 上下文,能扩到 1M。训练用的 Unsloth,数据是 Claude 蒸馏数据集打底,混入 GLM-5.1、Kimi-K2.5、Qwen3.5 的推理数据。最关键的一步在这,作者用一个 8B 模型当过滤器,把风格跑偏的样本剔掉,最后只留 12K 条调性统一的高质量数据。这思路特别反直觉,别人都是越多越好,他在做减法。我觉得这个项目最值得琢磨的就是这个点,吃什么长什么样,数据干净,比数据多重要得多。早期评测合作者用 16 条 prompt,单卡 5090 跑 GGUF 量化版,覆盖 Agentic 推理、前端设计、创意 Canvas 三类场景,对比的是 Qwen3.6-27B 原版。但说实话,16 条样本,作者自己都说是 early signal,谁也别当定论。GGUF 仓库已经放出来,量化档位很全,IQ4_XS 是 15.2 G,单张 24G 显卡就能跑,4090、5090、3090 都行。Q2_K 是 10.7 G,16G 显卡能塞但损失不小。直接用 llama.cpp 或者 Ollama 拉起来就行。我的看法是,值得关注,但别神化。它是 preview 版,作者自己都说在探路。但这个思路把 Claude 风格用工程手段迁移到可本地部署的 27B 模型上,加上 Apache-2.0 协议商用友好,给国产开源生态加了一个有 Claude 味儿的选择,这个角度挺难得。手上有 4090、5090 的玩家可以尝个鲜,正式版出来我再拉出来实测一波
00:00 / 02:13
连播
清屏
智能
倍速
点赞
189
titan909
2周前
实测开源Qwen3.6运行OpenClaw的效果 #Qwen36 #OpenClaw
00:00 / 04:21
连播
清屏
智能
倍速
点赞
246
Ning好
1月前
一个大模型,Base、Instruct、Chat三种类型差异 #Base模型 #Chat模型 #Instruct模型 #知识分享 #涨知识
00:00 / 01:02
连播
清屏
智能
倍速
点赞
37
碳基生物退役指南
2周前
Qwen3.6-35B-A3B:2千到3万,三档本地部署实战 这期视频,我把 Qwen 3.6 35B A3B 装进 3 台价格完全不同的设备里,实测识图、OCR、手写数学题、写作、算法题和代码生成。最让我意外的,不只是它比预期更能打,而是我那台 2500 块手搓丐版战神,居然跟这个模型异常般配。便宜设备不可怕,可怕的是本地模型这次真的能干活了。 这次让我真正改观的,是 Qwen 3.6 35B A3B 在不同任务之间,整体都没有明显掉链子。识图能看,OCR 能用,代码能写,逻辑题也能认真推,放到真实项目里,不再是那种“偶尔灵光一现”的状态了,而是已经开始成为稳定的生产力工具了。本地开源模型这次,是真的往前走了一大步。 #qwen #ai智能体 #openclaw#大语言模型 #ai
00:00 / 09:31
连播
清屏
智能
倍速
点赞
701
kate人不错
2月前
实测 Qwen3.5-Plus,性价比极高 千问 3.5 正式发布了,我重点实测了 Qwen3.5-Plus(开源 397B-A17B): - 架构:混合线性注意力 + MoE,基于 Qwen3-Next,推理效率高 - 体验:知识截止更新到 2026 年 - 多模态/OCR:论文图空间理解、反写铅活字、反光复杂大图、模糊小票文字识别 - 推理/指令遵循:40 字严格计数、红包礼仪规则抽象、年夜饭方案、7 语种翻译 - 复杂规则:让它当“产品政策审核员”找冲突、判案例、补边界 - 编程:生成气候数据故事网页、无限循环动画、复古终端文字冒险游戏 时间戳 00:00 Qwen 3.5 发布 01:17 多模态实测 04:37 推理能力实测 07:05 编程实测 #Qwen #Qwen35 #Qwen35Plus #千问 #开源AI
00:00 / 08:59
连播
清屏
智能
倍速
点赞
102
ai景行小博士
2周前
Qwen3.6_35B模型部署设置全流程,冲80词元/s #热点 #本地部署 #Qwen35B #全流程 #词元
00:00 / 04:04
连播
清屏
智能
倍速
点赞
583
我是虾哥
8月前
Qwen3-2507 在 Arena LLM 全球榜单排名前五,目前已作为小智官方默认模型 #Qwen3 #人工智能 #esp32开发板
00:00 / 00:54
连播
清屏
智能
倍速
点赞
4310
酋长师兄
5天前
本地大模型提速三倍方法Qwen3.6模型跑出200t/s生成 4090单显卡,本地大模型提速三倍Qwen3.6模型跑出200t/s生成 #本地大模型提速 #本地大模型配置 #MTP配置
00:00 / 04:40
连播
清屏
智能
倍速
点赞
253
东日
11月前
qwen3-30b-目前推荐使用的本地大语言模型 可以选择8845hs机器,推理速度最快24tokens/s
00:00 / 07:07
连播
清屏
智能
倍速
点赞
65
搬砖最勤快
2周前
把本地部署的QWEN3.6 35ba3b接入龙虾试了下,怎么说呢。。动是可以动,就是这次的结果有点拉,等我下个视频在测测。#qwen3.6 #ai #ai本地部署 #5060ti
00:00 / 04:47
连播
清屏
智能
倍速
点赞
7
小白
1年前
qwen3.0下载入口 qwen3.0怎么下载 qwen3.0下载教程 通义千问3下载教程#qwen3模型下载方法 #Qwen3 #人工智能 #通义千问3下载教程#通义千问
00:00 / 00:24
连播
清屏
智能
倍速
点赞
38
Ai 学习的老章
2周前
Qwen3.6-35B-A3B开源了,本地部署教程
00:00 / 00:56
连播
清屏
智能
倍速
点赞
543
GitHubStore
1周前
Qwen 3.6-27B 正式开源!单卡战神降临 Qwen 3.6-27B 正式开源!单卡战神降临!单张 RTX 4090 即可跑 Q4 量化版,羊驼 Ollama 一键部署,小模型、大效果!#ai #大模型 #开源 #千问
00:00 / 00:10
连播
清屏
智能
倍速
点赞
10
尤里好家伙😏
1周前
#qwen3.5:35b a3b 模型速度怎么样?双卡1080ti继续发挥余热,很强!#openclaw
00:00 / 01:08
连播
清屏
智能
倍速
点赞
7
乘云—阿里AI训练师
1周前
代码能力拉满!Qwen3.6-27B,低成本部署首选 代码能力拉满!Qwen3.6-27B,低成本部署首选 ##通义千问#Qwen3.6-27B#开源大模型#AI编程#开发者神器
00:00 / 00:42
连播
清屏
智能
倍速
点赞
2
五里墩茶社
2月前
Qwen3.5发布,集成OpenClaw打造最强国产AI助手 通义千问正式发布Qwen3.5,并推出Qwen3.5系列的第一款模型 Qwen3.5-397B-A17B 的开放权重版本。这是一款原生视觉-语言模型。 配合近期大火的OpenClaw,集成Qwen3.5-397B-A17B,真能打造最强国产AI助手。 #ai #通义千问 #qwen @通义实验室
00:00 / 09:09
连播
清屏
智能
倍速
点赞
1038
潦草小狗
6天前
#AI学习 #大模型微调 #qwen #程序员日常
00:00 / 02:14
连播
清屏
智能
倍速
点赞
280
海洋AI笔记
3周前
Qwen3.5开源暴击,免费商用+201种语言#Qwen35 #AI
00:00 / 01:24
连播
清屏
智能
倍速
点赞
9506
AI技能教学网
2周前
Qwen3.6-35B量化方案选择 针对显存、速度与推理能力,深度对比Qwen3.6-35B的量化版、DFlash加速版及Claude Opus蒸馏版方案。#Qwen3635B #LLM优化 #vLLM #量化技术 #AI推理加速
00:00 / 04:28
连播
清屏
智能
倍速
点赞
230
Ai 学习的老章
1周前
Qwen3.6-27B,27B 干翻 397B 巨无霸 直接说结论:这是 27B 的 Dense 多模态模型,在 SWE-bench 编码测试上,把上一代 397B 的大哥干翻了。小了整整 15 倍,反手一巴掌。 为啥说这个尺寸是甜点?FP8 量化版只要 27GB 显存,单卡 L40S 或者 A6000 Ada 就够跑,门槛直接砍一半。 这次两个核心卖点:Agentic Coding,real-world 编码直接对标 Claude 4.5 Opus,Terminal-Bench 打平;Thinking Preservation,多轮对话保留历史思考上下文,代码迭代再也不用每轮重新想一遍。 部署用 vLLM,加上 --reasoning-parser qwen3 就行。显存不够,直接把模型名换成 FP8 版,其他参数一毛一样,显存需求腰斩。 权重在 HF 和 ModelScope 都有,商用随便用。阿里这波,是真卷出来了。
00:00 / 00:56
连播
清屏
智能
倍速
点赞
92
简介:
您在查找“
qwen3.5-27b编译教程
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-03 05:38
最新推荐:
杨梅采摘园导航
蟹二人到底哪里帅
咱俩像刚开始那样好不好
后置手机拍照怎么拿
谁不是一边遗憾一边硬撑
二十一世纪大君夫人怎么换人截车的
国足江津近况
贾斯汀来中国开过演唱会吗
地球online提醒您,这是什么狗
gpt plus土耳其版会封号吗
相关推荐:
地精小老头攻略怎么从扫地机里
theone陪伴功能阿帽
异环选车功能设置
昨天是哪个作家的忌日
浣熊与肉博主是谁
塑水宗2.0可以退一把吗
唱犯错喊藤根儿什么梗
哈夫克定制有什么用
魔鬼蛋魔法少女新皮肤可以用蛋币买吗
如果哪一代发展到顶峰要像现在结果
热门推荐:
吉他鸡特效为什么中间是白的
MAXHUB领效怎样关闭声音
腾讯会员v3是什么意思
苹果短信怎样把隐形墨水去除
思金神绘制怎么连
@豆包 这样接是什么原理,有没有用
删了她什么时候出的
中国移动上有吗,危机航线
异环为什么没有快捷方式图标
豆包人工审核在哪看进度