Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
腾讯云CLAW怎么同步Qclaw
龙虾openclaw怎么自动刷课
谷歌turboquant算法
最近几天多了很多带0的陌生号码
介跃ai能帮我对接libtv吗
claudecode源码本地能跑吗
你妈妈在减肥嘛ai指令
work buddy超时怎么解决
Anthropic源码库在哪里
手机0开头陌生号码原因
46wg
2周前
在vllm轻松关闭qwen3.5 推理功能 只需要一行参数轻松关闭qwen3.5推理。 #vllm #qwen #qwen3 #think #关闭推理
00:00 / 07:02
连播
清屏
智能
倍速
点赞
9
AI随风
2天前
编程能力大加强,Qwen-3.6-plus 前后端编程测试 本视频介绍了 Qwen3.6-plus 大模型的前后端测试 Qwen-3.6-plus 特点 默认支持100万上下文窗口 显著提升的智能体编程能力 更出色的多模态感知与推理能力 测试案例 注意: 本次测试客户端阿里开发工具 Qoder 进行测试,已经内置 Qwen-3.6-plus 模型 测试流程仍然是按照先 plan->执行, 一个需求对话不超过 5 轮 #AI编程 #Qwen #千问 #AI编程工具
00:00 / 06:31
连播
清屏
智能
倍速
点赞
170
卢菁老师讲AI
11月前
通义千问qwen3 如何通过参数控制思考过程? #通义千问 #qwen3 #qwen #ai大模型 #人工智能
00:00 / 02:52
连播
清屏
智能
倍速
点赞
54
AI躺平养龙虾🦞
1周前
养龙虾之LLM 篇#openclaw #macstudio #macmini #llm #qwn3.5
00:00 / 06:36
连播
清屏
智能
倍速
点赞
497
Tony沈哲
4周前
本地 AI 推理平台 第十一期 Vol.11|Qwen3.5-9B 实测:代码 + VLM + Agent 这一期我们实测一个新的本地模型:Qwen3.5-9B。 它不仅是一个 9B 参数的代码模型,同时还是一个 VLM(视觉语言模型),支持图像理解。 所以这一期我设计了三个测试场景,看看这个模型在真实工程中的表现: 测试 1:纯 LLM 能力 让模型实现一个 OpenCV C++ 的直方图匹配算法, 主要观察: * 代码质量 * OpenCV API 使用 * 算法逻辑 看看一个 9B 模型本身的代码能力到底如何。 测试 2:VLM 多模态能力 因为 Qwen3.5-9B 是 多模态模型, 我们给它输入一张图片,让模型描述图片内容。 测试它的 图像理解能力。 测试 3:Agent 工程能力(重点) 在真实工程里,模型不仅要回答问题,还要 完成任务。 所以这一部分让 Agent 自动完成一个工程操作: 生成一个 OpenCV C++ 的直方图匹配函数 并自动保存为: histogram_match.cpp 通过这个例子可以看到: 模型能力 → 如何变成 Agent 的工程能力 这一期主要想回答一个问题: 一个 9B 的本地模型,在代码、视觉、多工具 Agent 场景下到底能做到什么程度? 如果你对 本地 AI 推理 / Agent / RAG / 小模型能力实测感兴趣,欢迎关注这个系列。 #Qwen #本地大模型 #LLM #VLM #Agent
00:00 / 07:43
连播
清屏
智能
倍速
点赞
38
AI技能研究社
3周前
oMLX 框架部署Qwen3.5 实测oMLX让Qwen3.5生成速度提升4.14倍,解决长上下文响应慢与智能体解析报错难题。#oMLX #Qwen35 #Mac #本地大模型 #AI智能体
00:00 / 01:59
连播
清屏
智能
倍速
点赞
661
AI赚钱研究社
1月前
Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
00:00 / 05:26
连播
清屏
智能
倍速
点赞
845
橙色溪流
6天前
阿里深夜突袭!Qwen3.5Omni全模态大模型重磅发布🔥 该模型展现出卓越的全模态感知与生成能力。在音频/音视频的理解、推理和交互任务上共取得了 215 项子任务/Benchmark 的 SOTA 成绩。 其中,通用音频理解/推理/识别/翻译/对话全面超越 Gemini-3.1 Pro,音视频理解能力总体达到 Gemini-3.1 Pro 水平,同时视觉/文本能力达到同尺寸 Qwen3.5 模型效果。 Qwen3.5-Omni 的交互能力也得到加强。支持了语义打断、WebSearch和复杂 Function Call 的调用能力、端到端的语音控制和对话和音色克隆。 可以说这是用行动回应了小米mimo-v2,也开启了国产全模态AI的军备竞赛。 期待未来国产AI大模型越来越强! #国产大模型 #开源项目 #ai工具学习 #qwen #科技下一站
00:00 / 00:53
连播
清屏
智能
倍速
点赞
866
Ai 学习的老章
3周前
神操作再现,单卡3090 起跑!Claude-Opus蒸馏Qwen3.5-27B #大模型#蒸馏 #程序员
00:00 / 01:46
连播
清屏
智能
倍速
点赞
842
小宇玩AI
1天前
阿里放大招!千问3.6编程能力直逼世界第一,还免费用 两天前阿里偷偷发了 Qwen3.6-Plus,编程跑分直逼 Claude Opus 4.5,推理速度快3倍,价格只要十分之一。 这条视频从架构原理、Benchmark 数据、实测案例、价格对比四个维度,帮你搞懂这个模型到底强在哪,对普通人意味着什么。#Qwen #千问 #阿里巴巴 #AI编程 #大模型 #Claude #人工智能
00:00 / 03:38
连播
清屏
智能
倍速
点赞
191
郝点儿
1月前
一张 3090,真的能把 千问 3.5 35B 模型跑明白吗#本地ai #千问#ai #diy
00:00 / 01:52
连播
清屏
智能
倍速
点赞
4656
lukeewin
2周前
终于本地跑起来了大模型 | 本地化部署Qwen3.5大模型 | 本地部署多模态大模型 #多模态大模型 #大模型 #ai #人工智能 #Qwen3.5
00:00 / 03:00
连播
清屏
智能
倍速
点赞
9
薛饿喵的腚
1周前
#qwen3.5 #手机本地部署大模型
00:00 / 03:22
连播
清屏
智能
倍速
点赞
17
AI技能研究社
2周前
Qwen3.5-27B Opus蒸馏版实测 实测注入Claude Opus数据的Qwen3.5蒸馏版,解决原生报错并支持长任务稳定运行。#Qwen35蒸馏版 #ClaudeOpus #AIAgent #本地大模型 #编程助手
00:00 / 01:37
连播
清屏
智能
倍速
点赞
113
kate人不错
1月前
Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 你会看到: - 不同量化下的显存占用与推理速度差异 - 浏览器端 WebGPU 运行 0.8B 的体验 - 视觉识别/OCR 实测表现 - 9B 与 35B-A3B 在任务稳定性与效果上的差异 - LM Studio 关闭 thinking 的实操方法 - 在 OpenCode / Cline 中做工具调用与编码测试的结果 如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 时间戳 00:00 Qwen3.5 中小模型简介 00:50 格式与部署 02:21 显存与速度实测 03:40 视觉/OCR能力对比 05:33 本地实战案例 11:00 工具调用与编码测试 #Qwen35 #本地大模型 #Ollama #LMStudio #千问
00:00 / 13:28
连播
清屏
智能
倍速
点赞
617
通义实验室
10月前
手机也能跑 Qwen3?手把手教你部署! 全球开源模型冠军 Qwen3 、端到端全模态模型 Qwen2.5- Omni 在手机上也能跑通啦!Android、 iOS、桌面端通通安排~ #通义 #Qwen #大模型 #教程 #涨知识
00:00 / 01:40
连播
清屏
智能
倍速
点赞
NaN
刘东-长乐未央
1周前
mac 使用 oMLX 本地运行 Qwen 3.5 AI模型 文字版内容,请看课程讲义文档:https://clwy.cn/courses/openclaw 注意:本课程使用oMLX部署,仅支持M 系列芯片的Mac。 Windows 用户,请改为Ollama或LM Studio。 #oMLX #千问 #Qwen #AI大模型
00:00 / 02:17
连播
清屏
智能
倍速
点赞
177
懂AI的引路哥
1周前
本地Qwen3.5 9B接OpenClaw #Qwen3.5 9B #OpenClaw #模型调优 #本地部署 #bug修复
00:00 / 01:30
连播
清屏
智能
倍速
点赞
14
千问大模型
3天前
能力全面跃升,更稳定更可靠! Qwen3.6-Plus显著增强了智能体编程能力,默认支持100万上下文窗口,拥有更出色的多模态感知与推理能力! #Qwen #AI #大模型
00:00 / 00:30
连播
清屏
智能
倍速
点赞
8975
深火小号2024
1周前
llama.cpp一键优化35B 256K 40t/s 硬件配置CPU:i5-12400F内存:32GB显卡:RTX 4060Ti 16GB 模型与设置模型:Qwen3.5-35B-A3B Q4_K_M上下文:256K推理速度:稳定 40 token/s工具:llama.cpp + LlamaOptGUI 一键测速优化参数 方案本地部署大模型对接 OpenClaw,永久免费养虾,离线可用、无 Token 消耗、隐私安全 工具https://wwauw.lanzouu.com/i3ujt3lp45hg 密码:epri#openclaw #本地大模型 #llama
00:00 / 08:01
连播
清屏
智能
倍速
点赞
9
Tony沈哲
3周前
本地 AI 推理平台 第十三期 Vol.13|OpenClaw 接入本地推理:Qwen3.5-27B 实测 这一期测试一个比较有意思的组合: OpenClaw + 本地 AI 推理平台 + Qwen3.5-27B 模型。 我将 OpenClaw 接入到我正在开发的 本地 AI 推理平台, 让 OpenClaw 使用本地模型作为 推理后端。 本次使用的模型是: Qwen3.5-27B-Claude-4.6-Opus-Distilled(MLX 4bit) 这是一个基于 Qwen3.5-27B 的模型,并蒸馏了 Claude Opus 风格行为, 同时使用 MLX 框架 + 4bit 量化进行本地推理优化。 需要说明的是: 这个模型 并不是真正的 Claude, 而是一个 Claude 风格的蒸馏模型。 在这一期视频中主要演示: 1️⃣ OpenClaw 接入本地推理平台 通过接口让 OpenClaw 使用 本地 AI 推理平台作为推理后端: OpenClaw ↓ 本地 AI 推理平台 ↓ Qwen3.5-27B Claude Distilled 这样 OpenClaw 就可以使用 本地模型进行推理。 2️⃣ Qwen3.5-27B Claude Distilled 简单实测 通过几个简单示例测试模型能力: 代码生成能力 概念解释能力 实际使用体验 例如: 生成 OpenCV C++ 直方图匹配算法 解释 Transformer 为什么可以处理长文本 这一期主要展示的是: 如何让 OpenClaw 接入本地模型推理能力, 并测试 Qwen3.5-27B Claude Distilled 的实际效果。 如果你对 本地 AI 推理、Agent 架构、或 AI 系统开发感兴趣, 欢迎关注这个系列。 我会持续记录 本地 AI 推理平台的开发过程与实验。 #OpenClaw #抖音养虾人俱乐部 #Qwen #本地大模型
00:00 / 10:49
连播
清屏
智能
倍速
点赞
30
AGI_Ananas
2月前
Qwen3-Max-Thinking编程能力,逻辑推理实测 全网都在说阿里云最新的 Qwen3-Max-Thinking 逻辑无敌。 为了验证它的真实水平,我给 Qwen3-Max、Claude 3.5 Sonnet 和 Gemini 3 Pro 准备了三轮测试: 架构测试:用 Python 手搓一个命令行“操作系统”,看逻辑严密性。 空间测试:用 Ursina 引擎写一个 3D FPS 射击游戏,看空间想象力。 智商测试:高难度逻辑陷阱与蒙特卡洛模拟,看推理深度。 有的模型写出的游戏丝滑流畅,有的模型连“敌人”都刷在墙里... 如果你正在纠结该用哪个 AI 写代码,或者想知道国产大模型的真实水平,这期视频绝对能帮你省下冤枉钱。 第一轮:手搓 Python 操作系统(Claude 秀翻全场?) 第二轮:3D FPS 游戏开发(Qwen 翻车现场/Gemini 表现如何) 第三轮:逻辑陷阱与数学推导(Qwen 的高光时刻!) 总结:工程师选 Claude,科学家选 Qwen? #Qwen3Max #通义千问 #大模型 #AI编程助手推荐 #Gemini
00:00 / 07:46
连播
清屏
智能
倍速
点赞
244
AI技能研究社
1月前
SGLang部署Qwen3.5-27B实战踩坑记录 详解 SGLang 部署 Qwen3.5 27B 流程,攻克工具调用、显存优化及 OpenClaw 对接等 5 大实战坑位。#SGLang #Qwen35 #大模型部署 #AIAgent #人工智能
00:00 / 06:08
连播
清屏
智能
倍速
点赞
509
橙色溪流
6天前
本地运行大模型:该省的省,该花的花! Unsloth✖️MLX ,拉爆本地推理效率! Qwen 3.5 采用了全自注意力(Self-Attention)+ GatedDeltaNet 的混合架构。这种设计有一个致命弱点:不同的架构组件对精度丢失的敏感度天差地别。 如果你给每个权重都强加相同的位宽(比如粗暴的 4-bit),结果就是灾难。底层数据显示,在同一套量化方案下,`lm_head` 张量的 KL 散度(KLD)只有极低的 0.05,稳如老狗;但像 `linear_attn.out_proj` 这种核心输出层,KLD 直接飙到 6.0! 这两天,Unsloth 的Dynamic 2.0 逐张量量化技术被完美移植到了针对 Apple Silicon 优化的 mlx 原生管线中 。 具体的效果我会持续跟进分享。 #科技下一站 #本地大模型 #开源项目 #ai工具学习 #超好用的ai指令分享
00:00 / 01:21
连播
清屏
智能
倍速
点赞
701
程序员御风
1月前
Qwen3.5 实测:会写代码,能读视频 原生多模态到底强在哪? #AI #Qwen #千问大模型 #人工智能 #开源
00:00 / 06:07
连播
清屏
智能
倍速
点赞
238
AGI_Ananas
8月前
Qwen3-235B & Qwen3-Coder 超深度解析 本期视频为你带来一场极致深入的技术解析,全面拆解阿里通义千问 Qwen3 最新发布的两个重磅模型:Qwen3-Coder 与 Qwen3-235B-A22B。 模型架构 / 参数规模 / 性能对比 Coder 编码能力实测 混合专家机制(MoE)亮点解析 中文与多语言支持能力 API、开源情况 本视频为想真正了解 Qwen3 系列模型的开发者、AI从业者、模型评测爱好者量身打造,信息密度爆表,看完你将对国产大模型生态有全新认知!#Qwen3 #Qwen3Coder实测 #编码模型 #模型性能测试 #参数规模解析
00:00 / 02:28
连播
清屏
智能
倍速
点赞
47
码上架构
1月前
Qwen3.5 多模态实战 使用Qwen3.5 来做 OCR 和目标检测任务 #ai #大模型 #qwen #ocr #目标检测
00:00 / 03:46
连播
清屏
智能
倍速
点赞
131
奶黄包💋
1周前
Qwen3.5-35B视觉多模态本地跑通,性价比炸裂💥 在2026年的今天,想跑大模型还要花几十万买H100/A800?NO! 🙅♂️今天给大家展示一套“极度务实”的国产化AI推理服务器方案。 CPU: 国产之光海光3490(16核32线程) 显卡: 2张 RTX 4090 48GB 魔改版(显存翻倍,快乐翻倍!) 目标: 完美运行 Qwen3.5-35B-A3B-FB8 视觉多模态模型! 总成本不到专业卡的零头,性能却足以应付绝大多数私有化部署场景!🔥 🤖 为什么选这套配置跑 Qwen3.5-35B? 1️⃣ 显存才是硬道理!💰 Qwen3.5-35B 是一个巨大的模型。 FP16精度:需要约 70GB+ 显存。 INT4量化:需要约 20-24GB 显存。 但是! 我们要跑视觉多模态 (Vision) + 长上下文 (Long Context) + 高并发。 图像编码需要额外显存。 KV Cache 在长文本下会吃掉大量显存。 双路4090 48G = 96GB 总显存。这意味着你可以: ✅ 轻松运行 FP8/INT4 精度的全量模型。 ✅ 预留充足显存给 高分辨率图片输入。 ✅ 支持 更长上下文 (32k+) 而不爆显存。 ✅ 甚至可以做小规模的 LoRA 微调!🛠️ 2️⃣ 海光3490:被低估的国产老将 🇨🇳 很多人觉得16核不够用? 在推理 (Inference) 场景下,瓶颈主要在 GPU 和 PCIe带宽,CPU主要负责数据预处理和调度。 海光3490基于Zen架构,PCIe通道数充足,能喂饱双卡数据流。 重点: 在信创、政企、涉密场景,国产CPU是刚需。这套方案完美符合“自主可控”要求,且成本极低! 📝 总结 这套 “海光3490 + 双4090 48G” 的方案,是2026年中小型企业、科研实验室、极客玩家部署私有化大模型的版本答案。 不要迷信原厂标,适合业务的才是最好的!如果你也想搭建自己的AI大脑,这套作业可以直接抄!📝 #大模型 #Qwen35 #国产芯片#RTX4090 #多模态AI
00:00 / 02:13
连播
清屏
智能
倍速
点赞
5
机隐软件开发
1周前
8G显存笔记本跑小龙虾,Openclaw +OLLAMA +Qwen3.5#openclaw #小龙虾 #ollama #大模型
00:00 / 02:49
连播
清屏
智能
倍速
点赞
40
IANAI
1天前
Gemma 4炸场!谷歌开源模型碾压Llama 4 谷歌重磅发布Gemma 4开源大模型家族,在数学、编程、逻辑推理等核心基准测试中全面超越Llama 4和Qwen 3.5。更关键的是,这次采用Apache 2.0许可证,彻底取消商业限制。从4GB手机到单张4090显卡,四款模型覆盖全场景部署。最具突破性的"思考模式"让AIME数学得分从20.8%飙升至89.2%,开源模型首次触及封闭系统的推理天花板。 亮点: • 旗舰级31B稠密模型 + 26B MoE架构,128个专家网络仅激活3.8亿参数,算力节省87.5%却保持97%性能 • E系列支持原生音频处理,4-6GB内存的手机和笔记本即可运行OCR与语音转录 • Apache 2.0 + 链式思维推理 + MoE高效架构,企业级本地AI部署的游戏规则改变者 #Gemma4 #谷歌开源 #本地部署 #MoE架构 #开源AI
00:00 / 03:00
连播
清屏
智能
倍速
点赞
11
通义实验室
11月前
Thinking Budget:让大模型灵活思考 Qwen3 引入了“思考模式”和“非思考模式”,使模型能够在不同场景下表现出最佳性能。 在思考模式下,模型会进行多步推理和深度分析。 在非思考模式下,模型优先追求响应速度和效率,适用于简单任务或实时交互。 #通义#Qwen3#大模型 #科普 #涨知识
00:00 / 01:18
连播
清屏
智能
倍速
点赞
2042
通义实验室
1月前
除夕!Qwen3.5来了!我们很高兴正式发布 Qwen3.5,并推出Qwen3.5系列的第一款模型—— Qwen3.5-397B-A17B 的开放权重版本,作为原生视觉-语言模型,在推理、编程、智能体能力与多模态理解等全方位基准评估中表现优异。 亮点速览: ✦ 基于混合结构,397B总参/17B激活,能力匹配>1T参数的Qwen3-Max; ✦ 原生多模态设计,同等规模下超越Qwen3-VL; ✦ 覆盖201种语言; ✦ 在代码生成、智能体推理与多模态理解方面表现卓越! #Qwen #千问大模型 #大模型 #除夕 #新年快乐
00:00 / 01:15
连播
清屏
智能
倍速
点赞
NaN
杨竹筠
11月前
国产开源模型封神时刻 阿里千问三震撼发布 阿里王炸!最新Qwen3大模型,成本仅需DeepSeek-R1的1/3,国内首个“混合推理模型”,性能登顶全球开源模型!超越DeepSeek-R1、OpenAl-o1!成为全球第一! 但Qwen3真正震撼的地方,根本就不在于性能,它最大的奇迹到底是什么呢 #阿里千问3登顶全球最强开源模型 #阿里巴巴 #开源模型
00:00 / 03:08
连播
清屏
智能
倍速
点赞
1388
AI 博士嗨嗨
8月前
个人电脑最强AI模型,Qwen3-30B本地部署教程! #qwen3 #本地部署 #Ollama #AI模型 #大模型
00:00 / 12:41
连播
清屏
智能
倍速
点赞
1730
司波图
8月前
拼好机!2500元装一台AI服务器!vLLM张量并行性能暴涨 💥2400元预算挑战AI算力天花板!本期视频,我们解决了Radeon VII / MI50 等 gfx906 架构显卡长期以来无法使用 vLLM 张量并行的痛点! 我们将全程展示如何用两张“过气”Radeon VII显卡,搭配X99“洋垃圾”平台,组装一台总价仅2397元的AI算力服务器。通过社区大神 nlzy 提供的特制Docker容器,我们成功解锁了vLLM的张量并行功能,在Qwen3 32B量化模型上实现了98 tokens/s的并发推理速度,性能是Ollama的6倍以上! 视频最后,我们还将通过Open WebUI,实战演示8个用户同时访问这台服务器的流畅体验! 本期硬件配置清单 (总计: ~2397元) 显卡 (GPU): AMD Radeon VII 16GB x 2 (二手 ~1600元) 主板 (Motherboard): 精粤 X99M-PLUS (~300元) 处理器 (CPU): Intel Xeon E5-2680 v4 (56元) 内存 (RAM): 海力士 ECC REG DDR4 8GB x 4 (176元) 硬盘 (Storage): 512GB NVMe SSD (~150元) 电源 (PSU): 额定850W 金牌认证电源 (二手 115元) 【本期方案超详细文字版教程】 为了方便大家复现,我们已经把今天所有用到的命令、链接,以及一份超详细的文字版部署教程,全部整理好,放到了UP主的Gitee主页上! 直达链接:https://gitee.com/spoto/R7vllm 如果觉得本期视频对你有帮助,请务-务-务必 点赞、投币、收藏 三连支持一下UP主!你们的支持是我爆肝更新的最大动力!感谢大家! #AI #AMD #vllm #服务器 #装机
00:00 / 07:59
连播
清屏
智能
倍速
点赞
6242
嗒
1周前
qwen3_5_0_8B模型语句纠正能力 视频录制的是千问3.5 0.8B小模型,在纯CPU电脑上的使用展示。0.8B模型在纠正短句错字或语法错误的能力上比较一般,它能发现语句中存在问题的地方,但并不能完全正确修改;对于要求直接修改的语句,它也不能很好地遵从格式要求。毕竟这是一个极小模型,逻辑能力和知识储备量都不够。 这个模型占用的内存大概有2G,但启动时内存占用约2.5G左右。这台虚拟机电脑的总内存是4G,现在CPU已经跑满,内存也接近跑满了,这里显示使用约1.3G,但实际上模型启动时非常消耗内存。这个Q8量化的模型,大概有800兆,属于比较常规的GGUF量化效果,表现确实一般。 后面换了另一个模型,这个模型是通过Opus 4.6蒸馏数据进行微调过的,反馈效果会更好一些。使用的工具是llamacpp,它现在支持UI网页,默认把模型的思考部分折叠起来,只输出实际内容。这里因为隐藏的思考部分比较多,折叠起来避免干扰下方的最终输出内容。而且这个模型是跑在本地真实机器上,所以运行速度会比较快。
00:00 / 02:02
连播
清屏
智能
倍速
点赞
2
东日
10月前
qwen3-30b-目前推荐使用的本地大语言模型 可以选择8845hs机器,推理速度最快24tokens/s
00:00 / 07:07
连播
清屏
智能
倍速
点赞
66
智慧办公坊
1周前
Qwen 3.5本地部署全攻略 2026算力大饥荒:别再排队等API #Qwen3.5 #ai教程
00:00 / 05:07
连播
清屏
智能
倍速
点赞
22
kate人不错
1月前
实测 Qwen3.5-Plus,性价比极高 千问 3.5 正式发布了,我重点实测了 Qwen3.5-Plus(开源 397B-A17B): - 架构:混合线性注意力 + MoE,基于 Qwen3-Next,推理效率高 - 体验:知识截止更新到 2026 年 - 多模态/OCR:论文图空间理解、反写铅活字、反光复杂大图、模糊小票文字识别 - 推理/指令遵循:40 字严格计数、红包礼仪规则抽象、年夜饭方案、7 语种翻译 - 复杂规则:让它当“产品政策审核员”找冲突、判案例、补边界 - 编程:生成气候数据故事网页、无限循环动画、复古终端文字冒险游戏 时间戳 00:00 Qwen 3.5 发布 01:17 多模态实测 04:37 推理能力实测 07:05 编程实测 #Qwen #Qwen35 #Qwen35Plus #千问 #开源AI
00:00 / 08:59
连播
清屏
智能
倍速
点赞
97
产品君
11月前
盘点一周AI大事(5月4日)|跟ChatGPT结婚?? 盘点一周AI大事 Grok 3.5下周上线,能根据第一性原理,推理出网络上根本不存在的新知 o3 Pro和DeepSeek R2下周发布 阿里发布最强开源混合推理模型Qwen3,满血版跑分超越o1和R1 Deepseek发布最强开源数学推理模型Prover-V2 Claude上线第三方服务集成和深度研究 #ai新星计划 #人工智能 #AIGC #OpenAI #DeepSeek
00:00 / 01:43
连播
清屏
智能
倍速
点赞
2053
瑞克老张有话说
8月前
阿里连续开源三个模型,干懵硅谷 #大模型 #AI #阿里 #Qwen 一周内连续开源三个核心模型,从通用到编程到推理,通通霸榜,这就是新时代AI开发基础设施阿里云的实力,也是中国开源模型地位的进一步体现。
00:00 / 04:57
连播
清屏
智能
倍速
点赞
666
AIGCLINK
1年前
基于cursor使用推理模型claude3.7调用MCP服务 Cluade3.7+Cursor+MCP:1、claude发布推理模型claude3.7;2、在cursor中调用MCP服务,实现多个AI员工同时辅助干活;3、Qwen发布推理模型qwen2.5-max #qwen #claude推理模型 #cursor #mcp协议 #mcp服务
00:00 / 16:07
连播
清屏
智能
倍速
点赞
1535
九天Hector
9月前
Qwen3接入MCP,企业级智能体开发实战!Qwen3原生MCP能力解析|MCP Client源码级开发|Qwen-Agen接入海量MCP高效搭建智能体!#ai #Qwen3 #mcp #ai新星计划
00:00 / 01:42:45
连播
清屏
智能
倍速
点赞
287
小工蚁
3周前
Ktransformers发布新版本支持Qwen3.5等模型 #小工蚁 #大模型推理 #开源软件
00:00 / 02:35
连播
清屏
智能
倍速
点赞
70
茶桌财经·老孟
1月前
新闻标题: 阿里除夕夜开源Qwen3.5大模型,A股算力、应用与生态伙伴全面受益 简要概括: 2026年2月16日(除夕夜),阿里巴巴宣布将开源新一代千问大模型Qwen3.5,该模型实现了模型架构的创新。此举旨在降低AI应用门槛、繁荣开发者生态,并推动其“AI to C”战略落地。 核心影响与受益链条: 1. 算力基础设施直接受益:大模型训练与推理需求激增,利好服务器、IDC、芯片、光模块、温控等硬件供应商。例如,浪潮信息作为阿里云AI服务器核心供应商,业绩深度绑定;数据港为模型运行提供关键算力支撑。 2. 垂直行业应用加速落地:通过“千问伙伴计划”,模型能力渗透至酒店、交通、金融、医疗、电商等领域。石基信息、千方科技、恒生电子等合作伙伴将借助千问AI优化其行业解决方案。 3. 技术生态服务商扮演桥梁角色:软通动力、润建股份等公司提供模型集成、算力调度及企业级AI转型服务,是模型规模化落地的重要推动者。 4. 零售与营销场景优化体验:阿里系持股或深度合作的三江购物、蓝色光标等公司,将千问AI能力用于线下门店数字化、社区团购及智能营销,提升运营效率。 总结:阿里此次开源巩固了其在大模型生态的领导地位,从上游算力、中游行业应用到下游零售场景,形成了一条完整的A股受益产业链。同时需注意AI技术迭代、客户集中度及商业化进度等潜在风险。
00:00 / 00:27
连播
清屏
智能
倍速
点赞
131
爱开车的程序猿
3周前
#代码 #千问#qwen #macmini #大模型
00:00 / 01:49
连播
清屏
智能
倍速
点赞
15
智慧办公坊
1天前
8G显存也能起飞?llama.cpp+qwen模型深度调优 为什么显存没占满,速度却掉到了脚脖子? 为什么 CPU 线程拉满,性能反而缩水 50%? 本期视频带你实测 RTX 3050 8G 在运行 Qwen 3.5 9B 时的性能极限。 通过《三体》3 万字压力测试,深度拆解上下文长度、KV Cache 量化、Batch Size 以及 CPU 线程对推理速度的真实影响。 【核心调优结论】 8G 显存黄金平衡点:32k 上下文--ctx-size 64k 极限模式:必开缓存量化 --cache-type-k/v q4_0 预处理加速:调大吞吐量 --batch-size 远比增加 CPU 线程有效。#模型调优 #本地部署ai 【我的配置】显卡: 3050 8G | 内存: 32G DDR4 | CPU: i3-12100
00:00 / 06:03
连播
清屏
智能
倍速
点赞
30
夜蝶-AI信息速递
1周前
推理模型时代快结束了 前Qwen负责人离职后首发 林俊旸,前通义千问Qwen负责人,阿里最年轻P10。离职后发6000字长文,判断AI正从推理思考转向智能体思考。Qwen3混合思考的失败经验,DeepSeek和Kimi的不同路线。#AI #推理模型 #Agent #Qwen #DeepSeek
00:00 / 01:08
连播
清屏
智能
倍速
点赞
49
Ai 学习的老章
1周前
Claude Opus 蒸馏版 Qwen3.5 V2 来了 Claude Opus 4.6 蒸馏版 Qwen3.5 V2 这次最值钱的地方,在于每个 token 都更值。 官方数据里,HumanEval 基本持平,但思维链缩短了大约百分之二十四,每个 token 的正确率还提升了百分之三十一点六。也就是说,同一道题,它想得更短,答得更快,显卡压力也更小。 我觉得这特别适合本地部署。我们真正卡住的地方,经常是生成太慢、等待太久。现在它能用更少的 token 办同样的事,这个提升非常实在。 更重要的是,这次主打的是通用推理数据迁移,最后代码能力依然很稳。要是你主要写代码、做逻辑推理、解题,这个版本我觉得很值得优先试。
00:00 / 00:53
连播
清屏
智能
倍速
点赞
40
AI小菜园
3周前
Ameper架构的布署Qwen 3.5 满血版养虾 两台GPU IB网络互联,布署满血Qwen3.5 397B, 升级龙虾的脑子。使用A800 原生bf16, 不用量化,虽然吐字只有68 token/s ,但感觉智商还可以,用几天再看下效果。#qwen #通义千问 #openclaw #小龙虾 #Ampere
00:00 / 00:51
连播
清屏
智能
倍速
点赞
49
AI天天酱
1月前
Qwen 3.5 炸场!包揽 Hugging Face 前四 阿里千问 Qwen 3.5 系列发布,屠榜 Hugging Face;扩散模型 Mercury 2 实现每秒千代,推理速度快到离谱;Perplexity 发布全能数字员工 PC;英伟达 Q4 财报再次打破人类纪录。干货拉满,速看! #AI #开源 #大模型 #英伟达 #Qwen #Python #开发者
00:00 / 02:54
连播
清屏
智能
倍速
点赞
18
liuweiqing
1周前
破限的千问3.5居然比原始版本智商更高
00:00 / 02:03
连播
清屏
智能
倍速
点赞
12
阿里云
3天前
今天,阿里发布新一代大语言模型Qwen3.6-Plus。千问3.6拥有原生多模态理解和推理能力,整体性能大幅增强。
00:00 / 00:59
连播
清屏
智能
倍速
点赞
4605
建德钱立
5天前
阿里发布新一代全模态大模型Qwen3.5-Omni #阿里发布新一代全模态大模型 #Qwen3.5-Omni #粉丝一千万
00:00 / 01:03
连播
清屏
智能
倍速
点赞
9
Eden.区块链开发
1月前
有人已经直接用 Qwen3.5-27B + DGX Spark 做成 Android Agent,通过 Web UI 下发任务,让模型自己读屏、决策、点按,推理速度提升 4 倍。#OpenClaw #Ai
00:00 / 00:18
连播
清屏
智能
倍速
点赞
1610
Ai探秘小站
5天前
2026年3月31日 | 通义千问Qwen3.5-Omni震 阿里巴巴通义实验室正式发布全新多模态大模型Qwen3.5-Omni。这款模型在全模态理解方面实现了重大突破,在覆盖视听分析、推理、对话和翻译的测试中斩获215项SOTA成绩。Thinker升级为混合注意力MoE架构,支持256K超长上下文,可处理长达10小时的音频或1小时的视频内容。Talker引入全新ARIA技术,解决了语音输出中常见的漏字、错读数字等问题,支持113种语言的个性化语音克隆。目前该模型已在阿里云百炼平台上线,标志着AI正从屏幕助手向理解物理世界的智能体转变。
00:00 / 00:49
连播
清屏
智能
倍速
点赞
1
老诸Ai的小助理
1月前
阿里春节太疯了🔥30亿补贴没结束,又炸出Qwen3.5新模型!#Qwen3.5 #阿里AI新模型 #春节AI大事件#我在抖音聊科技 #老诸的Ai朋友圈
00:00 / 03:21
连播
清屏
智能
倍速
点赞
13
C哥聊科技
6月前
Qwen把AI成本降10倍,推理快10倍 离谱!Qwen团队发布的下一代模型架构 Qwen3-Next,训练成本还不到之前320亿参数模型的十分之一。推理速度直接飙升了10倍以上。#推理 #千问 #ai #大模型
00:00 / 03:44
连播
清屏
智能
倍速
点赞
362
雷特人工智能企业定制
1月前
Qwen3.5发布了 并推出Qwen3.5系列的第一款模型—— Qwen3.5-397B-A17B 的开放权重版本,作为原生视觉-语言模型,在推理、编程、智能体能力与多模态理解等全方位基准评估中表现优异。 #Qwen35 #开源大模型 #人工智能 #agent
00:00 / 05:39
连播
清屏
智能
倍速
点赞
5
小萌芽科技
1月前
阿里在春节全新开源大模型Qwen3.5! 阿里在春节全新开源大模型Qwen3.5! Qwen3.5-Plus拥有3970亿总参数,但激活参数仅170亿,性能超越了上一代万亿级模型。得益于创新的极致稀疏MoE架构,其推理效率大幅提升,最大吞吐量可达19倍,而API调用成本低至每百万Token 0.8元,性价比极高。 此次升级的核心是从“语言模型”进化为“原生多模态大模型”。与市面上常见的“拼装”方案不同,Qwen3.5从预训练第一天起,就让文本、图像、视频等多模态数据在同一架构下进行深度融合学习,使其具备了像人一样的跨模态直觉理解力。实测中,它能将手绘草图直接生成可用的网页代码,也能精准理解复杂图片中的物体、模糊文字并进行综合推理。 模型的技术突破在于四大核心创新:混合注意力机制提升了长文本处理效率;原生多Token预测使响应速度接近“秒回”;系统级训练稳定性优化(如获得NeurIPS 2025最佳论文奖的注意力门控机制)确保了大规模训练的稳定。这些技术共同实现了“以小博大”,在保持顶尖性能的同时,让部署成本大幅降低,变得更加“好用、实用、用得起”。 此外,Qwen3.5具备强大的智能体(Agent)能力,可作为视觉智能体自主操作手机与电脑完成任务,并与OpenClaw等工具集成,实现自动化流程。总体而言,Qwen3.5不仅再次刷新了开源模型的能力天花板,更将行业竞争的重点从单纯比拼参数规模,引向了追求极致效率与实用性的新阶段。
00:00 / 05:12
连播
清屏
智能
倍速
点赞
35
赋范课堂
10月前
从零接入Qwen3,手把手教你代码编写MCP客户端! #人工智能 #ai #Qwen3 #MCP #大模型
00:00 / 14:43
连播
清屏
智能
倍速
点赞
37
阿甘探AI
1月前
AI贺岁,Qwen3.5刚刚发布,性能霸榜消耗减半 #AI贺岁 #大模型 #人工智能 #qwen35
00:00 / 00:26
连播
清屏
智能
倍速
点赞
3280
简介:
您在查找“
qwen3.5默认推理怎么关闭
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-04-05 06:17
最新推荐:
愚人节最新整蛊方式吃瓜
笨小孩王以诺歌曲
织焰狮技能搭配
大运翼王闪击怎么学
呆面是什么意思
洛克王国有效防御学习第二次
林沐然的爸爸是导演吗
洛克王国翼王用炫彩球抓是什么性格
第五人格余量实时查什么意思
洛克王国乐兔站岗的魔力之源怎么解锁
相关推荐:
那尔太比赛处理方式
罗隐和燃心虫怎么选
林沐然拆盲盒
洛克王国狼头按钮有什么用
炫彩里奥固执性格怎么办
酷拉怎么刷新不出来
洛克王国那只猫打没了怎么办
董宇辉卖过优思益吗
方块精灵蛋在哪加速
香溢人间小女孩健康吗
热门推荐:
酷狗太阳之子专辑怎么退款
#发布你拍的游戏技巧
腾讯表格已失效内容是怎么输入的
芒果plus
阿里云百炼能用glm5.1吗
soul可以连接龙虾自动回复吗
便携openclaw u盘有什么用
DeepSeek更新后回复怎么回事
怎么删除豆包保信息
闲鱼自己不包装会怎么样