Qwen3.5-Omni 正式发布! 千问最新一代全模态模型 Qwen3.5-Omni 正式发布!支持文本,图片,音频,音视频理解,包含 Plus、Flash、Light三种尺寸的Instruct版本,灵活适配不同场景需求,更在离线智能与实时交互两大维度实现了突破。 💡 突出亮点:惊喜涌现的「氛围编程」 Qwen3.5-Omni-Plus 自发涌现出 Audio-Visual Vibe Coding 能力:只需对着镜头描述创意,即可转化为可运行的代码。 🧠 离线模式:硬核智力升级 • 精细化音视频Caption: 支持时间戳、场景切片及角色-音频映射,输出剧本级详细描述! • 业界领先性能: 在215项音视频/音频子任务与基准测试中全面领先!音频任务超越 Gemini-3.1 Pro,音视频理解能力与 Gemini-3.1 Pro对齐。 • 原生多模态:基于超1亿小时音视频数据训练,支持长达10小时音频输入,及超过 400 秒的 720P(1 FPS)音视频输入。 • 多语言支持:语音识别覆盖113种语言及方言,语音合成支持36种语言及方言。 🎙️在线模式:拟人实时交互 • 细粒度语音控制: 实时调节情绪、语速、音量。 • 个性化声音克隆: 上传语音样本,即可定制拥有克隆音色的专属AI助手。 • 语义级打断: 精准识别意图,有效过滤无意义的背景噪音干扰与附和回应。 • 联网增强: 内置 WebSearch 与复杂工具调用。 #通义实验室 #Qwen #多模态 #音视频 #大模型
00:00 / 06:14
连播
清屏
智能
倍速
点赞1372
🚀本地部署+全面测评!阿里最强全模态大模型Qwen3-Omni史诗级更新!OCR能力、音频识别、视频理解无所不能!Qwen3-Omni-30B-A3B-Instruct支持语音输出! 🚀🚀🚀视频简介: ✅神器降临!阿里Qwen3-Omni多模态大模型完整评测,实时语音对话+视频理解+OCR识别,Docker本地部署零门槛上手! ⚡️ 本期视频详细演示了阿里巴巴最新发布的Qwen3-Omni多模态大模型的完整部署和测试流程!这是一个原生端到端的多模态AI模型,采用MoE混合专家架构,拥有353亿总参数。 ✨ 主要演示内容包括:Ubuntu系统Docker本地部署、实时语音对话测试、音乐理解与歌词提取、模糊扫描件OCR识别、视频内容理解分析、AI生成内容识别等多个实战场景。模型支持119种语言输入和10种语音输出,包括粤语、四川话等方言。 🎯 三大版本功能各有特色:Instruct版本支持多模态输入输出、Thinking版本支持思维链推理、Captioner版本专注字幕识别。无论是语音翻译、音乐分析还是视频理解,Qwen3-Omni都展现了卓越性能! 🔥🔥🔥时间戳: 00:00 开场介绍 - 阿里巴巴发布Qwen3-Omni多模态大模型 00:32 模型架构 - MoE混合专家架构与参数详解 00:42 三大版本介绍 - Instruct、Thinking、Captioner功能对比 01:09 语言支持 - 119种语言输入与10种语音输出能力 01:34 本地部署教程 - Ubuntu系统Docker环境配置 02:35 推理服务启动 - localhost:8901端口访问演示 02:59 在线音频识别测试 - 实时语音对话功能展示 04:14 音乐理解分析 - AI描述音乐风格与提取歌词 06:00 OCR能力测试 - 模糊扫描件文字识别 07:04 视频理解测试 - 目标人物追踪与时间定位 09:29 游戏画面识别 - AI生成内容理解分析 11:10 多语言语音输出 - 支持粤语四川话等方言 11:20 实际应用场景 - 语音翻译、音乐分析、视频理解等 #qwen3 #qwen #Qwen3omni #aigc #ai
00:00 / 11:30
连播
清屏
智能
倍速
点赞226
00:00 / 01:49
连播
清屏
智能
倍速
点赞903
00:00 / 00:33
连播
清屏
智能
倍速
点赞341
Qwen3.5-35B视觉多模态本地跑通,性价比炸裂💥 在2026年的今天,想跑大模型还要花几十万买H100/A800?NO! 🙅‍♂️今天给大家展示一套“极度务实”的国产化AI推理服务器方案。 CPU: 国产之光海光3490(16核32线程) 显卡: 2张 RTX 4090 48GB 魔改版(显存翻倍,快乐翻倍!) 目标: 完美运行 Qwen3.5-35B-A3B-FB8 视觉多模态模型! 总成本不到专业卡的零头,性能却足以应付绝大多数私有化部署场景!🔥 🤖 为什么选这套配置跑 Qwen3.5-35B? 1️⃣ 显存才是硬道理!💰 Qwen3.5-35B 是一个巨大的模型。 FP16精度:需要约 70GB+ 显存。 INT4量化:需要约 20-24GB 显存。 但是! 我们要跑视觉多模态 (Vision) + 长上下文 (Long Context) + 高并发。 图像编码需要额外显存。 KV Cache 在长文本下会吃掉大量显存。 双路4090 48G = 96GB 总显存。这意味着你可以: ✅ 轻松运行 FP8/INT4 精度的全量模型。 ✅ 预留充足显存给 高分辨率图片输入。 ✅ 支持 更长上下文 (32k+) 而不爆显存。 ✅ 甚至可以做小规模的 LoRA 微调!🛠️ 2️⃣ 海光3490:被低估的国产老将 🇨🇳 很多人觉得16核不够用? 在推理 (Inference) 场景下,瓶颈主要在 GPU 和 PCIe带宽,CPU主要负责数据预处理和调度。 海光3490基于Zen架构,PCIe通道数充足,能喂饱双卡数据流。 重点: 在信创、政企、涉密场景,国产CPU是刚需。这套方案完美符合“自主可控”要求,且成本极低! 📝 总结 这套 “海光3490 + 双4090 48G” 的方案,是2026年中小型企业、科研实验室、极客玩家部署私有化大模型的版本答案。 不要迷信原厂标,适合业务的才是最好的!如果你也想搭建自己的AI大脑,这套作业可以直接抄!📝 #大模型 #Qwen35 #国产芯片#RTX4090 #多模态AI
00:00 / 02:13
连播
清屏
智能
倍速
点赞5
00:00 / 03:22
连播
清屏
智能
倍速
点赞19