Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
stitch生成代码后怎么查看效果
Kali扫描WiFi
LIbtv生成一秒钟要多少积分
skill怎么返回结果
跌落神坛ai指令教程
跨栏杆ai指令
openclaw沙箱限制解除步骤
openclaw本地删除怎怎么找回
token服务是什么意思
openclaw多模型回退教程
AI躺平养龙虾🦞
2周前
养龙虾之LLM 篇#openclaw #macstudio #macmini #llm #qwn3.5
00:00 / 06:36
连播
清屏
智能
倍速
点赞
515
薛饿喵的腚
1周前
#qwen3.5 #手机本地部署大模型
00:00 / 03:22
连播
清屏
智能
倍速
点赞
17
深火小号2024
1周前
llama.cpp一键优化35B 256K 40t/s 硬件配置CPU:i5-12400F内存:32GB显卡:RTX 4060Ti 16GB 模型与设置模型:Qwen3.5-35B-A3B Q4_K_M上下文:256K推理速度:稳定 40 token/s工具:llama.cpp + LlamaOptGUI 一键测速优化参数 方案本地部署大模型对接 OpenClaw,永久免费养虾,离线可用、无 Token 消耗、隐私安全 工具https://wwauw.lanzouu.com/i3ujt3lp45hg 密码:epri#openclaw #本地大模型 #llama
00:00 / 08:01
连播
清屏
智能
倍速
点赞
9
AI技能研究社
3周前
oMLX 框架部署Qwen3.5 实测oMLX让Qwen3.5生成速度提升4.14倍,解决长上下文响应慢与智能体解析报错难题。#oMLX #Qwen35 #Mac #本地大模型 #AI智能体
00:00 / 01:59
连播
清屏
智能
倍速
点赞
672
灵猫工作室LynxLab
2周前
1CatAI用 V100 的预算跑出 A100 的性能? 谁说老卡不能打?1Cat-vLLM 让 Tesla V100 再次伟大! Make V100 Great Again !!!🚀 在显卡价格起飞的今天,难道只有堆新卡才能玩转大模型?1CatAI 团队给出了不同的答案:深挖硬件潜力,用技术优化抹平代差。 我们将带你看到实测 1Cat-vLLM 0.0.4 框架在 一猫之下S4N(四路 NVLink 全互联) 平台上的暴力表现。看我们如何通过深度优化,让老兵 V100 在推理 Qwen3.5-122B 时跑出令人惊叹的数据! 核心亮点速览: ⚡️ 性能跃升: 首次将 FlashAttention 2 完美移植至 Volta (SM70) 架构底层,Prefill(首字处理)速度暴涨 150%,Decode 提升 15%! 🔗 暴力带宽: 四路 NVLink 全互联打造 300GB/s 聚合带宽,彻底消除多卡推理的通信瓶颈。 🧠 超大池化: 128GB 高速统一显存池,原地复活,无压力满血加载 122B 超大规模参数模型。 📊 实测数据: Prefill: 最高达 4800 tokens/s Decode: 最高达 82 token/s(同规格下甚至超越 M5 Max 推理表现) “真正的性价比,是把成熟硬件的每一滴性能都压榨干净。” 如果你也在寻找低成本、高性能的本地化 AI 算力方案,这台 一猫之下 S4N 四卡工作站 或许就是你的最优解。 #v100显卡 #vLLM #A100 #NVlink #硬件
00:00 / 00:34
连播
清屏
智能
倍速
点赞
108
AI技能研究社
3周前
Qwen3.5-27B Opus蒸馏版实测 实测注入Claude Opus数据的Qwen3.5蒸馏版,解决原生报错并支持长任务稳定运行。#Qwen35蒸馏版 #ClaudeOpus #AIAgent #本地大模型 #编程助手
00:00 / 01:37
连播
清屏
智能
倍速
点赞
114
liuweiqing
3周前
使用免费32GB显存微调反人类qwen3.5-9b模型 代码:https://www.kaggle.com/code/liuweiq/qwen3-5-antihuman-lora-9b #人工智能
00:00 / 05:25
连播
清屏
智能
倍速
点赞
13
机器之心
6天前
动动嘴就能Vibe Coding 阿里发布全模态大模型Qwen3.5-Omni,狂揽215项SOTA, AI编程已从文字指令进化为音视频交互完成,太疯狂了!#全模态大模型 #阿里 #千问 #AI编程 #AI #人工智能 #科技 #前沿科技
00:00 / 01:20
连播
清屏
智能
倍速
点赞
9
liuweiqing
1周前
破限的千问3.5居然比原始版本智商更高
00:00 / 02:03
连播
清屏
智能
倍速
点赞
12
Ai 学习的老章
3周前
神操作再现,单卡3090 起跑!Claude-Opus蒸馏Qwen3.5-27B #大模型#蒸馏 #程序员
00:00 / 01:46
连播
清屏
智能
倍速
点赞
860
刘东-长乐未央
1周前
OpenClaw 安装、配置使用本地 Qwen 3.5 模型 #OpenClaw #AI #本地大模型
00:00 / 02:57
连播
清屏
智能
倍速
点赞
193
AI小菜园
3周前
Ameper架构的布署Qwen 3.5 满血版养虾 两台GPU IB网络互联,布署满血Qwen3.5 397B, 升级龙虾的脑子。使用A800 原生bf16, 不用量化,虽然吐字只有68 token/s ,但感觉智商还可以,用几天再看下效果。#qwen #通义千问 #openclaw #小龙虾 #Ampere
00:00 / 00:51
连播
清屏
智能
倍速
点赞
49
薛定谔的叨叨
3周前
阿里千问qwen3.5-35B-A3B大模型本地部署体验,实现养龙虾模型自由#大模型 #本地大模型 #部署大模型
00:00 / 06:47
连播
清屏
智能
倍速
点赞
93
lukeewin
2周前
本地服务器部署AI大模型 | 本地化部署Qwen3.5-4B大模型 | 人工智能 | 生成式AI | 多模态AI大模型本地化部署 #大模型本地化部署 #大模型 #ai #Qwen3.5 #多模态大模型
00:00 / 02:08
连播
清屏
智能
倍速
点赞
9
Tony沈哲
3周前
本地 AI 推理平台 第十三期 Vol.13|OpenClaw 接入本地推理:Qwen3.5-27B 实测 这一期测试一个比较有意思的组合: OpenClaw + 本地 AI 推理平台 + Qwen3.5-27B 模型。 我将 OpenClaw 接入到我正在开发的 本地 AI 推理平台, 让 OpenClaw 使用本地模型作为 推理后端。 本次使用的模型是: Qwen3.5-27B-Claude-4.6-Opus-Distilled(MLX 4bit) 这是一个基于 Qwen3.5-27B 的模型,并蒸馏了 Claude Opus 风格行为, 同时使用 MLX 框架 + 4bit 量化进行本地推理优化。 需要说明的是: 这个模型 并不是真正的 Claude, 而是一个 Claude 风格的蒸馏模型。 在这一期视频中主要演示: 1️⃣ OpenClaw 接入本地推理平台 通过接口让 OpenClaw 使用 本地 AI 推理平台作为推理后端: OpenClaw ↓ 本地 AI 推理平台 ↓ Qwen3.5-27B Claude Distilled 这样 OpenClaw 就可以使用 本地模型进行推理。 2️⃣ Qwen3.5-27B Claude Distilled 简单实测 通过几个简单示例测试模型能力: 代码生成能力 概念解释能力 实际使用体验 例如: 生成 OpenCV C++ 直方图匹配算法 解释 Transformer 为什么可以处理长文本 这一期主要展示的是: 如何让 OpenClaw 接入本地模型推理能力, 并测试 Qwen3.5-27B Claude Distilled 的实际效果。 如果你对 本地 AI 推理、Agent 架构、或 AI 系统开发感兴趣, 欢迎关注这个系列。 我会持续记录 本地 AI 推理平台的开发过程与实验。 #OpenClaw #抖音养虾人俱乐部 #Qwen #本地大模型
00:00 / 10:49
连播
清屏
智能
倍速
点赞
30
懂AI的引路哥
1周前
OpenClaw免费模型实测推荐 #OpenClaw #免费模型 #AI agent #Kimi K2.5 #阿里Qwen
00:00 / 02:23
连播
清屏
智能
倍速
点赞
4
橙色溪流
1周前
本地运行大模型:该省的省,该花的花! Unsloth✖️MLX ,拉爆本地推理效率! Qwen 3.5 采用了全自注意力(Self-Attention)+ GatedDeltaNet 的混合架构。这种设计有一个致命弱点:不同的架构组件对精度丢失的敏感度天差地别。 如果你给每个权重都强加相同的位宽(比如粗暴的 4-bit),结果就是灾难。底层数据显示,在同一套量化方案下,`lm_head` 张量的 KL 散度(KLD)只有极低的 0.05,稳如老狗;但像 `linear_attn.out_proj` 这种核心输出层,KLD 直接飙到 6.0! 这两天,Unsloth 的Dynamic 2.0 逐张量量化技术被完美移植到了针对 Apple Silicon 优化的 mlx 原生管线中 。 具体的效果我会持续跟进分享。 #科技下一站 #本地大模型 #开源项目 #ai工具学习 #超好用的ai指令分享
00:00 / 01:21
连播
清屏
智能
倍速
点赞
719
46wg
2周前
在vllm轻松关闭qwen3.5 推理功能 只需要一行参数轻松关闭qwen3.5推理。 #vllm #qwen #qwen3 #think #关闭推理
00:00 / 07:02
连播
清屏
智能
倍速
点赞
9
AI随风
3天前
编程能力大加强,Qwen-3.6-plus 前后端编程测试 本视频介绍了 Qwen3.6-plus 大模型的前后端测试 Qwen-3.6-plus 特点 默认支持100万上下文窗口 显著提升的智能体编程能力 更出色的多模态感知与推理能力 测试案例 注意: 本次测试客户端阿里开发工具 Qoder 进行测试,已经内置 Qwen-3.6-plus 模型 测试流程仍然是按照先 plan->执行, 一个需求对话不超过 5 轮 #AI编程 #Qwen #千问 #AI编程工具
00:00 / 06:31
连播
清屏
智能
倍速
点赞
211
机隐软件开发
2周前
8G显存笔记本跑小龙虾,Openclaw +OLLAMA +Qwen3.5#openclaw #小龙虾 #ollama #大模型
00:00 / 02:49
连播
清屏
智能
倍速
点赞
41
智慧办公坊
2天前
8G显存也能起飞?llama.cpp+qwen模型深度调优 为什么显存没占满,速度却掉到了脚脖子? 为什么 CPU 线程拉满,性能反而缩水 50%? 本期视频带你实测 RTX 3050 8G 在运行 Qwen 3.5 9B 时的性能极限。 通过《三体》3 万字压力测试,深度拆解上下文长度、KV Cache 量化、Batch Size 以及 CPU 线程对推理速度的真实影响。 【核心调优结论】 8G 显存黄金平衡点:32k 上下文--ctx-size 64k 极限模式:必开缓存量化 --cache-type-k/v q4_0 预处理加速:调大吞吐量 --batch-size 远比增加 CPU 线程有效。#模型调优 #本地部署ai 【我的配置】显卡: 3050 8G | 内存: 32G DDR4 | CPU: i3-12100
00:00 / 06:03
连播
清屏
智能
倍速
点赞
32
锋芒AI
1周前
一张 3090 跑出 Claude 味 Qwen 闭源模型拿不到,就先把思路学下来。有人把 Claude Opus 的推理习惯蒸进 Qwen 3.5,一张 3090 就能跑本地高阶推理,社区实测速度 29-35 tok/s,显存大约 16.5 GB。对折腾本地编程助手的人,这个方向很值得看。#Qwen35 #ClaudeOpus #本地AI #AI编程 #推理模型
00:00 / 01:25
连播
清屏
智能
倍速
点赞
27
if科技
3天前
千问3.6 登全球编程榜Code Arena!观察阿里近期密集的模型发布节奏,三天三款!包括全模态 Qwen3.5-Omni、图像模型 Wan2.7-Image、语言模型 Qwen3.6-Plus。随着算力、模型与应用层的打通,国内大模型竞争正式进入以“解决复杂工程任务”为核心的深水区#阿里 #阿里三天三连发 #Qwen36Plus登上全球榜单第二 #Qwen36
00:00 / 03:45
连播
清屏
智能
倍速
点赞
15
奶黄包💋
2周前
Qwen3.5-35B视觉多模态本地跑通,性价比炸裂💥 在2026年的今天,想跑大模型还要花几十万买H100/A800?NO! 🙅♂️今天给大家展示一套“极度务实”的国产化AI推理服务器方案。 CPU: 国产之光海光3490(16核32线程) 显卡: 2张 RTX 4090 48GB 魔改版(显存翻倍,快乐翻倍!) 目标: 完美运行 Qwen3.5-35B-A3B-FB8 视觉多模态模型! 总成本不到专业卡的零头,性能却足以应付绝大多数私有化部署场景!🔥 🤖 为什么选这套配置跑 Qwen3.5-35B? 1️⃣ 显存才是硬道理!💰 Qwen3.5-35B 是一个巨大的模型。 FP16精度:需要约 70GB+ 显存。 INT4量化:需要约 20-24GB 显存。 但是! 我们要跑视觉多模态 (Vision) + 长上下文 (Long Context) + 高并发。 图像编码需要额外显存。 KV Cache 在长文本下会吃掉大量显存。 双路4090 48G = 96GB 总显存。这意味着你可以: ✅ 轻松运行 FP8/INT4 精度的全量模型。 ✅ 预留充足显存给 高分辨率图片输入。 ✅ 支持 更长上下文 (32k+) 而不爆显存。 ✅ 甚至可以做小规模的 LoRA 微调!🛠️ 2️⃣ 海光3490:被低估的国产老将 🇨🇳 很多人觉得16核不够用? 在推理 (Inference) 场景下,瓶颈主要在 GPU 和 PCIe带宽,CPU主要负责数据预处理和调度。 海光3490基于Zen架构,PCIe通道数充足,能喂饱双卡数据流。 重点: 在信创、政企、涉密场景,国产CPU是刚需。这套方案完美符合“自主可控”要求,且成本极低! 📝 总结 这套 “海光3490 + 双4090 48G” 的方案,是2026年中小型企业、科研实验室、极客玩家部署私有化大模型的版本答案。 不要迷信原厂标,适合业务的才是最好的!如果你也想搭建自己的AI大脑,这套作业可以直接抄!📝 #大模型 #Qwen35 #国产芯片#RTX4090 #多模态AI
00:00 / 02:13
连播
清屏
智能
倍速
点赞
5
子龙爱分享
1周前
OpenClaw免费养虾爽到飞起,Qwen3.5速度翻倍 ✅ 零成本通用提速方案,不用复杂量化,小白也能轻松上手 ✅ 详细参数设置步骤,一步步跟着操作,直接让模型速度翻倍 ✅ OpenClaw 本地部署教程,免费畅玩大模型,隐私安全有保障 ⚠️ 重要声明 本视频内容仅为人工智能技术学习与研究交流,仅限个人本地测试使用。 严禁用于任何违法违规、商业盈利及未获授权的传播场景。 所有操作需遵守相关法律法规及开源协议,违规使用产生的一切责任由使用者自行承担。#Qwen3.5, #大模型提速,# 本地大模型,#OpenClaw, #AI 养虾,# 大模型部署,#AI 教程,# 本地 AI, #Qwen3.5, #LLMSpeedUp, #LocalLLM, #OpenClaw, #AIForFree, #LLMDeployment, #AITutorial, #LocalAI,
00:00 / 08:25
连播
清屏
智能
倍速
点赞
28
雾里看花
1周前
阿里正式发布新一代全模态大模型Qwen3.5-Omni#科技 #人工智能 #ai #阿里巴巴 #科技创新 @抖音小助手
00:00 / 01:27
连播
清屏
智能
倍速
点赞
38
建德钱立
1周前
阿里发布新一代全模态大模型Qwen3.5-Omni #阿里发布新一代全模态大模型 #Qwen3.5-Omni #粉丝一千万
00:00 / 01:03
连播
清屏
智能
倍速
点赞
9
橙色溪流
1周前
阿里深夜突袭!Qwen3.5Omni全模态大模型重磅发布🔥 该模型展现出卓越的全模态感知与生成能力。在音频/音视频的理解、推理和交互任务上共取得了 215 项子任务/Benchmark 的 SOTA 成绩。 其中,通用音频理解/推理/识别/翻译/对话全面超越 Gemini-3.1 Pro,音视频理解能力总体达到 Gemini-3.1 Pro 水平,同时视觉/文本能力达到同尺寸 Qwen3.5 模型效果。 Qwen3.5-Omni 的交互能力也得到加强。支持了语义打断、WebSearch和复杂 Function Call 的调用能力、端到端的语音控制和对话和音色克隆。 可以说这是用行动回应了小米mimo-v2,也开启了国产全模态AI的军备竞赛。 期待未来国产AI大模型越来越强! #国产大模型 #开源项目 #ai工具学习 #qwen #科技下一站
00:00 / 00:53
连播
清屏
智能
倍速
点赞
876
努力赚钱的小元
3周前
3月16日 (1) GLM-5、Qwen3.5、MiniMax M2.5、Kimi K2.5:四大模型新对决,谁更有未来?#大模型选择 #国产大模型 #Claudecode #省钱 #这也能开播
00:00 / 01:49
连播
清屏
智能
倍速
点赞
24
Ai 学习的老章
1周前
Claude Opus 蒸馏版 Qwen3.5 V2 来了 Claude Opus 4.6 蒸馏版 Qwen3.5 V2 这次最值钱的地方,在于每个 token 都更值。 官方数据里,HumanEval 基本持平,但思维链缩短了大约百分之二十四,每个 token 的正确率还提升了百分之三十一点六。也就是说,同一道题,它想得更短,答得更快,显卡压力也更小。 我觉得这特别适合本地部署。我们真正卡住的地方,经常是生成太慢、等待太久。现在它能用更少的 token 办同样的事,这个提升非常实在。 更重要的是,这次主打的是通用推理数据迁移,最后代码能力依然很稳。要是你主要写代码、做逻辑推理、解题,这个版本我觉得很值得优先试。
00:00 / 00:53
连播
清屏
智能
倍速
点赞
40
妙语启智
6天前
全球最强全模态大模型易主?阿里Qwen3.5-Omni多项指标超越谷歌。3月30日,阿里巴巴正式发布新一代全模态大模型"Qwen3.5-0mni"。该模型在音视频理解、识别、交互等共计215项任务测试中取得了当前最优效果,其综合性能超越了谷歌的Gemini-3.1 Pro,成为全球顶尖的全模态大模型之一。#电脑技巧 #行业大揭秘 #互联网资讯 @DOU+小助手
00:00 / 01:17
连播
清屏
智能
倍速
点赞
2
子龙爱分享
2周前
我量化了Qwen3.5_35B!显存速度质量全拉满+本地养虾 完犊子!我不小心把Qwen3.5_35B量化了!显存速度质量全拉满+联网技巧,OpenClaw本地轻松养虾!50系显卡的春天#openclaw #本地模型 #ai #开源 #分享
00:00 / 25:48
连播
清屏
智能
倍速
点赞
97
麦汁服务器
1周前
昨晚阿里推出了两个新模型,一个qwen3.6-plus,一个qwen3.5-omni
00:00 / 00:20
连播
清屏
智能
倍速
点赞
25
kate人不错
1月前
Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 你会看到: - 不同量化下的显存占用与推理速度差异 - 浏览器端 WebGPU 运行 0.8B 的体验 - 视觉识别/OCR 实测表现 - 9B 与 35B-A3B 在任务稳定性与效果上的差异 - LM Studio 关闭 thinking 的实操方法 - 在 OpenCode / Cline 中做工具调用与编码测试的结果 如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 时间戳 00:00 Qwen3.5 中小模型简介 00:50 格式与部署 02:21 显存与速度实测 03:40 视觉/OCR能力对比 05:33 本地实战案例 11:00 工具调用与编码测试 #Qwen35 #本地大模型 #Ollama #LMStudio #千问
00:00 / 13:28
连播
清屏
智能
倍速
点赞
629
木火相助
1周前
虽然电脑配置有限,但我还是装了本地大模型,关键还能顺畅地用起来,而且智力不低。虽然暂时还没解决怎么用它来养本地龙虾,但我相信会找到办法的。#本地大模型 #openclaw #ollama #创作者扶持计划 #创作者激励计划
00:00 / 04:57
连播
清屏
智能
倍速
点赞
185
爱开车的程序猿
3周前
#代码 #千问#qwen #macmini #大模型
00:00 / 01:49
连播
清屏
智能
倍速
点赞
16
芦苇草server
2周前
4090 96G显存Qwen3.5-35B实时视频语言测试 #SGLANG框架 #本地模型部署# Live-VLM-WebUI #多模态大模型 #视觉语言测试
00:00 / 01:48
连播
清屏
智能
倍速
点赞
18
云商阿强
2周前
阿里云Qwen3.5-plus 原生多模态 性能全新突破 成本大幅降低#AI #阿里云 #大模型 #千问
00:00 / 00:12
连播
清屏
智能
倍速
点赞
1
IANAI
2天前
Gemma 4炸场!谷歌开源模型碾压Llama 4 谷歌重磅发布Gemma 4开源大模型家族,在数学、编程、逻辑推理等核心基准测试中全面超越Llama 4和Qwen 3.5。更关键的是,这次采用Apache 2.0许可证,彻底取消商业限制。从4GB手机到单张4090显卡,四款模型覆盖全场景部署。最具突破性的"思考模式"让AIME数学得分从20.8%飙升至89.2%,开源模型首次触及封闭系统的推理天花板。 亮点: • 旗舰级31B稠密模型 + 26B MoE架构,128个专家网络仅激活3.8亿参数,算力节省87.5%却保持97%性能 • E系列支持原生音频处理,4-6GB内存的手机和笔记本即可运行OCR与语音转录 • Apache 2.0 + 链式思维推理 + MoE高效架构,企业级本地AI部署的游戏规则改变者 #Gemma4 #谷歌开源 #本地部署 #MoE架构 #开源AI
00:00 / 03:00
连播
清屏
智能
倍速
点赞
11
Ai探秘小站
1周前
2026年3月31日 | 通义千问Qwen3.5-Omni震 阿里巴巴通义实验室正式发布全新多模态大模型Qwen3.5-Omni。这款模型在全模态理解方面实现了重大突破,在覆盖视听分析、推理、对话和翻译的测试中斩获215项SOTA成绩。Thinker升级为混合注意力MoE架构,支持256K超长上下文,可处理长达10小时的音频或1小时的视频内容。Talker引入全新ARIA技术,解决了语音输出中常见的漏字、错读数字等问题,支持113种语言的个性化语音克隆。目前该模型已在阿里云百炼平台上线,标志着AI正从屏幕助手向理解物理世界的智能体转变。
00:00 / 00:49
连播
清屏
智能
倍速
点赞
1
小宇玩AI
2天前
阿里放大招!千问3.6编程能力直逼世界第一,还免费用 两天前阿里偷偷发了 Qwen3.6-Plus,编程跑分直逼 Claude Opus 4.5,推理速度快3倍,价格只要十分之一。 这条视频从架构原理、Benchmark 数据、实测案例、价格对比四个维度,帮你搞懂这个模型到底强在哪,对普通人意味着什么。#Qwen #千问 #阿里巴巴 #AI编程 #大模型 #Claude #人工智能
00:00 / 03:38
连播
清屏
智能
倍速
点赞
284
AI 博士嗨嗨
8月前
个人电脑最强AI模型,Qwen3-30B本地部署教程! #qwen3 #本地部署 #Ollama #AI模型 #大模型
00:00 / 12:41
连播
清屏
智能
倍速
点赞
1733
西部数字世界
11月前
Cherry Studio & 千问3模型 & MCP协议 使用【Cherry Studio】配置【千问3模型】然后深度测评千问3的【MCP】工具调用能力 #Qwen3 #MCP #CherryStudio
00:00 / 07:01
连播
清屏
智能
倍速
点赞
57
NovaLink®区块链Ai开发
1月前
有人已经直接用 Qwen3.5-27B + DGX Spark 做成 Android Agent,通过 Web UI 下发任务,让模型自己读屏、决策、点按,推理速度提升 4 倍。#OpenClaw #Ai
00:00 / 00:18
连播
清屏
智能
倍速
点赞
1615
德力小九
1周前
阿里千文Qwen3.5-Max, 登顶全球第一 #AI #千问 #人工智能 #热点
00:00 / 01:00
连播
清屏
智能
倍速
点赞
0
智慧办公坊
1周前
Qwen 3.5本地部署全攻略 2026算力大饥荒:别再排队等API #Qwen3.5 #ai教程
00:00 / 05:07
连播
清屏
智能
倍速
点赞
22
东日
10月前
qwen3-30b-目前推荐使用的本地大语言模型 可以选择8845hs机器,推理速度最快24tokens/s
00:00 / 07:07
连播
清屏
智能
倍速
点赞
66
九天Hector
1月前
Qwen3.5除夕夜炸场💥除夕夜特辑! Qwen3.5-397B-A17B模型解读与深度评测!视觉+推理+对话+编程四项全能,全面追平Gemini 3.0 Pro!视频解读&视频生成一键直达,开启多模态智能体新时代!#AI新星计划 #新知贺岁眼界大开 #AI #llm #大模型开发
00:00 / 05:59
连播
清屏
智能
倍速
点赞
125
通义实验室
10月前
手机也能跑 Qwen3?手把手教你部署! 全球开源模型冠军 Qwen3 、端到端全模态模型 Qwen2.5- Omni 在手机上也能跑通啦!Android、 iOS、桌面端通通安排~ #通义 #Qwen #大模型 #教程 #涨知识
00:00 / 01:40
连播
清屏
智能
倍速
点赞
NaN
nxlz
11月前
qwen3 本地实测 🚀 本地运行Qwen3模型零门槛教程 📱 小白也能快速上手的AI大模型教程 🔥 无需高配置,轻松本地运行Qwen3模型 ⚙️ LM Studio客户端一键下载部署Qwen3 🌐 Cherry Studio跨平台调用,扩展应用场景 #Qwen3 #LMStudio #AI大模型 #本地部署 #技术教程
00:00 / 03:48
连播
清屏
智能
倍速
点赞
76
九姨小课堂
1月前
全网最牛TTS!零成本克隆专属音色+多音色对话克隆 全网最牛TTS!Qwen3本地一键启动:零成本克隆专属音色+多音色对话克隆,仅4G显存就能跑出真人质感,自媒体自动化必备! #Qwen3 #TTS #声音克隆 #语音合成 #人工智能
00:00 / 10:12
连播
清屏
智能
倍速
点赞
269
杨竹筠
11月前
国产开源模型封神时刻 阿里千问三震撼发布 阿里王炸!最新Qwen3大模型,成本仅需DeepSeek-R1的1/3,国内首个“混合推理模型”,性能登顶全球开源模型!超越DeepSeek-R1、OpenAl-o1!成为全球第一! 但Qwen3真正震撼的地方,根本就不在于性能,它最大的奇迹到底是什么呢 #阿里千问3登顶全球最强开源模型 #阿里巴巴 #开源模型
00:00 / 03:08
连播
清屏
智能
倍速
点赞
1388
赋范课堂
10月前
一文详解Qwen3黄金搭档,实操带练Qwen-Agent! #人工智能 #ai #大模型 #Qwen3 #QwenAgent
00:00 / 10:49
连播
清屏
智能
倍速
点赞
53
赋范课堂
10月前
一文讲透Qwen3 8款模型及其关键技术! #人工智能 #ai #Qwen3 #大模型 #混合推理模型
00:00 / 13:27
连播
清屏
智能
倍速
点赞
39
智析AI前沿
6月前
阿里Qwen3-Max超越GPT-5,定义AI新范式 #阿里Qwen3Max #GPT5 #大模型
00:00 / 00:37
连播
清屏
智能
倍速
点赞
1
晓辉博士
1年前
6分钟看懂大模型的蒸馏。上次看DeepSeek R1那篇论文,讲到用R1模型基于Llama3和Qwen蒸馏出具备推理能力的模型,我就好奇到底蒸馏是怎么做到的,于是这两天就系统学习了下到底什么是蒸馏 #知识蒸馏 #DeepSeek #幻方量化 #大模型蒸馏 #OpenAI
00:00 / 06:14
连播
清屏
智能
倍速
点赞
3743
吴言不语零一二三
8月前
又一次站到了AI之巅,智谱GLM-4.5实 测,效果碾压Qwen3、Kimi K2、 DeepSeek#剪映 #智谱ai #智谱GLM #开源大模型 #开源
00:00 / 03:13
连播
清屏
智能
倍速
点赞
0
AIGCLINK
1年前
基于cursor使用推理模型claude3.7调用MCP服务 Cluade3.7+Cursor+MCP:1、claude发布推理模型claude3.7;2、在cursor中调用MCP服务,实现多个AI员工同时辅助干活;3、Qwen发布推理模型qwen2.5-max #qwen #claude推理模型 #cursor #mcp协议 #mcp服务
00:00 / 16:07
连播
清屏
智能
倍速
点赞
1535
阿里云
4天前
今天,阿里发布新一代大语言模型Qwen3.6-Plus。千问3.6拥有原生多模态理解和推理能力,整体性能大幅增强。
00:00 / 00:59
连播
清屏
智能
倍速
点赞
4613
轻算力AI实验室
2周前
16g显存32G内存流畅运行龙虾+35B稀疏大模型 #OPENCLAW #QWEN35 #本地部署 #5060TI本地部署 #16G显卡本地部署
00:00 / 02:30
连播
清屏
智能
倍速
点赞
370
青稞社区
4天前
Qwen 团队颠覆性发现:大模型推理变强,只靠 1% 关键 token #青稞社区 #阿里 #千问 #大模型 #模型推理
00:00 / 03:16
连播
清屏
智能
倍速
点赞
34
简介:
您在查找“
Qwen3.5推理配置工具
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-04-05 07:30
最新推荐:
fifanext什么时候更新
魏和友女儿什么学历
万古药怎么了
洛克王国恩佐任务不小心退出怎么办
独角兽棱彩蛋攻略
家园小窝怎么让精灵生蛋翼王可以吗
白日提灯11分怎么了
李启萌和一诺
昨晚长房基说啥了
山河画境之野怎么获得
相关推荐:
猫咪游历是什么意思
更换果实宠物怎么没出现
有影响力的话
韩令秋接贺思慕用了两个行礼方式
洛克王国传送到别人地图怎么回去
张雪机哪里人
DR是婚戒还是钻戒
神户胜利vs清水鼓动预售到几点
洛克好友抓我精灵我怎么获得金币
你想活出怎样的人生新时代
热门推荐:
卡点换装怎么剪的丝滑
暴力女穿裙特效教程
飞书怎么创建好的龙虾怎么找不到
你好1983怎么卸载密
智能siri有什么新功能
隐私管理个性化推荐要不要关闭
华为p70高档外壳
开一起听是什么
微信clawbot怎么切换模型
奇立花爱分享怎么弄