Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
豆包回答时长设置
抖音搜不到的厂能进吗
可灵ai输入安全设置
孩子你用什么ai
豆包怎么发指令制作APP
问火花对方一天都在刷什么
任我打车违约信用金怎么设置自动扣
变速卡点素材哪里找
飞书机器人读取动画怎么
佳佳唱片怎么登录
智东西
3周前
马斯克惊呼太强了!阿里Qwen开源四款小模型 Qwen3.5-0.8B、Qwen3.5-2B、Qwen3.5-4B、Qwen3.5-9B,引发外网热议,在iPhone17pro上都能实现飞速运行,回答速度堪比云端。#马斯克 #阿里巴巴 #Qwen #千问大模型
00:00 / 01:00
连播
清屏
智能
倍速
点赞
3463
敢抢我神棍名号
3周前
小核弹-千问3.5及节点支持-qwen3.5 #comfyui教程 去小破站(B)获取选在链接
00:00 / 01:51
连播
清屏
智能
倍速
点赞
5
Tony沈哲
3周前
本地 AI 推理平台 第十一期 Vol.11|Qwen3.5-9B 实测:代码 + VLM + Agent 这一期我们实测一个新的本地模型:Qwen3.5-9B。 它不仅是一个 9B 参数的代码模型,同时还是一个 VLM(视觉语言模型),支持图像理解。 所以这一期我设计了三个测试场景,看看这个模型在真实工程中的表现: 测试 1:纯 LLM 能力 让模型实现一个 OpenCV C++ 的直方图匹配算法, 主要观察: * 代码质量 * OpenCV API 使用 * 算法逻辑 看看一个 9B 模型本身的代码能力到底如何。 测试 2:VLM 多模态能力 因为 Qwen3.5-9B 是 多模态模型, 我们给它输入一张图片,让模型描述图片内容。 测试它的 图像理解能力。 测试 3:Agent 工程能力(重点) 在真实工程里,模型不仅要回答问题,还要 完成任务。 所以这一部分让 Agent 自动完成一个工程操作: 生成一个 OpenCV C++ 的直方图匹配函数 并自动保存为: histogram_match.cpp 通过这个例子可以看到: 模型能力 → 如何变成 Agent 的工程能力 这一期主要想回答一个问题: 一个 9B 的本地模型,在代码、视觉、多工具 Agent 场景下到底能做到什么程度? 如果你对 本地 AI 推理 / Agent / RAG / 小模型能力实测感兴趣,欢迎关注这个系列。 #Qwen #本地大模型 #LLM #VLM #Agent
00:00 / 07:43
连播
清屏
智能
倍速
点赞
35
沪上码仔AI
3周前
#qwen3.5 #LLM #开源大模型 #mac #本地部署 在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
00:00 / 02:11
连播
清屏
智能
倍速
点赞
362
AI技能研究社
1周前
Qwen3.5-27B Opus蒸馏版实测 实测注入Claude Opus数据的Qwen3.5蒸馏版,解决原生报错并支持长任务稳定运行。#Qwen35蒸馏版 #ClaudeOpus #AIAgent #本地大模型 #编程助手
00:00 / 01:37
连播
清屏
智能
倍速
点赞
102
挽风听雨
2周前
超简单OpenClaw+Qwen3.5-Plus+QQbot #openclaw #养龙虾 #OpenClaw#qwen3 #龙虾部署 #openclaw部署
00:00 / 05:44
连播
清屏
智能
倍速
点赞
45
IT咖啡馆
1月前
深度实测Qwen3.5,原生多模态表现如何 #AI新星计划 #qwen #千问大模型 #IT咖啡馆 #大模型
00:00 / 07:52
连播
清屏
智能
倍速
点赞
2453
Tony沈哲
2周前
本地 AI 推理平台 第十三期 Vol.13|OpenClaw 接入本地推理:Qwen3.5-27B 实测 这一期测试一个比较有意思的组合: OpenClaw + 本地 AI 推理平台 + Qwen3.5-27B 模型。 我将 OpenClaw 接入到我正在开发的 本地 AI 推理平台, 让 OpenClaw 使用本地模型作为 推理后端。 本次使用的模型是: Qwen3.5-27B-Claude-4.6-Opus-Distilled(MLX 4bit) 这是一个基于 Qwen3.5-27B 的模型,并蒸馏了 Claude Opus 风格行为, 同时使用 MLX 框架 + 4bit 量化进行本地推理优化。 需要说明的是: 这个模型 并不是真正的 Claude, 而是一个 Claude 风格的蒸馏模型。 在这一期视频中主要演示: 1️⃣ OpenClaw 接入本地推理平台 通过接口让 OpenClaw 使用 本地 AI 推理平台作为推理后端: OpenClaw ↓ 本地 AI 推理平台 ↓ Qwen3.5-27B Claude Distilled 这样 OpenClaw 就可以使用 本地模型进行推理。 2️⃣ Qwen3.5-27B Claude Distilled 简单实测 通过几个简单示例测试模型能力: 代码生成能力 概念解释能力 实际使用体验 例如: 生成 OpenCV C++ 直方图匹配算法 解释 Transformer 为什么可以处理长文本 这一期主要展示的是: 如何让 OpenClaw 接入本地模型推理能力, 并测试 Qwen3.5-27B Claude Distilled 的实际效果。 如果你对 本地 AI 推理、Agent 架构、或 AI 系统开发感兴趣, 欢迎关注这个系列。 我会持续记录 本地 AI 推理平台的开发过程与实验。 #OpenClaw #抖音养虾人俱乐部 #Qwen #本地大模型
00:00 / 10:49
连播
清屏
智能
倍速
点赞
30
郝点儿
3周前
一张 3090,真的能把 千问 3.5 35B 模型跑明白吗#本地ai #千问#ai #diy
00:00 / 01:52
连播
清屏
智能
倍速
点赞
4308
kate人不错
3周前
Qwen3.5 小模型实测:0.8B 到 35B-A3B 这期视频我实测了 Qwen3.5 中小模型在本地端的真实表现: 你会看到: - 不同量化下的显存占用与推理速度差异 - 浏览器端 WebGPU 运行 0.8B 的体验 - 视觉识别/OCR 实测表现 - 9B 与 35B-A3B 在任务稳定性与效果上的差异 - LM Studio 关闭 thinking 的实操方法 - 在 OpenCode / Cline 中做工具调用与编码测试的结果 如果你也在找一套“能在本地跑、质量又够用”的模型组合,这期会很有参考价值。 时间戳 00:00 Qwen3.5 中小模型简介 00:50 格式与部署 02:21 显存与速度实测 03:40 视觉/OCR能力对比 05:33 本地实战案例 11:00 工具调用与编码测试 #Qwen35 #本地大模型 #Ollama #LMStudio #千问
00:00 / 13:28
连播
清屏
智能
倍速
点赞
553
ModelDaDa
3周前
一分钟用上本地小模型 🤩一分钟教你在 Windows 本地用上阿里 Qwen3.5 - 4B 大模型!超简单步骤,小白也能秒上手,赶紧来试试!#Qwen3.5 - 4B 模型 #本地部署 #阿里千问 #大模型使用 #Windows 操作 #LMStudio
00:00 / 01:04
连播
清屏
智能
倍速
点赞
154
Ai 学习的老章
2周前
神操作再现,单卡3090 起跑!Claude-Opus蒸馏Qwen3.5-27B #大模型#蒸馏 #程序员
00:00 / 01:46
连播
清屏
智能
倍速
点赞
677
AI赚钱研究社
1月前
Qwen 3.5中杯发布:本地部署教程 深度解析 Qwen 3.5 各版本差异,分享 35B-A3B 本地部署避坑参数与显存优化技巧。#Qwen35 #大模型 #vllm #SGLang #本地部署
00:00 / 05:26
连播
清屏
智能
倍速
点赞
791
奶黄包💋
5天前
Qwen3.5-35B视觉多模态本地跑通,性价比炸裂💥 在2026年的今天,想跑大模型还要花几十万买H100/A800?NO! 🙅♂️今天给大家展示一套“极度务实”的国产化AI推理服务器方案。 CPU: 国产之光海光3490(16核32线程) 显卡: 2张 RTX 4090 48GB 魔改版(显存翻倍,快乐翻倍!) 目标: 完美运行 Qwen3.5-35B-A3B-FB8 视觉多模态模型! 总成本不到专业卡的零头,性能却足以应付绝大多数私有化部署场景!🔥 🤖 为什么选这套配置跑 Qwen3.5-35B? 1️⃣ 显存才是硬道理!💰 Qwen3.5-35B 是一个巨大的模型。 FP16精度:需要约 70GB+ 显存。 INT4量化:需要约 20-24GB 显存。 但是! 我们要跑视觉多模态 (Vision) + 长上下文 (Long Context) + 高并发。 图像编码需要额外显存。 KV Cache 在长文本下会吃掉大量显存。 双路4090 48G = 96GB 总显存。这意味着你可以: ✅ 轻松运行 FP8/INT4 精度的全量模型。 ✅ 预留充足显存给 高分辨率图片输入。 ✅ 支持 更长上下文 (32k+) 而不爆显存。 ✅ 甚至可以做小规模的 LoRA 微调!🛠️ 2️⃣ 海光3490:被低估的国产老将 🇨🇳 很多人觉得16核不够用? 在推理 (Inference) 场景下,瓶颈主要在 GPU 和 PCIe带宽,CPU主要负责数据预处理和调度。 海光3490基于Zen架构,PCIe通道数充足,能喂饱双卡数据流。 重点: 在信创、政企、涉密场景,国产CPU是刚需。这套方案完美符合“自主可控”要求,且成本极低! 📝 总结 这套 “海光3490 + 双4090 48G” 的方案,是2026年中小型企业、科研实验室、极客玩家部署私有化大模型的版本答案。 不要迷信原厂标,适合业务的才是最好的!如果你也想搭建自己的AI大脑,这套作业可以直接抄!📝 #大模型 #Qwen35 #国产芯片#RTX4090 #多模态AI
00:00 / 02:13
连播
清屏
智能
倍速
点赞
5
kate人不错
1月前
实测 Qwen3.5-Plus,性价比极高 千问 3.5 正式发布了,我重点实测了 Qwen3.5-Plus(开源 397B-A17B): - 架构:混合线性注意力 + MoE,基于 Qwen3-Next,推理效率高 - 体验:知识截止更新到 2026 年 - 多模态/OCR:论文图空间理解、反写铅活字、反光复杂大图、模糊小票文字识别 - 推理/指令遵循:40 字严格计数、红包礼仪规则抽象、年夜饭方案、7 语种翻译 - 复杂规则:让它当“产品政策审核员”找冲突、判案例、补边界 - 编程:生成气候数据故事网页、无限循环动画、复古终端文字冒险游戏 时间戳 00:00 Qwen 3.5 发布 01:17 多模态实测 04:37 推理能力实测 07:05 编程实测 #Qwen #Qwen35 #Qwen35Plus #千问 #开源AI
00:00 / 08:59
连播
清屏
智能
倍速
点赞
94
AI技能研究社
2周前
5090 vLLM 部署 Qwen3.5-27B-NVFP4 手把手教你 5090 部署 Qwen3.5 27B,解决 Docker 换源与 NVFP4 量化难题。 *参考github:aliez-ren/vllm-qwen3.5-nvfp4-sm120#Qwen3527B #RTX5090 #vLLM #大模型部署 #深度学习
00:00 / 03:31
连播
清屏
智能
倍速
点赞
899
薛定谔的叨叨
1周前
阿里千问qwen3.5-35B-A3B大模型本地部署体验,实现养龙虾模型自由#大模型 #本地大模型 #部署大模型
00:00 / 06:47
连播
清屏
智能
倍速
点赞
77
AI逐风
3周前
千问3.5小尺寸模型发布 手机本地运行的大模型越来越强了。真正完全免费完全隐私 #qwen #千问
00:00 / 00:32
连播
清屏
智能
倍速
点赞
59
程序员御风
1月前
Qwen3.5 实测:会写代码,能读视频 原生多模态到底强在哪? #AI #Qwen #千问大模型 #人工智能 #开源
00:00 / 06:07
连播
清屏
智能
倍速
点赞
236
IT产品及方案专业供应商__田工
3天前
1534 纯本地openclaw+Qwen3.54b运行环境 #openclaw
00:00 / 01:23
连播
清屏
智能
倍速
点赞
21
沐凌熙
3周前
Qwen3.5小模型实现手机端本地运OCR兼顾效率与隐私 #Ai #电脑 #科技
00:00 / 02:19
连播
清屏
智能
倍速
点赞
6
liuweiqing
4天前
记录一次失败的DPO微调LLM过程 代码:https://www.kaggle.com/code/liuweiq/dpo-only-qwen3-5
00:00 / 03:52
连播
清屏
智能
倍速
点赞
1
算力实验室
2周前
Qwen 3.5 122B大模型测试 #大模型 #显卡 #服务器 #显卡测试
00:00 / 00:31
连播
清屏
智能
倍速
点赞
217
Aiwood爱屋研究室
3周前
开源绝唱?如何在Comfyui部署qwen3.5
00:00 / 05:03
连播
清屏
智能
倍速
点赞
72
用户793874482068
3周前
小模型超智能,3000元本地流畅运行Qwen3.5 系列模型 #随变ai随便玩 #这也能开播
00:00 / 02:55
连播
清屏
智能
倍速
点赞
115
码上架构
1月前
Qwen3.5 多模态实战 使用Qwen3.5 来做 OCR 和目标检测任务 #ai #大模型 #qwen #ocr #目标检测
00:00 / 03:46
连播
清屏
智能
倍速
点赞
129
子龙爱分享
5天前
我量化了Qwen3.5_35B!显存速度质量全拉满+本地养虾 完犊子!我不小心把Qwen3.5_35B量化了!显存速度质量全拉满+联网技巧,OpenClaw本地轻松养虾!50系显卡的春天#openclaw #本地模型 #ai #开源 #分享
00:00 / 25:48
连播
清屏
智能
倍速
点赞
67
小天fotos
1月前
Qwen3.5-27B太好玩,不小心养了一窝龙虾 #ai新星计划 #抖音年味新知贺岁 #openclaw #qwen #4090魔改
00:00 / 08:29
连播
清屏
智能
倍速
点赞
NaN
通义实验室
1月前
除夕!Qwen3.5来了!我们很高兴正式发布 Qwen3.5,并推出Qwen3.5系列的第一款模型—— Qwen3.5-397B-A17B 的开放权重版本,作为原生视觉-语言模型,在推理、编程、智能体能力与多模态理解等全方位基准评估中表现优异。 亮点速览: ✦ 基于混合结构,397B总参/17B激活,能力匹配>1T参数的Qwen3-Max; ✦ 原生多模态设计,同等规模下超越Qwen3-VL; ✦ 覆盖201种语言; ✦ 在代码生成、智能体推理与多模态理解方面表现卓越! #Qwen #千问大模型 #大模型 #除夕 #新年快乐
00:00 / 01:15
连播
清屏
智能
倍速
点赞
NaN
周辉
10月前
阿里Qwen3模型实战:图片转网页,轻松上手 视频简介: 中文:本视频展示了如何利用阿里开源的Qwen3模型和腾讯的EdgeOne MCP工具,通过一张图片快速生成HTML页面。全程演示了从图片上传到生成公网可访问URL的完整流程,展现了AI技术在网页开发中的强大应用。 English: This video demonstrates how to use Alibaba's open-source Qwen3 model and Tencent's EdgeOne MCP tool to quickly generate an HTML page from a single image. The entire process from image upload to generating a publicly accessible URL is showcased, highlighting the powerful application of AI technology in web development. 时间轴: 中文时间轴: 00:00 视频开场,展示生成的HTML页面 01:16 介绍阿里Qwen3模型的特点和开源情况 03:40 演示如何使用EdgeOne MCP工具生成HTML页面 05:33 展示生成的HTML页面与原图的对比 07:20 总结AI技术在网页开发中的应用 English Timeline: 00:00 Video introduction, showcasing the generated HTML page 01:16 Introduction to Alibaba's Qwen3 model features and open-source status 03:40 Demonstration of using EdgeOne MCP tool to generate HTML page 05:33 Comparison of generated HTML page with the original image 07:20 Summary of AI technology applications in web development #Qwen3 #EdgeOne #MCP #HTML生成 #AI网页开发 #阿里开源 #腾讯技术
00:00 / 04:42
连播
清屏
智能
倍速
点赞
78
肝帝AI
7月前
更快的Qwen3-Coder来啦 千问3半夜炸塘,发布极速版Qwen3 Coder,全称Qwen3 Coder Flash 包含3个特性:1,超强的Agent能力;2,超长上下文;3,已经正式开源。 RTX4090、RTX5090都可以跑 #qwen3 #通义千问 #ai编程 #qwen3coder #大模型
00:00 / 00:43
连播
清屏
智能
倍速
点赞
330
再见静无言
3周前
#qwen3.5 #ai #agent#自动操作电脑 利用本地的qwen3.5 9b量化模型借鉴autoglm项目让agent自主操作自己的电脑,可玩性较强
00:00 / 08:59
连播
清屏
智能
倍速
点赞
21
Aiden
2周前
ComfyUI-Qwen3.5本地的安装方法 #AIGC#COMFYUI#comfyui教程#comfyui设计#runninghub
00:00 / 10:21
连播
清屏
智能
倍速
点赞
14
珑京科技
10月前
一个视频告诉你5090跑deepseek和qwen3效果如何 我们搞了一张RTX 5090 32G来测试deepseek和刚发布的千问qwen3的对比效果 .. 快看看效果如何,欢迎评论区讨论! 测试配置: GPU:RTX 5090 32G CPU:AMD Ryzen 9950x 内存:VENGEANCE DDR5 5200MT/s CL38 4x48GB(共 192G内存) 模型:DeepSeek R1 32b.14b / Qwen 3 32b.30b.14b 上下文8K #显卡#AI#人工智能#Deepseek#qwen
00:00 / 05:32
连播
清屏
智能
倍速
点赞
16
五里墩茶社
1月前
Qwen3.5发布,集成OpenClaw打造最强国产AI助手 通义千问正式发布Qwen3.5,并推出Qwen3.5系列的第一款模型 Qwen3.5-397B-A17B 的开放权重版本。这是一款原生视觉-语言模型。 配合近期大火的OpenClaw,集成Qwen3.5-397B-A17B,真能打造最强国产AI助手。 #ai #通义千问 #qwen @通义实验室
00:00 / 09:09
连播
清屏
智能
倍速
点赞
1022
大曼哒
1周前
本地部署智能体:Qwen3.5 + Claude Code 本视频将演示如何使用 Llama.cpp 和 Claude Code 在本地安装 Qwen3.5 4B 模型 #claude #ai编程 #千问qwen #ai #智能体
00:00 / 06:07
连播
清屏
智能
倍速
点赞
121
小天fotos
1月前
用Qwen3.5做一个Tutor Skill数学题转讲解视频 #ai新星计划 #抖音年味新知贺岁 #qwen35 #qwen #skills
00:00 / 08:34
连播
清屏
智能
倍速
点赞
2508
杨大哥
3周前
Qwen3.5 35b本地部署适配OpenClaw
00:00 / 02:00
连播
清屏
智能
倍速
点赞
2808
小天fotos
1月前
测完Qwen3.5,我哭了,期待了好久的场景终于实现了 #ai新星计划 #抖音年味新知贺岁 #qwen35 #qwen3 #AI教育
00:00 / 06:14
连播
清屏
智能
倍速
点赞
2738
王耀鐭
1周前
本地部署Qwen3.5: vllm VS llama.cpp #大模型部署 #大模型 #学习日常
00:00 / 07:32
连播
清屏
智能
倍速
点赞
24
鱼季
3天前
一个app就能帮我解决生活小难题!#千问app #千问 #生活服务 #阿里最强最新qwen
00:00 / 00:53
连播
清屏
智能
倍速
点赞
0
鱼季
4天前
一个app就能帮我解决生活小难题!#千问app #千问#生活服务#阿里最强最新qwen
00:00 / 00:51
连播
清屏
智能
倍速
点赞
0
鱼季
4天前
一个app就能帮我解决生活小难题!#千问app #千问#生活服务#阿里最强最新qwen
00:00 / 00:38
连播
清屏
智能
倍速
点赞
0
山⛰️
1周前
本地部署大模型,8GB显卡,也能有还不错的表现啊,直接就帮我完成部署了#openclaw #qwen3.5 #4060ti
00:00 / 00:17
连播
清屏
智能
倍速
点赞
0
lukeewin
6天前
终于本地跑起来了大模型 | 本地化部署Qwen3.5大模型 | 本地部署多模态大模型 #多模态大模型 #大模型 #ai #人工智能 #Qwen3.5
00:00 / 03:00
连播
清屏
智能
倍速
点赞
8
鱼季
3天前
一个app就能帮我解决生活小难题!#千问app #千问 #生活服务 #阿里最强最新qwen
00:00 / 01:00
连播
清屏
智能
倍速
点赞
0
鱼季
3天前
一个app就能帮我解决生活小难题!#千问app #千问 #生活服务 #阿里最强最新qwen
00:00 / 00:58
连播
清屏
智能
倍速
点赞
0
芦苇草server
1周前
4090 96G显存Qwen3.5-35B实时视频语言测试 #SGLANG框架 #本地模型部署# Live-VLM-WebUI #多模态大模型 #视觉语言测试
00:00 / 01:48
连播
清屏
智能
倍速
点赞
18
遇见AI
3天前
ClaudeCode+Ollama本地部署 当热门流行AI工具遇上以9B参数碾压gpt-oss-120b的Qwen3.5,这绝对是极具性价比的组合。Claude 系列模型确实强大,但高额的定价对新手和普通玩家太不友好。Claudecode + Qwen3.5这套组合其实已经能满足80%的场景,完全本地运行,不产生Token费用,容错率极高,非常适合新手学习和普通玩家日常使用,AI时代已经来了,你还在等什么呢?#claude #qwen #ollama #AI工具 #AI编程
00:00 / 02:36
连播
清屏
智能
倍速
点赞
57
霍格沃兹软件测试开发
1月前
Qwen3.5 四款模型发布 当 35B 可以挑战 235B,问题就不只是模型大小。 Qwen3.5 释放的信号,可能意味着参数时代正在进入下半场。 规模、长上下文、RL——真正的变量到底是什么?#qwen #人工智能 #自动化测试 #大模型
00:00 / 00:51
连播
清屏
智能
倍速
点赞
7
AI绘视玩家
1周前
Qwen3.5 破限 无审核模型更新 #comfyui教程 #aigc #ai教程
00:00 / 01:52
连播
清屏
智能
倍速
点赞
10
艾来自媒体
1周前
#阿里千问 #阿里最强最新qwen#千问
00:00 / 00:42
连播
清屏
智能
倍速
点赞
7
唐国梁Tommy
1月前
Qwen 3.5 为何爆火? 从架构到应用:MoE、混合注意力、Agent 工作流一次讲透 #Qwen3 #AI大模型 #多模态 #通义千问
00:00 / 15:51
连播
清屏
智能
倍速
点赞
15
AGI_Ananas
2月前
Qwen3-Max-Thinking编程能力,逻辑推理实测 全网都在说阿里云最新的 Qwen3-Max-Thinking 逻辑无敌。 为了验证它的真实水平,我给 Qwen3-Max、Claude 3.5 Sonnet 和 Gemini 3 Pro 准备了三轮测试: 架构测试:用 Python 手搓一个命令行“操作系统”,看逻辑严密性。 空间测试:用 Ursina 引擎写一个 3D FPS 射击游戏,看空间想象力。 智商测试:高难度逻辑陷阱与蒙特卡洛模拟,看推理深度。 有的模型写出的游戏丝滑流畅,有的模型连“敌人”都刷在墙里... 如果你正在纠结该用哪个 AI 写代码,或者想知道国产大模型的真实水平,这期视频绝对能帮你省下冤枉钱。 第一轮:手搓 Python 操作系统(Claude 秀翻全场?) 第二轮:3D FPS 游戏开发(Qwen 翻车现场/Gemini 表现如何) 第三轮:逻辑陷阱与数学推导(Qwen 的高光时刻!) 总结:工程师选 Claude,科学家选 Qwen? #Qwen3Max #通义千问 #大模型 #AI编程助手推荐 #Gemini
00:00 / 07:46
连播
清屏
智能
倍速
点赞
244
羊群中无助的狼
3周前
#copaw 手牵手小白本地部署教程 #copaw 本地安装教程 如果有不懂的或者需要安装的 可以留言 有偿代安装
00:00 / 13:37
连播
清屏
智能
倍速
点赞
251
澳門AI佬
3周前
国产 AI 太牛了!阿里巴巴Qwen3.5(2B 6bit量化版)在 iPhone 17 Pro 上纯本地实时跑通了! 不用联网、不用云端,飞机模式下秒出超详细巴黎7天旅行攻略! 隐私拉满、速度飞起(MLX优化),性能直逼4倍大的模型! 小模型真的要把大模型卷翻了?#每日ai #qwen3.5
00:00 / 00:22
连播
清屏
智能
倍速
点赞
31
AI邓布利多
1周前
阿里巴巴Qwen3.5-Max-Preview在LMAren
00:00 / 01:14
连播
清屏
智能
倍速
点赞
33
鱼季
4天前
一个app就能帮我解决生活小难题!#千问app #千问#生活服务#阿里最强最新qwen
00:00 / 00:57
连播
清屏
智能
倍速
点赞
1
AI技能研究社
3周前
SGLang部署Qwen3.5-27B实战踩坑记录 详解 SGLang 部署 Qwen3.5 27B 流程,攻克工具调用、显存优化及 OpenClaw 对接等 5 大实战坑位。#SGLang #Qwen35 #大模型部署 #AIAgent #人工智能
00:00 / 06:08
连播
清屏
智能
倍速
点赞
427
小哥比尔
1月前
qwen 3.5 PLUS 测试 3 简单编程 #aigc #ai #openclaw #clawdbot ##qwen
00:00 / 03:56
连播
清屏
智能
倍速
点赞
9
一蛙AI
2周前
Qwen3.5上用Claude最新工具调用方法 如果你的 AI Agent 可以通过“按需搜索工具”并编写代码来编排数十个工具调用,而不是让大语言模型(LLM)逐一处理,从而大幅降低 Token 消耗,会怎样? 在这段视频中,我们将 Anthropic 工程博客中提到的两种高级工具调用模式,实现在我们自定义的 Python 和 React AI Agent 中:即工具搜索工具(Tool Search Tool)以及通过代码执行沙箱实现的程序化工具调用。 这些并非 Claude 的专属功能。它们是通用的 Agent 设计模式,你可以将其应用于任何模型或框架。 我们对这两种方法进行了侧重对比,将传统的工具调用与程序化执行进行衡量,并在 Claude Haiku 和运行在 RTX 5090 本地环境下的全新 Qwen 3.5 27B 上运行了相同的任务。 #大模型 #Qwen #aiagent #openclaw
00:00 / 19:02
连播
清屏
智能
倍速
点赞
102
Ai 学习的老章
1周前
vLLM 紧急补丁!Qwen3.5 越跑越蠢,元凶找到了 Qwen3.5 的大模型用了 Mamba 加 Attention 的混合架构,两种层共享 GPU 上同一套缓存空间。Mamba 往里写的是 32 位浮点数,attention 用的是 8 位或 16 位。一个缓存块先被 Mamba 用过,回收后分配给 attention,旧数据在新的精度下直接变成了 NaN。更坑的是,attention 的掩码机制用的是乘以零。零乘正常数字等于零,但零乘 NaN 还是 NaN。脏数据就这么一路扩散,所以服务刚启动没事,跑一阵之后精度才悄悄往下掉。 这种 bug 排查起来最折磨人,你查模型、查数据、查 prompt,全都没问题。但输出就是在变差。vLLM 这次修复方案很朴素:新分配的缓存块,用之前先清零。性能代价不到百分之一。只要你在跑 Qwen3.5 混合架构,建议尽快升级。 除了这个,0.17.1 还正式支持了 Nemotron 3 Super。英伟达 120B 参数的开源模型,OpenClaw 排行榜杀进前五,前五里唯一的开源选手。现在 vLLM 一航命令就能部署了。
00:00 / 01:13
连播
清屏
智能
倍速
点赞
85
简介:
您在查找“
qwen3.5在哪访问
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-03-26 05:44
最新推荐:
抖音电商红人之夜的奖项设置有哪些?
留什么给你和我只在乎你
好玩的娜塔莎
南宫带什么驱动
那由多大结局
吃什么都一口吞呀
那些在学校笑到捧腹的日子真的能玩吗
你竟然跟我讲爱是什么
我说我不开心你还是无动于衷对口型
胚胎变成婴儿的过程
相关推荐:
逐玉男主配音怎么是西北口音
布鲁伊刷牙
斗牛刚出生崽子有尾巴吗
打12333输身份证号安全吗
何银儿是佛前献花的女友吗
九阳电饭煲0涂层电饭煲316
洛克王国世界不在一个区能玩吗
不问前路有多难走健身操
当我用色环打开世界同款
小鹦鹉生长过程治愈版
热门推荐:
QQ说说ai声明怎么关闭
qq被限制功能申诉模板
joydesk使用教程
uusm撤回了怎么办
微信服务怎么设置才安全
nano 一个文档后如何退出
富聊怎么登录不了
piupiu酱角色卡导入教程
华强北破旧手机回收最新行情
为什么以前的公益广告现在看不了了