Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
ide怎么连接hermesagent
豆包怎么上传aspen文件
simatic电机图标怎么找
replaced第八章密码是什么
image2怎么生成横图、
linux安装pip3
小米mimo激励计划可以用什么模型
winhook怎么找机器人绑定
nte和异环是一个服务器吗
ads5.0和ads4.1区别
轻算力AI实验室
2周前
千问3.6新鲜实测显存占用8G qwen3.6 ,5060TI可跑,35BA3B,22TOKEN/秒,智商超上代千问3.5 #qwen36 #qwen36实测 #qwen36本地部署 #qwen36开源 #qwen36硬件要求
00:00 / 00:51
连播
清屏
智能
倍速
点赞
629
ai景行小博士
2周前
Qwen3.6_35B模型部署设置全流程,冲80词元/s #热点 #本地部署 #Qwen35B #全流程 #词元
00:00 / 04:04
连播
清屏
智能
倍速
点赞
581
教你宇宙级AI编程(求关注)
2周前
qwen3.6Max 旗舰大模型来了,但是有两点让人很失望,不敢对标 opus4.7 首先居然对标的是 claude opus4.5,这也太没自信了;然后居然不支持多模态。 现在的 Qwen 连 GLM 都打不过了
00:00 / 01:50
连播
清屏
智能
倍速
点赞
109
呼呼数学
1周前
感谢Qwen大善人🥰😘🤩,我们可以使用更好的开源大模型Qwen3.6 35B A3B APEX。效果更好,速度还快了🤫🤫🤫。#大语言模型 #千问 #程序员 #代码 #人工智能
00:00 / 02:28
连播
清屏
智能
倍速
点赞
60
小宇玩AI
1月前
阿里放大招!千问3.6编程能力直逼世界第一,还免费用 两天前阿里偷偷发了 Qwen3.6-Plus,编程跑分直逼 Claude Opus 4.5,推理速度快3倍,价格只要十分之一。 这条视频从架构原理、Benchmark 数据、实测案例、价格对比四个维度,帮你搞懂这个模型到底强在哪,对普通人意味着什么。#Qwen #千问 #阿里巴巴 #AI编程 #大模型 #Claude #人工智能
00:00 / 03:38
连播
清屏
智能
倍速
点赞
621
橙色溪流
2周前
Turboquant+DFlash组合🔥本地实操💻 折腾了两天,终于把这个组合跑通了。中间的录制还出了问题,不过最终结果还算比较理想。 - Qwen 3.6 35B: 原生 60 已经很快,满血优化后直冲 90。最关键的是,内存从43G被压回到了23G的基准线水平! - Qwen 3.5 27B:速度从19提升到了37,将近2倍。而内存从46G被压缩到了20! - Qwen 3.5 9B: 优化后速度翻了 2.95 倍!内存稳定在20,效果非常惊人。 9B在DFlash下,没有跑出来官方的效果,可能和设备性能有关。 不过27B和网上大神的效果已经非常接近。 #科技下一站 #我在抖音聊科技 #turboquant #dflash
00:00 / 01:08
连播
清屏
智能
倍速
点赞
930
小红AI
2周前
Qwen3.6-35B-A3B尝鲜体验 一张图片给你一个网站或APP#qwen #claude
00:00 / 01:15
连播
清屏
智能
倍速
点赞
107
万大叔来了
1周前
不堆参数堆效率,阿里这款小模型编程能力有多强! #阿里开源 #Qwen36 #AI编程 #大模型 #开发者工具
00:00 / 01:40
连播
清屏
智能
倍速
点赞
1
Min
1周前
2026-04-22 视频日志 #免费token 8G显存布署qewen3.6
00:00 / 04:09
连播
清屏
智能
倍速
点赞
0
灵鲸科技袁亮
8月前
ChatGPT正式开源gptoss该用什么显卡安装 #chatgpt #gptoss #显卡 #算力卡 #deepseek
00:00 / 01:09
连播
清屏
智能
倍速
点赞
27
电脑糕手
1周前
别再手动写官网了! Qwen3.6本地跑,8分钟做完一整个官网 成本仅1毛5,还能自动修Bug 程序员效率直接拉满💻#程序员 #千问 #servbay #ai
00:00 / 01:50
连播
清屏
智能
倍速
点赞
4
AIGC 蛮子
2周前
Qwen3.6开源重磅来袭! Qwen3.6开源重磅来袭!ComfyUI llama.cpp插件轻松上手教程#comfyui #qwen #开源模型
00:00 / 07:38
连播
清屏
智能
倍速
点赞
5
搬砖最勤快
2周前
qwen3.6 35b a3b实测16G显存下速度#qwen #ai
00:00 / 02:10
连播
清屏
智能
倍速
点赞
384
AI探趣星船长
1周前
本地大模型也能 AI 编程!逼近 #GEMINI 3 效果 #干货分享,#邪修 玩法! 不用付费 token,古董显卡跑本地#AI编程开源大模型#千问 ! #程序员 速码! Opencode + llama.cpp + Qwen3.6 + 2080TI 配置改完直接起飞!电脑都干冒烟了
00:00 / 01:03
连播
清屏
智能
倍速
点赞
311
李哥说显卡-AI
6天前
显卡性价比首选 专业卡RTX PRO 5000测评#显卡 #大模型 #服务器 #工作站 #RTX pro5000
00:00 / 02:15
连播
清屏
智能
倍速
点赞
293
程序猿老马
3周前
阿里千问Qwen3.6-Plus实测 阿里新一代大模型Qwen3.6-Plus,仅一天就登顶OpenRouter的日榜榜首,今天就来实测一下,Qwen3.6-Plus(free)版日常使用问题不大,如果进行比较重的任务,编写代码、生成网页等,就会出现稳定性不足,如不想浪费可尝试付费版本。 #千问大模型 #Qwen #AI大模型 #AI实测
00:00 / 01:25
连播
清屏
智能
倍速
点赞
22
搬砖最勤快
1周前
5060TI16G 测试Llama和TurboQuant 测试Llama-cpp原版框架vsLlama-cpp-TurboQuant框架 同参数跑千问Qwen3.6-35b-a3b-Q4km速度对比 小显存卡确实太吃力了 结果还蛮奇特的 有点意外 评论区哥们@喵 #Qwen36 #TurboQuant #35ba3b #本地部署 #本地部署大模型
00:00 / 02:48
连播
清屏
智能
倍速
点赞
117
杨大哥
1周前
千问Qwen3.6 27b发布
00:00 / 00:55
连播
清屏
智能
倍速
点赞
1728
AI技能研究社
2周前
Qwen3.6-35B-A3B部署指南 深度解析Qwen3.6-35B-A3B的MoE架构优势,涵盖SGLang、vLLM、Unsloth等多种部署方案及思维链参数配置技巧。#Qwen3635BA3B #MoE模型 #大模型部署 #SGLang #vLLM
00:00 / 03:11
连播
清屏
智能
倍速
点赞
322
AI Lab
1周前
Mac Studio 3 Ultra跑本地模型效果如何? 今天装机qwen3.6-35b,网红模型,效果满意,你们觉得怎么样? #macstudio #本地模型 #openclaw #科技下一站 #长期主义好物清单
00:00 / 01:54
连播
清屏
智能
倍速
点赞
31
小宇玩AI
2周前
你的32GMac现在能跑比Opus还强的本地agent 阿里开源 Qwen3.6,350 亿参数只激活 30 亿——256 个专家模块,每个 token 只叫醒 9 个干活。Unsloth 团队两个人光速放出 2bit 量化版,12.3GB,激活只占 1G。 实测:30+ 次工具调用稳定跑完。上一代 8bit 只能撑 4-5 次。SWE-bench 73.4 碾压 Gemma4 的 52。Simon Willison 让它和 Opus 4.7 画鹈鹕骑车,Qwen 赢了。 端侧 Agent 时代来了。数据不出本机,成本为零。 #Qwen36 #本地AI #开源模型 #AIAgent #Unsloth #Mac #阿里 #小宇玩AI
00:00 / 02:03
连播
清屏
智能
倍速
点赞
172
碳基生物退役指南
2周前
Qwen3.6-35B-A3B:2千到3万,三档本地部署实战 这期视频,我把 Qwen 3.6 35B A3B 装进 3 台价格完全不同的设备里,实测识图、OCR、手写数学题、写作、算法题和代码生成。最让我意外的,不只是它比预期更能打,而是我那台 2500 块手搓丐版战神,居然跟这个模型异常般配。便宜设备不可怕,可怕的是本地模型这次真的能干活了。 这次让我真正改观的,是 Qwen 3.6 35B A3B 在不同任务之间,整体都没有明显掉链子。识图能看,OCR 能用,代码能写,逻辑题也能认真推,放到真实项目里,不再是那种“偶尔灵光一现”的状态了,而是已经开始成为稳定的生产力工具了。本地开源模型这次,是真的往前走了一大步。 #qwen #ai智能体 #openclaw#大语言模型 #ai
00:00 / 09:31
连播
清屏
智能
倍速
点赞
698
今日兴趣:
4天前
为什么8g显存能放下35b模型 #本地部署大模型 #创作者中心 #创作灵感 #Qwen #Gemma 希望大家推荐一些好用的量化版本 也欢迎更多厉害的人尝试更极限的装载方法,分享出来大家一起交流呀~
00:00 / 06:32
连播
清屏
智能
倍速
点赞
21
刚哥不刚
3周前
第 529 集 m5max 128g 的 MacBook Pro 本地跑 qwen3.5 122b 4bit 量化版本,token 速度可以跑到 50 左右,这个速度我很满意,接下来可以很多东西都不依靠于云端模型,大部分的工作本地都能完成,自动语音识别,自动生成语音,本地知识库,本地翻译等等等等。为做内容跨境,ai 客服,ai 拆单训练来做各种测试。#本地大模型 #Qwen #本地知识库 #刚哥不刚 #语音识别
00:00 / 01:23
连播
清屏
智能
倍速
点赞
70
莫失莫忘
2周前
4月17日 #Qwen3 .6 35B #千问大模型 #大模型算力 #5060ti显卡 #显卡
00:00 / 04:07
连播
清屏
智能
倍速
点赞
57
小天fotos
1周前
离谱!Qwen3.6 27B生成速度飙到184t/s Qwen3.6 27B绝对是一个里程碑的时刻 现在全世界的极客都在拼命优化它 我也盘点了多个框架,做了完整测试 最终从20/s的速度跑到184t/s 有完整报告在我的repo里 你可以错过我的视频,但不能错过这个模型 #ai新星计划 #qwen36 #turboquant #dflash #deepseekv4
00:00 / 18:09
连播
清屏
智能
倍速
点赞
3417
尤里好家伙😏
1周前
#qwen3.5:35b a3b 模型速度怎么样?双卡1080ti继续发挥余热,很强!#openclaw
00:00 / 01:08
连播
清屏
智能
倍速
点赞
7
不夜
1周前
本地4种软件部署qwen3.6-27b性能测试 ollama,llama.cpp,LMstudio,vLLM本地部署测试#ollama#llamacpp#lmstudio#AI#vLLM
00:00 / 10:27
连播
清屏
智能
倍速
点赞
135
Vibe All Things
2周前
35B参数的大模型,你的Mac就能跑。 阿里刚发的Qwen3.6-35B,秘密就三个字:MoE(混合专家架构)。 简单说就是:35B参数的模型,每次推理只激活3B。就像一个350人的公司,每次开会只来30人,其他人不用到场。 所以24G的MacBook Air就能流畅跑,速度14-22 token/s。 光省资源没用,能力行不行? 编程评测51.5分,谷歌Gemma 4只有42.9。Web开发领先17%,通用推理也赢。3B激活参数,把31B稠密模型按在地上摩擦。 数学上Gemma确实更强,但Gemma这波翻车也不少——过度审查、工具链崩了、GGUF重传四次。 反观Qwen3.6,MLX和llama.cpp开箱即用,社区零抱怨。 35B只激活3B,一台笔记本跑接近大模型水平的AI,这不就是算力平民化吗? 你们觉得MoE会成为大模型的标准架构吗?评论区聊聊👇 #AI #Qwen #通义千问 #大模型 #MoE #本地部署 #Mac #开源 #硬核拆解 #深度学习
00:00 / 00:40
连播
清屏
智能
倍速
点赞
0
Mr.Chen
2周前
qwen3.6 35B在12G显存上跑起来了 现在技术发展真快,以前还只能装8B,9B的模型还很笨,现在直接跳过14B,26B上到35B,当然模型有点不一样,反正很厉害了那个技术最新出的叫turboquant,可以试试看。#openclaw#hermes
00:00 / 01:56
连播
清屏
智能
倍速
点赞
126
Ai 学习的老章
2周前
Qwen3.6-35B-A3B开源了,本地部署教程
00:00 / 00:56
连播
清屏
智能
倍速
点赞
542
AI技能教学网
2周前
Qwen3.6-35B量化方案选择 针对显存、速度与推理能力,深度对比Qwen3.6-35B的量化版、DFlash加速版及Claude Opus蒸馏版方案。#Qwen3635B #LLM优化 #vLLM #量化技术 #AI推理加速
00:00 / 04:28
连播
清屏
智能
倍速
点赞
230
橘橘橙AI
1周前
Qwen3.6-27B 实测:本地模型已经能替代前端开发? Qwen3.6-27B 本地实测:飞机大战、电商页、音乐播放器,一次生成完整前端项目。本地模型进入生产力时代。 #qwen #千问 #大模型
00:00 / 07:15
连播
清屏
智能
倍速
点赞
168
新哥言选
2周前
Qwen3.6大模型Token速度媲美云端 #ai #大模型 #macbookpro #苹果电脑 #MacBook
00:00 / 00:35
连播
清屏
智能
倍速
点赞
84
莫失莫忘
1周前
4月27日(1) #opencode #qwen #AI应用 #大模型 #ai龙虾 #claudecode
00:00 / 02:01
连播
清屏
智能
倍速
点赞
15
titan909
2周前
实测开源Qwen3.6运行OpenClaw的效果 #Qwen36 #OpenClaw
00:00 / 04:21
连播
清屏
智能
倍速
点赞
246
新尊锐服务器
1周前
想本地部署Qwen的小伙伴们看过来,整理了Qwen3.5本地部署所需的硬件配置信息 #Qwen #千问 #ai本地部署 #电脑硬件 #ai
00:00 / 01:41
连播
清屏
智能
倍速
点赞
7
Ai 学习的老章
1周前
Qwopus3.6-27B 本地部署,24G 显卡轻松跑 Qwen 加 Opus,缝合怪又来了,这次是 27B 本地版。大家好,我是AI学习的老章。今天聊一个有意思的开源模型,Qwopus3.6-27B-v1-preview,作者 Jackrong。光看名字你就懂了,Qwen 加 Opus,意思是拿 Claude Opus 的蒸馏数据,去调教 Qwen3.6-27B。底座是阿里的 Qwen3.6-27B 稠密模型,原生 262K 上下文,能扩到 1M。训练用的 Unsloth,数据是 Claude 蒸馏数据集打底,混入 GLM-5.1、Kimi-K2.5、Qwen3.5 的推理数据。最关键的一步在这,作者用一个 8B 模型当过滤器,把风格跑偏的样本剔掉,最后只留 12K 条调性统一的高质量数据。这思路特别反直觉,别人都是越多越好,他在做减法。我觉得这个项目最值得琢磨的就是这个点,吃什么长什么样,数据干净,比数据多重要得多。早期评测合作者用 16 条 prompt,单卡 5090 跑 GGUF 量化版,覆盖 Agentic 推理、前端设计、创意 Canvas 三类场景,对比的是 Qwen3.6-27B 原版。但说实话,16 条样本,作者自己都说是 early signal,谁也别当定论。GGUF 仓库已经放出来,量化档位很全,IQ4_XS 是 15.2 G,单张 24G 显卡就能跑,4090、5090、3090 都行。Q2_K 是 10.7 G,16G 显卡能塞但损失不小。直接用 llama.cpp 或者 Ollama 拉起来就行。我的看法是,值得关注,但别神化。它是 preview 版,作者自己都说在探路。但这个思路把 Claude 风格用工程手段迁移到可本地部署的 27B 模型上,加上 Apache-2.0 协议商用友好,给国产开源生态加了一个有 Claude 味儿的选择,这个角度挺难得。手上有 4090、5090 的玩家可以尝个鲜,正式版出来我再拉出来实测一波
00:00 / 02:13
连播
清屏
智能
倍速
点赞
189
爱玩的极客
1周前
千问3.6本地运行,这个是真生产力#AI #QWEN #QWEN3.6 #蒸馏
00:00 / 01:13
连播
清屏
智能
倍速
点赞
23
Mr.Chen
2周前
qwen3.6 35B配置hermes大脑 就是玩,这么新的大模型怎么能不体验一下呢 #hermes爱马仕 #hermes #qwen #openclaw
00:00 / 02:08
连播
清屏
智能
倍速
点赞
39
酋长师兄
5天前
本地大模型提速三倍方法Qwen3.6模型跑出200t/s生成 4090单显卡,本地大模型提速三倍Qwen3.6模型跑出200t/s生成 #本地大模型提速 #本地大模型配置 #MTP配置
00:00 / 04:40
连播
清屏
智能
倍速
点赞
252
Ai 学习的老章
1周前
相较DeepSeek V4,我更喜欢Qwen3.6-27B Qwen3.6-27B 原版 FP16 要 55 个 G,你的机器大概率跑不了。但现在量化版本已经百花齐放了,今天老章带你盘一遍,按硬件找你的版本。服务端三条路:官方 FP8 约 27GB,性能几乎无损,双卡 A100 或 H100 首选;消费级单卡 4090,选 cyankiwi 的 AWQ-INT4,压到 20GB,vLLM 直接起;手里有 5090 这类 Blackwell 卡,选 NVFP4,压到 19.7GB,充分吃满 FP4 算力。本地跑 GGUF 的话,首推 Unsloth Dynamic 2.0,UD-Q4_K_XL 版本只要 18GB 显存,质量比普通 GGUF 好一个档次。用 LM Studio 做面板的,直接搜 lmstudio-community 版本,开箱即用。注意一个大坑:Ollama 目前还跑不了 Qwen3.6,等适配再说。Mac 用户有两个选项:Unsloth 的 UD-MLX-4bit,32GB 统一内存就够;或者 mlx-community 的 nvfp4,走 Metal 加速,速度更快。最后一张选择表:4090 选 AWQ,5090 选 NVFP4,PC 本地选 Unsloth GGUF,Mac 选 MLX
00:00 / 01:39
连播
清屏
智能
倍速
点赞
89
GG 爆玩 AI
4天前
Qwen3.6_35BClaude4.6蒸馏本地部署 #本地部署大模型#openclaw 本地部署实测,8G部署的35B大模型到底有多大的用处#ai
00:00 / 16:51
连播
清屏
智能
倍速
点赞
15
搬砖最勤快
2周前
把本地部署的QWEN3.6 35ba3b接入龙虾试了下,怎么说呢。。动是可以动,就是这次的结果有点拉,等我下个视频在测测。#qwen3.6 #ai #ai本地部署 #5060ti
00:00 / 04:47
连播
清屏
智能
倍速
点赞
7
小小怪盗
1周前
token不够用看这里,出机器俩个cpu、 4根内存条16g 、 8g显卡,跑本地大模型QWEN3.5 8B Q4模型每秒18token/s左右。整体1800,不要这显卡的按1300 算。#openclaw #本地大模型
00:00 / 00:20
连播
清屏
智能
倍速
点赞
0
嘉一
4天前
4080s 32g 跑 qwen3.6 35b #qwen3.6 #魔改卡 #ai
00:00 / 00:58
连播
清屏
智能
倍速
点赞
72
AI早起的张先生
1周前
中国AI超越美国!这信号意味着什么? 中国AI调用量连续5周超越美国,Qwen3.6登顶全球。豆包、DeepSeek、凹凸时空国产AI崛起。#中国AI调用 #token #企业管理 #中小企业 #企业转型
00:00 / 01:30
连播
清屏
智能
倍速
点赞
83
篝火
4天前
#qwen #ai 9b的为啥比35b的还慢?挠头!这就是我为什么用3.6/其实之前就测试过!这次重就是闲的,做个视频个视频
00:00 / 01:10
连播
清屏
智能
倍速
点赞
0
Ai 学习的老章
2周前
Qwen3.6-35B 量化版 vLLM 实测 Qwen3.6 35B 的 AWQ 4bit 量化版,模型文件 20 来个 G,对比原始的 70 多 G,可玩性高多了,4090 24G 跑起来很轻松。 部署用 vLLM,我选了 0.17 版本。官方建议 0.19 起步,但我发现 0.17 完全可以拉起来,稳定跑着呢。 启动脚本用 Docker,两张 GPU,tensor parallel size 2,最大上下文 10 万 2,关闭思考模式,启用前缀缓存。 100K 上下文下,显存占用控制得很好,不会撑爆。 关闭思考之后的性能测试,单并发能到 148 Token 每秒,内网跑业务完全够用。 对比 Qwen3.5 35B,性能差距真的微乎其微,基本可以认为持平。 我还做了个编程对比,让两个模型分别写烟花动画。 3.5 写了 477 行,全是 CSS 动画,代码长但前后不一致,刷新页面才能看到效果。 3.6 写了 256 行,思路更清晰,用 Canvas 模拟物理重力,但画面位置判断有偏差,几乎是黑屏。 初版都有 bug,半斤八两,指出问题重新生成各自都能改好。 最后跑了一下生成速度,150 Token 每秒上下,很赏心悦目。 综合来看,Qwen3.6 35B 量化版,vLLM 本地部署,性能稳、速度快,工程上没什么坑,值得搞起来。
00:00 / 01:38
连播
清屏
智能
倍速
点赞
115
抓耳挠腮
1周前
千问3.6蒸馏版 #qwen3 #qwen36
00:00 / 00:35
连播
清屏
智能
倍速
点赞
89
Ai 学习的老章
2周前
Qwen3.6-35B,量化、蒸馏版本推荐 今天聊 Qwen3.6-35B-A3B 的社区生态。这个模型是 MoE 架构,参数35B,每次只激活3B。性能很强,但显存占用不小。社区迅速搞出了三条优化路线。 第一条,量化。三个团队分别出了 AWQ 和 NVFP4 的4bit量化版。有网友实测,两张4060就能跑出83tok每秒。Red Hat 的 NVFP4 版更有意思,量化后准确率居然还涨了一点。 第二条,DFlash 推理加速。这是一种基于扩散模型的推测解码方法。跟传统方案不同,它一次能并行生成一整块 token。实测5到6倍加速,完全无损,输出跟原版一模一样。 第三条,Claude Opus 蒸馏。用1.4万条推理数据做 LoRA 微调,MMLU-Pro 直接涨了32个百分点。数据量不大,效果很猛。 这三条路完全不冲突。量化解决跑得起,DFlash 解决跑得快,蒸馏解决跑得好。我觉得最值得关注的,是开源社区围绕一个模型形成了完整的优化链条。这种协作效率,比单个模型发布更有意义。
00:00 / 01:20
连播
清屏
智能
倍速
点赞
337
树人痛打落水狗
2周前
v100显卡试试qwen3.6 ai稍微设置就打败专业师傅了,欢迎大家免费体验 #ai落地 #openclaw #qwen3.6
00:00 / 03:25
连播
清屏
智能
倍速
点赞
0
Pt925
1月前
#openclaw本地部署#Qwen端模型 #openclaw本地部署#Qwen端模型#Token永久免费了
00:00 / 00:10
连播
清屏
智能
倍速
点赞
143
Token就是词元
6天前
屎山测试:模型大乱斗解决实际BUG DeepSeekV4,GPT5.5,MiMo2.5,GLM5.1,Kimi2.6,Qwen3.6大乱斗,解决实际项目中遇到的一个BUG,看解决的最靠谱#十亿流量扶持计划 #AI #大模型
00:00 / 14:58
连播
清屏
智能
倍速
点赞
6476
🍁
2周前
#大模型 #vivo #英伟达 端侧手机App本地部署测试大模型 今日测试 Qwen3.6-35B-A3B-BF16.gguf大约60G
00:00 / 03:23
连播
清屏
智能
倍速
点赞
8
ArkAPI
1周前
深度拆解Qwen3.6-27B的"越级"逻辑 #ArkAPI#大模型#Qwen#api#Qwen36
00:00 / 03:15
连播
清屏
智能
倍速
点赞
52
AI踩坑指南
1周前
本地开源SOTA!Qwen3.6 27B 稠密模型实测! 叠甲!之前的代码评委模型是opus 4.6,现在升级到了4.7故代码的得分并没有拉卡差距。但是实际实现效果3.6绝对是远超3.5的。开源sota实至名归。 #普通人学ai #零基础学ai #ai干货分享 #ai新星计划 #ai大模型学习
00:00 / 02:23
连播
清屏
智能
倍速
点赞
73
赛博散步的日常
5天前
Ms-Swift真有料吗 开源模型热度飙升,这个微调工具帮你省掉重复造轮子的时间。但先看清楚它适合谁。 #MsSwift #模型微调 #开源AI #Qwen3 #DeepSeek
00:00 / 02:14
连播
清屏
智能
倍速
点赞
45
宇图瑞视
4周前
本地大模型横评!Gemma 4 26B vs Qwen 3. 同样约27B参数,MoE vs Dense架构,性能差距让人惊讶! *核心对比: *- 架构:Gemma 4 MoE激活3.8B vs Qwen 3.5 Dense全量27B *- 显存:16GB vs 55GB(差了3倍!) *- 编程:Gemma 4 ELO 2150 vs Qwen 3.5 ELO 1899 *- 上下文:Gemma 4 25.6万 vs Qwen 3.5 100万Token *选哪个看需求: *- 硬件有限/视频理解/算法编程 → Gemma 4 *- 超长文档/Agent工作流/工具调用 → Qwen 3.5 *关注我,持续输出AI开源干货! *#开源大模型 #本地部署 #Gemma4 #千问 #AI测评 #大模型横评 #程序员 #人工智能 #AI工具 #Ollama
00:00 / 01:16
连播
清屏
智能
倍速
点赞
29
AI信息差
1月前
Qwen3.6-Plus实测:低价专精智能体编程 实测阿里最新Qwen3.6-Plus,不仅API价格低至Claude的1/18,在Agentic Coding、多模态网页生成及复杂空间推理任务上表现惊人。#Qwen36Plus #阿里通义千问 #AgenticCoding #AI编程 #多模态大模型
00:00 / 03:19
连播
清屏
智能
倍速
点赞
39
一颗小菜籽ya
6天前
#大模型 #ollama #本地部署 #chatgpt
00:00 / 00:52
连播
清屏
智能
倍速
点赞
4
大鹏哥ⁱ
4周前
#真实生活分享计划 #Ai大模型 #国产大模型 #Qwen 3.6-Plus 别被表面数据骗了,阿里的“病”一个都没少
00:00 / 05:29
连播
清屏
智能
倍速
点赞
24
Token就是词元
1周前
屎山测评-02:Kimi2.6,GLM5.1,Qwen3.6 本期视频我们升级了各家模型到最新版本,继续用他们挑战真实项目中的一个屎山BUG。抛开评分不谈,看看他们在真实场景下,能否名副其实。 #十一流量扶持计划 #AI #Kimi #GLM #AI应用开发
00:00 / 08:39
连播
清屏
智能
倍速
点赞
2282
简介:
您在查找“
qwen3.6 token设置成多少
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-03 05:31
最新推荐:
谁真给你放冷水
小男孩和布鲁斯什么电影
大红砖巴克什在哪里破
无敌小悦悦猜它是谁游戏
matlab安装cxv
孙杨张豆豆芒果台有删除画面吗
华门姝行六姝在哪看
恭喜发财歌曲改编俯卧撑
黑夜告白徐完结了嘛
大耳朵图图外婆
相关推荐:
赵露思闺蜜魏笑在许我耀眼饰演哪个
企鹅小宝宝游戏可以给他穿上跳服奇记
怦然心动20岁胡祎阳为什么叫碘伏
非什么非什么脑筋急转弯
进产房对男人的影响
现在留小辫子合适吗
猛攻节物价什么时候会回来
巫玲儿辅助器爬山传送怎么用不了
勤俭持家赛伊德不算吗
本怀特在哪个俱乐部
热门推荐:
玛门异环卡在场景里怎么办
异环dsd有多少个玩偶
微信ai智能体玩法夏萧因人设
怎么做线上超市小程序
美图秀秀没露脸怎么p头发
淘宝闪购众包动力活动是什么
replaced第八章密码是什么
筑梦岛QQ停用是什么原因
乱涂菜事件码在哪里输入
连在一起手柄抓钩子是哪个键