Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
泰语千秋不发抖音怎么显示歌词
华强北果姐微信安全设置
青河绝恋合拍教程
花种刷出炫彩怎么保留
超过流量扣费退款流程大王卡
mimo模型领取需要实名认证吗?
芒果新娱投票怎么点不动
ad种草通数据怎么看
卡皮巴拉mall卸载重装教程
抖音精灵性格自定义
AI 博士嗨嗨
1年前
人人都能玩! Qwen3最强开源模型保姆级本地部署教程 #qwen3 #ollama #本地部署 #cherrystudio #AI模型
00:00 / 08:09
连播
清屏
智能
倍速
点赞
660
AI 博士嗨嗨
9月前
个人电脑最强AI模型,Qwen3-30B本地部署教程! #qwen3 #本地部署 #Ollama #AI模型 #大模型
00:00 / 12:41
连播
清屏
智能
倍速
点赞
1799
保藏家说
1年前
Ollama下载不了怎么办? #deepseek #Ollama #AI 有的网友反馈Ollama无法下载,本期视频手把手教学,给你展示如何下载Ollama,快来关注主播吧!
00:00 / 03:12
连播
清屏
智能
倍速
点赞
437
戚向北
5天前
Qwen 3.6 35B模型能力测试 测试内容一:自动搜索并下载图片到本地 #hermes #hermes爱马仕 #本地模型 #openclaw #qwen3.6
00:00 / 02:07
连播
清屏
智能
倍速
点赞
25
鹏哥的AI
1年前
把AI大模型安到移动硬盘苹果版 #人工智能 #AI大模型 #人工智能学习 #ollama #qwen2
00:00 / 04:00
连播
清屏
智能
倍速
点赞
341
大模型唐艺
11月前
小白也能10分钟学会Qwen3+Dify构建合同审查助手 提升速倍效率,降低风险并且节约成本!#人工智能 #ai #大模型 #llm #dify
00:00 / 13:23
连播
清屏
智能
倍速
点赞
22
绘世玩家
5天前
llama.cpp本地部署 llama.cpp本地部署&集成Qwen3.6大模型-效率起飞 #comfyui #ComfyUI教程 #llama #qwen
00:00 / 08:21
连播
清屏
智能
倍速
点赞
24
titan909
5天前
实战利用MTP补丁免费大幅提升Qwen3.6-27B运行速度 #mtp补丁
00:00 / 04:04
连播
清屏
智能
倍速
点赞
164
电脑糕手
2周前
别再手动写官网了! Qwen3.6本地跑,8分钟做完一整个官网 成本仅1毛5,还能自动修Bug 程序员效率直接拉满💻#程序员 #千问 #servbay #ai
00:00 / 01:50
连播
清屏
智能
倍速
点赞
4
程序员寒山
3周前
小龙虾养成日记:Hermes安装和Ollama本地模型配置 本期视频主要给大家介绍Hermes的安装和ollama本地模型的配置,通过实际的安装演示。更多往期视频内容可以到主页列表下查看(程序员寒山:CxyHanShan),欢迎大家留言关注讨论。#小龙虾养成记 #hermes #ollama #openclaw
00:00 / 05:32
连播
清屏
智能
倍速
点赞
73
莫失莫忘
1周前
5月4日 (1)(1) llama.cpp windows11 下源码编译#下源码编译 #llama#本地部署ai #Qwen #ai应用
00:00 / 03:26
连播
清屏
智能
倍速
点赞
9
博哥讲Al
1年前
最强开源模型千问3!一分钟教会本地部署! #阿里云 #通义千问 #Qwen3 #博哥讲AI
00:00 / 01:16
连播
清屏
智能
倍速
点赞
53
小in分享
1年前
potplay+deepseek+ollama本地部署全攻略 这可能是全网最硬核的PotPlayer教程!无需编程基础,三步实现: 1、 Whisper大模型实时生成字幕(附最新large-v3-turbo模型网盘) 2、直连DeepSeek/硅基流动API翻译(新用户注册福利领取攻略) 3、Ollama本地部署Qwen/DeepSeek离线翻译(附显存优化方案) 如果你觉得这个视频对你有帮助,别忘了“👍点赞”和“❤订阅”我的频道,这样你就不会错过接下来的教程了。同时,如果你有任何问题,请在**评论区**留言,我会尽快回复你。再次感谢观看,我们下个视频见! 视频中讲到的所有安装包下载地址 PotPlayer官网地址:https://potplayer.daum.net/ 网盘链接:https://pan.quark.cn/s/964a9ac0632c Faster-Whisper-XXL引擎下载链接:https://pan.quark.cn/s/0e596c709d91 large-v3-turbo文件下载链接:https://pan.quark.cn/s/043f5ee1b05d Chatgpt翻译插件官网地址:https://github.com/Felix3322/PotPlayer_Chatgpt_Translate 网盘连接:https://pan.quark.cn/s/eda64ad39a5f DeepSeek API官网地址:https://platform.deepseek.com/ 硅基流动官网地址:https://cloud.siliconflow.cn Ollama翻译插件下载地址:https://github.com/yxyxyz6/PotPlayer_ollama_Translate 网盘连接:https://pan.quark.cn/s/da9e0e4706d0 Ollama官网地址:https://ollama.com/ Ollama本地部署安装包网盘连接:https://pan.quark.cn/s/fd6bc2ffb343 #potplayer #deepseek #ollama #api #本地部署
00:00 / 23:41
连播
清屏
智能
倍速
点赞
1016
碳基生物退役指南
3周前
Qwen3.6-35B-A3B:2千到3万,三档本地部署实战 这期视频,我把 Qwen 3.6 35B A3B 装进 3 台价格完全不同的设备里,实测识图、OCR、手写数学题、写作、算法题和代码生成。最让我意外的,不只是它比预期更能打,而是我那台 2500 块手搓丐版战神,居然跟这个模型异常般配。便宜设备不可怕,可怕的是本地模型这次真的能干活了。 这次让我真正改观的,是 Qwen 3.6 35B A3B 在不同任务之间,整体都没有明显掉链子。识图能看,OCR 能用,代码能写,逻辑题也能认真推,放到真实项目里,不再是那种“偶尔灵光一现”的状态了,而是已经开始成为稳定的生产力工具了。本地开源模型这次,是真的往前走了一大步。 #qwen #ai智能体 #openclaw#大语言模型 #ai
00:00 / 09:31
连播
清屏
智能
倍速
点赞
803
找我呀AI知识助手
5天前
5090D的24G显卡,实测qwen3.6:27b,推理能力和生成速度都非常的不错,适合各企业低成本试点部署大模型 #AI知识助手 #本地部署大模型模型 #ollama #llamacpp
00:00 / 03:11
连播
清屏
智能
倍速
点赞
72
🐯宝宝࿐
1年前
#上热门 #deepseek本地部署 #ollama下载不了 #教你部署deepseek #3分钟学会 下载安装删除基本教程
00:00 / 01:45
连播
清屏
智能
倍速
点赞
134
(教程在主页)我的小助手
10月前
25分钟搞定Qwen3-8B从零搭建本地RAG全流程 #人工智能 #ai #大模型 #程序员 #计算机
00:00 / 25:25
连播
清屏
智能
倍速
点赞
56
不夜
2周前
本地4种软件部署qwen3.6-27b性能测试 ollama,llama.cpp,LMstudio,vLLM本地部署测试#ollama#llamacpp#lmstudio#AI#vLLM
00:00 / 10:27
连播
清屏
智能
倍速
点赞
148
Windows一点通
3周前
如何在Ubuntu上安装Ollama,免费使用云端大模型 本视频详细分享在Ubuntu Linux系统上部署Ollama大语言模型框架的完整思路与实操经验。Ollama作为一款免费开源的大模型运行工具,不仅支持本地部署,还自带免费云端模型服务,非常适合日常学习、测试与小型项目开发,虽然免费额度存在一定限制,但足以满足个人与入门级使用需求。视频中针对常见的GitHub访问不稳定导致安装失败问题,提供了更稳妥的离线安装方案,全程围绕文件获取、环境配置、服务启动与验证展开,同时讲解了U盘在虚拟机中的识别设置、进程管理、服务状态检测等实用技巧。此外,还对比了不同调用方式的差异,解决常见报错问题,并实现Ollama服务局域网开放,让其他设备如OpenClaw等工具可远程调用,真正打通本地环境与云端大模型的连接通道,为AI爱好者与开发者提供一套稳定、可靠、低成本的大模型运行方案。 #ollama #ubuntu
00:00 / 12:06
连播
清屏
智能
倍速
点赞
22
千问大模型
11月前
奶奶都能学会的Qwen部署教程来了! 无需任何计算机知识,只需要会用手机,动动手指点几下,就能轻松在手机上部署大模型,不止可以跟你文字对话,还能和你语音聊天,帮你看世界! #Qwen #通义千问 #AI #人工智能
00:00 / 01:42
连播
清屏
智能
倍速
点赞
932
AIGC 蛮子
3周前
Qwen3.6开源重磅来袭! Qwen3.6开源重磅来袭!ComfyUI llama.cpp插件轻松上手教程#comfyui #qwen #开源模型
00:00 / 07:38
连播
清屏
智能
倍速
点赞
5
莫失莫忘
2周前
4月27日(1) #opencode #qwen #AI应用 #大模型 #ai龙虾 #claudecode
00:00 / 02:01
连播
清屏
智能
倍速
点赞
17
酉星灵光
9月前
Ollama轻松部署大语言模型 如何本地部署大语言模型?Ollama轻松部署,只需一键安装就可以使用开源大语言模型。#干货 #ollama #本地部署 #知识分享 #人工智能
00:00 / 02:52
连播
清屏
智能
倍速
点赞
6
AI 博士嗨嗨
9月前
嘎嘎香!免费AI代码神器Qwen Code上手教程 #QwenCode #通义千问 #AI编程 #cline #AIAgent
00:00 / 08:02
连播
清屏
智能
倍速
点赞
715
ai景行小博士
3周前
Qwen3.6_35B模型部署设置全流程,冲80词元/s #热点 #本地部署 #Qwen35B #全流程 #词元
00:00 / 04:04
连播
清屏
智能
倍速
点赞
627
AI探趣星船长
2周前
本地大模型也能 AI 编程!逼近 #GEMINI 3 效果 #干货分享,#邪修 玩法! 不用付费 token,古董显卡跑本地#AI编程开源大模型#千问 ! #程序员 速码! Opencode + llama.cpp + Qwen3.6 + 2080TI 配置改完直接起飞!电脑都干冒烟了
00:00 / 01:03
连播
清屏
智能
倍速
点赞
326
先锋Ai
2周前
Qwen3 10秒超快提示词反推节点安装教程 #ai教程技巧 #ai教程每日学 #AI教程免费学习 #标记我的宝藏好书 #让困难的事情变简单 Qwen3 VL Llama-cpp和Llama轮子安装,10秒超快提示词反推节点教程,让节点发推不在成为累赘。
00:00 / 02:58
连播
清屏
智能
倍速
点赞
3
单车酒吧搞机社
1周前
Qwen3.5大模型本地部署的高性价比服务器怎么配 #Qwen#AI本地部署 #AI装机 #硬件配置 #大模型本地部署
00:00 / 06:54
连播
清屏
智能
倍速
点赞
1297
l l l
1月前
OpenClaw 接入本地 Ollama 运行的大模型 #openclaw #Ollama #Qwen3 #飞书
00:00 / 08:49
连播
清屏
智能
倍速
点赞
13
titan909
3周前
实测开源Qwen3.6运行OpenClaw的效果 #Qwen36 #OpenClaw
00:00 / 04:21
连播
清屏
智能
倍速
点赞
253
Token就是词元
1周前
屎山测试:模型大乱斗解决实际BUG DeepSeekV4,GPT5.5,MiMo2.5,GLM5.1,Kimi2.6,Qwen3.6大乱斗,解决实际项目中遇到的一个BUG,看解决的最靠谱#十亿流量扶持计划 #AI #大模型
00:00 / 14:58
连播
清屏
智能
倍速
点赞
8142
Ai 学习的老章
3周前
Qwen3.6-35B-A3B开源了,本地部署教程
00:00 / 00:56
连播
清屏
智能
倍速
点赞
550
搬砖最勤快
2周前
5060TI16G 测试Llama和TurboQuant 测试Llama-cpp原版框架vsLlama-cpp-TurboQuant框架 同参数跑千问Qwen3.6-35b-a3b-Q4km速度对比 小显存卡确实太吃力了 结果还蛮奇特的 有点意外 评论区哥们@喵 #Qwen36 #TurboQuant #35ba3b #本地部署 #本地部署大模型
00:00 / 02:48
连播
清屏
智能
倍速
点赞
122
GG 爆玩 AI
1周前
Qwen3.6_35BClaude4.6蒸馏本地部署 #本地部署大模型#openclaw 本地部署实测,8G部署的35B大模型到底有多大的用处#ai
00:00 / 16:51
连播
清屏
智能
倍速
点赞
17
小红AI
3周前
Qwen3.6-35B-A3B尝鲜体验 一张图片给你一个网站或APP#qwen #claude
00:00 / 01:15
连播
清屏
智能
倍速
点赞
108
可甜姐妹
9月前
Qwen3 Coder IDE、CLI安装 通义灵码上线Qwen3-Coder 免费不限量#编程 #大模型
00:00 / 04:05
连播
清屏
智能
倍速
点赞
54
小天fotos
2周前
离谱!Qwen3.6 27B生成速度飙到184t/s Qwen3.6 27B绝对是一个里程碑的时刻 现在全世界的极客都在拼命优化它 我也盘点了多个框架,做了完整测试 最终从20/s的速度跑到184t/s 有完整报告在我的repo里 你可以错过我的视频,但不能错过这个模型 #ai新星计划 #qwen36 #turboquant #dflash #deepseekv4
00:00 / 18:09
连播
清屏
智能
倍速
点赞
3747
Mr.Chen
2周前
qwen3.6 35B配置hermes大脑 就是玩,这么新的大模型怎么能不体验一下呢 #hermes爱马仕 #hermes #qwen #openclaw
00:00 / 02:08
连播
清屏
智能
倍速
点赞
39
小天fotos
5天前
深度解读,Deepseek V4的杠杆机会以及Token效率 最近用本地部署的Qwen3.6 实现从issue到PR的全自动开发pipeline 所以我深刻理解Deepseek V4这套架构 正在掀起什么样的巨浪 今天就从Token Efficiency来聊聊 我们应该抓住的杠杆机会是什么? #deepseekv4 #ai新星计划 #qwen36 #ai自动化 #harness
00:00 / 19:26
连播
清屏
智能
倍速
点赞
NaN
Ai 学习的老章
2周前
Qwopus3.6-27B 本地部署,24G 显卡轻松跑 Qwen 加 Opus,缝合怪又来了,这次是 27B 本地版。大家好,我是AI学习的老章。今天聊一个有意思的开源模型,Qwopus3.6-27B-v1-preview,作者 Jackrong。光看名字你就懂了,Qwen 加 Opus,意思是拿 Claude Opus 的蒸馏数据,去调教 Qwen3.6-27B。底座是阿里的 Qwen3.6-27B 稠密模型,原生 262K 上下文,能扩到 1M。训练用的 Unsloth,数据是 Claude 蒸馏数据集打底,混入 GLM-5.1、Kimi-K2.5、Qwen3.5 的推理数据。最关键的一步在这,作者用一个 8B 模型当过滤器,把风格跑偏的样本剔掉,最后只留 12K 条调性统一的高质量数据。这思路特别反直觉,别人都是越多越好,他在做减法。我觉得这个项目最值得琢磨的就是这个点,吃什么长什么样,数据干净,比数据多重要得多。早期评测合作者用 16 条 prompt,单卡 5090 跑 GGUF 量化版,覆盖 Agentic 推理、前端设计、创意 Canvas 三类场景,对比的是 Qwen3.6-27B 原版。但说实话,16 条样本,作者自己都说是 early signal,谁也别当定论。GGUF 仓库已经放出来,量化档位很全,IQ4_XS 是 15.2 G,单张 24G 显卡就能跑,4090、5090、3090 都行。Q2_K 是 10.7 G,16G 显卡能塞但损失不小。直接用 llama.cpp 或者 Ollama 拉起来就行。我的看法是,值得关注,但别神化。它是 preview 版,作者自己都说在探路。但这个思路把 Claude 风格用工程手段迁移到可本地部署的 27B 模型上,加上 Apache-2.0 协议商用友好,给国产开源生态加了一个有 Claude 味儿的选择,这个角度挺难得。手上有 4090、5090 的玩家可以尝个鲜,正式版出来我再拉出来实测一波
00:00 / 02:13
连播
清屏
智能
倍速
点赞
190
AI种草官
6天前
本地部署神器!千问 Qwen3.6-27B 免费开源 本地部署神器!千问 Qwen3.6-27B 免费开源 ##通义千问#Qwen3.6-27B#开源大模型#AI编程#开发者神器
00:00 / 00:36
连播
清屏
智能
倍速
点赞
3
东日
11月前
qwen3-30b-目前推荐使用的本地大语言模型 可以选择8845hs机器,推理速度最快24tokens/s
00:00 / 07:07
连播
清屏
智能
倍速
点赞
65
不夜
2周前
vLLM本地部署性能测试 ollama,llama.cpp,LMstudio性能对比,结果让我选择放弃ollama#ollama #llamacpp#lmstudio#AI#人工智能
00:00 / 05:50
连播
清屏
智能
倍速
点赞
30
神都猫玩AI
1年前
Gemma3视觉大模型已经可以在ollama中下载啦 Qwen2.5-vl安装参考网址 https://www.freedidi.com/18497.html 注意,他里面没有用python虚拟环境,在pip之前建议先建议进入虚拟环境再操作pip。gemma3,直接可以用ollama下载,很方便 #ai #编程 #学习打卡ing
00:00 / 03:32
连播
清屏
智能
倍速
点赞
15
呼呼数学
2周前
感谢Qwen大善人🥰😘🤩,我们可以使用更好的开源大模型Qwen3.6 35B A3B APEX。效果更好,速度还快了🤫🤫🤫。#大语言模型 #千问 #程序员 #代码 #人工智能
00:00 / 02:28
连播
清屏
智能
倍速
点赞
67
爱玩的极客
2周前
千问3.6本地运行,这个是真生产力#AI #QWEN #QWEN3.6 #蒸馏
00:00 / 01:13
连播
清屏
智能
倍速
点赞
23
龙隐Lancer
1周前
本地部署 Qwen3.6-35B-A3B LMStudio本地部署 Qwen3.6-35B-A3B接入ClaudeCode,这个模型是刚刚出的,里面特别提到对agentic coding 做了很好的支持和升级。 配置:16Gx2+5060Ti 16G #AI #Agent #本地部署大模型 #LMStudio
00:00 / 03:31
连播
清屏
智能
倍速
点赞
11
一个脑大AI测评
2周前
Qwen3.6Plus编程+多模态理解能力 #ai #qwen大模型 #ai编程 #多模态 #热点
00:00 / 02:03
连播
清屏
智能
倍速
点赞
5
搬砖最勤快
3周前
把本地部署的QWEN3.6 35ba3b接入龙虾试了下,怎么说呢。。动是可以动,就是这次的结果有点拉,等我下个视频在测测。#qwen3.6 #ai #ai本地部署 #5060ti
00:00 / 04:47
连播
清屏
智能
倍速
点赞
7
橘橘橙AI
2周前
Qwen3.6-27B 实测:本地模型已经能替代前端开发? Qwen3.6-27B 本地实测:飞机大战、电商页、音乐播放器,一次生成完整前端项目。本地模型进入生产力时代。 #qwen #千问 #大模型
00:00 / 07:15
连播
清屏
智能
倍速
点赞
194
AI技能教学网
3周前
Qwen3.6-35B量化方案选择 针对显存、速度与推理能力,深度对比Qwen3.6-35B的量化版、DFlash加速版及Claude Opus蒸馏版方案。#Qwen3635B #LLM优化 #vLLM #量化技术 #AI推理加速
00:00 / 04:28
连播
清屏
智能
倍速
点赞
236
AI技能研究社
3周前
Qwen3.6-35B-A3B部署指南 深度解析Qwen3.6-35B-A3B的MoE架构优势,涵盖SGLang、vLLM、Unsloth等多种部署方案及思维链参数配置技巧。#Qwen3635BA3B #MoE模型 #大模型部署 #SGLang #vLLM
00:00 / 03:11
连播
清屏
智能
倍速
点赞
344
Ai 学习的老章
3周前
Qwen3.6-35B,量化、蒸馏版本推荐 今天聊 Qwen3.6-35B-A3B 的社区生态。这个模型是 MoE 架构,参数35B,每次只激活3B。性能很强,但显存占用不小。社区迅速搞出了三条优化路线。 第一条,量化。三个团队分别出了 AWQ 和 NVFP4 的4bit量化版。有网友实测,两张4060就能跑出83tok每秒。Red Hat 的 NVFP4 版更有意思,量化后准确率居然还涨了一点。 第二条,DFlash 推理加速。这是一种基于扩散模型的推测解码方法。跟传统方案不同,它一次能并行生成一整块 token。实测5到6倍加速,完全无损,输出跟原版一模一样。 第三条,Claude Opus 蒸馏。用1.4万条推理数据做 LoRA 微调,MMLU-Pro 直接涨了32个百分点。数据量不大,效果很猛。 这三条路完全不冲突。量化解决跑得起,DFlash 解决跑得快,蒸馏解决跑得好。我觉得最值得关注的,是开源社区围绕一个模型形成了完整的优化链条。这种协作效率,比单个模型发布更有意义。
00:00 / 01:20
连播
清屏
智能
倍速
点赞
358
搬砖最勤快
3周前
qwen3.6 35b a3b实测16G显存下速度#qwen #ai
00:00 / 02:10
连播
清屏
智能
倍速
点赞
399
AI极客老高
1周前
阿里Qwen3.6连续更新 #人工智能 #AI #科技 #千问 #阿里 @DOU+小助手
00:00 / 00:57
连播
清屏
智能
倍速
点赞
5
恒信电子
6天前
你们要的16gv100显卡测试qwen3.6-27B-Q4测试结果来了#人工智能 #ai #v100显卡 #龙虾 #openclaw
00:00 / 00:15
连播
清屏
智能
倍速
点赞
36
Ai 学习的老章
2周前
英伟达加速版Qwen3.6,NVFP 4 性能实测 今天聊的是 Qwen3.6-35B 的 NVFP4 量化版,Red Hat AI 团队出品 NVFP4 是什么,简单说就是权重和激活同时量化到 4-bit 浮点 也叫 W4A4,用的是 E2M1 格式,还加了微块缩放技术 相比普通 INT4,FP4 对极端值的处理更精细,理论上精度损失更小 Red Hat 跑了 GSM8K Platinum 评测,数据很惊艳 原版 BF16 准确率 95.62%,NVFP4 量化版 96.28% 量化之后精度反而比原版高了一点 当然这有统计波动,但至少证明 NVFP4 的精度损失几乎可以忽略 这比 AWQ 的量化质量要高一个级别 我在双 4090 服务器上用 Docker 加 vLLM 部署了这个模型 说几个关键数据 每卡显存只用 10.61 GB,对比 BF16 版省了接近一半 模型加载 24 秒,加上 torch compile 总初始化在 2 分半 支持 102K 上下文,KV Cache 能装 49 万 token 最大并发能跑 17 倍 有一个细节我必须说清楚 4090 是 Ada Lovelace 架构,不支持原生 FP4 计算 vLLM 看到之后会自动退回 Marlin 内核 推理时权重先从 FP4 解压到高精度再参与计算 激活量化那部分的加速就没了 所以在 Ada 架构上,NVFP4 的核心收益是省显存 推理速度提升主要来自模型更小、内存带宽压力降低 要真正用满 W4A4 的全量化加速,得有 Blackwell GPU 也就是 B100 或者 B200 这一点很重要,别被参数说明误导了 跟之前测的 AWQ-4bit 版对比,NVFP4 各方面都有提升 实测吞吐量更高,多轮对话体感也更流畅 部署稳定性也更好 我的建议是这样 如果你有双 4090,NVFP4 量化版值得换上去 显存省了,精度没损失,相比 AWQ 是一次真实的升级 等 Blackwell GPU 普及了,收益会更大
00:00 / 02:21
连播
清屏
智能
倍速
点赞
166
酋长师兄
1周前
本地大模型提速三倍方法Qwen3.6模型跑出200t/s生成 4090单显卡,本地大模型提速三倍Qwen3.6模型跑出200t/s生成 #本地大模型提速 #本地大模型配置 #MTP配置
00:00 / 04:40
连播
清屏
智能
倍速
点赞
316
剑道尘心
1周前
qwen3.6 35b a3b q4-s 多模态实测 其实早就测试了,到现在才发出来,可能这个测试算是难的,所以效果不理想,等了11分钟,最后得到一个错误答案😂 #笑死了 #拉完了 #qwen36 #本地部署大模型 #多模态大模型
00:00 / 01:09
连播
清屏
智能
倍速
点赞
3
新尊锐服务器
2周前
想本地部署Qwen的小伙伴们看过来,整理了Qwen3.5本地部署所需的硬件配置信息 #Qwen #千问 #ai本地部署 #电脑硬件 #ai
00:00 / 01:41
连播
清屏
智能
倍速
点赞
9
遇见AI
1月前
ClaudeCode+Ollama本地部署 当热门流行AI工具遇上以9B参数碾压gpt-oss-120b的Qwen3.5,这绝对是极具性价比的组合。Claude 系列模型确实强大,但高额的定价对新手和普通玩家太不友好。Claudecode + Qwen3.5这套组合其实已经能满足80%的场景,完全本地运行,不产生Token费用,容错率极高,非常适合新手学习和普通玩家日常使用,AI时代已经来了,你还在等什么呢?#claude #qwen #ollama #AI工具 #AI编程
00:00 / 02:36
连播
清屏
智能
倍速
点赞
278
王纯迅
1月前
OpenCLaw终于在本地把qwen3.5-27b跑起来了 #openclaw #人工智能 #qwen #ollama #vLLM
00:00 / 08:12
连播
清屏
智能
倍速
点赞
283
Ai 学习的老章
3周前
Qwen3.6-35B 量化版 vLLM 实测 Qwen3.6 35B 的 AWQ 4bit 量化版,模型文件 20 来个 G,对比原始的 70 多 G,可玩性高多了,4090 24G 跑起来很轻松。 部署用 vLLM,我选了 0.17 版本。官方建议 0.19 起步,但我发现 0.17 完全可以拉起来,稳定跑着呢。 启动脚本用 Docker,两张 GPU,tensor parallel size 2,最大上下文 10 万 2,关闭思考模式,启用前缀缓存。 100K 上下文下,显存占用控制得很好,不会撑爆。 关闭思考之后的性能测试,单并发能到 148 Token 每秒,内网跑业务完全够用。 对比 Qwen3.5 35B,性能差距真的微乎其微,基本可以认为持平。 我还做了个编程对比,让两个模型分别写烟花动画。 3.5 写了 477 行,全是 CSS 动画,代码长但前后不一致,刷新页面才能看到效果。 3.6 写了 256 行,思路更清晰,用 Canvas 模拟物理重力,但画面位置判断有偏差,几乎是黑屏。 初版都有 bug,半斤八两,指出问题重新生成各自都能改好。 最后跑了一下生成速度,150 Token 每秒上下,很赏心悦目。 综合来看,Qwen3.6 35B 量化版,vLLM 本地部署,性能稳、速度快,工程上没什么坑,值得搞起来。
00:00 / 01:38
连播
清屏
智能
倍速
点赞
119
AI Oasis
1月前
大龙虾连接本地模型,你就说香不香! #openclaw #龙虾 #windows #ollama #qwen
00:00 / 07:01
连播
清屏
智能
倍速
点赞
1433
简介:
您在查找“
qwen3.6ollama安装教程
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-08 07:12
最新推荐:
张予曦别错过
是什么让你这么害怕呢
马拉维人均寿命
什么素都通畅了
疯狂美食皮肤怎么获得
最近很火歌曲 加班加班不加薪
麦当劳和麦胜克一样吗
蝶蜥蜴跳舞怎么生成
肛周脓肿引流出来的是什么
爆裂守卫是单机吗
相关推荐:
对不起花洒教程
黄车第二次掉头错在哪
洛克王国不小心抓到黑白炫彩怎么办
陈榭东粉丝表白
超自然申诉记录在哪里看
这个抖音给我看死了行吗
白鹿我们几个都穿黑色
波特兰开拓者主教练
对付伤害者的方法
顾锦朝在顾家怎么当上主母的
热门推荐:
朱之文导航语音包教程
fb素材,一投就封企业户什么原因
阿黛怎么绑定
打端瓦到底能不能回信息
豆包怎么调成惜涟的声音
微信步数1560步多少公里
贝萌咕嘎怎么审核
电视机 有一个什么草助手
siri你到底是好还是坏
萤石x5怎么变形呢