Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
lib客户端绑定comfyui教程
ORCID号有什么用
以太跳舞节目效果
美国的号码是什么开头
pmed是什么意思
BT-DOMJ500是什么
联通uniclaw功能
三层加密怎么用
codex一千万token能用多久
cc语言怎么用不了
绘世玩家
5天前
llama.cpp本地部署 llama.cpp本地部署&集成Qwen3.6大模型-效率起飞 #comfyui #ComfyUI教程 #llama #qwen
00:00 / 08:21
连播
清屏
智能
倍速
点赞
24
王耀鐭
1月前
本地部署Qwen3.5: vllm VS llama.cpp #大模型部署 #大模型 #学习日常
00:00 / 07:32
连播
清屏
智能
倍速
点赞
37
千问大模型
10月前
这可能是全网坠简单的部署大模型教程... 💡 通义千问大模型 🤖 部署复杂?不存在的! Qwen找来好朋友Ollama,一句话搞定部署,告别繁琐安装。文本,图片都支持! #AI教程 #AI大模型 #通义千问 #Qwen #Ollama
00:00 / 03:07
连播
清屏
智能
倍速
点赞
337
AI 博士嗨嗨
9月前
个人电脑最强AI模型,Qwen3-30B本地部署教程! #qwen3 #本地部署 #Ollama #AI模型 #大模型
00:00 / 12:41
连播
清屏
智能
倍速
点赞
1799
巛Turned丶陌影
1周前
RAGFlow+ollama+qwen3.5部署AI知识库 RAGFlow是为解决AI知识不足,新数据不能实时更新,容易出现幻觉等问题RAGFlow+ollama+lmstudio本地部署,可与本地AI对接api来运行。其中本地大模型需要ollama和lmstudio来运行,qwen3.5是本地比较常用的LLM模型,embedding模型shaw/dmeta是用来对输入数据做向量处理。此外还涉及到docker容器技术#AI #RAG #知识库 #人工智能 #openai
00:00 / 11:14
连播
清屏
智能
倍速
点赞
11
程序员寒山
3周前
小龙虾养成日记:Hermes安装和Ollama本地模型配置 本期视频主要给大家介绍Hermes的安装和ollama本地模型的配置,通过实际的安装演示。更多往期视频内容可以到主页列表下查看(程序员寒山:CxyHanShan),欢迎大家留言关注讨论。#小龙虾养成记 #hermes #ollama #openclaw
00:00 / 05:32
连播
清屏
智能
倍速
点赞
73
AGI_Ananas
11月前
千元六卡96g显存ollama多v100显卡并行推理模型 #ollama #v100 #显卡 #定制一体机 #ai
00:00 / 02:23
连播
清屏
智能
倍速
点赞
56
程序员寒山
1年前
本地部署Qwen3小参数版本实测:并非鸡肋 实测多个本地模型 本期视频主要给大家介绍本地部署大模的相关知识,实测Qwen3 小参数模型的过程,包括与DeepSeek r1 8b和在线版本的对比。更多往期视频内容可以到主页列表下查看(程序员寒山:CxyHanShan),欢迎大家留言关注讨论。#Qwen3 #Deepseek #本地部署 #ollama
00:00 / 08:58
连播
清屏
智能
倍速
点赞
402
懂AI的引路哥
1月前
本地Qwen3.5 9B接OpenClaw #Qwen3.5 9B #OpenClaw #模型调优 #本地部署 #bug修复
00:00 / 01:30
连播
清屏
智能
倍速
点赞
49
不夜
2周前
本地4种软件部署qwen3.6-27b性能测试 ollama,llama.cpp,LMstudio,vLLM本地部署测试#ollama#llamacpp#lmstudio#AI#vLLM
00:00 / 10:27
连播
清屏
智能
倍速
点赞
147
遇见AI
11月前
ComfyUI-Ollama 这个插件很强大,安装起来略微复杂。但这点付出绝对值得,因为在ComfyUI中使用只是Ollama 的冰山一角,有了Ollama你就具备了本地部署大模型的条件,DeepSeek、Qwen 等等优秀大模型都可以成为你的私人助手:写文章、写剧本、本地数据分析、本地图片理解,再也不用担心数据泄露~#ai #ollama #DeepSeek #ComfyUI
00:00 / 01:36
连播
清屏
智能
倍速
点赞
67
AI 博士嗨嗨
1年前
人人都能玩! Qwen3最强开源模型保姆级本地部署教程 #qwen3 #ollama #本地部署 #cherrystudio #AI模型
00:00 / 08:09
连播
清屏
智能
倍速
点赞
660
酉星灵光
9月前
Ollama轻松部署大语言模型 如何本地部署大语言模型?Ollama轻松部署,只需一键安装就可以使用开源大语言模型。#干货 #ollama #本地部署 #知识分享 #人工智能
00:00 / 02:52
连播
清屏
智能
倍速
点赞
6
北方的查理曼
1年前
不联网不花钱,Ollama在旧手机上运行大语言模型!AI随身带! #人工智能 #大语言模型 #大语言模型私有化部署 #LLM #Ollama #安卓 #AI #大语言模型私有化部署 #AI时代打工人
00:00 / 02:57
连播
清屏
智能
倍速
点赞
218
AI超元域
1年前
企业级最强开源大模型Qwen3震撼发布!本地部署+客观测评 🚀企业级最强开源大模型Qwen3震撼发布!本地部署+全面客观测评!Qwen3-235B-A22B+Qwen3-32B+Qwen3-14B谁是最强王者?ollama+LM Studio+vLLM本地部署 🚀🚀🚀视频简介: ✅【本地部署+真实测评】阿里巴巴Qwen3最强模型对决:从235B混合专家到14B本地部署,全方位能力测试从JSON格式化到Python编程,从SQL查询到矩阵运算,从Ollama到LM Studio到vLLM全平台部署教程 📢 本视频详细演示了阿里巴巴最新发布的Qwen3系列模型,包括混合专家架构模型(235B/22B和30B/3B)以及32B、14B、8B、4B、1.7B、0.6B等多种参数版本。📊 ⚙️ 视频分为两大部分:首先展示了如何在不同平台部署Qwen3模型,包括Windows/macOS用户使用Ollama和LM Studio进行简易部署,以及企业用户使用vLLM在Ubuntu系统进行高性能部署的完整流程。🖥️ 🔍 第二部分进行了全面的性能测试,重点对比了235B、32B和14B三个版本在知识库截止日期、幻觉问题、规律识别、JSON格式化、代码理解、SVG生成、提示词遵循、SQL能力、农夫过河问题、文档分析以及Python编程等多个维度的表现。🧠 💡 测试结果显示,开启思考模式的14B参数模型在多项测试中表现优于不开启思考模式的32B甚至235B模型,为用户选择最适合自己需求的模型版本提供了宝贵参考。✨ #Qwen3 #Qwen #AI #ollama #AIGC
00:00 / 15:39
连播
清屏
智能
倍速
点赞
314
AIGC 蛮子
3周前
实现Token自由,本地llama cpp搭建快速本地模型 【openclaw 保姆级基础教程】实现openclaw Token自由,本地llama cpp搭建快速本地模型#龙虾 #智能体 #模型 #qwen3 #llamacpp
00:00 / 06:58
连播
清屏
智能
倍速
点赞
43
单车酒吧搞机社
1周前
Qwen3.5大模型本地部署的高性价比服务器怎么配 #Qwen#AI本地部署 #AI装机 #硬件配置 #大模型本地部署
00:00 / 06:54
连播
清屏
智能
倍速
点赞
1316
子木AI智能体
1年前
全流程演示,小白如何使用ollama部署本地大模型 使用ollama部署开源大模型到自己的电脑上#人工智能 #AI学习#本地部署 #ollama #抖音知识年终大赏
00:00 / 03:36
连播
清屏
智能
倍速
点赞
4292
博哥讲Al
1年前
最强开源模型千问3!一分钟教会本地部署! #阿里云 #通义千问 #Qwen3 #博哥讲AI
00:00 / 01:16
连播
清屏
智能
倍速
点赞
53
好好学AI
1年前
如何用ollama部署Llama3和qwen2大语言模型 #AI #LLM #大语言模型私有化部署
00:00 / 13:22
连播
清屏
智能
倍速
点赞
34
AI猿姗姗
1年前
20分钟学会qwen大模型本地部署+微调法律大模型,只需5G 20分钟学会qwen大模型本地部署+微调法律大模型(只需5G内存) #大语言模型 #qwen #通义千问 #大模型本地部署 #大模型微调
00:00 / 25:56
连播
清屏
智能
倍速
点赞
214
沪上码仔AI
2月前
#qwen3.5 #LLM #开源大模型 #mac #本地部署 在Mac book上本地部署qwen3.5大模型测试结果。使用LMStudio进行本地部署大模型。实测qwen3.5最新开源大模型。
00:00 / 02:11
连播
清屏
智能
倍速
点赞
440
攻城狮大力
1年前
#deepseek #4090 #qwen #qwq #ollama
00:00 / 00:44
连播
清屏
智能
倍速
点赞
425
郑磊
1年前
一条命令获取deepseek、qwq到底占用了多少显存/内存 仅用一条命令,就能获取 deepseek 、qwq等大模型到底占用了多少的显存或者内存。#deepseek #知识分享 #ollama #deepseek部署方法
00:00 / 01:15
连播
清屏
智能
倍速
点赞
39
不夜
2周前
vLLM本地部署性能测试 ollama,llama.cpp,LMstudio性能对比,结果让我选择放弃ollama#ollama #llamacpp#lmstudio#AI#人工智能
00:00 / 05:50
连播
清屏
智能
倍速
点赞
30
AI 博士嗨嗨
1年前
14B参数逆天!DeepCoder+Cline本地编程新王炸 #DeepCoder #AI代码生成 #本地部署 #cline #Ollama
00:00 / 10:31
连播
清屏
智能
倍速
点赞
152
橘橘橙AI
2周前
Qwen3.6-27B 实测:本地模型已经能替代前端开发? Qwen3.6-27B 本地实测:飞机大战、电商页、音乐播放器,一次生成完整前端项目。本地模型进入生产力时代。 #qwen #千问 #大模型
00:00 / 07:15
连播
清屏
智能
倍速
点赞
194
添柴Ai
3周前
QWEN3.5反推之王本地部署 !comfyui训练打标新王 QWEN3.5本地部署 杜绝破坏Comfyui环境 支持各种环境! #comfyui #教程 #模型训练 #打标 #QWEN35
00:00 / 06:37
连播
清屏
智能
倍速
点赞
2
迷糊大王
5天前
QwenPaw:从零开始安装 #齐齐哈尔工程学院 #deepseek #qwenpaw #养龙虾
00:00 / 04:21
连播
清屏
智能
倍速
点赞
20
七超AI笔记
11月前
手把手教你本地部署 Dify + Qwen3 大模型,打造专属 AI 助手!保姆级教程来了!#智能体 #大模型 #dify #本地部署
00:00 / 09:17
连播
清屏
智能
倍速
点赞
314
龙哥紫貂智能
1年前
Qwen2大模型,开源超越闭源,国内超越国外 各项指标都大幅超越了开源标杆llama3
00:00 / 00:33
连播
清屏
智能
倍速
点赞
538
找我呀AI知识助手
5天前
5090D的24G显卡,实测qwen3.6:27b,推理能力和生成速度都非常的不错,适合各企业低成本试点部署大模型 #AI知识助手 #本地部署大模型模型 #ollama #llamacpp
00:00 / 03:11
连播
清屏
智能
倍速
点赞
72
【教程👀简阶】爱学大模型的疯哥
9月前
教会你Qwen本地部署+微调领域垂直大模型 【本地部署+模型微调】25分钟教会你Qwen模型本地部署,以及微调一个垂直领域大模型!无需GPU,只需5G内存~大模型|LLM #模型微调 #AI #大模型 #通义千问 #人工智能
00:00 / 25:51
连播
清屏
智能
倍速
点赞
122
千问大模型
11月前
奶奶都能学会的Qwen部署教程来了! 无需任何计算机知识,只需要会用手机,动动手指点几下,就能轻松在手机上部署大模型,不止可以跟你文字对话,还能和你语音聊天,帮你看世界! #Qwen #通义千问 #AI #人工智能
00:00 / 01:42
连播
清屏
智能
倍速
点赞
934
碳基生物退役指南
3周前
Qwen3.6-35B-A3B:2千到3万,三档本地部署实战 这期视频,我把 Qwen 3.6 35B A3B 装进 3 台价格完全不同的设备里,实测识图、OCR、手写数学题、写作、算法题和代码生成。最让我意外的,不只是它比预期更能打,而是我那台 2500 块手搓丐版战神,居然跟这个模型异常般配。便宜设备不可怕,可怕的是本地模型这次真的能干活了。 这次让我真正改观的,是 Qwen 3.6 35B A3B 在不同任务之间,整体都没有明显掉链子。识图能看,OCR 能用,代码能写,逻辑题也能认真推,放到真实项目里,不再是那种“偶尔灵光一现”的状态了,而是已经开始成为稳定的生产力工具了。本地开源模型这次,是真的往前走了一大步。 #qwen #ai智能体 #openclaw#大语言模型 #ai
00:00 / 09:31
连播
清屏
智能
倍速
点赞
804
单车酒吧搞机社
3天前
企业AI本地部署,买机器?洗数据! #AI本地部署 #AI装机 #deepseek本地部署 #Qwen
00:00 / 05:53
连播
清屏
智能
倍速
点赞
1050
㤅
4天前
#本地大模型 #qwen #ai #本地部署 #3080显卡
00:00 / 05:36
连播
清屏
智能
倍速
点赞
15
Ai 学习的老章
2周前
Qwopus3.6-27B 本地部署,24G 显卡轻松跑 Qwen 加 Opus,缝合怪又来了,这次是 27B 本地版。大家好,我是AI学习的老章。今天聊一个有意思的开源模型,Qwopus3.6-27B-v1-preview,作者 Jackrong。光看名字你就懂了,Qwen 加 Opus,意思是拿 Claude Opus 的蒸馏数据,去调教 Qwen3.6-27B。底座是阿里的 Qwen3.6-27B 稠密模型,原生 262K 上下文,能扩到 1M。训练用的 Unsloth,数据是 Claude 蒸馏数据集打底,混入 GLM-5.1、Kimi-K2.5、Qwen3.5 的推理数据。最关键的一步在这,作者用一个 8B 模型当过滤器,把风格跑偏的样本剔掉,最后只留 12K 条调性统一的高质量数据。这思路特别反直觉,别人都是越多越好,他在做减法。我觉得这个项目最值得琢磨的就是这个点,吃什么长什么样,数据干净,比数据多重要得多。早期评测合作者用 16 条 prompt,单卡 5090 跑 GGUF 量化版,覆盖 Agentic 推理、前端设计、创意 Canvas 三类场景,对比的是 Qwen3.6-27B 原版。但说实话,16 条样本,作者自己都说是 early signal,谁也别当定论。GGUF 仓库已经放出来,量化档位很全,IQ4_XS 是 15.2 G,单张 24G 显卡就能跑,4090、5090、3090 都行。Q2_K 是 10.7 G,16G 显卡能塞但损失不小。直接用 llama.cpp 或者 Ollama 拉起来就行。我的看法是,值得关注,但别神化。它是 preview 版,作者自己都说在探路。但这个思路把 Claude 风格用工程手段迁移到可本地部署的 27B 模型上,加上 Apache-2.0 协议商用友好,给国产开源生态加了一个有 Claude 味儿的选择,这个角度挺难得。手上有 4090、5090 的玩家可以尝个鲜,正式版出来我再拉出来实测一波
00:00 / 02:13
连播
清屏
智能
倍速
点赞
190
AI超元域
1年前
本地部署最强OCR大模型olmOCR!支持结构化精准提取复杂 本地部署最强OCR大模型olmOCR!支持结构化精准提取复杂PDF文件内容!完美识别中英文文档、模糊扫描件与复杂表格!本地部署与实际测试全过程!医疗法律行业必备!轻松应对企业级PDF批量转换需求 🚀🚀🚀视频简介: ✅【企业必备】告别低效PDF转换,olmOCR一键提取文档内容完美保留原格式!基于Qwen2 VL 7B模型的olmOCR本地部署全流程,打造PDF提取神器,轻松应对手写笔记、学术论文与多列布局 ✅本视频详细演示了如何在本地部署olmOCR开源项目,实现从PDF文件中提取内容。主要内容包括: 1️⃣使用olmOCR官方demo测试其对英文和中文PDF文件的提取效果。结果显示,无论是英文论文还是中文技术文档,olmOCR都能很好地提取出PDF的文字、图像、表格等内容,并保持原有格式。 2️⃣在Ubuntu系统上本地部署olmOCR。首先安装conda环境和依赖包,然后克隆olmOCR项目并测试PDF提取效果。 3️⃣使用Gradio创建Web UI,方便用户通过网页上传PDF并使用olmOCR提取内容。提取结果可以显示为纯文本、HTML网页预览,并给出PDF元数据信息。 4️⃣使用不同PDF样本文件进一步测试本地部署的olmOCR提取效果。结果表明,即使是质量较差的PDF扫描件,或者以表格形式展示的PDF,olmOCR也能很好地提取并还原原始内容。 🚀🚀🚀时间戳: 00:00 - 项目介绍:olmOCR的背景与用途,解决PDF转Markdown和纯文本的需求 01:17 - 官方demo测试:展示olmOCR处理英文和中文PDF文件的实际效果和输出质量 03:42 - 本地部署准备:安装Miniconda、创建虚拟环境和必要依赖,克隆项目到本地环境 05:04 - 命令行功能测试:使用官方命令测试PDF提取功能,检查提取结果的准确性 05:50 - Gradio界面构建:创建交互式UI界面,提升用户体验,便于日常操作使用 07:03 - 多类型PDF测试:测试中文文档、模糊扫描件和复杂表格文件的提取效果 09:12 - 总结与资源获取:回顾olmOCR优势和应用场景,提供代码和资源获取方式 #olmocr #ocr #ai #aigc #大模型
00:00 / 09:27
连播
清屏
智能
倍速
点赞
203
Ai 学习的老章
3周前
Qwen3.6-35B-A3B开源了,本地部署教程
00:00 / 00:56
连播
清屏
智能
倍速
点赞
550
学大模型的-果果
11月前
【QWen3天气预报大模型部署教程】实现天气预报功能 【QWen3天气预报大模型部署教程】基于Qwen3微调,实现天气预报功能:配置、微调、部署+效果展示,带你训练自己的行业大模型!#大模型 #QWen3 #AI #通义千问 #计算机
00:00 / 24:51
连播
清屏
智能
倍速
点赞
85
AGI_Ananas
1年前
本地vllm部署Qwen3-0.6B CPU部署推理 📘 学术/工程风格 基于本地环境的 Qwen3-0.6B 语言模型部署与测试分析 Qwen3-0.6B 模型在本地的部署方法与运行性能探究#AI #qwen3 #人工智能 #本地部署 #vllm
00:00 / 06:11
连播
清屏
智能
倍速
点赞
16
ai景行小博士
3周前
Qwen3.6_35B模型部署设置全流程,冲80词元/s #热点 #本地部署 #Qwen35B #全流程 #词元
00:00 / 04:04
连播
清屏
智能
倍速
点赞
627
QwenPaw开源俱乐部
3周前
阿里“龙虾” QwenPaw 使用分享第二期 你本地模型“养龙虾”,无法联网搜索吗?开源项目SearXNG三步完成本地搜索引擎搭建#Qwen #QwenPaw #AI #开源项目 #干货分享知识
00:00 / 00:56
连播
清屏
智能
倍速
点赞
42
nxlz
1年前
qwen3 本地实测 🚀 本地运行Qwen3模型零门槛教程 📱 小白也能快速上手的AI大模型教程 🔥 无需高配置,轻松本地运行Qwen3模型 ⚙️ LM Studio客户端一键下载部署Qwen3 🌐 Cherry Studio跨平台调用,扩展应用场景 #Qwen3 #LMStudio #AI大模型 #本地部署 #技术教程
00:00 / 03:48
连播
清屏
智能
倍速
点赞
76
GitHubStore
2周前
Qwen 3.6-27B 正式开源!单卡战神降临 Qwen 3.6-27B 正式开源!单卡战神降临!单张 RTX 4090 即可跑 Q4 量化版,羊驼 Ollama 一键部署,小模型、大效果!#ai #大模型 #开源 #千问
00:00 / 00:10
连播
清屏
智能
倍速
点赞
10
AI猿姗姗
1年前
20分钟教你用GraphRAG +Qwen3 打造个人专属 AI知识库 #人工智能 #ai #Qwen #大模型 #知识库
00:00 / 26:35
连播
清屏
智能
倍速
点赞
26
单车酒吧搞机社
3周前
个人AI本地部署硬件版本新答案 #AI本地部署 #人工智能 #deepseek本地部署 #Qwen #DIY电脑
00:00 / 06:05
连播
清屏
智能
倍速
点赞
3028
单车酒吧搞机社
2周前
AI本地部署 先数据化再智能化 #AI本地部署 #人工智能 #Qwen#DIY电脑#企业AI
00:00 / 06:25
连播
清屏
智能
倍速
点赞
628
小满爱科技
1年前
教你如何让手机也能运行DeepSeek、千问和Stable #手机部署大模型 #deepseek #AI #qwen
00:00 / 02:01
连播
清屏
智能
倍速
点赞
790
刘东-长乐未央
1月前
OpenClaw 对接微信 ClawBot 文字版内容,请看课程讲义文档:https://clwy.cn/courses/openclaw #OpenClaw #ClawBot #Qwen #千问
00:00 / 01:10
连播
清屏
智能
倍速
点赞
49
搬砖最勤快
3周前
把本地部署的QWEN3.6 35ba3b接入龙虾试了下,怎么说呢。。动是可以动,就是这次的结果有点拉,等我下个视频在测测。#qwen3.6 #ai #ai本地部署 #5060ti
00:00 / 04:47
连播
清屏
智能
倍速
点赞
7
小言Ai
9月前
Qwen-Image一键启动包免费下载,人人秒变设计师! #QwenImage #ai #ai绘画 #ai整合包 #ai设计
00:00 / 02:13
连播
清屏
智能
倍速
点赞
28
GM乔丹
2年前
双4090部署qwen72b大模型 每秒150tokens
00:00 / 03:06
连播
清屏
智能
倍速
点赞
188
Igor Udot 吴一格
9月前
千问3免费api怎么用教程 openrouter 有很多模型,有些免费的例如千问,我们看看怎么用起来 #千问 #qwen #qwen3 #ai #大模型
00:00 / 02:32
连播
清屏
智能
倍速
点赞
427
小元老师
9月前
挑战16分钟搞定,Dify+Qwen3构建合同审查系统 #人工智能 #大模型 #AI大模型 #大模型学习 #大模型入门
00:00 / 16:15
连播
清屏
智能
倍速
点赞
1242
AI种草官
6天前
本地部署神器!千问 Qwen3.6-27B 免费开源 本地部署神器!千问 Qwen3.6-27B 免费开源 ##通义千问#Qwen3.6-27B#开源大模型#AI编程#开发者神器
00:00 / 00:36
连播
清屏
智能
倍速
点赞
3
AI技能研究社
3周前
Qwen3.6-35B-A3B部署指南 深度解析Qwen3.6-35B-A3B的MoE架构优势,涵盖SGLang、vLLM、Unsloth等多种部署方案及思维链参数配置技巧。#Qwen3635BA3B #MoE模型 #大模型部署 #SGLang #vLLM
00:00 / 03:11
连播
清屏
智能
倍速
点赞
344
白话Agent
1年前
千文3(Qwen3)点点鼠标一键下载部署本机测试教程, #Qwen3 #千问3
00:00 / 00:42
连播
清屏
智能
倍速
点赞
99
aiaihaozhe9527
1年前
openthinker-32B windows整合包,基于qwen2.5-32B,使用通过蒸馏DeepSeek-R1得出的数据集微调,本地部署,20G显存。#ai #ai本地部署 #ai整合包
00:00 / 02:05
连播
清屏
智能
倍速
点赞
0
AI技能教学网
3周前
Qwen3.6-35B量化方案选择 针对显存、速度与推理能力,深度对比Qwen3.6-35B的量化版、DFlash加速版及Claude Opus蒸馏版方案。#Qwen3635B #LLM优化 #vLLM #量化技术 #AI推理加速
00:00 / 04:28
连播
清屏
智能
倍速
点赞
236
zhendejialvshi
1年前
职场人必看!DeepSeek全平台不断网竟然这么简单! 满血+24小时联网,你值得拥有!#deepseek #干货分享 #职场人必看 #ai#满血deepseek
00:00 / 01:42
连播
清屏
智能
倍速
点赞
36
人类一败涂地
2周前
本地部署ai大模型+openclaw+向量数据库 #openclaw #本地ai 模型 #nvidia #qwen35 #向量数据库
00:00 / 02:54
连播
清屏
智能
倍速
点赞
2486
IT咖啡馆
1年前
Qwen2大模型保姆级部署教程,快速上手最强国产大模型 最近,被国内外网友崔更的Qwen大模型发布了V2版本。 今天我们就用一起视频,带大家看看这次的升级重点,并手把手教你如何自己部署一套Qwen2,包括本地部署和云上部署,然后你就可以自己开始使用探索了。 #大模型 #qwen2 #Ollama #人工智能 #国产大模型
00:00 / 05:47
连播
清屏
智能
倍速
点赞
2974
AI赚钱研究社
1月前
4月3日AI新闻汇总:Gemma 4开源 深度解析Gemma 4多模态能力、Qwen3.6-Plus专精路线、Claude 300k放宽及AMD本地部署新方案。#Gemma4 #Qwen36Plus #大模型 #本地部署 #AI开发者
00:00 / 02:26
连播
清屏
智能
倍速
点赞
106
简介:
您在查找“
QwenPaw如何部署ollama
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-05-12 05:17
最新推荐:
卷发筒卷久了炸了怎么办
詹姆斯2+1被取消原因
魔草巫灵命定花种怎么用雪影娃娃打
酒精加肥皂可以驱蚊吗
张凌赫无畏契约开了什么皮肤
腾讯会议改什么名比较好
少萝坐着比爱心拍照教程
鸿蒙来电和通知铃声分开设置
矢量地板是什么
故宫一套我一套是什么意思切糕
相关推荐:
传奇指挥259是什么梗
白水鉴心拼豆图纸怎么改
因为八百块我和家里断亲了小说
王嘉男什么职务
卷轴画丑了怎么办
金轮断臂片段在哪看
胖东来蕉下防晒衣
娜塔莎玩偶影响
鑫多多概念股怎么被核按钮了
晋江蓝色海湾
热门推荐:
苹果磁吸弹窗怎么设置
和平精英口音教程剪映
萌牛便民超人是什么
优篮子d100h怎么设置滚轮
king合拍ai教程
codex的vs code如何跳过登录
太阳商城租机是什么套路
豆包MG指令怎么写
pc端异环锐花是什么
blued个人发布需要审核吗