Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
gpt一会降智一会恢复什么情况
导弹VI服务器的密码是多少
qclaw怎么接本地模型
codex怎么找回线程
广电Ai叫什么
自感模式是什么意思
kinger为什么改代码
蓝桥web组怎么提交答案
蓝桥杯api是中文的吗
刷花脚本怎么重复执行
明₂₀₂₆
3月前
通过ollama部署本地大模型 一个是gpt的20b,一个是gemma的27b,在14600k+5060TI16G的物理机中,20b非常流畅,27b勉强可用。也试过千问的32b,和27b的差不多,整体感觉gemma的27b稍微好用些。 #ollama #gemma #gptoss #5060ti #本地部署大模型
00:00 / 01:32
连播
清屏
智能
倍速
点赞
24
集集集集盒🌈
3周前
Ollama一键部署本地大模型 唯一缺点就是ollama下载速度太太太慢了! #大模型 #ollama #ai大模型 #电脑知识
00:00 / 01:56
连播
清屏
智能
倍速
点赞
150
Aaa裤衩批发商
2天前
告别API限流!本地部署千问,无限生成,写代码/做副业随便用#大模型即将改变世界 #DeepSeek本地部署 #人工智能 #ai新星计划 #ollama
00:00 / 04:26
连播
清屏
智能
倍速
点赞
5
一个平静的人
8月前
ollama,本地部署大模型,deepseek本地部署。 在Mac上部署属于自己的人工智#计算机 #人工智能 #ollama #deepseek #Mac
00:00 / 02:14
连播
清屏
智能
倍速
点赞
220
玩转私有云
1天前
Ollama部署本地大模型,不产生费用,实现token自由 #ollama #token #linux #openclaw #大模型
00:00 / 09:52
连播
清屏
智能
倍速
点赞
56
AI信息差
1周前
Ollama本地部署 Gemma 4 实操指南 涵盖从硬件选择、安装配置到多模态调用及避坑指南,让你的电脑快速跑起Gemma 4。#Gemma4 #Ollama #本地大模型 #AI部署 #多模态
00:00 / 03:37
连播
清屏
智能
倍速
点赞
751
无敌龙虾
3周前
OpenClaw龙虾Ollama本地部署大模型 使用千问3来驱动龙虾来节省TOKEN费用这个想法很多人都考虑过吧#OpenClaw #ollama #本地部署 #AI #龙虾
00:00 / 01:04
连播
清屏
智能
倍速
点赞
55
秋芝2046
10月前
Ollama幼儿园级教程,玩转免费开源大模型!【小白教程】 #ollama #本地部署 #教程 #秋芝2046 #AI新星计划
00:00 / 18:46
连播
清屏
智能
倍速
点赞
NaN
掌舵者AI实验室
5天前
手把手带你使用Ollama本地部署Gemma4详细实操分享 Gemma 4 本地部署,零基础也能部署成功,本期视频知识点: 认识Gemma4&优缺点分享 本地部署环境&配置分享 Ollama本地部署大模型方法&修改部署路径方法 本地模型文字生成和图片识别测试 #ai新星计划 #gemma4 #ollama #本地部署大模型 #ai大模型
00:00 / 07:12
连播
清屏
智能
倍速
点赞
300
何止于静
1周前
Openclaw接入本地Gemma4 Openclaw 2026.4.5接入本地Ollama,使用Gemma4模型。 #openclaw #ollama #gemma4 #gemma #人工智能
00:00 / 08:02
连播
清屏
智能
倍速
点赞
1670
集集集集盒🌈
1周前
最新Gemma4大模型实测。总结,26b性价比最高,质量和速度都可以,用来做本地agent很合适。31b质量最好,但需要硬件到位。e2b和e4b甚至都可以部署在移动端,回答速度相当快。#gemma4 #本地部署 #ollama #本地大模型
00:00 / 01:29
连播
清屏
智能
倍速
点赞
354
Leon的Cyber
1周前
Gemma4在编程能力上是否可以取代云端大模型呢?简单任务还行#gemma4#claudecode#ollama
00:00 / 04:10
连播
清屏
智能
倍速
点赞
35
技术码六甲
1年前
配置ollama使用本地GPU,从此CPU不满载,对话不卡 保姆级教程配置 #人工智能 #deepseek #大模型 #ollama
00:00 / 05:06
连播
清屏
智能
倍速
点赞
409
遇见AI
3周前
ClaudeCode+Ollama本地部署 当热门流行AI工具遇上以9B参数碾压gpt-oss-120b的Qwen3.5,这绝对是极具性价比的组合。Claude 系列模型确实强大,但高额的定价对新手和普通玩家太不友好。Claudecode + Qwen3.5这套组合其实已经能满足80%的场景,完全本地运行,不产生Token费用,容错率极高,非常适合新手学习和普通玩家日常使用,AI时代已经来了,你还在等什么呢?#claude #qwen #ollama #AI工具 #AI编程
00:00 / 02:36
连播
清屏
智能
倍速
点赞
189
五里墩茶社
8月前
开源Coze基于Ollama集成本地开源大模型 Ollama是一款非常流行的开源大模型本地运行工具。本期视频分享如何在开源版本的Coze中基于Ollama,集成开源大模型,驱动AI应用。 #ai #coze #扣子 #ollama #deepseek
00:00 / 10:01
连播
清屏
智能
倍速
点赞
95
遇见AI
2周前
ClaudeCode +Llama.cpp本地部署 不是Ollama不可以,是Llama.cpp更有性价比。比Ollama推理更快的本地大模型部署方案,完美打通ClaudeCode,解放生产力~#Claude #Llama #本地部署 #AI编程
00:00 / 04:13
连播
清屏
智能
倍速
点赞
70
懂AI的引路哥
3周前
本地跑 AI 模型三款神器实测 #本地AI模型 #Ollama #LM Studio #vLLM #AI工具
00:00 / 02:26
连播
清屏
智能
倍速
点赞
3
AI 博士嗨嗨
8月前
个人电脑最强AI模型,Qwen3-30B本地部署教程! #qwen3 #本地部署 #Ollama #AI模型 #大模型
00:00 / 12:41
连播
清屏
智能
倍速
点赞
1759
飞天小喵
1周前
VSCode接Ollama真的好用?先看完这个实测速度 最近本地大模型风很大,我也跟风在 VS Code 里部署了 Ollama。本以为能实现“代码自由”,结果…… 在这个视频里,我不仅会教你如何配置,更想带你看清真实的本地 AI 现状: 保姆级配置流程:手把手教你如何在 VS Code 里快速拉起 Ollama 模型。 上下文(Context)调优秘籍:如何修改参数让模型更聪明。但注意! 调大上下文虽然能提高准确性,却会让本就不富裕的运行速度雪上加霜。 大实话实测:我会展示在我的配置下,模型生成代码的真实速度。说实话,确实有点慢。 #ai #ollama #大模型 #vscode #qwen
00:00 / 01:57
连播
清屏
智能
倍速
点赞
14
李哥说显卡-AI
1年前
ollama,vllm,sglang有什么区别?n卡测试#a10#李哥说显卡#Deepseek#vllm#sglang#ollama
00:00 / 02:53
连播
清屏
智能
倍速
点赞
415
许说AI
3周前
OpenClaw+Ollama切换本地大模型实现小龙虾自由!小龙虾本地大模型保姆级教程#加入创作者计划 #创作者中心 #创作灵感 #OpenClaw #本地大模型
00:00 / 04:48
连播
清屏
智能
倍速
点赞
96
l l l
5天前
OpenClaw 接入本地 Ollama 运行的大模型 #openclaw #Ollama #Qwen3 #飞书
00:00 / 08:49
连播
清屏
智能
倍速
点赞
12
海云前端
2周前
本地用Ollama部署大模型:免费无限使用 大模型 我的经验#前端面试
00:00 / 04:15
连播
清屏
智能
倍速
点赞
7
零壹日记
2周前
本地部署Ai大模型详细教程,小白也能轻松搞定!#Ai #大模型 #本地部署 #电脑知识 #教程
00:00 / 06:14
连播
清屏
智能
倍速
点赞
249
集集集集盒🌈
2周前
ollama本地部署大模型常见的5个问题。 如果还有其他问题可以私信,下期视频再补充 #ollama #本地部署大模型 #AI大模型 #大模型 #科技改变生活
00:00 / 01:34
连播
清屏
智能
倍速
点赞
53
根谷
1周前
OpenClaw + Gemma4全新本地模型体验来了 #OPENCLAW #Gemma4
00:00 / 03:20
连播
清屏
智能
倍速
点赞
160
柯基基基基基基基基基
1年前
解决ollama无法下载,模型下载速度慢问题成功本地部署 #ollama #本地部署 #deepseek本地部署 #deepseek电脑版
00:00 / 01:38
连播
清屏
智能
倍速
点赞
1022
沈code
9月前
本地 AI 佼佼者 Ollama,数据安全与高效全拿捏! #ai #github #ollama #神器好物 #人工智能
00:00 / 01:27
连播
清屏
智能
倍速
点赞
210
要一直开心啊
2周前
MacBook本地部署大模型,实战教学 非程序员也能玩 不需要懂任何代码就可以本地部署大模型 视频提供了两种方式部署:ollama和omlx 新人程序员博主,请关注一个 #MacBook #大模型 #本地部署 #ollama #omlx
00:00 / 03:50
连播
清屏
智能
倍速
点赞
24
大模型-小星
1周前
【保姆级】Ollama+OpenClaw 本地部署 从零到一 #ai本地部署 #Ollama #OpenClaw #本地ai #千问大模型 不用懂代码!小白也能搭建本地 AI 助手
00:00 / 12:41
连播
清屏
智能
倍速
点赞
55
工具人研究Hive
1周前
Mac跑本地大模型,之前很尴尬,现在情况变了 Brief 第二期|不是测评不是教程,讲一个真实的选型过程。 装了 Ollama 跑本地模型,小模型还行,大一点的慢得受不了。最近做 RAG 项目需要大量跑测试,重新调研了一下。 调研路径: · Ollama 默认后端 llama.cpp → 没针对 Apple Silicon 优化 · MLX 框架快 2-3 倍 → 但 mlx-lm 内存泄漏会导致整机重启 · 准备用 LM Studio → 发现 Ollama 0.19 原生集成了 MLX 实测 M4 Pro 64GB: · Prompt 处理 87 tok/s · 生成 25 tok/s · RAG 回答 10-15 秒 · 不限量,不花钱 本地模型不是替代 API,是不心疼的实验环境。 完整文档链接在视频里,logo下方,Agent访问友好 🔧 工具人研究所 #Ollama #MLX #AppleSilicon #本地大模型 #AI
00:00 / 02:30
连播
清屏
智能
倍速
点赞
172
科技老王
2天前
本地部署OpenClaw + Ollama 完全指南 本地部署OpenClaw + Ollama 完全指南 永久自由且免费使用Token
00:00 / 04:50
连播
清屏
智能
倍速
点赞
15
神烦老狗
1周前
一个视频学会部署无审查大模型 |VMLX + Ollama保姆级教程#ai新星计划#Google#qwen#gemma4#本地部署
00:00 / 07:26
连播
清屏
智能
倍速
点赞
603
懂AI的引路哥
3周前
Ollama 和 LM Studio 咋选?看完不纠结! #Ollama #LM Studio #本地大模型 #工具选择 #使用体验
00:00 / 02:18
连播
清屏
智能
倍速
点赞
18
AI踩坑指南
2周前
提速20%!本地大模型的正确打开方式 ollama、lm studio和其他任何相似的工具其背后都是llama cpp。所以我们为什么不直接运行llama cpp呢?通过剥离额外的抽象层,我们可以立马获得20%的提速! #普通人学ai #零基础学ai #实用ai工具 #本地部署大模型 #ai工具使用
00:00 / 02:35
连播
清屏
智能
倍速
点赞
171
蓉漂码农
1周前
Gemma4本地部署实测上手体验! Gemma4本地部署实测上手体验!#Gemma4 #Ollama #开源模型 #技术分享 #AI实测
00:00 / 03:09
连播
清屏
智能
倍速
点赞
137
AI赚钱研究社
1周前
Gemma 4全系开源,本地部署实操指南 深度解析Gemma 4家族四款模型架构,涵盖31B Dense、26B MoE及端侧模型,提供从Ollama到vLLM的详细本地部署方案与显存优化技巧。#Gemma4 #谷歌大模型 #大模型部署 #开源模型 #AIAgent
00:00 / 05:41
连播
清屏
智能
倍速
点赞
44
天工开帧
1周前
llama.cpp才是本地 OpenClaw 的终极形态 本地运行 256K 上下文真的会“崩”吗? 我们对 Qwen3.5、Gemma-4、Qwopus 等多款模型进行了全维度测速。 工具优势:深度解析 llama.cpp 相比 Ollama 在显存层级控制和 Flash Attention 开启上的核心优势。 OpenClaw 进阶:如何通过中间件将本地 API 映射为标准的 OpenAI 接口,实现跨设备无缝握手。#openclaw #gemma4 #本地大模型 #养虾人
00:00 / 02:41
连播
清屏
智能
倍速
点赞
482
涌现.真实
1年前
单显卡最强大模型,Gemma3 27b,本地部署测试。#Gemma3 #deepseek #大模型 #科技 #ollama
00:00 / 02:37
连播
清屏
智能
倍速
点赞
286
社长的AI日记
2周前
本地大模型如何弄?配合养小龙虾体验又如何? 本地大模型如何弄?配合养小龙虾体验又如何?#openclaw #养虾 #ai #大模型 #教学
00:00 / 04:57
连播
清屏
智能
倍速
点赞
699
阿尔狄西亚
1周前
llamacpp更适合个人玩家
00:00 / 02:57
连播
清屏
智能
倍速
点赞
7
Windows一点通
4周前
Ubuntu + OpenClaw,本地大模型对接秘诀 想拥有免费又强大的本地 AI 助手?本视频教你如何在 Ubuntu Linux 部署 OpenClaw,打通与本地大模型 Ollama 的连接,实现低成本、高效率的 AI 任务自动化!
00:00 / 08:13
连播
清屏
智能
倍速
点赞
153
全世老虾说ai
3周前
零成本极速 AI!OpenClaw + vLLM 本地部署 #AI 工具 #本地部署 #OpenClaw #vLLM #Ollama 替代 #免费 AI #大模型本地部署 #AI 教程 #程序员干货 #AI 秒级响应
00:00 / 01:24
连播
清屏
智能
倍速
点赞
2168
寒于水Cother
4天前
本地模型对比(上部分) Qwen3.5 9b vs Gemma4 31b 个人使用场景体验 #ollama #qwen #gemma4 #claude
00:00 / 36:45
连播
清屏
智能
倍速
点赞
25
老K的Ai服务站
2天前
本地部署大模型对于企业有什么用? #openclaw #Ai #本地部署大模型 #一人公司 #大模型部署
00:00 / 01:39
连播
清屏
智能
倍速
点赞
31
一品Ai说
1月前
本地跑大模型!不花1分钱Token,超简单教程#ollama
00:00 / 02:49
连播
清屏
智能
倍速
点赞
55
子木AI智能体
1年前
全流程演示,小白如何使用ollama部署本地大模型 使用ollama部署开源大模型到自己的电脑上#人工智能 #AI学习#本地部署 #ollama #抖音知识年终大赏
00:00 / 03:36
连播
清屏
智能
倍速
点赞
4293
l l l
5天前
ollama上本地模型对比测试 前天在本地安装了ollama,但拉取大模型很耗时间,今天完成了三个大模型的本地部署:#Qwen3527B #Qwen359B #Gemma431B对比了他们的运行速度硬件: #macbookpro Pro #M5pro 48G
00:00 / 05:28
连播
清屏
智能
倍速
点赞
6
月明水清深
3天前
Hermes + 本地模型 踩坑 + 实战 + 建议
00:00 / 02:04
连播
清屏
智能
倍速
点赞
66
疯狂码农
3天前
RTX4070本地部署qwen2.5-coder:14b模型 实测家用显卡RTX4070 12GB本地未量化qwen2.5-coder:14b模型体验 #本地部署模型 #qwen2.5 #ollama本地部署 #本地部署模型
00:00 / 00:55
连播
清屏
智能
倍速
点赞
2
懂AI的引路哥
2周前
本地大模型部署圈新晋黑马 Llama-Swap #Llama-Swap #本地大模型部署 #多模型管理 #开源模型适配 #模型管理工具
00:00 / 02:28
连播
清屏
智能
倍速
点赞
11
投哥不请自来
1天前
我实测了Gemma 4三档模型,4060TI也能算力自由? #ai新星计划 #gemma4 #openclaw #本地模型 #算力焦虑
00:00 / 12:57
连播
清屏
智能
倍速
点赞
369
闲田
5天前
OpenClaw最佳搭档曝光!GLM 5.1真香 #OpenClaw #AI模型测评 #GLM51 #Claude #人工智能 #科技博主 #省钱攻略 #大模型 #Ollama #效率工具
00:00 / 04:23
连播
清屏
智能
倍速
点赞
1003
洪哥选电脑
4周前
别乱下模型 3060 12G本地AI 这版最快 3060 12G 实测 本地大模型比较快比较稳的版本#电脑 #电脑小技巧 #大模型 #小龙虾
00:00 / 00:33
连播
清屏
智能
倍速
点赞
81
蕉师不上课
1年前
以防你不知道iterm2原来可以接本地AI大模型 #AI #人工智能 #效率 #ollama #本地大模型 更新了视频内容,此为第二版
00:00 / 02:48
连播
清屏
智能
倍速
点赞
7
星辰~带你高效自学AI应用
2周前
AI应用开发学习路线讲解,第三集,Ollama本地开源模型部署#AI应用开发#开源大模型#编程#学习
00:00 / 01:06
连播
清屏
智能
倍速
点赞
107
AI 博士嗨嗨
1年前
全网最简单本地部署 DeepSeek-R1教程 #derpseek #deepseek本地部署 #ollama #手把手教学 #大模型本地部署
00:00 / 14:23
连播
清屏
智能
倍速
点赞
7691
猫哥软件生意
1周前
谷歌Gemma 4本地部署|三步零成本跑AI模型🚀 谷歌最新开源模型 Gemma 4 来了! 🛠️ 三步搞定部署: 1️⃣ 安装 Ollama(Mac/Windows 一行命令) 2️⃣ ollama run gemma4:26b(自动下载) 3️⃣ 开始聊天,看到回复就成功了#Gemma4 #谷歌AI #本地部署 #Ollama #开源模型 #AI教程 #零成本 #大模型 #保姆级教程 #人工智能
00:00 / 02:52
连播
清屏
智能
倍速
点赞
302
AI踩坑指南
10月前
Ollama最新更新,新引擎支持开源多模态模型!完全本地运行 现在很多闭源模型如ChatGPT, Gemini都已经是多模态模型了。但是开源模型社区的多模态支持的并不是特别好。现在Ollama最新的0.7.0版本带来了他们的新引擎并与安生支持多模态模型。 #ai新星计划 #waytoagi #ai应用 #人工智能 #ai大模型
00:00 / 01:52
连播
清屏
智能
倍速
点赞
36
木火相助
2周前
虽然电脑配置有限,但我还是装了本地大模型,关键还能顺畅地用起来,而且智力不低。虽然暂时还没解决怎么用它来养本地龙虾,但我相信会找到办法的。#本地大模型 #openclaw #ollama #创作者扶持计划 #创作者激励计划
00:00 / 04:57
连播
清屏
智能
倍速
点赞
226
第四种黑猩猩
2周前
哪个本地部署模型适合跑agent?#人工智能 #大模型 #智能体 #本地部署
00:00 / 03:14
连播
清屏
智能
倍速
点赞
4148
马子鸽
1年前
ollama本地部署deepseek如何重新启用/卸载? 下载不了/模型下载慢,一个视频教会你 #deepseek #ollama #ollama本地部署 #deepseek怎么启用#deepseek怎么卸载
00:00 / 01:07
连播
清屏
智能
倍速
点赞
223
天工开帧
5天前
实操演示,如何在本地有限的硬件上跑尽可能强的模型。 llama.cpp 配置参数解释: --no-mmap 只影响模型加载速度,小模型不用加,大模型加更稳,不卡死。 -ngl 层数,调低可以让你跑更大模型,但影响速度。27B的IQ4模型本机测试31层最优解。 -ot 指定层数可以将FFN 超大模块,强制放回 CPU 跑,避免KV 缓存放不下,长上下文直接崩,让显存刚好压在 15.5GB 安全线 * 'chcp 65001':设置 UTF-8 编码(适合表情符号/特殊字符)。无特殊用途。 * 上下文大小('-c'):66,000。 大概比64k多一点,预留给小龙虾窗口。 * GPU 层数('-ngl'):29 层。我的16G显卡最快其实可以开到31层,但会占满显存,导致我玩不了游戏了,这里自己权衡。当然不同模型层数不一样,自己查资料一点点试。 * 将特定层卸载给CPU(“-ot”):使用正则表达式强制特定块(27-30)到CPU。这是针对16GB显存卡(RTX 5060 Ti 16G)的高度优化,以防止内存不足(OOM)。 * 线('-t'):5. 这里大概逻辑是CPU核心数减1,还是留给自己打游戏。 * 闪光注意('--flash-attn'):启用。 * 缓存 RAM('--cache-ram'):32768(32GB)。 这里不要学我,我是内存多到没地方用,实际4G足够了。 * 内存映射(“--no-mmap”):禁用(强制加载到内存)。
00:00 / 02:02
连播
清屏
智能
倍速
点赞
217
简介:
您在查找“
ollama本地模型tk用哪个好
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-04-15 05:59
最新推荐:
产地蔬菜供应
作业邦怎么养宠物
洛克王国奇丽花挂机鼠标宏使用教程
齐天新指挥梦俊是谁
和朋友玩游戏怎么拍
双马尾软头盔假发教程
中国的乐器还是中国人弹才对味
寄灵的记忆是龙神的吗
17了瘦到多少斤才显瘦
蛋被赐福后,能用棱镜球吗
相关推荐:
布谷鸟是野鸽子吗
51放假要不要补课
正能量国家红歌曲推荐
噶子剪影制作教程
桃晚安说为什么不追我了
你拉完了吗土豆大大怪
美甲紫外线有热量吗
奇奇后怎么打电咩咩
产地蔬菜供应
寄灵的记忆是龙神的吗
热门推荐:
你一个人续火花能续上吗
原野空间关键词可以用吗
gemma4怎么本地部署苹果
淘宝超级88户外怎么进去
火车滑落转场教程
剪映自然饱和度在哪里找到
源流之子自定义海报文件夹在哪
倾听者怎么不升级
YY频道子频道渐变教程
红魔散热器8pro拆解