Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
STM32F103ZET6开发板
1n4001有插件吗
OpenClaw4.2如何添加agnet
腾讯云部署openclaw怎么备份
英伟达api可以做动漫吗?
小龙虾连接api老是断开怎么办
微信小龙虾openclaw能做什么
全自动向阳花宏设置
dmz更新究极以上品质
thun解压包是啥
AI信息差
6天前
Ollama本地部署 Gemma 4 实操指南 涵盖从硬件选择、安装配置到多模态调用及避坑指南,让你的电脑快速跑起Gemma 4。#Gemma4 #Ollama #本地大模型 #AI部署 #多模态
00:00 / 03:37
连播
清屏
智能
倍速
点赞
707
薯条不沾茄酱
4天前
外网博主用 Ollama 在macbook上测试了gemma4的四个型号,说实话......有些结果我完全没预料到。没有云。没有 API 密钥。只是你的 Mac 在做重活。Mac 配置:M3 Max,36GB 统一内存。#ollama #openai #ollama #gemma4
00:00 / 11:58
连播
清屏
智能
倍速
点赞
15
扶我起来
5天前
Gemma4+Ollama 全平台部署教程|电脑手机通用,免费商用《不吃饺子》 #ollama #gemma4 #可商用大模型 #零基础学AI #gemma4下载
00:00 / 00:34
连播
清屏
智能
倍速
点赞
15
集集集集盒🌈
4天前
最新Gemma4大模型实测。总结,26b性价比最高,质量和速度都可以,用来做本地agent很合适。31b质量最好,但需要硬件到位。e2b和e4b甚至都可以部署在移动端,回答速度相当快。#gemma4 #本地部署 #ollama #本地大模型
00:00 / 01:29
连播
清屏
智能
倍速
点赞
259
帽子agi
3天前
gemma4本地部署:爽是爽,就是等的想死
00:00 / 00:25
连播
清屏
智能
倍速
点赞
13
银色海豚
2天前
Ollama 0.20.3 更新快报 一期带你看清楚。Ollama 这周有点忙,五天推了四个版本。本期把 0.20.0 到 0.20.3 全部捋了一遍——Gemma 4 四个规格怎么选、工具调用修了啥、桌面 App 的小改动、M5 芯片的性能优化预告,0.20.4 预览版也已经出来了,感兴趣的可以提前看看有什么值得期待的。本地跑大模型的同学,这期应该能用上。#快报 #Ollama #本地大模型 #Gemma4 #更新 #AI工具 #开源AI #LLM #海豚发快报
00:00 / 03:06
连播
清屏
智能
倍速
点赞
1
博弈
1年前
4张2080ti,22G显存,通过nvlink组成2组,在Ubuntu24.04系统运行ollama,显卡驱动550,cuda12.4,通过openwebui前端输出,测试模型为deepseek-r1:32b-qwen-distill-fp16,模型大小65G,设置支持15000上下文,运行时占用4卡显存68G左右,4卡温度稳定70度以下,4卡负载很低各25%左右,以上为实测数据#deepseek #ollama #2080ti
00:00 / 01:14
连播
清屏
智能
倍速
点赞
105
一个平静的人
8月前
ollama,本地部署大模型,deepseek本地部署。 在Mac上部署属于自己的人工智#计算机 #人工智能 #ollama #deepseek #Mac
00:00 / 02:14
连播
清屏
智能
倍速
点赞
202
秋芝2046
10月前
Ollama幼儿园级教程,玩转免费开源大模型!【小白教程】 #ollama #本地部署 #教程 #秋芝2046 #AI新星计划
00:00 / 18:46
连播
清屏
智能
倍速
点赞
NaN
雷哥AI
1年前
Goose-本地ollama+MCP,好用吗? 本期视频将介绍一个开源的支持MCP的客户端程序goose. 功能与claude客户端类似. 咱们将通过对比外部模型和本地的ollama模型对比它们的使用效果. 关键点: 1.介绍了goose的安装方法 2.演示了goose的配置Openrouter claude的功能. 3.着重本地可部署最前给模型mistral small 3 -24b模型 4.演示了两种模型在本地电脑操作与编程的功能呢. #Goose #Ollama #OllamaMCP #人工智能 #知识分享
00:00 / 14:18
连播
清屏
智能
倍速
点赞
68
Kevincoooool丶
1年前
2月14日 本地部署一定要注意!还在用 ollama 本地部署 deepseek 模型吗?尤其是有公网 ip 的朋友,千万得警惕了,你的模型很可能会被任何人随意调用! 咱都知道,ollama 这个工具特别方便,能一键部署任意模型,很多人图省事就用它来部署 deepseek 模型。但你可能没想到,一旦你的网络有公网 ip,麻烦就来了!只要在 FOFA 这个网络空间测绘平台上一搜,你的信息就暴露了,别人能直接调用你电脑上的模型。这就相当于你家大门没锁,谁都能进来拿走东西。 你想想,自己辛苦部署的模型,被别人随意使用,甚至可能被恶意利用,多可怕!大家赶紧检查一下自己的设置,要是有公网 ip,务必做好防护措施,别等出了问题才后悔莫及!#ollama #deepseek 模型 #网络安全
00:00 / 01:33
连播
清屏
智能
倍速
点赞
174
大洋哥
1年前
Ollama本地部署教程 llama3.2Vision本地部署,免费使用支持图片识别的GPT语言模型,免费使用chatgpt4.0,本地无需联网使用chatgpt#chatgpt #人工智能 #图片识别
00:00 / 03:14
连播
清屏
智能
倍速
点赞
1091
五里墩茶社
8月前
开源Coze基于Ollama集成本地开源大模型 Ollama是一款非常流行的开源大模型本地运行工具。本期视频分享如何在开源版本的Coze中基于Ollama,集成开源大模型,驱动AI应用。 #ai #coze #扣子 #ollama #deepseek
00:00 / 10:01
连播
清屏
智能
倍速
点赞
94
大语言模型
11月前
AnythingLLM+Ollama超详细部署教程 #AnythingLLM #Ollama#本地化部署 #AI大模型 #程序员
00:00 / 05:59
连播
清屏
智能
倍速
点赞
31
讲AI的小坛
8月前
20个热门问题带你揭秘Ollama,绝对不容错过的大模型秘籍 #大模型 #ai #人工智能 #大语言模型 #LLM @抖音小助手 @DOU+小助手
00:00 / 12:34
连播
清屏
智能
倍速
点赞
299
龙丽坤
1年前
远程运行 Ollama 本地 AI 模型,局域网用户共享使用 想让你的手机、平板或其他电脑访问本地运行的 Ollama AI 模型?本视频手把手教你 如何在局域网内共享 Ollama,让多个设备都能调用本地大模型,无需云端! #deepseek #deepseek部署 #deepseek使用 #ollama #本地大模型
00:00 / 12:00
连播
清屏
智能
倍速
点赞
622
水哥澎湃
1年前
重制丨大模型本地部署到d盘 丨ollama、deepseek #ai #人工智能 #deepseek #内容启发搜索 #干货
00:00 / 09:53
连播
清屏
智能
倍速
点赞
3825
柯基基基基基基基基基
1年前
解决ollama无法下载,模型下载速度慢问题成功本地部署 #ollama #本地部署 #deepseek本地部署 #deepseek电脑版
00:00 / 01:38
连播
清屏
智能
倍速
点赞
1010
小闲AI
1年前
deepseek部署到Linux deepseek部署到Linux,需要解决ollama下载问题,然后手动部署 #ai #deepseek #ollama #linux
00:00 / 02:23
连播
清屏
智能
倍速
点赞
84
AI应用_陆道峰
10月前
ollama发布大版本啦,支持工具调用流式响应和推理模型 #ollama #大模型 #人工智能 #工具
00:00 / 03:04
连播
清屏
智能
倍速
点赞
74
AI大模型入门教程
9月前
Ollama部署本地DeepSeek #AI大模型 #后端开发 #程序员 #编程 #大模型
00:00 / 21:14
连播
清屏
智能
倍速
点赞
76
猿变实验室
1年前
一个视频分清楚llm、llama、ollama、rag.. 刚刚接触大模型开发的小伙伴们, 很容易被一些基础概念搞混, 本视频老六分享了大模型中的几个概念 #llm #大模型 #deepseek本地部署 #大模型开发 #python编程
00:00 / 03:55
连播
清屏
智能
倍速
点赞
63
李哥说显卡-AI
1年前
ollama,vllm,sglang有什么区别?n卡测试#a10#李哥说显卡#Deepseek#vllm#sglang#ollama
00:00 / 02:53
连播
清屏
智能
倍速
点赞
413
T锅侠
1年前
Windows 如何更改Ollama 模型存储路径 #大模型 #ollama
00:00 / 01:09
连播
清屏
智能
倍速
点赞
253
保藏家说
1年前
Ollama下载不了怎么办? #deepseek #Ollama #AI 有的网友反馈Ollama无法下载,本期视频手把手教学,给你展示如何下载Ollama,快来关注主播吧!
00:00 / 03:12
连播
清屏
智能
倍速
点赞
435
科技大陈哥
1年前
大模型部署开源工具Ollama被曝安全风险 大模型部署工具Ollama默认开放得11434端口会直接将web服务暴露在公网环境,同时提供的pull/push/delete接口将在无鉴权机制得情况下允许攻击者调用模型服务,获取模型信息甚至恶意删除模型文件等操作。#人工智能 #本地部署 #deepseek #科技 #黑客
00:00 / 00:43
连播
清屏
智能
倍速
点赞
5122
Java架构师徐庶
10月前
给力!Ollama连续更新3个版本,终于解决了这些问题! #计算机 #编程 #程序员 #大模型 #Ollama
00:00 / 05:51
连播
清屏
智能
倍速
点赞
195
通信小菜鸡
1年前
麒麟系统离线安装Ollama后实现开机后台自启Ollama 麒麟系统离线安装ollama后,每次开机都需要手动启动,并且需要保持命令终端不能关闭;通过视频中操作方法能实现开机自动后台启动 Ollama 工具 #麒麟系统 #Deepseek #ollama
00:00 / 06:13
连播
清屏
智能
倍速
点赞
37
凌风的技术工作坊
9月前
本地大模型部署框架-Ollama和VLLM的使用 本地大模型部署框架-Ollama和VLLM的使用 #ollama #vllm
00:00 / 11:00
连播
清屏
智能
倍速
点赞
19
硅基流码
9月前
AI大模型管家Ollama:本地部署教程 操作演示 #Ollama #Deepseek #大模型 #AI
00:00 / 01:03
连播
清屏
智能
倍速
点赞
31
南晓柯
1年前
10分钟本地搭建DifyDeepSeek R1知识库应用。小白也能学会的Ollama + DeepSeekR1+Dify+知识库本地应用搭建入门教程, 对网上查不到的私有化数据进行检索和提炼,突破LLM上下文长度限制,获取更准确的回答。 新的一年让我们来学习新知识吧! 希望点赞收藏支持,我会有更多动力做更好的内容呈现给大家! 视频中用到的所有link和命令贴到评论区了,大家用vx识别图中文字即可复制使用哦 #如何用deepseek #干货分享 #人工智能 #deepseek使用指南 #本地部署
00:00 / 17:40
连播
清屏
智能
倍速
点赞
173
Aixon聊AI
1年前
ollama告别繁琐命令行,界面操作,小白也能上手,快速部署本地大模型,搭配本地知识库。起飞#deepseek使用指南 #ollama #ollama #deepseek部署 #知识库
00:00 / 01:39
连播
清屏
智能
倍速
点赞
49
遇见AI
10月前
ComfyUI-Ollama 这个插件很强大,安装起来略微复杂。但这点付出绝对值得,因为在ComfyUI中使用只是Ollama 的冰山一角,有了Ollama你就具备了本地部署大模型的条件,DeepSeek、Qwen 等等优秀大模型都可以成为你的私人助手:写文章、写剧本、本地数据分析、本地图片理解,再也不用担心数据泄露~#ai #ollama #DeepSeek #ComfyUI
00:00 / 01:36
连播
清屏
智能
倍速
点赞
66
千寻AI部落
1年前
电脑变卡?一招卸载Ollama本地部署DeepSeek #Ollama #Deepseek #本地部署#人工智能
00:00 / 00:59
连播
清屏
智能
倍速
点赞
4088
马子鸽
1年前
ollama本地部署deepseek如何重新启用/卸载? 下载不了/模型下载慢,一个视频教会你 #deepseek #ollama #ollama本地部署 #deepseek怎么启用#deepseek怎么卸载
00:00 / 01:07
连播
清屏
智能
倍速
点赞
221
🐯宝宝࿐
1年前
#上热门 #deepseek本地部署 #ollama下载不了 #教你部署deepseek #3分钟学会 下载安装删除基本教程
00:00 / 01:45
连播
清屏
智能
倍速
点赞
134
晓晓搞AI工作流
1年前
C盘爆满救星!三步转移Ollama安装路径🔥 #人工智能 #deepseek部署 #ollama
00:00 / 02:14
连播
清屏
智能
倍速
点赞
257
程序员寒山
1年前
DeepSeek R1打造私有化AI助手 使用 Ollama 和 Chatbox 实现DeepSeek R1 的本地 AI 助手,包括详细的安装和配置 过程。#deepseek #ollama #chatbox #本地安装大模型
00:00 / 09:37
连播
清屏
智能
倍速
点赞
686
图灵程序员徐庶
1年前
10分钟用LlamaFactory微调模型部署ollama #程序员 #AI大模型 #LlamaFactory #deepseek #图灵Java
00:00 / 15:05
连播
清屏
智能
倍速
点赞
1156
蛮有意思
1年前
解决ollama暴露公网问题并且部署全D盘 拒绝算力偷取解决泄露风险#人工智能 #干货分享 #科技 #ai #教程分享
00:00 / 04:34
连播
清屏
智能
倍速
点赞
235
Ai搬运工
1年前
ollama和openwebui做deepseek界面展示 #如何用deepseek #deepseek界面展示 #deepseek web展示 #ollama #openwebUI
00:00 / 02:49
连播
清屏
智能
倍速
点赞
31
kate人不错
1年前
详解本地运行大模型的三种实用渠道:Jan、LM Studio、Ollama #AI #LLM #大模型
00:00 / 18:44
连播
清屏
智能
倍速
点赞
72
爱玩游戏的阿喵喵
1年前
Deepseek本地部署ollama下载慢/失败的解决方法~ deepseek本地部署需要下载ollama,下载不了或者下载速度慢的小伙伴记得用奇游搜索deepseek可以一键下载ollama安装包哦 #deepseek #deepseekv2 #ollama #deepseek服务器繁忙 #ollama下载不了
00:00 / 01:30
连播
清屏
智能
倍速
点赞
42
北京老孙聊AI
1年前
ollama网络部署deepseek安全隐患网络攻击演示 ollama网络部署大模型安全隐患-网络攻击演示#AI #ollama #deepseek #网络攻击 #端口漏洞
00:00 / 03:11
连播
清屏
智能
倍速
点赞
137
玩游戏的鲨鲨喵
1年前
Ollama下载页面打不开/模型下载缓慢解决方法 #deepseek #ollama #ai大模型 #ollama下载 #deepseekr1
00:00 / 01:08
连播
清屏
智能
倍速
点赞
590
AI知识帝
1年前
低显存福音,ollama的运行速度有多快?瞬间完成文本生成, #dou上热门 #ollama #gpt@DOU+小助手 @抖音小助手
00:00 / 00:16
连播
清屏
智能
倍速
点赞
7
微光行动派
1年前
解决Ollama下载deepseek网速慢、回退问题 #ollama下载的很慢 #deepseek告别繁琐手动操作!用简单命令自动中断重试,还能定时关机,轻松下载deepseek。
00:00 / 01:11
连播
清屏
智能
倍速
点赞
95
YZZ
1周前
Gemma 4 26B 我先替大家本地跑了一遍~ 结论先放前面:真的快! 因为是MoE A4B 架构,每次启动只会加载4B的模型,所以装之前我知道应该比较快,但装完测试没想到这么快,而且还是多模态,有点东西的。 这次视频里我主要测了 3 件事。 第一件事是响应速度。 这个不用多解释,大家看画面基本就能感受到。对本地模型来说,快不快,几乎直接决定了你后面还愿不愿意继续用。 第二件事是逻辑理解。 我拿一个经典陷阱题去试它:1+1=3 为什么成立。 这个问题测的不是算术,而是它能不能理解提问背后的语境。结果看下来,它不是那种很机械的回答方式,而是会顺着问题去找成立条件,这一点加分。 第三件事是图片识别。 着重测了它的多模态能力。现在很多模型都在讲自己支持图像,但“支持”和“真能用”之间差别很大。Gemma 4 26B 至少说明了一点:它不只是个聊天模型,图片理解这块能力是真的能打的。 先发这条,给大家看第一轮真实体验,我后面还会继续测 31B,也会接进 OpenClaw 看看工具调用和多步骤任务表现怎么样。 #gemma4 #google #本地部署 #开源模型 #OpenClaw
00:00 / 03:00
连播
清屏
智能
倍速
点赞
176
吾辈当满怀温柔与欣喜
3天前
Gemma4 31B、Gemma4 26B,qianwen3.5 27B、在M2+24G以及window4060Ti+64G都可以运行,mac用OMLX,win用Ollama…提供两个算力点,用18款MacbbokPro+16G养龙虾。作中控。Go!Go!
00:00 / 00:18
连播
清屏
智能
倍速
点赞
12
AI Oasis
3周前
大龙虾连接本地模型,你就说香不香! #openclaw #龙虾 #windows #ollama #qwen
00:00 / 07:01
连播
清屏
智能
倍速
点赞
1104
集集集集盒🌈
2周前
ollama本地部署大模型常见的5个问题。 如果还有其他问题可以私信,下期视频再补充 #ollama #本地部署大模型 #AI大模型 #大模型 #科技改变生活
00:00 / 01:34
连播
清屏
智能
倍速
点赞
41
好用斋
1周前
为什么不推荐普通NAS使用Docker版Ollama~ 运行2B本地大模型效果和CPU占用~ 好用斋官网: https://haoyongzhai.com #NAS #docker #ollama #ai #大模型
00:00 / 07:43
连播
清屏
智能
倍速
点赞
20
大模型-小星
2天前
【保姆级】Ollama+OpenClaw 本地部署 从零到一 #ai本地部署 #Ollama #OpenClaw #本地ai #千问大模型 不用懂代码!小白也能搭建本地 AI 助手
00:00 / 12:41
连播
清屏
智能
倍速
点赞
25
自由的风
1周前
#ai#deepseek本地部署 #电脑小技巧
00:00 / 00:34
连播
清屏
智能
倍速
点赞
7
飞天小喵
2天前
VSCode接Ollama真的好用?先看完这个实测速度 最近本地大模型风很大,我也跟风在 VS Code 里部署了 Ollama。本以为能实现“代码自由”,结果…… 在这个视频里,我不仅会教你如何配置,更想带你看清真实的本地 AI 现状: 保姆级配置流程:手把手教你如何在 VS Code 里快速拉起 Ollama 模型。 上下文(Context)调优秘籍:如何修改参数让模型更聪明。但注意! 调大上下文虽然能提高准确性,却会让本就不富裕的运行速度雪上加霜。 大实话实测:我会展示在我的配置下,模型生成代码的真实速度。说实话,确实有点慢。 #ai #ollama #大模型 #vscode #qwen
00:00 / 01:57
连播
清屏
智能
倍速
点赞
12
王纯迅
1周前
OpenCLaw终于在本地把qwen3.5-27b跑起来了 #openclaw #人工智能 #qwen #ollama #vLLM
00:00 / 08:12
连播
清屏
智能
倍速
点赞
162
锋芒AI
1周前
Mac 跑本地 AI,这次真提速了 Ollama 接上 MLX 后,苹果芯片上的本地 AI 不只是参数好看,首字速度、缓存复用和长提示词体验都在变快。想看不同 M 芯片实测,点赞收藏。#Ollama #MLX #AppleSilicon #本地AI #Mac
00:00 / 01:16
连播
清屏
智能
倍速
点赞
6
天工开帧
3天前
llama.cpp才是本地 OpenClaw 的终极形态 本地运行 256K 上下文真的会“崩”吗? 我们对 Qwen3.5、Gemma-4、Qwopus 等多款模型进行了全维度测速。 工具优势:深度解析 llama.cpp 相比 Ollama 在显存层级控制和 Flash Attention 开启上的核心优势。 OpenClaw 进阶:如何通过中间件将本地 API 映射为标准的 OpenAI 接口,实现跨设备无缝握手。#openclaw #gemma4 #本地大模型 #养虾人
00:00 / 02:41
连播
清屏
智能
倍速
点赞
113
外贸电商大管家
4天前
4月6日 Gemma 4 太猛了!谷歌最强开源模型,本地就能跑多模态(实测) #Gemma4 #Gemma4本地部署 #Gemma #google #AI
00:00 / 09:42
连播
清屏
智能
倍速
点赞
33
简介:
您在查找“
ollama配置gamme4
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-04-09 05:50
最新推荐:
洛克王国刷异色卡几个标
鸭吉吉直接用灵彩球抓变炫彩吗
王濛心愿便利贴含义
扑克牌不能超过21怎么样才能赢
洛克隐藏装饰怎么获得
洛克王国怎么让柴渣虫性格懒散怎么办
花鬘怨精灵里的黑巫师怎么打
火红尾异炫彩蛋咋回出其他的
翠顶夫人怎么加对方耗能
依兰亚龙可以改属性吗
相关推荐:
还有谁比我更爱看动物世界
第五人格怎么周年庆天外来客做任务
平底小白鞋女款2026新款爆款
你说西湖水偷走她的几分美霸王茶姬
抓完好友的精灵怎么退出
外卖怎么选自取
春风一吹想起谁弹钢琴
洛克王国不动挂机会怎么样
山小满炒鸡
心动小镇野蒜芥干什么用的
热门推荐:
耄耋猫在抖音怎么获取
抖音怎么读的好听
卖优思益的,会被封号吗
爱分享牵手共享吗
企业微信cli agent使用教程
takemaker聊天怎么用
手机听什么不会卡
点开weg显示报错怎么办
自定义杯贴可以外卖吗
vmware打不开逆战未来