Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
搜索
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
Ipad打开cocos 项目
openclaw提示未授权什么意思
6174原理是什么
命令提示符安装nodejs
api服务要充多少deeseek
fcl服务器怎么知道密码
godot怎么导入像素图
openclaw阿里安装
codex历史对话恢复方法
codebuddy裂变包怎么用
全能程序员阿廸
1周前
5分钟教你从安装WSL到调用openclaw执行任务 本文大纲分为5步,安装ollama / 安装nodejs / 安装openclaw / 运行openclaw 视频使用了云端模型kimi-k2.5:cloud作为演示,如果是使用本地模型则不需要ollama登录 视频也考虑到了国内源的问题,可以确保全程无卡顿 使用了ollama的另一个原因是,可以选择使用本地模型,从而达到完全的本地化 有安装问题可以私我 #openclaw #小龙虾话题 #小龙虾安装话题#openclaw安装 #openclaw本地安装
00:00 / 04:55
连播
清屏
智能
倍速
点赞
3
千问大模型
8月前
这可能是全网坠简单的部署大模型教程... 💡 通义千问大模型 🤖 部署复杂?不存在的! Qwen找来好朋友Ollama,一句话搞定部署,告别繁琐安装。文本,图片都支持! #AI教程 #AI大模型 #通义千问 #Qwen #Ollama
00:00 / 03:07
连播
清屏
智能
倍速
点赞
295
超级龙卷风
9月前
搭建Dify+Ollama+Deepseek工作流MI50 既然已经在windows下部署了ollama+Deepseek的本地模型,那么当然也要进阶一下了。 来搭建自己的Dify工作流,智能体和知识库。 附送MI50的功耗限制方法: win和Ubuntu都有。不用再担心MI50过热的问题了。 我已做好图文版和文字版笔记,大家可以关注我并私信说明要领取的内容 #Dify #Deepseek #工作流 #智能体 #MI50
00:00 / 05:24
连播
清屏
智能
倍速
点赞
25
技术爬爬虾
1年前
超详细的WSL教程:Windows上的Linux子系统
00:00 / 14:36
连播
清屏
智能
倍速
点赞
9008
厂仔的假面具
3天前
Window11使用ollama本地部署Openclaw #openclaw #ollama #小龙虾 #安装
00:00 / 00:37
连播
清屏
智能
倍速
点赞
23
喵叔实验室
1年前
deepseek本地部署总结(二) ollama运行模型,退出命令,卸载模型命令 #deepseek #本地部署 #AI #科技 #一分钟干货教学
00:00 / 01:16
连播
清屏
智能
倍速
点赞
870
AGI_Ananas
11月前
在 Linux 系统(Ubuntu)中部署 Ollama 本期视频将系统讲解如何在 Linux 系统(Ubuntu 发行版) 下完成 Ollama 模型的本地部署流程 🧠💻。通过对环境配置、依赖安装、模型加载与测试调用等步骤的逐步演示,帮助用户构建稳定高效的本地大语言模型运行平台。该教程适用于科研工作者、开发者及对本地 AI 推理有实践需求的技术人员。 🔧 教学内容覆盖: Linux(Ubuntu)系统环境准备 🐧 Ollama 安装与配置流程 🛠️ 本地模型加载与运行测试 📦 常见错误处理与调试技巧 🔍 📚 关键词:Linux、Ubuntu、Ollama、本地部署、语言模型、AI推理 🎯 适用人群:人工智能开发者、科研人员、AI 应用探索者 🌐 教学目的:掌握 Ollama 在 Linux 系统下的部署能力,为本地模型调用奠定基础 #人工智能 #科技 #大模型 #本地部署 #linux
00:00 / 01:16
连播
清屏
智能
倍速
点赞
78
Windows一点通
6天前
Ollama本地+云端部署全流程 这期教你安装 Ollama,无需付费、数据更安全,支持本地与免费云端两种大模型方案,新手也能轻松搭建AI大脑。 #ollama
00:00 / 06:31
连播
清屏
智能
倍速
点赞
28
三土学AI
1年前
私有化部署大模型,手把手教你如何在家操作 #ollama #大模型 #教程 #人工智能
00:00 / 01:28
连播
清屏
智能
倍速
点赞
1458
牛逼啊 V
7月前
#AI #办公技巧 本地AI迎来“App Store”时刻!本期视频将深度解析Ollama首款桌面客户端如何改变游戏规则。我们将为你展示其直观的图形化界面、强大的多模态(图片/PDF)处理能力,以及它如何彻底告别复杂的命令行,让每个人都能轻松在自己电脑上运行大模型。这不仅关乎隐私安全,更预示着本地AI大众化浪潮的到来。
00:00 / 01:21
连播
清屏
智能
倍速
点赞
36
鹏哥的AI
1年前
揭秘Deepseek各参数版本占用多少资源 #deepseek #本地部署deepseek #本地部署大模型 #ollama #苹果电脑
00:00 / 08:18
连播
清屏
智能
倍速
点赞
4148
小北爱滑雪
1年前
无限免费使用的本地ChatGPT? 本地部署Ollama+OpenWebUI #ChatGPT #Ollama #OpenWebUI
00:00 / 03:35
连播
清屏
智能
倍速
点赞
96
Windows一点通
3天前
Ubuntu + OpenClaw,本地大模型对接秘诀 想拥有免费又强大的本地 AI 助手?本视频教你如何在 Ubuntu Linux 部署 OpenClaw,打通与本地大模型 Ollama 的连接,实现低成本、高效率的 AI 任务自动化!
00:00 / 08:13
连播
清屏
智能
倍速
点赞
41
AI踩坑指南
8月前
LM Studio+MCP服务器,让你的私人AI大模型更聪明 我个人是非常推荐使用LM Studio来本地部署AI大模型的。原因很简单,比起Ollama的命令行,LM Studio拥有更加易于操作的图形界面,所有配置操作都很直觉化,更加适合普通人。现在LM Studio加入了MCP的支持,更加是如虎添翼了。 #waytoagi #ai新星计划 #ai科普 #ai工具 #mcp
00:00 / 01:44
连播
清屏
智能
倍速
点赞
118
DayDayUp每天向上
3年前
Windows10/11上安装图形用户界面(GUI)并在WSL2运行 Ubuntu 22.04
00:00 / 06:08
连播
清屏
智能
倍速
点赞
609
张泽3.0
1年前
安装部署私有化大模型,并为其投喂数据 #ai大模型 #私有化大模型 #ollama #模型部署 #大模型
00:00 / 02:43
连播
清屏
智能
倍速
点赞
7130
遇见AI
9月前
ComfyUI-Ollama 这个插件很强大,安装起来略微复杂。但这点付出绝对值得,因为在ComfyUI中使用只是Ollama 的冰山一角,有了Ollama你就具备了本地部署大模型的条件,DeepSeek、Qwen 等等优秀大模型都可以成为你的私人助手:写文章、写剧本、本地数据分析、本地图片理解,再也不用担心数据泄露~#ai #ollama #DeepSeek #ComfyUI
00:00 / 01:36
连播
清屏
智能
倍速
点赞
65
杨大哥
7月前
Ollama 发布图形客户端,让大模型交互更便捷 在人工智能领域,Ollama 一直以其开源、高效的大语言模型运行能力而备受关注。近日,Ollama 的开发者们又为广大用户带来了一个好消息 —— 发布了图形客户端,这一举措极大地降低了用户与大模型交互的门槛,让操作变得更加直观和便捷。 此前,Ollama 的核心功能主要通过命令行来实现。用户需要熟练掌握一系列命令,如使用 “ollama list” 查看已安装模型,用 “ollama pull/push” 进行模型拉取与推送等。对于有一定技术基础的开发者而言,命令行操作虽然高效,但对于普通用户或者刚接触大模型的新手来说,复杂的命令行语法无疑是一道难以跨越的门槛,这在一定程度上限制了 Ollama 的普及和应用范围。 此次发布的图形客户端,彻底改变了这一局面。以 Ollama Desktop 为例,作为基于 Ollama 引擎的桌面应用解决方案,它为运行和管理 Ollama 模型提供了可视化的管理界面。用户无需再记忆繁琐的命令行语法,通过简单的鼠标点击和图形化操作,就能轻松完成模型的管理任务。在模型获取方面,用户可以直接在客户端中查询 Ollama 支持的众多模型,并通过界面一键下载,及时获取最新模型用于实验和应用。 在与模型交互方面,Ollama 图形客户端同样表现出色。以其提供的可视化聊天界面为例,设计简洁明了,用户可以在这里与模型进行流畅对话。并且,该界面还支持用户自定义会话模型、历史轮次、温度、惩罚等常用配置。用户可以根据自己的需求和使用场景,灵活调整这些参数,以获得最符合期望的回答,满足了不同用户的个性化需求。 与其他支持 Ollama 的可视化工具相比,Ollama 图形客户端在部署方面具有显著优势。例如 Ollama Desktop 提供了单一程序,用户无需进行复杂的安装过程,真正实现了开箱即用。用户下载并打开程序后,即可快速开始使用 Ollama 的强大功能,大大节省了时间和精力
00:00 / 01:05
连播
清屏
智能
倍速
点赞
74
zxdorro
1年前
手机可以直接跑最新的Qwen2.5大模型了? 🚀 手机可以直接跑最新的Qwen2.5大模型?最简单的三种使用方法一个APP搞定。 ✨ 手机使用Maid离线运行本地大模型、调用OpenApi、调用Ollama,以及软件操作和角色卡使用演示教程。 🔗 本次教程用到的文件 https://pan.baidu.com/s/18no-YxHo1ekTSZr9l0wdbQ?pwd=ZXCV 🎉希望这篇教程帮助到了你,想了解更多AI知识 👍 还请关注博主,点赞收藏哦 #人工智能 #ai #通义千问 #ollama #大模型
00:00 / 11:49
连播
清屏
智能
倍速
点赞
458
大语言模型
1年前
Ollama+Qwen:手把手教你10分钟完成大模型本地部署 Ollama+Qwen大模型部署:保姆级大模型部署教程,手把手教你10分钟完成大模型本地部署 #大模型 #AI #大模型部署#本地化部署 #程序员
00:00 / 11:51
连播
清屏
智能
倍速
点赞
1070
炮老师的小课堂
1年前
告别后台运行 配合flux让你想象力起飞 发现个新节点,可以完美运行ollama模型,并且是优化过的,告别ollama后台运行和本地部署繁琐步骤,需要小伙伴们可以体验一下~ 私我领 #comfyui工作流 #ai绘画
00:00 / 05:06
连播
清屏
智能
倍速
点赞
35
喵叔实验室
1年前
deepseek本地部署总结(一) ollama安装,模型下载,模型存储路径修改 #deepseek #本地部署 #AI #科技
00:00 / 02:11
连播
清屏
智能
倍速
点赞
578
AI大模型入门教程
8月前
Ollama部署本地DeepSeek #AI大模型 #后端开发 #程序员 #编程 #大模型
00:00 / 21:14
连播
清屏
智能
倍速
点赞
76
龙丽坤
1年前
远程运行 Ollama 本地 AI 模型,局域网用户共享使用 想让你的手机、平板或其他电脑访问本地运行的 Ollama AI 模型?本视频手把手教你 如何在局域网内共享 Ollama,让多个设备都能调用本地大模型,无需云端! #deepseek #deepseek部署 #deepseek使用 #ollama #本地大模型
00:00 / 12:00
连播
清屏
智能
倍速
点赞
614
磐石纳斯
10月前
Ollama部署本地大模型远程访问保姆级教程 Ollama部署本地大模型并通过Infortress APP远程访问。 #ollama #内网穿透 #远程访问 #nas
00:00 / 04:03
连播
清屏
智能
倍速
点赞
15
有手就会
1年前
如何在app上使用ollama,以及模型推荐
00:00 / 06:17
连播
清屏
智能
倍速
点赞
29
波波师兄
1年前
一招解决DeepSeek本地部署ollama下载速度慢的技巧 ollama 在下载DeepSeek模型的时候会越来越慢,只要你在慢的时候,通过 ctrl+ C打断下载,再重新粘贴地址再次运行就能提速。 #DeepSeek本地部署 #ollama #模型下载 #DeepSeek #提速
00:00 / 00:38
连播
清屏
智能
倍速
点赞
148
是花子呀_
1年前
5分钟学会在Windows上搭建模型训练环境#WSL#cuda#ai #科技 #教程
00:00 / 06:05
连播
清屏
智能
倍速
点赞
877
鸽子TechLife
1年前
电脑秒变Ai大脑Deepseek本地部署教程,全程高能无尿点 隐私安全+高效响应!详细演示如何用Ollama运行DeepSeek模型,搭配Page Assist实现网页端交互,支持多轮对话和知识库训练,打工人必备神器!#人工智能 #deepseek #ai工具 #ollama #deepseek本地部署
00:00 / 03:58
连播
清屏
智能
倍速
点赞
162
博弈
1年前
4张2080ti,22G显存,通过nvlink组成2组,在Ubuntu24.04系统运行ollama,显卡驱动550,cuda12.4,通过openwebui前端输出,测试模型为deepseek-r1:32b-qwen-distill-fp16,模型大小65G,设置支持15000上下文,运行时占用4卡显存68G左右,4卡温度稳定70度以下,4卡负载很低各25%左右,以上为实测数据#deepseek #ollama #2080ti
00:00 / 01:14
连播
清屏
智能
倍速
点赞
99
yeoman
3年前
windows下开启wsl,丝滑体验物理机一样的linux操作系统
00:00 / 03:00
连播
清屏
智能
倍速
点赞
136
kate人不错
1年前
详解本地运行大模型的三种实用渠道:Jan、LM Studio、Ollama #AI #LLM #大模型
00:00 / 18:44
连播
清屏
智能
倍速
点赞
71
博弈
1年前
4卡2080ti,22g显存,通过vllm运行千问QWQ32B,fp16精度,1万上下文,4张共88g显存基本跑满,gpu利用率90%以上,极限压榨显卡性能,输出25token/s,比ollama运行同款参数大模型提高3倍速度,显卡70度以上,下一步需要改水冷散热#qwq #vllm #ollama
00:00 / 00:41
连播
清屏
智能
倍速
点赞
72
讲AI的小坛
7月前
20个热门问题带你揭秘Ollama,绝对不容错过的大模型秘籍 #大模型 #ai #人工智能 #大语言模型 #LLM @抖音小助手 @DOU+小助手
00:00 / 12:34
连播
清屏
智能
倍速
点赞
270
鹏哥的AI
1年前
低配笔记本电脑本地运行开源人工智能大模型 #人工智能 #大模型部署 #chatgpt #苹果电脑 #ollama
00:00 / 07:17
连播
清屏
智能
倍速
点赞
1662
五里墩茶社
7月前
开源Coze基于Ollama集成本地开源大模型 Ollama是一款非常流行的开源大模型本地运行工具。本期视频分享如何在开源版本的Coze中基于Ollama,集成开源大模型,驱动AI应用。 #ai #coze #扣子 #ollama #deepseek
00:00 / 10:01
连播
清屏
智能
倍速
点赞
92
程序员昌老师
1年前
如何在window环境下开发及运行Linux程序,WSL2 Windows中的linux子系统,而WSL插件允许你在WSL中使用VS Code,就像你在Windows中使用一样 #程序员 #WSL2 #程序猿 #vscode
00:00 / 03:01
连播
清屏
智能
倍速
点赞
42
IT产品及方案专业供应商__田工
1年前
1331 win server2012不支持安装OLLAMA #人工智能
00:00 / 00:44
连播
清屏
智能
倍速
点赞
9
赋范课堂
1年前
性能比肩DeepSeek?手把手教你Ollama接入QWQ~ QwQ-32B强势开源!手把手实现QWQ-32B模型接入Ollama与推理流程实战~#QwQ32B #DeepSeek #人工智能 #Ollama #干货分享
00:00 / 17:02
连播
清屏
智能
倍速
点赞
62
啦啦啦的小黄瓜
11月前
万相视频LoRA训练 Wan2.1视频模型LoRA训练,全流程详细教程!#万相 #视频LoRA #lora训练 #科技 #comfyui
00:00 / 44:53
连播
清屏
智能
倍速
点赞
467
AI踩坑指南
10月前
Ollama最新更新,新引擎支持开源多模态模型!完全本地运行 现在很多闭源模型如ChatGPT, Gemini都已经是多模态模型了。但是开源模型社区的多模态支持的并不是特别好。现在Ollama最新的0.7.0版本带来了他们的新引擎并与安生支持多模态模型。 #ai新星计划 #waytoagi #ai应用 #人工智能 #ai大模型
00:00 / 01:52
连播
清屏
智能
倍速
点赞
36
小熙宝
1年前
重启电脑之后怎么重新启动Ollama里的deepseek 扩展网址:https://microsoftedge.microsoft.com/addons/detail/page-assist-a-web-ui-fo/ogkogooadflifpmmidmhjedogicnhooa#ai #电脑知识
00:00 / 03:48
连播
清屏
智能
倍速
点赞
4
Aixon聊AI
1年前
ollama告别繁琐命令行,界面操作,小白也能上手,快速部署本地大模型,搭配本地知识库。起飞#deepseek使用指南 #ollama #ollama #deepseek部署 #知识库
00:00 / 01:39
连播
清屏
智能
倍速
点赞
49
楚门AI(教程AI工具分享)
1年前
保姆级干货分享:彻底删除deepseek本地部署,卸载ollama!太卡不聪明没关系!删了它! #deepseek #本地部署 #deepseek本地部署 #ollama #干货分享
00:00 / 01:42
连播
清屏
智能
倍速
点赞
1423
起凡全栈程序员
2年前
轻薄本使用SpringAI+Ollama本地运行大模型 #SpringAI #大模型 #ChatGPT #Ollama
00:00 / 04:27
连播
清屏
智能
倍速
点赞
99
超级龙卷风
9月前
Windows下使用LMS调用MI50 32G AMD MI50显卡在windows实现LMS的大模型调用,Deepseek - 32B
00:00 / 01:18
连播
清屏
智能
倍速
点赞
31
FCK爱玩游戏
1年前
完美解决ollama下载不了以及模型下载速度慢和无法访问网页 问题!#ollama下载不了 #ollama #ollama下载 #ollama下载速度慢 #deepseekr1本地部署
00:00 / 01:12
连播
清屏
智能
倍速
点赞
352
玩游戏的鲨鲨喵
1年前
全网最简单的电脑一键下载本地部署deepseekR1模型 一键安装(Ollama+Chatbox)部署模型可修改磁盘位置,提速模型下载#deepseek #deepseekr1 #ollama #chatbox #deepseek本地部署
00:00 / 01:15
连播
清屏
智能
倍速
点赞
68
小崇99AI+
1年前
如何用简单3步,把爆火的AI大模型DeepSeek-R1,部署在你的电脑上。#deepseek#人工智能#闪光灯Ip助手#ollama#大模型部署
00:00 / 01:04
连播
清屏
智能
倍速
点赞
1586
粘锅的咸鱼
4年前
轻松开启WSL的图形界面功能 #WSL #WSL图形界面 #gnome #linux
00:00 / 02:34
连播
清屏
智能
倍速
点赞
25
AI踩坑指南
1年前
还在用Ollama?这款AI神器让你的AI更聪明! 你部署的DeepSeek是不是感觉呆呆的?因为网上大多数人都是教你用Ollama部署的,但是他们没有教你设置一些AI的重要参数,比如上下文长度、温度、提示词等。这些参数对AI的性能至关重要,今天介绍一款更加适合普通人操作的本地AI神器 LM Studio,让你的本地AI模型如DeepSeek变得更聪明! #deepseek #知识分享 #AI #人工智能 #干货知识分享
00:00 / 03:02
连播
清屏
智能
倍速
点赞
35
来真的
1年前
大语言模型安装到本地电脑运行 Ollama:完全零代码小白实现大语言模型安装到本地电脑运行,保姆级新手教程#一分钟干货教学 #人工智能 #ai #AI教程 #AI设计
00:00 / 18:07
连播
清屏
智能
倍速
点赞
1330
狠活AI科技
7月前
DeepSeek+Claude Code接入任意AI 成本暴降90%!DeepSeek/Gemini任意大模型接入Claude Code,Windows免WSL部署安装教程#claudecode #cursor #deepseek #ai编程
00:00 / 04:21
连播
清屏
智能
倍速
点赞
248
东方鹗
4年前
配置pycharm加wsl的开发环境
00:00 / 03:23
连播
清屏
智能
倍速
点赞
20
Ai阿鉴
1年前
ollama部署本地大模型
00:00 / 03:00
连播
清屏
智能
倍速
点赞
462
ai问道贪狼
1年前
windows使用linux教程。wsl子系统的安装 windows使用linux教程。wsl子系统的安装。可调用宿主机显卡支持cuda。#人工智能 #计算机 #dsspseek使用教程 #ai #视频教程
00:00 / 01:43
连播
清屏
智能
倍速
点赞
8
电玩老陈
1年前
对小白最友好的DeepSeek本地部署+知识库搭建教程! #deepseek电脑版 #人工智能 #ollama #热点 #deepseek 最适合小白的DeepSeek部署教程 手把手教学,从安装系统开始!
00:00 / 17:47
连播
清屏
智能
倍速
点赞
193
AI赋能未来
1年前
ollama的安装
00:00 / 04:34
连播
清屏
智能
倍速
点赞
638
石力派选手
1年前
##DeepSeek的下载与安装
00:00 / 01:30
连播
清屏
智能
倍速
点赞
15
AI知识帝
1年前
低显存福音,ollama的运行速度有多快?瞬间完成文本生成, #dou上热门 #ollama #gpt@DOU+小助手 @抖音小助手
00:00 / 00:16
连播
清屏
智能
倍速
点赞
7
握枪的donk
1年前
3月1日 在windows系统中安装wsl虚拟机,以及正常速度下载东西的方法。#cs #计算机 #教程 #知识分享#野生技术协会
00:00 / 05:09
连播
清屏
智能
倍速
点赞
137
ai问道贪狼
1年前
wsl下cuda的安装。ubuntu清华镜像源介绍。 wsl下cuda的安装。ubuntu清华镜像源介绍。#视频教程 #计算机 #人工智能 #deepseek教程2.0 #学习
00:00 / 02:08
连播
清屏
智能
倍速
点赞
6
良构小方
4年前
Redis快速入门1.2,安装 #redis教程
00:00 / 09:05
连播
清屏
智能
倍速
点赞
333
简介:
您在查找“
wsl 怎么运行ollama
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-03-20 05:42
最新推荐:
果郡王画里的女子是谁
元梦之星山海寻灵怎么送艾比
霄可以组什么词
母女搞笑段子哪里找
遮住嘴巴变好看男博主
我只是想要歌词
海绵宝宝:我惹你了吗
地下城80版本什么套装最厉害
飞驰人生中速天梯参加比赛叫什么
情侣小镇无限仓库怎么获得
相关推荐:
何昶希何衍朝在一起了吗
大将的军衔大还是院士的军衔大
对刚出生的外甥如何当好舅舅
沙海楼兰白发怎么获得
魔兽世界12.0炼金工具附魔叫什么
血管夹层患者可以吃醋吗
突然想起20年前追逐梦想的自己教程
果真是感受不到时间
陈洁丽演过电影吗
子阳的帝皇腰带怎么来的
热门推荐:
ole会员怎么退出
豆包怎么调成自推声音林致
巨量引擎的小龙虾怎么使用
opemclaw安装命令
如何安装使用灵筑智工ai使用
舒涵老师短剧推广课程是真的吗
怎么用豆包帮我提炼多个文件的内容
警卫室APP是牛精灵吗
拼多多二代犬靠谱吗
腾讯会员明明就两个人登录怎么是超限