Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +claudebot@anthropic.com)
精选
推荐
AI抖音
探索
直播
放映厅
短剧
小游戏
搜索
您是不是在找:
怎么研究一个全新的领域
openclaw怎么查是否公开
stata中stat原型是什么
opencloud通道可以选择几个
github大龙虾在哪里
openckaw对设备要求
小龙虾部署后可以编程做事情
gpt5.4模型如何重置
小龙虾ai炒股用什么模型好
如何使用大龙虾来实现整理资料
他们叫我小仙
6天前
全网首发|MacBookNeo部署OpenClaw保姆级教程 全网首发,我用刚发布的苹果新款电脑MacBookNeo,手把手带你把OpenClaw跑在本地苹果电脑上。最近全网都在养“AI龙虾”OpenClaw。但很多人卡在第一步:不会本地部署。一条视频让你也能自己养龙虾!#macbookneo #openclaw #atomclaw #本地部署 #AI新星计划
00:00 / 11:50
连播
清屏
智能
倍速
点赞
1800
神秘人类
1周前
Macminim4 本地部署 千问3.5 4b 可以跑openclaw 速度很快,非常感谢网友的帮助 大家如果想部署可以关注我,后续出教程 #openclaw #macminim4 #本地部署大模型
00:00 / 00:52
连播
清屏
智能
倍速
点赞
143
研社长智能影院
6天前
超算力:openclaw本地大模型部署,永久稳定 你跟OpenClaw说过多少不该说的话? 行业判断、合同细节、客户资料、家庭隐私——你以为在"私聊",其实全在别人服务器里躺着,训练着别人的模型。 我还帮一个做私募的朋友,在Mac Studio上跑了qwen3.5的本地大模型。 他现在每天用它干这些事: 📁 把7年的合同、账单丢进去,直接自然语言搜索,10秒找到条款原文 📧 邮件自动分类、起草回复,敏感内容一字不出局域网 📊 财务数据分析、行业判断,随便问,没有任何顾虑 🗓️ 接管日历、会议纪要,自动整理待办,全程离线 🏠 联动家里智能家居,说一句话,场景全切好 装完那天他说的第一句话是: "这才是我的AI。" 不是租来用的,不是别人看着的,是真正属于自己的AI管家 #openclaw #本地大模型
00:00 / 04:11
连播
清屏
智能
倍速
点赞
331
阿铭小程序
1周前
OpenClaw 本地模型实测:2 分钟 vs 1 秒,差距在哪?#openclaw #qwen
00:00 / 01:27
连播
清屏
智能
倍速
点赞
40
帅帅的爸爸
1周前
Ollama本地部署千问3.5:9B模型连接Openclaw 结论就是没有比较高配的显卡还是不要用本地模型了。Ollama单跑本地模型还算能用,一旦连接OpenClaw电脑就开始狂跑,还思考不过来。所以说OpenClaw烧Tokens所言非虚啊。
00:00 / 03:46
连播
清屏
智能
倍速
点赞
12
Ai老高
1周前
#openclaw 龙虾 用本地大模型推理算力最便宜能干到多少钱#ai本地部署
00:00 / 00:39
连播
清屏
智能
倍速
点赞
1164
hart玩ai
2周前
用龙虾机器真很不建议本地部署大模型,如果一定要用的话推荐使用 gpt oss 120b版本#openclaw #龙虾机器人 #clawbot #ollama
00:00 / 00:43
连播
清屏
智能
倍速
点赞
33
鸦无量
8月前
2025年AI本地部署性价比之王!双卡V100! 32G大显存,deepseek-r1:32b、qwen3:32b等模型随便跑。比同价位2080Ti 22G算力更高、显存更大!安装有些麻烦,但是值得!#ai本地部署 #v100显卡 #显卡坞 #deepseek #qwen
00:00 / 05:20
连播
清屏
智能
倍速
点赞
2235
赛文乔伊
7月前
OpenAI开源自家GPT模型,支持本地跑、可微调! #科技热点 #OpenAI开源 #AIGC #人工智能 #ChatGPT
00:00 / 00:56
连播
清屏
智能
倍速
点赞
5505
AiNative开发老方
1周前
openclaw有多耗token,不配置优化的情况下,一个新上下文都要7000token,122b模型 256g显存跑3万token都有点吃力,不过跑35b的模型,还是非常快的。#openclaw #本地大模型 #agent开发 #创作者中心 #创作灵感
00:00 / 00:20
连播
清屏
智能
倍速
点赞
144
小K师兄
4天前
最新最详细的保姆级openclaw本地部署教程 #openclaw #程序员 #电脑知识 #ai大模型 #智能体
00:00 / 07:34
连播
清屏
智能
倍速
点赞
541
理性齿轮在转动
1周前
OpenClaw token太贵?本地模型+代理才是真·省钱玩法#openclaw #ai大模型
00:00 / 01:00
连播
清屏
智能
倍速
点赞
55
易胜E68模具ERP
6天前
OpenClaw跑一些本地轻量化大模型。#Openclaw #小龙虾 #本地大模型 #AI智能体
00:00 / 00:49
连播
清屏
智能
倍速
点赞
9
极客凡
1年前
MacMini跑大模型,实现自己的ChatGPT MacMini本地跑大模型,比你想象的要简单,轻松几步实现,一分钟学会 #chatgpt #大模型 #Macmini #人工智能
00:00 / 01:00
连播
清屏
智能
倍速
点赞
160
阿雷
2周前
真正的本地(24小时)在线的AI员工openclaw,天钡N 真正的本地(24小时)在线的AI员工openclaw,天钡NEX395迷你主机本地运行大模型跑openclaw!
00:00 / 07:59
连播
清屏
智能
倍速
点赞
309
比格熊
1周前
今天用一下MINI MAX感觉比我本地做还好用 明天继续测试千问3.5 35B #AI编程 #本地大模型
00:00 / 02:28
连播
清屏
智能
倍速
点赞
158
卓_AI灵感写手
1年前
用OpenVINO Notebooks跑各种大模型、经典模型的离线部署和推理,环境搭建教程在此。只需几个简单的步骤,就可以在本地机器上跑100+个Jupyter notebooks啦。 #人工智能 #ai #本地部署 #jupyter #大模型部署
00:00 / 04:22
连播
清屏
智能
倍速
点赞
38
木木说的对呀
1年前
Mac Studio能本地跑满血版DeepSeek-R1吗? 我用了一个最常规的方法做了部署测试,内存压力太大了,但是不得不说今年512GB的内存是真猛,分布式部署肯定是可以跑,期待明年的M5 Max或者M4 Ultra提升下内存带宽吧。#Mac #苹果电脑 #deepseek
00:00 / 07:49
连播
清屏
智能
倍速
点赞
739
老陈的AI游记
1周前
本地跑AI,它非说自己是云端的? #openclaw #deepseek #ollama #glm
00:00 / 01:41
连播
清屏
智能
倍速
点赞
7
辉歌
6天前
小龙虾NAS的docker部署本地模型试玩 #openclaw #小龙虾 #ai
00:00 / 05:56
连播
清屏
智能
倍速
点赞
29
赛博小凡
7月前
OpenAI开源 模型,可商用,消费级显卡可跑! #gptoss #openai #ai新星计划 #人工智能 #科技热点
00:00 / 00:40
连播
清屏
智能
倍速
点赞
1375
Anre
1周前
在M4 Max MacBook Pro上完整跑通了纯本地OpenClaw工作流,模型qwen3.5-35b-a3b四比特量化,~100 token/s,跟在线AI差不多
00:00 / 00:10
连播
清屏
智能
倍速
点赞
1122
沪上码仔AI
2周前
#llmfit #本地部署 #大模型 一分钟检查你的电脑适合跑哪些本地大模型
00:00 / 00:56
连播
清屏
智能
倍速
点赞
524
比格熊
1周前
本地编程大模型实测 #本地大模型 #AI编程 #JAVA #continue
00:00 / 03:59
连播
清屏
智能
倍速
点赞
33
极果研究室
8月前
满血Mac Studio跑本地大模型实测:轻松拿捏!#Studio #mac #苹果电脑
00:00 / 08:54
连播
清屏
智能
倍速
点赞
179
AI十倍速
1年前
AMD锐龙AI MAX +395平板笔记本能否跑70B大模型 #AMD #锐龙 AI MAX +395 #平板 笔记本 #ROG 幻X 2025 70B #Deepseek 能不能本地安装,可以跑70B Deepseek大模型和硬件要求苛刻的FLUX.1生图大模型吗?
00:00 / 08:51
连播
清屏
智能
倍速
点赞
427
云之创 痣哥设计电脑装机
11月前
Deep Seek本地部署 畅跑32B模型配置 Deep Seek本地部署 畅跑32B模型配置#deepseek #本地部署 #配置 #配置推荐
00:00 / 01:30
连播
清屏
智能
倍速
点赞
56
郝点儿
2周前
一张 3090,真的能把 千问 3.5 35B 模型跑明白吗#本地ai #千问#ai #diy
00:00 / 01:52
连播
清屏
智能
倍速
点赞
3345
鹏哥的AI
1年前
揭秘Deepseek各参数版本占用多少资源 #deepseek #本地部署deepseek #本地部署大模型 #ollama #苹果电脑
00:00 / 08:18
连播
清屏
智能
倍速
点赞
4137
一直很直的理工男
11月前
华硕无畏Pro16锐龙版2025,有点离谱! #华硕 #华硕无畏Pro16 #华硕无畏 #轻薄本
00:00 / 02:22
连播
清屏
智能
倍速
点赞
2438
哈工老韩
5天前
简单聊聊本地部署大模型和小龙虾的平台选型和运行速度#哈工老韩 #小龙虾 #openclaw #机器人
00:00 / 03:05
连播
清屏
智能
倍速
点赞
142
第四种黑猩猩
11月前
一个视频弄懂:个人用户本地部署大模型,应该如何选电脑? #人工智能 #大模型 #本地部署 #电脑配置
00:00 / 09:00
连播
清屏
智能
倍速
点赞
2091
浮码小匠
4天前
测测你的电脑能跑什么模型 网站地址:https://www.canirun.ai/ 也可以单独查看自己感兴趣的模型需要什么样的配置 #AI #显卡在燃烧
00:00 / 00:43
连播
清屏
智能
倍速
点赞
8
Leon的Cyber
10月前
昨天在一块野火科技的鲁班猫Lubancat-3 RK3576的开发板上开始本地部署大模型,昨天做了最保守的尝试,用Ollama部署,由于Ollama无法使用板子上的6TOPS的NPU算力,所以效果在预料之中,下一步我们会部署rkllm格式的模型,充分利用其算力,端侧部署大模型有充分的利用场景,有这方面的问题和需求请联系我#人工智能#rockchip3576#端侧部署大模型
00:00 / 01:49
连播
清屏
智能
倍速
点赞
11
棒棒闲不住
7月前
OpenAl重磅开源!gpt-oss本地部署教程来啦,单卡可跑! #开源#大模型#科技 #Openai #GPT5
00:00 / 01:45
连播
清屏
智能
倍速
点赞
208
北京老孙聊AI
11月前
localAI无显卡本地化部署deepseek 无显卡老电脑也能制霸大模型!! 和天价显卡说byebye! loacalAI,cpu跑模型的神器! localAI+dify无显卡本地化部署deepseek,玩转智能体#AI #deepseek #黑科技 #无显卡 #部署
00:00 / 02:11
连播
清屏
智能
倍速
点赞
196
X先生
1年前
#deepseek#本地大模型#人工智能
00:00 / 00:30
连播
清屏
智能
倍速
点赞
301
X先生
1年前
#deepseek#本地部署#ai大模型
00:00 / 00:24
连播
清屏
智能
倍速
点赞
318
星辰
7月前
OpenAI 杀疯了!开源GPT-OSS让笔记本秒变推理怪兽 OpenAI 突然开源 GPT-OSS-120B 与 20B:120B 逼近 o4-mini,20B 手机就能跑!本期视频手把手本地部署,实测浏览器+Python 工具链、断网写小游戏、128k 长文推理#AI #openai #gpt #ollama #开源
00:00 / 01:23
连播
清屏
智能
倍速
点赞
5
艾克ai分享
1年前
本地跑大模型要多少内存? #人工智能 #科技 #AIGC #大模型 #科技启示录
00:00 / 00:28
连播
清屏
智能
倍速
点赞
896
极评测
11月前
用5090D和5080运行DeepSeek是一种什么体验? #DeepSeek #Ai #5090D #5080 #人工智能 #GPT
00:00 / 03:23
连播
清屏
智能
倍速
点赞
74
清华鑫哥讲AI智能体
10月前
千问Qwen3好评如潮!应该用哪个模型? 昨天发布的千问3在各大社区都引起阵阵好评,可以说效果超出预期,即便是小尺寸的模型也是超过了DeepseekV3模型的效果,具体哪一个模型更好,哪一个模型适合在你的电脑上跑?#千问3 #qwen3 #qwen3本地部署 #千问大模型 #本地部署
00:00 / 00:58
连播
清屏
智能
倍速
点赞
256
云之创 痣哥谈设计主机
11月前
Deep Seek本地部署畅跑32B模型配置 Deep Seek本地部署畅跑32B模型配置 #deepseek #本地部署 #配置 #电脑配置
00:00 / 01:33
连播
清屏
智能
倍速
点赞
12
哎有点意思儿
1周前
苹果没想到,Mac Mini M4歪打正着成了平民AI神机 #本地AI #DeepSeek #MacMiniM4 #AI工具 #Ollama
00:00 / 01:05
连播
清屏
智能
倍速
点赞
439
科技方法派
10月前
微星泰坦16 AI 2025评测:2025年热门游戏本? 微星泰坦16 AI 2025,泰坦系列中性价非常高的一款游戏本,新的Ultra 200HX处理器+RTX 50系显卡,各方面拉的都很足,双风扇6热管的散热方案,RTX 5080版本的核心功耗240W,RTX 5070Ti的版本也有205W,2.5K的屏幕给了240Hz的高刷,500nit的亮度,100% P3广色域,还有24区RGB键盘,以及PCIe 5.0固态硬盘插槽,甚至是给了双雷电5接口。
00:00 / 13:35
连播
清屏
智能
倍速
点赞
631
浪人TV
7月前
高玩来看!本地部署AI新玩法 M3 Ultra芯片的Mac Studio刚出来的时候,拿到机器大家都热衷于部署本地大模型,要跑通满血版DeepSeek···现在有了新玩法,把四台Mac Studio连接在一起,这回跑起来更省劲儿了~#苹果 #AI部署 #本地部署AI #MacStudio
00:00 / 03:55
连播
清屏
智能
倍速
点赞
17
倩哥钓鱼
1年前
#deepseek 都在说deepseek本地部署需要超高配,大部分博主说4060只能跑8b,5080显卡都只能跑14b蒸馏模型,32b会卡的无法用。我根据自己实际使用情况拍摄这个视频,没别的意思,够用不够用诸位自行鉴别。(仅自用,非专业人士也非从业人员,请诸位专业大神勿喷)
00:00 / 08:16
连播
清屏
智能
倍速
点赞
23
刘傲的AI实践
1年前
阿里开源了可在本地跑的视频生成模型 #有ai就有无限可能 #AI绘画 #AI视频生成
00:00 / 00:24
连播
清屏
智能
倍速
点赞
252
AI智选汇(戴普)
11月前
万元起步,即可实现科室级部署 #联想p8工作站 #deepseek #32b本地部署 #开源大模型
00:00 / 01:33
连播
清屏
智能
倍速
点赞
42
90后科技说
1年前
DeepSeek不同配置的台式机笔记本都能跑什么精度的模型 DeepSeek本地部署,不同配置的台式机笔记本都能跑什么精度的模型?#deepseek #数码科技 #电脑 #笔记本电脑
00:00 / 03:52
连播
清屏
智能
倍速
点赞
504
X先生
1年前
#deepseek#本地大模型#低成本装机 Deepseek 32b的模型已经很聪明了,很好用,对配置要求不高,自己家里主机完全可以实现
00:00 / 00:22
连播
清屏
智能
倍速
点赞
454
痣哥设计电脑装机
11月前
DeepSeek本地部署畅跑32B模型配置 DeepSeek本地部署畅跑32B模型配置#deepseek #电脑配置 #本地部署 #电脑
00:00 / 01:35
连播
清屏
智能
倍速
点赞
39
AI千野风狂
7月前
将3070 8G显卡“爆改”为16G显存,用来跑AI大模型到底值不值?本期实测多种AI任务,包括ComfyUI、DeepFaceLab等模型推理等,全面评估改造后性能、稳定性与实用价值,适合想低成本升级的用户参考。 #显卡扩容 #AI本地部署 #3070显卡评测
00:00 / 09:47
连播
清屏
智能
倍速
点赞
47
nxlz
10月前
qwen3 本地实测 🚀 本地运行Qwen3模型零门槛教程 📱 小白也能快速上手的AI大模型教程 🔥 无需高配置,轻松本地运行Qwen3模型 ⚙️ LM Studio客户端一键下载部署Qwen3 🌐 Cherry Studio跨平台调用,扩展应用场景 #Qwen3 #LMStudio #AI大模型 #本地部署 #技术教程
00:00 / 03:48
连播
清屏
智能
倍速
点赞
73
GenAI智汇
1年前
苹果M4本地加速,大模型推理快到飞起! 9B模型72Tokens/秒,比M3提速27%,1B/3B同样提速 #人工智能 #大模型 #aipc #llama3 #m4芯片 #AI #通用人工智能
00:00 / 00:11
连播
清屏
智能
倍速
点赞
245
是老白没错jack stone
7月前
intel之虎超能打! 极摩客 EVO-T1 Ultra 9 285H 迷你主机全面评测!64G内存畅跑Qwen3 coder 30B A3B大语言模型!降低本地AI门槛!
00:00 / 18:53
连播
清屏
智能
倍速
点赞
107
比格熊
6天前
Ai编程本地大模型实测 第一次完整的干了一件事!#AI编程 #MiniMAX #QWEN #千问 #大模型
00:00 / 02:35
连播
清屏
智能
倍速
点赞
367
九目🌈
5天前
AI提效,不管企业自动化还是副业 求你别省Token了! 那些天天研究本地小模型省Token的老板和副业玩家们,醒醒! OpenClaw必须喂满血模型,才能又快又好跑通商业闭环 #AI副业 #企业自动化 #OpenClaw #AI创业 #一人公司
00:00 / 01:43
连播
清屏
智能
倍速
点赞
18
热AI之路
8月前
你还不知道本地大模型的好处? 本地大模型的三点好处及所需的硬件配置#deepseek本地部署 #大模型部署 #大模型配置 #大模型 #deepseek指令
00:00 / 02:25
连播
清屏
智能
倍速
点赞
112
AI统治世界计划
1年前
炸裂!最强开源模型新王通义千问2.5 72B被我用4GB老显卡本地跑通了!#人工智能 #llm #开源
00:00 / 00:40
连播
清屏
智能
倍速
点赞
89
徐谈谈讲高效技能
1年前
如有你有独显使用LM Studio本地部署DeepSeek 如果你有独立显卡,那么使用LM Studio本地部署DeepSeek R1,跑起来吧!本期视频解答4个问题: 1.LM Studio如何下载AI模型 2.模型下载速度太慢怎么办? 3.没有独立显卡能跑DeepSeek R1模型吗?和独显差距有多大? 4.RTX4060 8G独显笔记本跑DeepSeek R1模型怎么样?#deepseek部署方法 #ai #电脑知识 答疑xtt202112
00:00 / 08:55
连播
清屏
智能
倍速
点赞
27
起凡全栈程序员
2年前
轻薄本使用SpringAI+Ollama本地运行大模型 #SpringAI #大模型 #ChatGPT #Ollama
00:00 / 04:27
连播
清屏
智能
倍速
点赞
99
ROG 玩家国度(南通圆融广场店)
1年前
一台笔记本=双4090?能流畅跑Deepseek 70B大模型的笔记本来了! #rog笔记本 #幻x2025 #二合一平板电脑 #ROG幻x2025
00:00 / 00:34
连播
清屏
智能
倍速
点赞
4
简介:
您在查找“
openclew本地跑什么模型
”短视频信息吗?
帮您找到更多更精彩的短视频内容!
最新发布时间:2026-03-15 08:08
最新推荐:
中国龙银币封装版快递单号怎么看号码
一夜未眠血压升高用吃药吗
湘潭3月份有什么考试
说话好听闺蜜笑了
小鸡跳跳乐怎么搞惩罚
高级粉丝见面会
豆包怎么在蛋仔派对角色
你睡觉的时候为什么把被子盖在上面
中女嫁印度男现状
原木骑士怎么下
相关推荐:
八斤宝宝顺产容易撕裂吗
黄河游览区索道
codm货场刷分流
方可梦5.1宝可梦右键是哪些
蹦极玩完了怎么上去
如何判断自己是不是皇上
鲁迅和羽太信子同居过吗
AMD驱动里perfcap在哪
贝森特身价多少
DNF玲珑的id无限觉醒唱片出什么
热门推荐:
飞书tavily权限设置
devastate解压完怎么导出
豆包模板使用后怎么取消
ai界龙虾是什么
三角洲微信登录授权有什么用
api售卖教程
星愿格式化在哪找
3D打印机建模2毫米够吗
可以把小龙虾封装成exe运行吗
Arcclaw怎么安装