00:00 / 01:06
连播
清屏
智能
倍速
点赞14
00:00 / 01:44
连播
清屏
智能
倍速
点赞4277
00:00 / 00:18
连播
清屏
智能
倍速
点赞7
从零部署OpenClaw:Docker + Ollama 大家好,我是 五九二五。 本期视频将带你 从零开始,完整跑通近期爆火的 OpenClaw(龙虾)项目本地部署流程,并重点讲清楚 OpenClaw 如何与 Ollama(羊驼)在本地打通通信,最终实现: - CLI 可用 - Web UI 可用 - 本地模型推理稳定运行 - 整套流程一次跑通、不踩坑 本视频不讲概念,全部是可复现的工程实操。 📌 本期内容结构 整个流程分为四个部分: 1️⃣ 工具准备(Docker / Docker Compose / Git 环境检查) 2️⃣ OpenClaw 本地部署完整流程 3️⃣ 常见报错与排错思路(1008 错误详解) 4️⃣ 安全与配置要点(Gateway Token / 设备配对) 🔧 你将学到什么? 如何正确克隆并部署 OpenClaw 项目 Docker 构建阶段为何会卡住,以及 如何通过优化 Dockerfile 显著提升构建速度 Gateway Token 的作用机制,以及 Token 不一致导致的常见报错 disconnected 1008 unauthorized / pairing required 的完整解决方法 如何在 Gateway 容器内完成设备配对 如何配置本地 Ollama 模型,并让 OpenClaw 正常调用 CLI 与 Dashboard 都可用的本地推理完整闭环 🤖 模型说明 本期演示使用的本地模型包括: - glm-4.7-flash - gpt-oss 实测中 gpt-oss 响应速度更快,因此作为演示模型使用。 你可以根据自己机器性能选择合适的模型,配置方式完全一致。 ⚠️ 特别说明 Docker 构建过程中出现耗时较长属于正常现象 视频中会解释 为什么全量 chown 会拖慢构建速度,以及如何从工程层面优化 所有 Token 配置位置必须保持一致,否则 Dashboard 将无法正常连接 如果你也在尝试 本地大模型 + Agent / 工具系统, 或者希望把 AI 项目 真正跑在自己电脑上,而不是只停留在 Demo 阶段, 这期视频一定要看完。 后续我会继续拆解 OpenClaw 的 JSON 配置、Skills 机制和更进阶的本地玩法。 我们下期见。 #openclaw #量化交易 #股票
00:00 / 05:08
连播
清屏
智能
倍速
点赞49
00:00 / 05:05
连播
清屏
智能
倍速
点赞16
00:00 / 02:54
连播
清屏
智能
倍速
点赞26
00:00 / 00:18
连播
清屏
智能
倍速
点赞14
00:00 / 02:58
连播
清屏
智能
倍速
点赞3
00:00 / 02:36
连播
清屏
智能
倍速
点赞516
00:00 / 04:39
连播
清屏
智能
倍速
点赞3
00:00 / 00:11
连播
清屏
智能
倍速
点赞420
00:00 / 06:15
连播
清屏
智能
倍速
点赞2
00:00 / 00:32
连播
清屏
智能
倍速
点赞1075