00:00 / 01:44
连播
清屏
智能
倍速
点赞4693
地表最强AI助手刷屏硅谷🔥打工人效率神器,让AI替你上班! Openclaw(Clawdbot)使用指南来啦~ 【硬核优势】 ① 主动接管工作,跑通工作流 ② 沟通方便(VX、飞shu、苹果手表都能沟通) ③ 自动调用电脑里的各种软件 ④ 无线记忆(能记住你说的每句话) 【安装方法】 主流的三种配置方法 ① 用Mac Mini来运行 ② 用旧电脑来运行 ③ 用VPS来运行 安装三部曲 ① 官方复制Openclaw代码 ② 在电脑终端运行代码,即可安装成功 ③ 选择模型(性能首选Claude,性价比首选Mini Max) ④ 提升内存小技巧(详见视频里的提示词) 【七大热门玩法】 ① 24小时上班的程序员:你睡觉了,它还可以通宵干活 ② 晨间简报:每日工作计划、昨晚工作进度汇报、今日热点汇总…… ③ 管理客户信息:回信息、回邮件、搭建客户管理系统…… ④ 智能管家:订餐订票、管理智能家居…… ⑤ 工作助理:每天定时检查你的待办清单,并主动帮你分担; ⑥ 趋势追踪器:自动搜集热点信息,分析趋势; ⑦ 短视频工作流:有博主分享一天能跑550条视频。 【风险规避】 想要丝滑使用,必须提供电脑的各类权限,所以存在一定的风险。 风险规避小妙招: ① 不要用日常办公电脑来运行Openclaw; ② 安装docker,再运行Openclaw; ③ 涉及敏感信息的操作,最好还是自己人工处理。 #AI #AI助手 #职场 #AI教程 #clawdbot
00:00 / 05:06
连播
清屏
智能
倍速
点赞2995
00:00 / 32:26
连播
清屏
智能
倍速
点赞106
00:00 / 07:31
连播
清屏
智能
倍速
点赞180
00:00 / 03:35
连播
清屏
智能
倍速
点赞443
从零部署OpenClaw:Docker + Ollama 大家好,我是 五九二五。 本期视频将带你 从零开始,完整跑通近期爆火的 OpenClaw(龙虾)项目本地部署流程,并重点讲清楚 OpenClaw 如何与 Ollama(羊驼)在本地打通通信,最终实现: - CLI 可用 - Web UI 可用 - 本地模型推理稳定运行 - 整套流程一次跑通、不踩坑 本视频不讲概念,全部是可复现的工程实操。 📌 本期内容结构 整个流程分为四个部分: 1️⃣ 工具准备(Docker / Docker Compose / Git 环境检查) 2️⃣ OpenClaw 本地部署完整流程 3️⃣ 常见报错与排错思路(1008 错误详解) 4️⃣ 安全与配置要点(Gateway Token / 设备配对) 🔧 你将学到什么? 如何正确克隆并部署 OpenClaw 项目 Docker 构建阶段为何会卡住,以及 如何通过优化 Dockerfile 显著提升构建速度 Gateway Token 的作用机制,以及 Token 不一致导致的常见报错 disconnected 1008 unauthorized / pairing required 的完整解决方法 如何在 Gateway 容器内完成设备配对 如何配置本地 Ollama 模型,并让 OpenClaw 正常调用 CLI 与 Dashboard 都可用的本地推理完整闭环 🤖 模型说明 本期演示使用的本地模型包括: - glm-4.7-flash - gpt-oss 实测中 gpt-oss 响应速度更快,因此作为演示模型使用。 你可以根据自己机器性能选择合适的模型,配置方式完全一致。 ⚠️ 特别说明 Docker 构建过程中出现耗时较长属于正常现象 视频中会解释 为什么全量 chown 会拖慢构建速度,以及如何从工程层面优化 所有 Token 配置位置必须保持一致,否则 Dashboard 将无法正常连接 如果你也在尝试 本地大模型 + Agent / 工具系统, 或者希望把 AI 项目 真正跑在自己电脑上,而不是只停留在 Demo 阶段, 这期视频一定要看完。 后续我会继续拆解 OpenClaw 的 JSON 配置、Skills 机制和更进阶的本地玩法。 我们下期见。 #openclaw #量化交易 #股票
00:00 / 05:08
连播
清屏
智能
倍速
点赞50
00:00 / 25:18
连播
清屏
智能
倍速
点赞164
00:00 / 08:20
连播
清屏
智能
倍速
点赞32
OpenClaw本地部署教程✅ 对接Deepseek+飞书 #OpenClaw部署 #Deepseek应用 #飞书机器人对接 #本地AI助理 #编程教程 一、部署前置准备(关键前提,缺一不可) 部署OpenClaw需提前准备2项核心内容,确保后续流程顺畅,小白可直接参照操作: 1. 安装Node环境:用于运行后端服务,版本需在22以上。小白推荐直接下载官网安装程序,一步完成安装;有开发经验者可使用NVM(包管理工具),方便切换多个Node版本,适配不同开发需求。若下载失败,可添加host IP,或直接下载文档中提供的执行文件,用bash命令运行安装。安装后用“node -v”查看版本,确认安装成功。 2. 获取Deepseek API Key:登录Deepseek开放平台,创建并保存专属API Key(命名建议为OpenClaw API Key)。国内虽可选择Minimax模型,但使用成本较高,新手推荐Deepseek,仅需充值10元即可完成全程测试。 二、OpenClaw核心部署步骤(实操重点,分步落地) 核心流程:一键安装 → 初始化配置 → 模型配置 → 网关重启 → WebUI测试,全程可参照官方脚本和文档,难度适中: 1. 一键安装服务:复制OpenClaw官方一键安装脚本,打开本机shell运行,脚本会自动完成环境配置和服务启动,安装速度较快(已提前安装可忽略)。 2. 初始化配置:运行“OpenClaw onboard OpenClaw demo”命令,按照提示完成隐私协议确认、快速启动、scope配置,模型选择Deepseek(暂时跳过聊天工具和skill配置,飞书对接后置处理),网关选择重启。 3. 修正模型配置(关键步骤):初始化后若WebUI对话无响应,需打开当前目录下的Openconf配置文件,在agent模块下添加Deepseek模型及对应的API Key,确保默认模型设为Deepseek,保存配置。 4. 重启网关+测试:运行“OpenClaw Gateway restart”重启网关服务,刷新WebUI页面,发送“你是谁”等简单指令,若模型正常回复,说明核心部署完成。 三、飞书机器人对接流程(实现聊天工具操控AI助理) 对接飞书需完成“飞书开放平台配置 → OpenClaw渠道添加 → 配对测试”三步,
00:00 / 02:06
连播
清屏
智能
倍速
点赞25