装好这个 openclock 之后呢,我们有许多技能要配置,但是呢,我认为所有技能之中最重要的一个技能呢,应该 就是 websearch 网络搜索功能。如果你有没有这个 websearch 搜索功能的话,你这个大模型呢,只能用历史的知识来回答你的问题,这样就相当于是丢掉了一半的信息收集能力。 那如果呃要用这个 web search 的 话呢,在我们查看 open crawl 的 官网,你会发现它的默认 web search 功能呢,是由这个 brave search api 提供的。 然后我试了一下这个 brave search, 首先呢它是一个海外网站,它速度非常之慢,然后呢,它的配置呢,也非常的繁琐,呃,用了之后确实不怎么好用。 有没有可以平替的 web search 工具可用呢?我们可以在这个 qq 上搜搜一下这个搜取,你会发现排名第一的是这个 tablie web search 这个工具如何安装呢?我们点进去看一下, 它需要一个 table api key, 这个 api key 呢,我们需要到这个 table 的 官网上去获取,不然你是没法用它的设置功能的。我们先来看一下如何安装, 我们进到 open curl 的 服务器,嗯,执行一个 curl hub in store, 然后输入之前搜索到的这个 tv search 这个名字, 然后这个 cloud hub 就 会帮我们把这个 tv search 给安装好。啊,这里是因为我已经安装过了一遍了,他说已经,嗯,工具已经安装,所以呢他就不会再给我安装。如果你没有安装过的话,会看到一个呃是否 yes or no 的 安装选项。 安装完了之后呢,我们回到 opencloud 的 夜端控制台,我们会看到它的 skill, 这边 就会多出一个这个 tailview 的 这个 skill, 这样我们的啊,但我们设置功能还不能用,因为还没有 apikey, 这时候怎么办呢?我们去这个 tailview 的 官网上申请这个 apikey, 我们登录到 tv 的 官网上,然后呢在这里 api keys 这里可以添加一个新的 api, 然后你可以使用一个比如说 opencloud 的 名字, 创建之后我们可以复制它,复制它之后有什么用呢?我们又要回到 opencloud 的 控制台,在控制台呢,我们在 opencloud 的 目录下面会看到一个点 env 这个文件,就是这个文件, 我们编辑这个点 e m v 文件,把那个 token 加进去。怎么加呢?我们编辑这个点 e m v 文件,在最后面加一行 a v a p i t, 然后后面等号后面加,加上我们刚才创建出来的复制下来的那个真实的 api t, 然后我们保存下来,保存下来之后重新启动这个 git 位, 然后我们就能从我们的呃客户端上,我们就可以在我们的 opencloud chat 页面使用 tv 的 搜索功能了。
粉丝1482获赞5881

本期视频继续为大家分享 openclaw 的 使用技巧还有使用经验,并且还会为大家重点演示 openclaw 中 a 整数的高级使用方式。 通过最近这段时间高强度的使用 openclaw, 我 最大的感受就是 openclaw 可以 说是二零二六年最伟大的 ai 智能体,而且在未来几个月还会有更多基于 openclaw 二次开发的各种变体出现, 并且人人都会有自己的 openclaw, 甚至可以实现。人类只需要给 openclaw 下达指令,一切工作都会由 openclaw 自主完成。 因为最近几天所有的编程任务我都是直接向 openclaw 下达指令,然后由 openclaw 完成所有的开发工作,所以说 openclaw 堪称 aia 整合的终极形态。 好,下面为大家详显是 opencloud 的 使用经验还有使用技巧。首先我们得设置一下 opencloud 的 模型容灾机制,在这里我让 opencloud 可以 出当前模型容灾的配置代码还有文件路径, 然后这里就是 opencloud 给出的模型容灾配置文件的路径。然后我们可以详细看一下我这里是如何配置的这个模型容灾机制。首先这里是配置的核心容灾, 这里我设置的这个主模型就是 ospec 的 cloud ops 四点六模型,也就是这个模型,只要它的额度没有耗尽或者没有被限制,那么在这个主 agent 中,也就是当前对话的这个 agent 中,它默认调用的模型就是我们设置了这个 ospec cloud ops 四点六模型。 假如使用了这个模型,额度用光了,或者是出现了问题,或者是被限制了,然后就会从这个 fallbacks 列表中率先选择 open in i codex 的 gpt 五点三 codex 模型, 假设这个模型也不能用,那么就会选择谷歌 antigravity 中的 cloud ops 四点六 sync 模型,所以做了这个模型熔灾机制,哪怕我们所使用的这个主模型,它突然没有额度不能使用了,那么在 opencloud 中,它也会自动切换到 fourbacks 列表里的这些模型。 像这样的话,我们就能保证哪怕主模型出了问题,然后我们的 openclaw 也能正常地来使用,而不会因为我们设置的主模型出现额度限制,然后整个 openclaw 都不能使用的情况。 所以说我设置的这个熔灾机制,它的执行流程就是当 isopec 它的模型不能用了之后,就会自动切换到 openai 的 codex, 如果 openai 的 codex 还不能用的话,那就自动切换到谷歌的 anti gravity。 想设置这个模型融灾机制非常简单,我们只需要在这个代码文件中添加好我们作为融灾机制的其他模型就可以。而且在这里我还实现了多认证还有 token 的 轮换。在这个配置文件中,我登录了 openai 的 codex, 然后这个认证方式就是 oos, 在 这里我还登录了 osmopy 的 账号,在下面这里我还登录了两个 anti gravity 的 账号。假设在使用 anti gravity 的 情况下,比如说第一个 anti gravity 的 账号,因为额度被限制了,那么就会自动切换到第二个 anti gravity 的 账号, 像这样的话,我们就能实现 antigravity 两个账号的轮询。而且在下面这里我还为我创建了这些 agent 分 配了不同的模型,像这个创建方式与分配方式,我在上期视频也为大家演示了,比如说这个 agent, 它使用的模型就是 cloud ops 四点六模型, 然后我还创建了用于文档编写的 agent, 给它分配的模型是 antigravity 里的 cloud 三奈特四点五模型。 所以大家想自己设置的话,只需要更改这个文件,然后加入你所增加的这些模型,然后也可以直接让 open cloud 为你去新增这些容灾的这些模型。 下面再为大家讲解一下 open cloud 中它的记忆搜索的功能,在这里我直接用提示词让它将记忆搜索的配置文件路径还有配置的这些内容将它展示出来,这个文件路径就在这个位置。 然后我们看一下我是如何设置 openclaw 中它的记忆搜索的这个功能。在这个配置文件中就可以看到它会解锁 openclaw 它自带的记忆系统以及解锁 sessions。 而且这里我开启了它的实验性功能,也就是 session memory, 将它设为了 true。 在 魔性提供商这里我设置的是 gemini, 在 这里就是设置的 gemini 的 api key, 在 它的魔性 id 这里我使用的就是 gemini 的 amber 零零幺这个模型。在这里我之所以使用 gemini amber 零零幺这个模型, 而没有选择用开源的 q m d 这个项目去实现记忆解锁,主要是因为 q m d 它需要下载 g g u f 模型,还需要实现常驻后台进程,而且占用内存还有 cpu, 所以 我选择了使用 jimmy 的 安邦尼模型, 像这样的话就能实现只需要设置一个 api key 就 可以实现混合搜索,从而让 opencloud 越用越聪明。下面我们再看一下第三个技巧。第三个技巧就是用云端的 opencloud 来连接我本地的 micros 系统, 在这里并没有用到内网穿透等操作,因为我使用的是云端的 opencloud 与本地的 micros 通过 node 进行配对,也就是在本地 micros 上通过 ssh 反向隧道连接到云端的 opencloud。 然后我们可以看一下这个架构图。首先云端的 opencloud 它就相当于一个真正的 agent 和大脑,它能通过路由工具来调用其他的 agent 和 server 来实现 node 指令的分发, 它可以通过 web socket 的 指令将指令通过 node 发送给 micro s 来实现调用相机实现屏幕截图,实现执行命令等操作。在本地 micro s 上它就是使用的 ssh 反向隧道出站连接, 因为它是主动出站,所以不需要内网穿透,也不需要端口映设等这些复杂操作,而且我们只需要用命令来启动这个 node 就 可以。下面我们就可以看一下这个效果。 首先我们打开本地的终端命令行为,确保它真的是通过 node 进行配对。我们可以直接用这条命令直接将本地的 get 位彻底关掉,我们直接执行这条命令,这里就将我本地的 get 位彻底关掉了。然后下面我们只需要在命令行中来启动 node 就 行。 我这里将启动方式做成了快捷命令,我只需要输入 a g i, 然后就可以启动,我们直接启动好,这里提示正在建立 s s h 隧道,然后我们就可以回到 open cloud, 然后给他下达一个任务,让他从云端来操控我本地的 micro s 系统。 在输入框我们可以先输入一个指令,我输入的是检查本地 micro s 和你是否建立了连接,然后我们看一下它输出的状态是怎样的, 在这里它很快输出了状态,在这里就是我的 micro s 连接状态,就是在线所具备的能力,就是浏览器调用等等能力, 在这里就是 micro s 隧道正常运行,可以执行远程命令。在这里我们就可以给它下达一个任务,我输入的任务就是通过 micro s 上的 cloud code 调用浏览器发一篇 expost, 内容就是你对 opencloud 未来发展的预测。然后我们直接发送,看一下它能否通过云端调用我本地 micros 上的 cloud code, 再通过 cloud code 调用浏览器实现发布 x post, 它自动打开了我本地的 micros 上的浏览器。 好,可以看到它自动打开了 x, 并且自动输入了要发布的内容。 好,可以看到它这里发布成功,然后这里提示发布成功。这样的话我们就实现了让云端的 opencloud 通过 node 操控我们本地的 cloud code, 实现浏览器调用。 下面我们就可以输入提示词,将云端 opencll 与本地 micros 通过 note 配对的步骤写成笔记,这样的话大家就可以将笔记发给自己的 opencll, 让自己的 opencll 根据笔记来实现配对。在这里就是他给出的笔记,像这些笔记我会放在我的簿刻中,大家可以从我的簿刻去查找。 好,下面继续为大家讲解 openclaw 中 agent 的 更多使用方式。在这里我创建了四个 agent, 并且放入了四个群组,我创建了这四个 agent, 它们的作用就是一个开发团队的详情,这四个 agent 呢就相当于四大专职的 ai 成员, 其中这一个 agent 呢是负责写代码的,这个 agent 呢负责进行测试,然后这一个是负责文档维护,还有这一个是监控这些运行状态的。 我创建了这四个 agent, 他 们的运行方式跟之前视频里为大家演示的是不一样的。目前我创建了这四个 agent, 它完全是由主 agent 进行调度, 而且具备三种协助模式。第一种协助模式就是限性流水线协助模式,也就是由主 agent 作为调度中心,它作为总指挥,它会根据我们下达的任务, 将任务委托给下面的这四个 agent, 最后就会根据我们下达的开发任务产出最终的成品,包括代码、文档等内容。 它支持第二种写作模式,也就是依赖图。并行写作模式,首先可以根据任务来声明依赖关系,依赖满足之后就会并行派发多个 agent, 比如说有主 agent 进行调度,可以同时调度这个用于文档维护的 agent 呢,还有代码编辑的 agent 呢?然后再并行调用这两个 agent 呢? 最后再并行调用运行测试的,还有编辑文档的,最后给出最终的审查还有交付。像这样的话,我们就实现了一个更加灵活的 agent 的 写作工作流。然后我还实现了第三种写作模式,也就是多 agent 的 辩论, 我是受 cloud code 的 agent teams 的 启发来实现的,像这样的话,我们就可以在 open cloud 中实现让我们创建的 agent 进行多阶段的辩论, 首先我们只需要提出一个辩论的问题,然后由主 agent 进行调度,然后创建这一些控制文件,然后就进入了第一轮辩论,主 agent 呢就会派发任务给这三个 agent 呢, 然后这三个 agent 的 辩论结果再由主 agent 收集,然后再进入第二轮的辩论,再由主 agent 来生成这些任务,再委派给这三个 agent, 到这一个阶段就会进行综合决策,这些辩论内容就会汇总给主 agent 进行综合决策,最后给出最终的建议, 像这样的话我们就能真正发挥出 open class 它的多 agent 的 优势。下面我们就可以测试一下这三种协助模式中的第一种,然后我们只需要在这个主 agent 中输入提示词就可以, 我这里输入的提示词是让它使用 team task 限行模式开发一个 python 脚本功能就是抓取这个网站的前十条新闻,然后我们直接发送,看一下这个效果。 好,这里提示这个任务已经完成。当任务完成之后,我们就可以看到这四个群组里,这些 agent 分 别输出了自己所完成的这些任务。第一个阶段就是由编辑代码的 agent 还编辑代码。第二个就是由测试的 agent 进行测试,包括十一个测试全部通过,百分之九十八覆盖率。 第三阶段就是文档编辑的 agent 来编辑这个 readme 文档,包含安装,使用方式等。最后就是由这个审查 agent 进行质量评分,评分结果就是生产级的代码, 然后它帮我们实现的这个代码就保存在了这个位置,这里还给出了运行方式,像这样的话我们就实现了这个多 a 帧的场景中限性流水线的这个写作模式, 由于时间有限,剩下的这两个场景就不再为大家测试了,我已经把它做成了 skill, 然后大家只需要将这个 skill 安装到自己的 open cloud, 然后就可以在 open cloud 中使用这三种模式进行项目开发。

这可能是二零二六开年超火的 ai 工具,连续三次改名, github 上超过十万新,号称电脑里的贾维斯。 openclaw 是 一款开源自托管的个人 ai 助手,不光能聊天,还能真正接管本地设备,打通聊天平台、浏览器和各类应用,实现跨平台自动化操作。 今天这条视频教大家如何快速部署 openclo, 并把它集成到飞书里,打造一个随叫随到的 ai 员工,小白也能学会。建议先收藏。详细的文字版教程已经整理好了,视频结尾可以自取。一、 打开清亮应用服务器,并安装 openclo 镜像,进入这个界面,点击应用镜像,选择 mode 时长,这里可以根据自己的需求选择。目前有活动六十八,能用一年。点击这里, 然后点击这里,进入管理后台。二、配置 openclaw 接下来我们配置 openclaw, 打开阿里云百链,点击左侧导航栏的密钥管理单机创建 apikey, 然后回到云服务器界面,点击实力 id, 进入服务器概览页面,点击应用详情,开始配置 openclaw, 先点击这里的一键放通, 然后点击执行命令,复制粘贴阿里云百炼深层的 a p i t, 点击下一步。接下来点击执行命令就可以获取 openclaw 对 话的地址,先打开这个地址,等下还会用到。 点击执行命令,可以查看 token 配置,然后切换到 open kala 的 对话界面,点击左侧导航栏的 config, 点击该退,切换至 h t t p 页签,在 responses 区域将 enable 切换至开启,如果已经开启就不用再设置了。到这一步,我们已经可以正常和 open kala 对 话了, 接下来我们还可以进一步把 open kla 集成到飞书。三、创建并配置飞书应用进入飞书开发者后台,点击创建企业自建应用,填写应用信息后单机创建。在左侧导航栏中选择添加应用能力,选择按能力添加,找到机器人卡片,点击添加。 在左侧导航栏中点击权限管理,点击开通权限,搜索并添加屏幕上的这五个 api, 权限完成后进行下一步。点击左侧导航栏的凭证与基础信息, 查看并复制 app id 和 app secret, 点击左侧导航栏的事件与回调,点击加密策略 重置,生成一个新 encrypt key, 之后再复制 encrypt key 和 verification token 到粘贴版。四、创建飞书连接流打开阿里云 app 福洛模板中心的飞书 openklo 模板,点击立即使用添加一个新的飞书凭证, 填写凭证名称,剩下的四栏分别填入前面复制下来的信息,之后在下拉框中选中创建好的凭证。接下来创建 open kla 凭证 token, 这里填入前面获取的 open klo 凭证,填写完成后点击确定,并在下拉框中选中创建好的凭证。点击下一步。这里我们需要前往服务器详情页获取服务器公网地址, 并按页面提示填入公网 ip 端口号默认为一八七八,点击下一步,直到完成配置。配置完成后点击发布,复制并保存 weboker。 五、配置飞书机器人 返回飞书开发者后台事件与回调界面,点击事件配置,然后配置订阅方式,选择将事件发送至开发者服务器,填写上一步复制的 webhooker, 点击保存 已添加事件区域,点击添加事件搜索并添加接收消息。事件填写完成后,点击左侧的版本管理与发布,点击创建版本,填写相关信息后保存并提交审批。我们就把 open club 在 飞书里配置完成了。接下来返回飞书,在群机器人中找到 open club 并添加, 然后艾特机器人发送消息就可以实现对话,也可以让 open club 在 飞书里帮我们执行更多任务。 到这里,一个接入飞书二十四小时在线,还能帮你自动处理繁琐工作的 ai 员工就部署完成了。详细的文字版教程我已经整理好了,有需要的朋友直接在评论区扣 open club 就 能领取。以上就是本期全部内容,我们下期见。

很多人买了 mac mini 想装 openclo, 却发现步骤有点多,教程也比较零散。所以这期视频我带你从零开始,完整演示一遍 openclo 的 安装和配置流程。整个过程我会拆分成四个步骤,一步一步讲清楚。 ok, 我 们正式开始。 第一步,安装基础环境,如果都能正常显示版本号,说明我们的基础环境已经准备好了。这里简单说一下, homebrew 是 mac 上的软件管理工具, python 是 open curl 运行所需要的环境, git 是 用来管理代码和项目的。只要这三个工具正常,我们就可以进行下一步了。这一步就是基础环境的确认。 第二步,下载并安装 openclo。 接下来我们正式开始安装 openclo。 首先打开浏览器,进入 openclo 的 官网,在官网首页往下滑,你会看到官网提供的一键安装命令, 复制这段安装命令,然后打开终端,直接粘贴执行。执行之后他会开始自动下载安装。整个过程需要一点时间,我们稍微等待一下,你会看到他正在下载相关的安装包,以及一些依赖组建。 等安装完成之后,系统会提示我们进行一些配置。首先会问你是否了解相关风险,我们直接输入 yes 就 可以。接下来会让我们选择启动方式,我们选择 quickstep, 用最快的方式启动。 然后系统会让我们选择模型,比如这里我选择了 kim, 输入对应的 api key 后选择 keep current。 接下来会让我们选择接入渠道,比如 whatsapp, 飞书等。这里我们先跳过, 因为第三步我会专门教大家如何配置飞书。接下来是技能的配置,为了快速启动,我们先选择 no, 后续有需要的可以再单独添加,然后它会开始安装网关, 安装完成了之后,我们会选择 open the web ui 浏览器,会自动打开一个聊天界面, 这里我们可以测试输入一下,比如说查看电脑状态,如果它正常返回结果,就说明 open curl 已经安装成功,并且可以正常运行了。到这里 open curl 的 下载安装和启动就完成了。 第三步,我们来看一下如何配置飞书。首先打开飞书开放平台,创建一个企业自建应用, 点击创建应用,应用名称可以自定义,由这里我直接命名为 word。 openclove 创建完成之后,我们进入应用后台。第一步,添加应用能力,选择机器人,添加完成后进入权限管理页面,这里我们可以选择批量导入权限, 直接复制我已经写好的权限 js, 确认之后点击申请开通,然后按照提示完成下一步操作即可。 这里飞书册的基础应用就创建完成了。接下来我们回到 openclove, 在 最新版本中其实已经内置了飞书的插件,但是默认是未启动状态。 我们先进入插件管理页面,查看飞书插件当前状态,可以看到飞书插件是未用状态,现在我们执行应用命令, 将飞书插件启动,启动之后再次确认状态,可以看到飞书已经处于遗弃用的状态。我们重启一下 open call 服务,重启完成后,进入 channels 页面,可以看到飞书插件已经出现在渠道列表中, 现在我们开始进行飞书的配置,首先填写飞书应用的 app id 和密钥, 这两个信息可以在飞书开放平台的应用凭证页面获取。连线完成之后,下面的选择连接方式,选择长连接模式,相关选项全部起用,然后点击保存,保存之后系统会自动重启网关服务, 网关重启完成之后,退出渠道就已经接入完成。在建立好长连接之后,我们需要配置事件,这里的事件类型选择长连接,然后点击添加事件,我们添加的事件类型是发送消息, 然后再回调配置,里面同样选择长连接方式,配置完成后记得点击保存。 接下来我们创建一个新版本并提交审批。最后我们回到飞书客户端,还是查看电脑信息状态,可以看到它现在已经成功回复,说明我们的飞书已经配置成功了。 在玩 openclo 的 过程当中,我们可能会碰到很多问题,这里我告诉大家一个邪修的方法。举个例子,我之前在配色非书应用的事件与回调的时候, 使用长链接接收事件,会显示应用未建立长链接,这时候可以直接让 open curl 帮我们处理,这是我邀请他做的,他现在需要我们提供飞书的 app id 和密钥,我们找到飞书应用的 app id 和密钥发给他, 等他一会,现在他已经更新好配置文件了,我们来看一下网页中飞书的配置, 目前来看已经是配置完成了,所以当我们有一些问题需要处理的时候,我们可以直接让 openclock 帮我们来处理,当然也不止这一个场景,你要是碰到了其他的问题,也可以直接告诉他,让他帮忙处理, 毕竟我们花这么大的精力来配置他,是要让他好好干活的。 ok, 这是 mac 配置 openclock 的 全部教程,大家赶紧去试一下吧!

之前我制作了一期关于 openclaw 云端部署的教程,没想到大家还蛮喜欢的,也收获了很多的点赞和评论,在这里非常感谢大家。那么很多人问我就是如何把 openclaw 部署在本地,我今天呢就出一期简单的教程,来教大家如何一键把 openclaw 部署在本地。 本期的教程是用 macos 系统进行演示的,如果你是 windows 用户的话,可以去搜索一下网上的其他的部署教程,那我在这里做一个风险提示啊,就是本地部署的话,最好不要部署在自己的工作电脑以及有重要的隐私机密的电脑。 我们最好是部署在一个全新的或者是没有任何资料的一个 mac 系统,或者去购买一个 mac mini 进行一个部署。那么废话不多说,我们开始进行部署的教程吧。如果你的电脑没有安装 nojs 环境的话,你需要进行一下 nojs 环境的安装。首先我们来到 nojs 的 官网,我们点击下载, 你可以通过命令行进行安装,或者是直接下载一个安装程序就可以了。首先我们打开终端,然后粘贴这一行代码,点击回车,这个时候呢他就是在帮我们拉取那个 open cloud 的 安装文件, 看到这样的一行界面呢,说明我们的安装已经成功了。接下来呢我们就开始进行 open cloud 的 配置,我们输入这行代码,然后点击回车, 这边呢就是一些安全的提醒,你可以选择 yes, 然后我们进入快速配置的模式,点击 quick start, 这里呢是输入模型的一个 api, 我 们这里选的 monshift ai, 当然你可以选其他模型或者暂时跳过,我这边输的是 monshift ai 的 一个 api 模型,然后这边把 api key 粘贴进来,点击回车,然后点击这个 keep current, 然后这里呢是选择 channel, 就是 你可以去进行对话的,但是我这边呢暂时就不进行一个配置,我们点击这个 skip, 这里是进行 skip 的 配置。简单来说呢,这里就是你可以给 ai 加上一些技能,比方说一些捕取网页啊,下载一些内容啊,生成图片的功能,我们点击 yes, 然后我们把这些全部都勾选上就可以了, 然后我们点击回车进行一个安装,这边呢设置这个 api 器的话,你可以后续再设置,我这里先跳过,所以呢全部选 no, 这边是选择一个 hook, 然后呢我们把这几个都勾选上就可以了。 接下来就是到了一个 gateway, 就是 网关的安装的一个阶段,到这一步呢,基本上你的安装就已经完成了。我们可以点击 open the web ui, 然后打开个网页,之后呢就会打开一个这样的网页,这个是 open cloud 的 一个控制面板。这边 chat 这个部分呢,就是可以跟 ai 进行对话了,我们来测试一下我们的 ai 是 否安装成功。 siri, 你 好, 那么我们可以看到我们已经可以成功的收到 ai 的 回复了,这代表着你的部署已经完全成功了。

大龙虾这波热度呢,让所有云厂商都卷了起来,基本上都出了自己的云端部署方案,今天我就用阿里云带你跑一遍,十分钟拎包入住云端版的贾维斯 open club。 说实话,本地装不是不行,但你得折腾环境配依赖,还得自己对接模型 a p p。 对 普通人来说呢,直接劝退 好。首先,我们打开阿里云的清凉应用服务器页面,在镜像这里呢,直接选择 multi boot, 他 已经把运行环境打包好了,你不用自己装任何东西。 配置的话,镜像要求最低是两盒两 gb。 地域呢,随便选,国内国外都行,国内因为有网络 bgp 优化会贵的,这里我选择国际型。确认好我们的地域, 这里我选择新加坡,因为我不是新用户啊,新户价格首次还会更便宜,最低九块九,一个月六十八块钱呢,就能直接包一年, 或者像我这样直接想尝尝鲜啊,先购买一个月,确认这些都没问题之后,点击立即付款。付款后呢,等服务器启动,服务器起来之后,进控制台,你就可以看到我们买的服务器了。点击进入我们的服务器详情页,你可以看到这里面一共需要三步,我们挨个执行就可以。第一步啊,放通端口,页面上有个一键放通,点一下就可以。 这要是你自己部署啊,这一步我估计会卡住很多人。第二步,配置我们的 api key, 还有生成 token, 这里需要跳转到阿里云百联平台,在密钥管理里创建一个 openclaw 专用的 key, 复制过来粘贴执行。 第三步,获取专属链接,点执行命令,它就会给你分配一个专属的链接,记住这个链接啊,后面点进去就能直接进入 opencloud 控制台了。到这一步啊,整个部署呢,就算完成了。看到了吗?就这么简单,一共三步,除了等服务器创建的那几分钟啊,实际动手操作呢,用不了五分钟, 完全不用碰触任何的命令。行,你就可以拥有一个自己专属的大龙虾,而且只花了一顿饭钱,这比你去买 mac mini 简直省太多了,也不用担心关机断电这些问题。那怎么验证跑起来了?你可以直接在控制台里跟他对话, 也可以像我这样呢,接入钉钉,做一个钉钉的机器人,直接在手机上艾特他,因为模型默认是帮你接入了千问三 max 的 最新版本,推理更强,都是对话呢,你的 ai 助理呢,依然会在后台帮你联网查找资料, 整理信息。那怎么能玩一些更复杂的自动化任务呢?网上其实已经有不少博主做了详细的教程,阿里云官方呢,也写了教程文档,想要的呢,我可以发给你,感兴趣的可以自己去研究。 成本上还要说一下,模型调用呢,是单独计费的,轻度玩玩呢,基本是可以忽略的。但如果你想做一些复杂的任务呢,还是建议去百炼平台购买这种扣丁 plan, 也就是固定月费可用的 token 额度呢,会更多,也更划算。所以以后这种拎包入住的云端化,才是未来 ai 普及的正确姿势,你们觉得呢?快去试试吧!

二十分钟搭建性价比最高的 open clock 组合,厉害!哈喽大家好,我是姚路星。 最近 open clock 可太火了,但各种配置教程都太复杂了,今天给大家来一个最简版,上手指难教你用火山云服务器加上 k m k 二点五大模型,加上飞速机器人,二十分钟快速搭建一个属于自己的 ai 智能助手 open clock。 为什么选择火山云加上 k m k 二点五加上飞书呢?火山云是自觉云服务信任优惠力度大且配置简单,两盒两 g 云服务器,每个月九块九够用了,一年也才不过四十八块。 无需自主安装 opencloud 云服务,直接就安装好了 opencloud, 你 只需要配置渠道和模型即可。预制二面出品的 kimi k 二点五专门针对代码和技术场景优化,不仅代码理解和生成能力强,而且便宜,性价比非常高,速度也很快。 飞书办公场景完美集成,创建机器人简单,全线清晰,而且火山云和飞书都是字节系的,配合更顺,套餐直接打通。 接下来我来讲一下如何搭建。步骤一,购买火山云服务器一点一注册账号,如果已有账号可以跳过这步,地址如下,一点二,购买云服务器 ecs open cloud 套餐直达地址如下, 地域的话可以选择离自己近的,如果想买海外的云服务,也可以选择雅加达,如果预优惠价受庆,可以尝试切换其他地域。规格的话,两盒两 g 就 够用,两盒四 g 也可以,会更加流畅一些。 接下来设置好 root 密码,这个自己要记住,后面要用。接下来就是购买支付,如果账户里没钱的话,要充值一下,等待触视话即可。 步骤二,配置 kimi k 二点五和飞书二点一,获取 kimi api 蜜柚,打开 kimi code 注册登录账号买包月套餐,四块九毛九就可以试用七天。地址如下, 进入 api 蜜柚界面,点击创建新蜜柚,复制 api key, 注意 api key 只显示一次,复制保存到安全的地方后面也要用。 二点二,创建飞速机器人打开飞速开放平台,点击创建企业自建应用,填写应用名称和描述地址如下, 添加应用能力找到机器人添加有些权限依赖机器人能力。进入凭证和基础信息页面,复制凭证 app id 和 app secret。 二点三,配置 open cloud 因为云服务套餐已经安装并启动好 open cloud 的 服务,我们只需要将 kimi 和飞速的配置接入即可。我们先远程连接云服务,这个时候就用上了上面的一个 root 密码,地址如下, 可以更换区域,找到自己的一个服务器地址,运行以下命令进入配置界面。接着我们先配置一下 kimi coding 模型,选择 moonshot ai, 选 kimi code api key 套餐配置的是这个, 将刚才的 key 贴进去即可。配置完成 kimi 后呢,我们继续执行配置飞书,选择 channels 找到飞书,找到飞书,配置好 app id 和 app secret, 然后按照流程完成配置即可。二点四,配置飞书权限接着我们在应用后台进入权限管理界面,搜索并开通以下权限。 二点五,配置事件订阅这里非常重要,这里为什么先配置 open cloud 再配置事件呢?因为如果不先配置 open cloud 的 话,无法配置飞速机器人长连接事件,进入事件和回调页面。事件和回调配置方式选择使用长连接接收事件, 添加事件,订阅搜索并开通以下事件,如果漏掉这一步,机器人能发消息,但接收不到消息。 步骤三,可以开始使用了。方式一,飞叔私聊也更推荐这种方式。方式二,飞叔群聊艾特机器人发消息。 总结一下,先分析一下实际成本,大概也就一杯奶茶钱不需要你是技术大牛,不需要你花大价钱,只需要二十分钟加二十元试错成本加一颗愿意尝试的心, 快去试试搭建你的专属助理吧!感谢大家!三连谢谢大家,记得关注再走!

兄弟们,大家最近有没有被这只小龙虾刷屏名字从 cloud bot 到 multi bot 再到 open cloud 火爆全网,你们是不是也想拥有这样一个私人助理,每天早上打开飞书,让他整理 ai 圈发生的大事儿发送给我, 提醒我女朋友生日买花和订酒店,每天帮我关注和整理持仓动态,是否有重大利好利空等消息, 并且能够通过我常用的飞书给他下达指令,这就是 openclaw, 被称为真正能干活的 ai 助手。本期视频给大家带来 openclaw 的 保姆级教程,包含模型选择、安装部署、接入飞书以及如何配置使用 api 聚合平台 crazy router, 节省百分之五十的 token 费用。首先我们来看模型选择 opencloud 实现效果的核心在模型,虽然它支持很多模型,但是官方推荐使用 cloud ops 模型,效果比较好,建议使用。 然而 opencloud 非常费 token, 同时 cloud ops 四点五的官方 api 价格确实也让人生味。本期视频里也会教大家如何配置 opencloud, 使用 crazy router api 聚合平台,实现省钱百分之五十。调用 cloud ops 四点五。 接下来是安装部署,为了避免 ai 误操作导致悲剧产生,这里不建议部署在日常工作,电脑可以选择部署在云主机上,我这里用的是 a w s 送的半年免费云主机,大家可以根据情况自己去薅。 这里我们打开终端,直接登录到 a w s 的 云主机,输入 open c 号官方提供的一键安装脚本进行安装即可。 安装完成,进入初步设置向导选择模型,这里可以先跳过,后面会进行配置,选择 channel, 这里默认没有飞书也可以先跳过,后面会配置 skills 也可以后面根据需要再配置,后面一路 no 和跳过即可,之后根据实际使用情况再进行配置。 这里使用 openclaw gateway status 验证一下状态,再用 curl 看一下状态是不是两百,这样我们就完成了基础的安装配置。如果需要远程访问 openclaw 的 管理界面,还需要安装 x x 进行反向代理,这里可以使用 e r m 进行安装,配置文件可以参考我这个, 重启 n g s 即可。接下去配置 openclaw 信任代理和允许 http 认证, 然后重启 openclaw, 再获取认证的 token, 将 token 拼接在 url 的 后方,即可访问 openclaw 的 管理界面。接下来我们配置 ai 模型,这里使用 api 聚合平台 crazy router 提供的 api key 进行配置,它比官方 api 便宜近百分之五十。 模型使用这个 called open。 四点五,我们点击令牌管理来创建和复制我们的 api key。 接下来打开 openclaw 的 配置文件,找到 model 和 agent, 这里按照我这里面的配置完成 crazy router 的 api key 和 cloud ops。 四点五的配置,重启 openclaw, 完成配置。 最后一步,配置飞书渠道,飞书使用 webbed 长连接模式,无需域名和公网回调地址,配置简单,个人用户也可以免费使用。首先在开发者后台创建企业自建应用,然后获取应用凭证 app id 和 a p c secret, 同时开启机器人能力 开通相关权限。在 opencloak 中安装飞书的插件,设置飞书中我们刚才获取到的 app id 和 app secret 再次重启 opencloak 事件配置中使用长连接接收,同时添加事件和事件权限, 再创建一个版本并发布,就完成了飞书的配置。接下来我们实际看一下效果,看看 opencloak 能帮我们做些什么, 很快就帮我们生成了一份高质量的总结报告。 接下来可以给他布置一个任务,每天早上帮我们搜集持仓股票的动态信息,分析财报、产品发布、监管诉讼、高管变动等重大利好利空消息。这样他每天就会把详细的分析报告发送给我们,方便我们第一时间了解持仓动 态,也可以很全面地分析多个同类产品的情况。 最厉害的来了,可以让他给立即帮我们写一个专业的程序,然后运行这个程序,得到我们想要的运行结果。整个过程我们完全不需要关心代码文件和运行环境。对了,这里要配置下 a 阵字的权限才能使用编程代理, 他会直接把程序的运行结果给我们,结果也完全符合程序的逻辑和预期。 最后总结一下,我们首先进行了 opencloud 的 安装配置,接着配置使用 crazy router 的 api key 注册来调用 cloud opens。 四点五,使用飞书机器人作为接入渠道进行通讯。最后演示了几个常用的应用场景, 像 opencloud 这么全能的助理,每个人都值得拥有。再把我踩过的几个坑给大家分享一下。好了,本期视频就到这里,有问题留言问我。

openclaw windows 系统详细安装部署教程来了! openclaw, 一个能让 ai 大 模型像人一样操作你电脑的智能助手,今天就带你花两分钟在 windows 系统本地部署小龙虾。操作步骤很简单, 首先前往官网安装 node js, 这里我们直接下载稳定版本即可。下载完成后,打开文件夹,点击进行安装,安装的选项全部默认。 安装完成后,使用管理员模式运行终端,使用指令查询 node 点 js 的 版本号。 接下来开始安装相关指令,可前往评论区领取,可以看到安装已完成。接下来进行具体配置,输入指令后,这里默认为不同意,我们改成同意 yes, 这里选快速安装 quickstart。 由于我之前配置过一遍,所以这里选择更新 模型。以 glm 为例, apikey 可以 前往官网获取接入的聊天软件,我们先跳过安装 skills, 选 yes, 选择 npm 安装软件包预设 skills 我 们也跳过,这里是第三方应用的 apikey, 相关设置都选 no, 给出的三个 hooks 最好都勾选上。由于之前配置过官网服务,这里我选择重装 reinstall, 等待它安装完成。 抽象 bot, 选择 open the web ui 配置完成后,我们就进入 open cloud 界面进行简单的尝试。比如我们让它在 c 盘创建一个文件模型,回复我们文件已创建,那我们进入 c 盘检验下, 可以看到确实已经创建,说明我们本次的安装部署成功了。关注我,解锁更多开源软件操作小技巧!

家人们,最近如果你有关注 ai agent 这个赛道,一定刷到过一个名字, cloud bot。 它在 github 上几乎成了一个现象级符号,甚至一度把 mac mini 都带火了。为什么这么火? 因为它精准击中了一个点,交互可达性。简单说就是你只需要一句指令, ai 就 能帮你自动完成一整套多步骤、跨软件协同的复杂任务。但问题也随之而来,在国内,很多用户真正部署时才发现,不仅配置复杂,需要独立专业设备, 还要担心安全和稳定性问题。对小白用户和企业来说,落地门槛非常高。那在国内,有没有更适合中国企业真正能落地、能规模化使用的智能体?答案是,有,而且已经有很多公司在用了。实在 a 真, 他更懂中国企业的办公逻辑,在安全合规、系统兼容、操作体验上都更贴近本土环境。你只需要到官网下载客户端,安装完成之后,他就可以直接协助你操作整台电脑完成任务。 比如你跟他说帮我下载腾讯会议安装一下,再创建一个明天下午一点半的快速会议。实在 agent 会自动打开浏览器搜索下载安装,最后把会议链接直接给到你使用。但这只是最基础的一层能力, 更重要的是,他面对的不是轻量办公,而是企业级复杂业务。在真实企业场景中,用户可以直接通过手机端下达文字指令、远程曝光、单自动化、电商数据采集、 di 文件识别、评论与售后自动化等专业系统操作,把原本只能在固定工位完成的核心业务流程,真正搬到移动端,这也是它和只会处理邮件消息、文件整理这类清亮 agent 本质区别。 不需要复杂部署,你甚至可以用手机直接下达业务指令。电脑端自动把整条流程跑完,不用立刻回到工位,也 能解决关键工作问题。在国内主流办公软件钉钉非书里也可以直接调用。比如你在手机钉钉发一句帮我生成 clubbot 的 调研报告,并发给文件小助手。电脑端的实在 agent 就 会自动上网查资料,整理内容,生成 pdf, 最后把文件直接发回给你。 手机负责下指令,电脑负责执行系统及流程。人不在工位,业务已经闭环,所以你可以把它理解成什么。它不只是一个帮你远程操作电脑的工具,而是在抢占企业及移动 ai 办公入口的位置,用手机调度电脑,接管企业工作流,随时随地、随叫随到的终身工作伙伴。 那么,你们希望实在 agent 能帮你在工作中解决哪些问题?评论区,告诉我你的需求,这里是 ai 风向标,关注我,下期带你实操更多能落地的超级 ai 工具,解放你的双手!

不用买 mac mini, 不 用自己的电脑,也不需要复杂的代码配置,九块九就能一键部署你的 open clone, 也就是最近大火的 clone bot, 这是我接入好的,已经开始为我去赚钱了。屁话不多说,跟着我这个教程跑起来。首先打开火山引擎,薅一个羊毛,拿上我视频下方的邀请链接,注册并关联一下子,你这一下子我就能赚一块钱,咱俩平分怎么也得对半分呢?如果你有账号了,也可以登录并关联啊。 然后打开第二个链接,下单九块九的一键部署服务,填写一个简单又复杂的密码,再点开高级设置。 重点来了,我们要做的核心动作就是填上这几个 k, 下面一定要按我说的操作,因为我发现全网都没人教怎么去薅这波火山的羊毛, 包括火山官方的配置文档也是一塌糊涂,我还做了一份详细的配置教程,文档链接放在视频下方,如果觉得我写的好,记得赏个关注,谢谢了。保持这个页面不要关闭,我们打开这个链接, 然后打开开通管理界面,根据这个步骤选择要开通的大模型,建议呢?开通一个升图的模型,然后打开 api k 管理,这个 api 就 可以不用去复制它。 然后回到这个界面,模型选择就能看到自己已经配置过的模型,下面的 api k 就 能直接选择出我们的 k, 那 模型的配置就完成了。 下面我们开始把飞书接入进来,首先要访问飞书开放平台,点击右上角的开发者后台,选择创建企业自建应用, 填写应用名称,写上描述,点击创建,然后点击凭证与基础信息,复制这个 id 和 app 密钥, 再回到这个界面,填写上飞书的两个选项,再点击页面下方的创建,点击确定,至此我们的实力创建完成,让它开始运行。 回到飞出的开放平台,打开权限管理页面,点击批量导入导出,然后到我的教学配置文档当中去复制这个代码,全替换进去,点击 下一步,再点击申请开通,然后在左侧的事件与回调点选一下,选择事件配置页签啊,单机订阅方式旁边的这个编辑小按钮, 然后选择使用长链接接收事件,并单机保存在已添加事件区域,单机添加事件按钮,在添加事件对话框中选择应用身份订阅页签,并勾选接收消息, 如果找不到的话,你就先搜索接收消息,然后点击确认添加按钮, 然后我们向上看,点击页面顶部的这个创建版本这四个字,按照这个需要的配置内容呢,我们写上版本号及更新说明啊,随便填几个字就行了。翻到页面底部,点击保存按钮,然后单机页面个人发布按钮,完成应用的发布。 这个时候你就去看一下你的飞书是不是多了一个机器人,让你去审核,然后点击审核通过你的机器人就可以去用了,这个时候打开手机的飞书或者是桌面端的飞书,找到我们这个机器人,发送一个任意消息,比如说你好, 首先它会出现一个等待表情,如果出现等待的表情,那 ok, 说明正在调用你的模型,那我们的配置就成功了, 等他回复你的时候,你就知道新的世界已被打,已经被打开。如果你想通过浏览器去访问 open、 cloud、 web 这些界面的话,你可以参考一些官方的文档,更多的玩法大家可以自己去探 索。如果觉得我的教程比较详细,比较明确,那大家可以给我点一个关注,谢谢大家!再见。

你肯定没见过比这更简单的 oppo pro 安装教程,只需要一句话,直接自动安装。打开 mini max, 桌面端,输入帮我配置 oppo pro 低整将自动完成相关配置。安装完成后,输入 mini max 的 api key, 等待一会后配置自动完成,就可以在前端测试效果了。输入你是什么模型,可以看到 oppo pro 已经配置完成。

今天教你如何使用 opcode 切换两个大模型,一个是 glm 四点七,一个是国产的千万大模型, opcode 提供的模型供应商有这些,你可以选择你需要的大模型进行切换。首先打开终端,输入这行指令, 可以看到我当前的大模型是 glm 四点七。最下面是让你选择是本地部署还是远程部署,我这里选择本地部署。 紧接着就是让你选择配置的区域,这里选择模型配置。再接下来就是进入到了模型列表界面,这也提供了很多的模型供应商, 因为我已经配置了 g m 四点七,所以我这里选择千问来进行配置。每一个模型后面都有写是进行授权登录,还是说通过年提 api 进行登录。 我们选中千问后回车,然后确认一下,会弹出一个浏览器的网页,我们点击一下授权的确认按钮, 认证成功后就可以回到命令行界面进行下一步的操作。在这个模型列表一页,他默认其实已经把纤维模型给选中了,我们可以往下滑找到纤维模型,确认一下是不是选中状态,也可以直接按回车进行到下一步。我这里已经看到纤维模型已经被选中了,我直接回车进行到下一步。 这个时候千万模型其实已经配置好了,我们点击键盘上的 esc 退出界面,然后再重新输入刚才的命令,确认一下是不是当前模型变成了千万模型。 我们输入键盘的 esc 退出后输入这个命令,打开浏览器界面,我们点击右下角的按钮,创建一个新的绘画,然后输入一个问题,你是哪个大模型?他的回复是同意千万模型。到此,整个切换模型的步骤就完成了,接下来我要切回到 g l m 四点七, 然后演示一下如何黏贴 api k。 前面步骤和刚才的千万大模型都是一样的,只不过是模型授权的方式不一样, 刚才是通过浏览器登录授权,现在是需要去对应的模型官方获取 api k 之后粘贴进来,选择 glm 四,点击这个模型之后,回车之后它会提示我要去黏贴 api k, 一 般都是登录官网找到 api k 管理页面,然后黏贴一下 api k, 身后的步骤和刚才千万模型的配置一样,我们直接回车就配置完成了。输入这个命令之后,我们可以看到当前的模型已经变成了 g l m 四点七。入这个命令之后,我们打开浏览器网页,在绘画窗口输入你是哪个大模型, 这个时候已经切换到 g l m 四点七了,整个过程就是这样,有需要的小伙伴快去试一试吧,这里是 ai 共生格,我们下期见。

我们在前面安装这个 open 可露的时候,所使用的模型是智普的模型以及还有阿里百联的模型,但是这些模型的话都是属于在线的呃,它会需要很多个 talking, 那 这些 talking 呢,我们是需要花钱去买的, 那当然呢,也有人去反映这个在线的模型啊,它所消耗的 talkin 很多,所以说这个时候有人就想我们能不能使用本地的模型来部署 这个呢?当然是可以的,我们可以先到那个欧拉玛的网站上面去看一下啊,在他的首页这里面有一个 openclo, 我们点击进来啊,这里面没找着,没关系,我们往下拉一下,往下拉一下之后,因为这个 clubbot 已经改变为了这个 openclo 了,我们在这里面选择这个 openclo, 然后呢我们往下面拉,往下面拉的话,这里面的话呢,他就会有一些他所推荐我们所使用的这些模型。那么我们就建议呢,各位就是使用的时候就直接使用他所推荐的那些模型 啊,现在在我的环境这里面呢,我已经是把这些模型呢给它拉取下来了,那你使用其他的模型的话,可能还是会有一些问题的。 那下面的话呢,我们就开始去配置一下这个模型,点击这个 open clone, 然后呢我们点击这个 config, 点击 config 之后呢,继续找到这个 modus, 然后有一个 private, 然后这里面咱们就开始去添加一个模型 and you try, 那 这里面我给他一个名字叫欧拉玛好了, 这个名字你自己可以自己随便去取都可以。然后呢我们这个 api 的 这个位置呢,你可以选择这个是 compilation api key 的 话呢,这个可以随便去写 啊,因为我们的这个欧拉玛它不需要这个 k 去验证,这个你随便写什么都可以啊。 然后呢这里面我们选择 i p r k os header, 勾选上 bios ysl, 这里面的话,你就加上我们的这个欧拉玛的这个地址, 那么这里面的话,我现在的地址是端口是幺幺四三四,那这里面我们写的时候就是 h g d p 冒号本机,你你可以写任何的,你主机上的任何的一个地址都可以,零点零点幺, 这里面的话我们写上端口幺幺四三四,这里面一定一定要把这个 v e 给它加上去。 如果说你不加这个 v 一 的时候,那我们去访问的时候,他可能就是,对吧?你问他问题,然后呢他就回复的时候就是一个空的,什么都没有,所以说这里面一定要加上一个 v 一 才行。 然后呢我们继续往下拉,找到这个 modus, modus 的 话,然后呢我们选择这个 and, 选择 and 的 之后,然后在这里面 api 的 这个位置呢,我们也是选择 open i, 它的这个我们就选择 max talkings, 然后它的这个上下文的这个窗口呢,我们给它设置一个比较大的一个值就可以了,随便你去设值。 继续往下拉好,然后这里面有一个 id, id 的 话呢,就输入我们的这个啊模型的名字就可以了,比如说我这里面就直接使用 gptos 二十 d。 好, 那么然后呢我们继续往下拉,这里面有一个 and, 把它选择为这是一个 text 的, 然后这个 man talking 的 话呢,你也可以随便去写,我就直接写上一个四万就可以了。这个你随便去写, 然后给它起一个编名,我们就写成这是为一样的就可以了。这是我增加了一个模型。 那然后呢,我们你看啊,在它的官方网站上呢,给我们推荐了好几个模型,其中还有一个是 glm 四点七的,对于 glm 四点七,它这里面的话使用的是一种语音环境,我们这里面点击这个 mod 的 话,它不是让它是直接使用的,是在线的一个模型, 我们在这里面的话呢,也来给它加过来。在我的环境这里面的话,你看有一个 glm 四点七 club 的, 这里面的话,这里面呢,我也是给它拉取下来了。好,所以说我这里面再次增加一个新的模型,这几个我都给它加过来。 好,在这里面我们再次点击一下这个 and。 好, 然后呢,这里面我仍然选择的是 open i complexions。 然后呢这里面也选择 manage tokens。 窗口的话,我们在这里面你随便去写一个都可以 继续往下拉。然后这里面 id, 我 们把我们的这个镜像来给它加上去,就是 g, p, d, o, s s 的 这个 y 啊,这个是应该是选择的是 glm 四点七的,这个我们加第二个镜像。第二个模型 input 的 这个位置呢,咱们也选择 text 的, 这个位置的话,就随便去写一个比较大的值就行了。 这个名字的位置呢,我们也给它起一个命名,也叫的是 g m g r m 点 g cloud。 好, 第二个模型呢,我现在也是给它添加过来了。 那当然了,我们也可以再次去添加一个我们这里面添加的模型都是官方它所推荐的模型。 然后呢我现在再来添加一个其他的模型,这个呢,他并没有出现在官方推荐的这个文档这里面,咱们现在来看一下是否会有什么问题。我这里面选择枪顶三杠十四 b。 好, 这次去添加一个模型。好 and, 好的,现在这里面来给它收起来。好吧,这里面的话,我们仍然选的是它。好了之后,这里面选的 max tokens, 这个呢,我们就随便的去写一个比较大的值就可以了。 然后这里面 id, 我 们就把这个谦问三十四 b。 我 再说一次,谦问三十四 b, 这里面并没有出现在它的这个推荐模型这里面。 input, 这里面点击 text, 这个值呢?我们也直接输入一个比较大的值就行了。好,这样的话我现在添加了三个模型,点击 save, 咱们现在去看一下它的这个配置文件,点击打开 点击之后呢,这里面你看有一个 private 的,是百炼的,这个是我们在前面的时候已经添加过的奥拉玛。这里面的话呢,我增加了三个模型,一个是 gpt osss 二十 b, 还有一个是 grm 四点七克拉的,那还有一个是铅汞。三十四 b, 然后呢我们往下面拉,找到这个 agents, agents 的 话,这里面的话,这个模型的话咱们现在继续来给它添加过来,把这几个模型现在来给它加过来好了。好吧,呃,这里面的话,我就直接啊往后面去写, 这是一个这是一个,这是一个。 那这里面的话,我们直接选择的是维欧拉曼、 欧莱曼的这几个模型,咱们现在来手动的来给它加过来,然后 g p t o s s s 二十 b 二十 b, ok, 这个是添加过来了一个了,然后呢我们再把剩下的两个模型也来给它加过来。呃,还有一个叫做这是为 g r m 四点七 cloud 的 这个呢,我们现在也是把它的名字记 r m。 好, 那然后呢我们再次来给它增加一个,还有一个是千问三十四 b 的 铅汞三十四 b, 这个边名的话呢,我也给它起名叫做这是为铅汞三十四 b 就 可以了,那这里面的话,我现在额外的额外的增加了三个模型,那然后呢,我们现在使用其中的某一个模型,把它设置为是默认值, 比如说我这里面就是这是 default, 就是 设置的是它的默认值。 ok, 好, 我现在使用 g p o s s s 二十 b 的 这个模型保存一下,咱们现在开始去做测试,点击这个 chat, 好, new session, 打开一个新的脸际,新的绘画。 好了之后呢,咱们现在来跟他去沟通一下。你好,请问你是哪个模型? 它这里面的话,因为使用的是比例的模型,它这里面其实是会消耗比较多的这样的一个 gpu 的。 好,它这里面的话告诉我们说使用的是欧莱玛 gpt 二十 b 的 这样的一个模型。好,然后你可以随便的去交流就可以了。 好,请问是哪个模型? 好?这里面告诉我们说是欧拉玛 g p t o s s 二十 b 的 这样的一个模型了, 那当然呢,我们现在去换一下,我刚才讲咱们刚才看到的时候,它这里面实际上是会消耗比较多的 gpu, 那这个时候有的同志说我笔记本上面跑不起来,对吧?跑不起来,那么大的这个,呃,那么大的这个,呃这个模型,那没关系,我们可以直接使用什么呢?我们可以直接使用它的这个云端的这个模型, 也就是直接使用 g m 四点七 cloud cloud 的 话,它本地并没有去下载什么模型。 那这里面的话,你首先你得你要是想使用这个模型的话,首先的话你得要在欧拉玛的网站上自己去注册一个账号,记住了,你得要注册一个账号,注册一个账号之后呢?然后我们在命令行里面 去登录一下,在这里面有一个登录的这个名字。 好,欧莱玛,我们现在去登录一下,那这里面的话,你看我现在已经是登录了。那如果说你没有登录的话,比如说我举个例子来说,我现在把它给退出来,我不登录了, 不登录了之后呢,我重新去登录,你看他这里面的话是会给我一个链接,给我一个链接之后,我们在这里面把它切到我们的地址栏这里面来,他会问我们是否要去链接,当然了网站这里面你得要先去链接一下才可以, 这种方式就算是连接成功了,连接成功了之后我们才能够去使用这个云端的这个模型,我们可以试一下,好让 你好,我们来看一下他是否能够正常的去回复,你看此时是可以正常的去回复的, ok, 退出来就行了。那这里面的话,他啊我们这里面直接使用免费版的就可以了,你不用去花钱去购买什么,直接使用的是这一块免费版的,他也够我们去用的了。 那这里面的话呢,我们现在去换一下这个模型, glm 四点七 cloud 的 这个模型。好,我把它给换掉。换掉之后呢,然后我们现在重新的去跟它去做一个沟通,点击这个 new session。 好,我们现在开始跟他去交流。你好,他这里面的话就可以跟我们正常的回复了。请问你是哪个模型? 原来使用的是我们一开始刚刚所做的练习,使用的是这个 gpt osss 二十 b, 那 现在的话使用的是 grm 四点七 club 的。 那这里面你看它告诉我们说现在用的是什么?叫做是欧拉玛里面的 glm 四引擎 cloud 这样的一个模型。 那我们现在再次来给它换一个模型,我本地这里面,在我本地这里面有一个千米三十四 b 的 这个模型呢,实际上是可以正常去使用的,我们现在来打开看一下。 好,请给我写一篇两千字的作文。 那你看啊,我这里面使用的时候它是可以正常去使用的,看到了没,它消所消耗的 gpu 其实也是蛮多的,跑起来也是蛮快的,没有什么问题。我 ctrl c 终止了,对吧?你可以等一下也行。好,我们退出来吧。 好的,反正我现在就想说明的是什么呢?说明的就是我的这个千万三的这个我的千万三的这个模型啊,是 正常是可用的,对吧?然后呢,我们现在把它换到哪里面去呢?换到我们的这个 opencloud 里面来,我们看一下能否正常去使用。好,我选择这个千问三十四 b, 把它换成是默认的, 找到这个 agent 千元三十四币,那这个呢,就是我们的加载过来的这个模型呢,已经保存退出,然后这里面的话呢,我们现在再次去跟他去沟通 new session。 好,那这里面咱们现在来问一下你。好,他这个不稳定,我们也就是说使用千万三的这个模型的话,呃,他可能就不是很稳定,有的时候你看现在可能是正常的,但有的时候呢,他可能回复的时候就不是很正常。 好,你看这里面回复的时候,现在就已经是不正常了,也就是有问题了已经,对吧?那在我本地跑起来的话是正常的,但是呢,我们在 open clone 这里面去引用它的时候,运行起来的话,则可能还是会有问题的, 所以说我们在使用模型的时候就直接使用它所建议的这些模型就可以了。 那当然了,如果说你本地的这个啊机器配置的比较高,你可以直接使用千万三 q 的, 那如果说你所使用的这个配置不是很高的话,那这里面的话呢,我们就可以直接使用是 glm 四引擎的,这是属于是语音环境上的一个啊模型,那它这里面的话并没有什么限制, 对吧?你可以看一下,它这里面并没有告诉我们说可以免费使用多少 talking, 超过这个 talking 就 不能使用了,它这里面并没有这些要求,所以说我们直接使用在线的也是非常方便的。那如果说机器配置不高,那么我们就可以选择它机器配置比较高,对吧?你就完全使用本地运行的这个模型, ok, 你 就可以选择它。 这是我们如何让 open globe 使用欧拉玛所部署的模型?大家可以自己来尝试一下。

这就是国产 open cloud 该有的样子,只要在手机上发一条指令,家里的电脑就能立刻替你执行任务,控制浏览器,甚至能定时自动完成复杂的桌面操作。最近 open cloud 让执行代理的概念彻底火了, ai 已经开始直接接管你的电脑权限去自动执行任务。 但我这几天深度使用下来,发现 open cloud 的 部署和配置门槛非常高,对于普通用户来说,环境搭建极其复杂, 而且它大量的 skill 对 windows 用户并不友好。如果你也想要这种 ai 代理的自动执行能力,又不想折腾复杂的代码环境,那这款国产 ai bot 就是 一个更务实的替代方案。 通过集成飞书等聊天应用,即使你人在室外,只要在手机上发送一条指令,家里的电脑就能立刻替你执行复杂操作。我们先看 ai bot 是 如何接入飞书的。第一步,进入飞书开放平台的开发者后台,新建一个企业自建应用, 填写完基础信息后,点击创建,在左侧添加应用能力菜单中启用机器人功能。第二步,进入权限管理,通过批量导入功能,把官方提供的权限列表一次性配置齐全。现在飞书就已经具备了与 ai bot 交互的基础。 我们回到 ai bot, 把飞书生成的 app id 和密钥填进去,完成绑定。第三步,也是最关键的一步,在事件与回调页面将订阅方式修改为常链接, 并添加接收消息事件。这一步的作用是让飞书能实时捕获你的聊天内容,并精准转发给后台的 ai bot 执行, 最后发布应用版本并等待审批通过后,你就能在飞书聊天框里直接指挥你的电脑了。我在手机飞书里输入任务,打开一盘 web video 目录, 截个图发到我的微信文件传输助手你看,电脑端立刻给出了响应。他先是精准定位并打开了指定的本地文件夹,随后自动调用截图功能。 最关键的是,他还能模拟人类的操作,打开微信窗口自动搜索,并把这张截图发送了出去。 这种 ai 自动模拟人工操作的能力真的太不可思议了。如果说远程操作的能力是随叫随到,那定时任务功能就是真正的无人值守。比如我设置了每天早上八点让他自动抓取当天的 ai 行业资讯, ai 会进行搜索汇总,并自动打开浏览器,将整理好的内容发送到我的幺六三邮箱。你只需要配置一次,剩下的他会像数字管家一样每天准时替你干活。 最后,我们来看看他能不能在复杂的网页中找到特定的元素并模拟人工操作。比如,我给他下载一个指令,在浏览器里打开我的 n 八 n 工作台,找到那个名为 ai 日报的工作流,并立即执行。你看,他精准的在几十个工作流中锁定的目标自动点击触发。 这意味着只要你能通过浏览器操作的手动流程,它都能帮你实现全程的自动化。总结一下, openclock 证明了 ai 执行代理的可行性,而国产元气 ai bot 则解决了它配置复杂、无法开箱即用的问题。 通过手机远程控制定时任务和网页模拟,它覆盖了大部分本地办公的重复场景,完整的使用技巧和配置参数我已经整理在笔记里了,如果你手头也有一些繁琐的重复工作,想用这个现成的本地自动化工具帮你完成什么?欢迎留言找我聊聊。 智能只是手段,人类才是答案。这里是头哥不请自来,我们下期再见,拜拜!

最近硅谷最火的 ai agent 项目 openclock, 你 肯定刷到了,全网都在传它能当你的数字员工,但是原版全是英文,配置复杂,网络还经常报错,劝退了不少人。别急,救星来了,我挖到了这个 openclock cn 项目, 专为国内开发者打造的中文优化版,部署有多简单?看好了,只需要这一行命令,不需要折腾复杂的环境,一键安装启动后,这里是全中文的配置向导。最重要的是,它完美支持国内大模型 deep ck, 通用千万 mini 随便选, 速度快,成本低,彻底告别昂贵的美元 a p i。 重点来了,它还能直接接入飞书,以后在飞书群里 at 一下你的 ai 员工就开始干活了,写代码,查资料,做总结。链接我放在评论区了,有需要的小伙伴自取。

我用 openclaw 和 cfui 打造了一个只属于我自己的生图小助手,你只需要在群里艾特一下 openclaw, 然后跟他说生成一张具有皮克斯风格的卡通龙虾主角照,点击运行,你就会看到 openclaw 调用 cfui 去生成图片的全过程, 等待几秒钟就会得到一张效果还不错的照片了。本期我就教大家如何搭建 opencloud, 然后呢,跟 comfui 结合起来,打造一款只属于你自己的生图小助手。 opencloud 是 一个 ai 智能体网关, 支持部署在群聊之中。换成大白话的意思就是 opencloud 是 一个化物员,他能够从群聊中接收你的指令。然后呢,去寻找合适的 ai 智能体,帮你解决问题。 具体的安装说明和如何配置群聊机器人, openclaw 项目组在这里写的清清楚楚,我就不进行赘述了。安装好之后,你只需要在终端里输入 openclaw get 位启动网关。 然后呢,再飞书拉个群,把 openclaw 机器人拉进去,在聊天框里 at openclaw 跟他问个好。如果能够顺利得到他的回复,就证明这个链路走通了。 下一步呢,我们需要解决如何在 opencolor 中调用 copyui 并进行升图的全过程。 opencolor 支持添加各种 skill, 也就是技能,它有一个 colorhub 平台,你可以去上面找各种 skill。 你 看这里就有很多关于 copyui 的 skill, 但是呢,我的工作流都放在了 runninghub 上面,所以呢,我就在想能不能写个 skill 去调用我在 runninghub 上的这些工作流呢?打开 runninghub, 搜索我的名字,电磁波 studio, 点击工作流,找到 z inch turbo 纹身图 openclock 远程控制工作流我现在想实现如何通过 skill 去调用这个工作流, 你只需要点击 api, 在 这里刚好写了如何使用 http 方法调用我搭建好的这个 z image 纹身图工作流。 另外呢,我还惊喜的发现,它在这里支持 webhook。 也就是说,如果我选择调用 z image turbo 纹身图工作流,最终生成好的图片会通过 webhook 方式传给调用方。 所以呢,现在只需要写个 skill 去调用这个 api, 同时使用 webhook 方式获取最终生成的图片就可以了。但是,我突然又发现一个问题,那就是 openclaw, 它虽然支持开启 webhook, 而我刚才把 openclaw 安装在了我的本地电脑上,也就是说,我没有固定的 ip 和域名。因此呢,我无法捕捉到来自互联网上的 webhook 触发动作。 此时此刻,我又想到了能不能搭建一个 webhook api 网络服务,专门用于接收 webhook 传过来的 webhook 触发事件呢,然后将数据整理好再发送给机器人的 webhook。 想到这里,我赶紧用了 tree, 在 它的提示栏里输入我的编程需求,生成了一个 flex 网站,专门用来接收 webhook 传过来的 webhook。 然后呢,整理数据再传给机器人里的 webhook。 经过几轮对话调试,最终完成了这个网站的搭建,并部署在了服务器上面。 同时呢,我又在群聊中添加了对应的生徒小助手。机器人现在还差最后一步,那就是需要创建一个 skill, 专门实现把输入的 prompt 传给 runninghub。 听起来工作量很大,其实你只需要把需求列好发给 openclock, 它就会自动帮你写好 skill, 到这一步,你就完成了所有操作。现在只需要在聊天栏里艾特 openclose, 跟他说生成一张超级可爱的皮克斯风格卡通龙虾主角照片, 点击发送按钮,等待几秒钟,你就能得到一张效果还不错的照片了。一次不满意你就多生成几次。 看到这里还等什么,赶紧跟着视频学起来吧!跟我学,搭建一个 open core 和 comfy ui 结合体,就不用再去接触复杂的 comfy ui 界面,只需要在群里说一句生图, open core 就 能立马把图片给你生成好。这对于一些公司的小团队来说非常有用, 比如公司的技术大拿负责把这个流程搭建好,并且设置好 open core 机器人。 剩下的群里的小伙伴只需要在群里艾特 openclock 这个机器人,列出它的生图提示词,就能够直接获得你想要的图片了。如果你觉得本期视频对你有所帮助,请关注、点赞、收藏三连走一波!这里是电子波 studio, 我 们下期视频见!

最近 openclaw 特别火,相信大家都有关注,这款工具的命名已经调整,从最初的 cloud bot 到 modbot, 再到近期正式定名, openclaw 发展速度非常快,背后也有不少话题度。 了解的朋友都知道, openclaw 的 常规部署流程并不简单,网上虽有相关文档,但需要操作大量命令,调整各类配置参数, 仅 config 文件的设置就需要花费不少时间。而就在昨天,费志云在 epanel 应用商店正式上架了 openclaw, 这个便捷部署的方式直接解决了大家的痛点,从上架到现在, openclaw 的 下载安装量已经达到三百六十六人次, 在 epanel 应用商店的下载排名直接冲到第二,甚至超过了麦 c 果,火爆程度一目了然。而且 epanel 官方文档 也为其标注了全网最快最简单的安装部署指南,今天就带大家快速看完这个部署方法,实操一遍到底有多简单! opencall 是 可部署在个人设备的自托管 ai 助手, 支持对接飞书、企业、微信及 discord 等海内外社交办公工具,默认文本对接后能通过对话终端向电脑发指令,完成各类操作,实用性极强。接下来重点看一 panel 上的一键安装步骤,整体操作非常简单,小白也能轻松上手。 第一步,打开 epanel 应用商店,搜索找到 openclaw, 点击安装。第二步,按提示输入基础配置参数,包括容器名称、版本、 web ui 端口、 bridge 端口以及模型提供商模型 apikey、 openclaw web 页面访问令牌 token, 还有是否开启端口外部访问,这些部署的必要参数都界面可化了,同时参考 epanel 给出的配置说明,需输入对应的模型提供商和模型 id。 目前 openclaw 已支持 minimax、 deep seek、 quan、 timi、 openai、 gemini 等主流模型。最后一步提醒提醒大家,获取访问需要的 token 令牌。安装完成后,需要进入安装目录的 data com 文件夹, 打开 openclaw, 点 json 文件,找到 getv 模块,获取 token 令牌,之后将 token 记录下来,完成 web 访问地址的拼接。配置拼接好后,会设置为快捷访问地址, 就可以直接点击跳转进入 openclaw 的 操作界面。基于以上,我们需要提前部署好的 e panel, 并申请到对应模型的 api key。 一 panel 的 安装仅需要一条命令,模型则在各模型供应商处申请即可。接下来我就用已搭建好的 e panel 环境带大家实操一遍。 在应用商店找到 openclaw, 直接点击安装容器名称,最新的一点二九版本 web ui 端口一八七八九和幺八七九零, 这些默认参数都不用改。模型方面,我准备了 deep seek, 直接把文档里的 deep seek、 deep seek chat 复制到模型输入框,再粘贴提前准备好的 api key。 token 暂时留空,按提示后续从配置文件中获取即可,需要随意勾选开启端口外部访问。这里也提醒大家,公有云服务器要提前在后台开放对应端口,避免访问失败。所有参数配置完成后,点击确认,一 panel 会自动拉取镜像创建容器, 整个过程速度非常快,很快就能显示安装成功。安装完成后,在 e panel 已安装应用中找到 openclaw, 进入安装目录,在 data com 下打开 openclaw, 点 json 复制 get 位中的 token 令牌, 再回到应用的参数定义页面,点击编辑,把 token 粘贴进去并保存记录。之后将 token 与服务器 ip y ui 端口进行拼接, 拼接格式为 ip 地址加端口加 token 等于令牌。拼接完成后,输入到 web 访问地址中,然后重建应用,最后通过点击跳转就能进入操作界面,到这里整个部署就完成了,全程没有任何复杂操作,小白也能轻松搞定。部署完成后,我们来体验下 opencloud 的 实际功能, 我直接向他发送指令,帮我整理一份系统资源清单,存储在新建的小白跃升房文件夹中。发送指令后,能清晰看到 open cloud 干活了。过程中如果某个命令获取不到信息,它会自动尝试其他命令,直到操作成功。最后它会整理出完整的系统资源清单, 还会在对应文件夹中生成资源信息、文件资源快照以及一份 random 文档,清晰标注整理的信息内容。整个过程无需人工干预,完全由 ai 自主完成。最后我们到服务器的 data workspace 目录下, 就能找到 open cloud 生成的所有文件,各类信息整理的条理清晰,这就是属于我们自己的 ai 助手,不仅能帮个人处理各类电脑操作,在企业场景中也能完成很多办公任务,实用性非常强。以上就是通过 e panel 一 键部署 open cloud 的 完整教程, 相比传统部署方式,这个方法省去了大量命令操作和配置步骤,真正实现了简单高效部署。感兴趣的朋友可以自己尝试一下。