很多同学在安装 openclaw 的 时候,都会问到一个问题,到底应该装在自己的电脑上,还是把它放在云端服务器上呢? 这看似是一个非常简单的选择题啊,但是实际上它关系到你的数据安全、成本投入,还有长期的使用体验。那今天我们就好好聊聊这个话题。 首先我们要明确一下概念,所谓本地安装,就是把你的 macbook, 也可能是家里的 windows 主机,它就在你的身边,触手可及。 而云端安装呢,就是你在云厂商那里购买一台服务器,比如阿里云、腾讯云,然后把 open call 装在远程的机器上, 你通过 s, s, h 或者是网页的终端来访问它。那听上去好像差不多,但实际用起来啊,差别其实挺大的。 先说本地安装啊,它最大的优势就是方便你用自己的电脑,不用额外花钱,也不用学习怎么管理云服务器。文件呢,就在眼前,调试起来也直观,但问题也在这里。第一就是它没有隔离环境, openclaw 会访问你的文件系统,读你的配置,甚至可能调用你电脑上的其他工具。这意味着它和你的个人照片、文档、浏览器记录都在同一个空间里,一旦配置不当,或者有恶意的技能泄露,风险是非常真实存在着的。 第二就是资源受限,你的电脑要同时处理工作啊,娱乐还有 openclaw 的 运行内存不够就是不够,也没有办法动态扩容。 第三就是成本啊,其实不低,有人说我用现在的电脑不花钱,但是长期来看,如果你的电脑因为跑 agent 变得更慢,发热、耗电,那这些都是隐性成本,如果你想彻底隔离的话,再买一台独立的电脑,比如说很多人去买了 mac mini, 对 吧? 短期来看,这是一笔不小的开支啊,我认为其实不太划算。那再看云端呢?第一,他天然隔离,云服务器就是一个完全独立的环境,他接触不到你个人电脑上的任何文件,所以就算出了问题,最坏的情况就是重装服务器,不会拨及你的隐私数据,这一点我比较看重。 第二,就是弹性灵活,云厂商现在的一键部署是非常方便的,遇到问题呢,你还可以提供单,有人帮你排查,那更重要的是你可以随时扩容,内存不够了可以加, cpu 不 够了可以升,那这种灵活的特性啊,自己的电脑啊,其实很难做的。 第三,就是可以按需付费,云服务器的租赁制度呢,让你可以根据实际的使用情况选择配置,初期呢,可以低配,等你的业务跑起来了, 消耗的资源用量非常多了,你再去升级,不用一次性投入一笔非常大的资金去买硬件。所以回到最初的问题啊, opencloud 装在哪比较好啊?我的答案是,对于大部分的同学,尤其是刚开始接触 agent 的 开发者,我是比较推荐云端去安装的,它能提供一个安全隔离,可扩展的环境, 让你可以专注于 agent 的 开发和使用,而不是担心隐私泄露,或者是对云完全是陌生的。 那你也可以本地安装一个作为起点,但是我建议你尽早的迁移到云端,把它作为一个长期的投资。 ok, 今天的分享内容就到这里,如果你有关于 opencloud 的 部署问题,欢迎在评论区留言,我们下期再见。
粉丝55获赞339

本期视频继续为大家分享 openclaw 的 使用技巧还有使用经验,并且还会为大家重点演示 openclaw 中 a 整数的高级使用方式。 通过最近这段时间高强度的使用 openclaw, 我 最大的感受就是 openclaw 可以 说是二零二六年最伟大的 ai 智能体,而且在未来几个月还会有更多基于 openclaw 二次开发的各种变体出现, 并且人人都会有自己的 openclaw, 甚至可以实现。人类只需要给 openclaw 下达指令,一切工作都会由 openclaw 自主完成。 因为最近几天所有的编程任务我都是直接向 openclaw 下达指令,然后由 openclaw 完成所有的开发工作,所以说 openclaw 堪称 aia 整合的终极形态。 好,下面为大家详显是 opencloud 的 使用经验还有使用技巧。首先我们得设置一下 opencloud 的 模型容灾机制,在这里我让 opencloud 可以 出当前模型容灾的配置代码还有文件路径, 然后这里就是 opencloud 给出的模型容灾配置文件的路径。然后我们可以详细看一下我这里是如何配置的这个模型容灾机制。首先这里是配置的核心容灾, 这里我设置的这个主模型就是 ospec 的 cloud ops 四点六模型,也就是这个模型,只要它的额度没有耗尽或者没有被限制,那么在这个主 agent 中,也就是当前对话的这个 agent 中,它默认调用的模型就是我们设置了这个 ospec cloud ops 四点六模型。 假如使用了这个模型,额度用光了,或者是出现了问题,或者是被限制了,然后就会从这个 fallbacks 列表中率先选择 open in i codex 的 gpt 五点三 codex 模型, 假设这个模型也不能用,那么就会选择谷歌 antigravity 中的 cloud ops 四点六 sync 模型,所以做了这个模型熔灾机制,哪怕我们所使用的这个主模型,它突然没有额度不能使用了,那么在 opencloud 中,它也会自动切换到 fourbacks 列表里的这些模型。 像这样的话,我们就能保证哪怕主模型出了问题,然后我们的 openclaw 也能正常地来使用,而不会因为我们设置的主模型出现额度限制,然后整个 openclaw 都不能使用的情况。 所以说我设置的这个熔灾机制,它的执行流程就是当 isopec 它的模型不能用了之后,就会自动切换到 openai 的 codex, 如果 openai 的 codex 还不能用的话,那就自动切换到谷歌的 anti gravity。 想设置这个模型融灾机制非常简单,我们只需要在这个代码文件中添加好我们作为融灾机制的其他模型就可以。而且在这里我还实现了多认证还有 token 的 轮换。在这个配置文件中,我登录了 openai 的 codex, 然后这个认证方式就是 oos, 在 这里我还登录了 osmopy 的 账号,在下面这里我还登录了两个 anti gravity 的 账号。假设在使用 anti gravity 的 情况下,比如说第一个 anti gravity 的 账号,因为额度被限制了,那么就会自动切换到第二个 anti gravity 的 账号, 像这样的话,我们就能实现 antigravity 两个账号的轮询。而且在下面这里我还为我创建了这些 agent 分 配了不同的模型,像这个创建方式与分配方式,我在上期视频也为大家演示了,比如说这个 agent, 它使用的模型就是 cloud ops 四点六模型, 然后我还创建了用于文档编写的 agent, 给它分配的模型是 antigravity 里的 cloud 三奈特四点五模型。 所以大家想自己设置的话,只需要更改这个文件,然后加入你所增加的这些模型,然后也可以直接让 open cloud 为你去新增这些容灾的这些模型。 下面再为大家讲解一下 open cloud 中它的记忆搜索的功能,在这里我直接用提示词让它将记忆搜索的配置文件路径还有配置的这些内容将它展示出来,这个文件路径就在这个位置。 然后我们看一下我是如何设置 openclaw 中它的记忆搜索的这个功能。在这个配置文件中就可以看到它会解锁 openclaw 它自带的记忆系统以及解锁 sessions。 而且这里我开启了它的实验性功能,也就是 session memory, 将它设为了 true。 在 魔性提供商这里我设置的是 gemini, 在 这里就是设置的 gemini 的 api key, 在 它的魔性 id 这里我使用的就是 gemini 的 amber 零零幺这个模型。在这里我之所以使用 gemini amber 零零幺这个模型, 而没有选择用开源的 q m d 这个项目去实现记忆解锁,主要是因为 q m d 它需要下载 g g u f 模型,还需要实现常驻后台进程,而且占用内存还有 cpu, 所以 我选择了使用 jimmy 的 安邦尼模型, 像这样的话就能实现只需要设置一个 api key 就 可以实现混合搜索,从而让 opencloud 越用越聪明。下面我们再看一下第三个技巧。第三个技巧就是用云端的 opencloud 来连接我本地的 micros 系统, 在这里并没有用到内网穿透等操作,因为我使用的是云端的 opencloud 与本地的 micros 通过 node 进行配对,也就是在本地 micros 上通过 ssh 反向隧道连接到云端的 opencloud。 然后我们可以看一下这个架构图。首先云端的 opencloud 它就相当于一个真正的 agent 和大脑,它能通过路由工具来调用其他的 agent 和 server 来实现 node 指令的分发, 它可以通过 web socket 的 指令将指令通过 node 发送给 micro s 来实现调用相机实现屏幕截图,实现执行命令等操作。在本地 micro s 上它就是使用的 ssh 反向隧道出站连接, 因为它是主动出站,所以不需要内网穿透,也不需要端口映设等这些复杂操作,而且我们只需要用命令来启动这个 node 就 可以。下面我们就可以看一下这个效果。 首先我们打开本地的终端命令行为,确保它真的是通过 node 进行配对。我们可以直接用这条命令直接将本地的 get 位彻底关掉,我们直接执行这条命令,这里就将我本地的 get 位彻底关掉了。然后下面我们只需要在命令行中来启动 node 就 行。 我这里将启动方式做成了快捷命令,我只需要输入 a g i, 然后就可以启动,我们直接启动好,这里提示正在建立 s s h 隧道,然后我们就可以回到 open cloud, 然后给他下达一个任务,让他从云端来操控我本地的 micro s 系统。 在输入框我们可以先输入一个指令,我输入的是检查本地 micro s 和你是否建立了连接,然后我们看一下它输出的状态是怎样的, 在这里它很快输出了状态,在这里就是我的 micro s 连接状态,就是在线所具备的能力,就是浏览器调用等等能力, 在这里就是 micro s 隧道正常运行,可以执行远程命令。在这里我们就可以给它下达一个任务,我输入的任务就是通过 micro s 上的 cloud code 调用浏览器发一篇 expost, 内容就是你对 opencloud 未来发展的预测。然后我们直接发送,看一下它能否通过云端调用我本地 micros 上的 cloud code, 再通过 cloud code 调用浏览器实现发布 x post, 它自动打开了我本地的 micros 上的浏览器。 好,可以看到它自动打开了 x, 并且自动输入了要发布的内容。 好,可以看到它这里发布成功,然后这里提示发布成功。这样的话我们就实现了让云端的 opencloud 通过 node 操控我们本地的 cloud code, 实现浏览器调用。 下面我们就可以输入提示词,将云端 opencll 与本地 micros 通过 note 配对的步骤写成笔记,这样的话大家就可以将笔记发给自己的 opencll, 让自己的 opencll 根据笔记来实现配对。在这里就是他给出的笔记,像这些笔记我会放在我的簿刻中,大家可以从我的簿刻去查找。 好,下面继续为大家讲解 openclaw 中 agent 的 更多使用方式。在这里我创建了四个 agent, 并且放入了四个群组,我创建了这四个 agent, 它们的作用就是一个开发团队的详情,这四个 agent 呢就相当于四大专职的 ai 成员, 其中这一个 agent 呢是负责写代码的,这个 agent 呢负责进行测试,然后这一个是负责文档维护,还有这一个是监控这些运行状态的。 我创建了这四个 agent, 他 们的运行方式跟之前视频里为大家演示的是不一样的。目前我创建了这四个 agent, 它完全是由主 agent 进行调度, 而且具备三种协助模式。第一种协助模式就是限性流水线协助模式,也就是由主 agent 作为调度中心,它作为总指挥,它会根据我们下达的任务, 将任务委托给下面的这四个 agent, 最后就会根据我们下达的开发任务产出最终的成品,包括代码、文档等内容。 它支持第二种写作模式,也就是依赖图。并行写作模式,首先可以根据任务来声明依赖关系,依赖满足之后就会并行派发多个 agent, 比如说有主 agent 进行调度,可以同时调度这个用于文档维护的 agent 呢,还有代码编辑的 agent 呢?然后再并行调用这两个 agent 呢? 最后再并行调用运行测试的,还有编辑文档的,最后给出最终的审查还有交付。像这样的话,我们就实现了一个更加灵活的 agent 的 写作工作流。然后我还实现了第三种写作模式,也就是多 agent 的 辩论, 我是受 cloud code 的 agent teams 的 启发来实现的,像这样的话,我们就可以在 open cloud 中实现让我们创建的 agent 进行多阶段的辩论, 首先我们只需要提出一个辩论的问题,然后由主 agent 进行调度,然后创建这一些控制文件,然后就进入了第一轮辩论,主 agent 呢就会派发任务给这三个 agent 呢, 然后这三个 agent 的 辩论结果再由主 agent 收集,然后再进入第二轮的辩论,再由主 agent 来生成这些任务,再委派给这三个 agent, 到这一个阶段就会进行综合决策,这些辩论内容就会汇总给主 agent 进行综合决策,最后给出最终的建议, 像这样的话我们就能真正发挥出 open class 它的多 agent 的 优势。下面我们就可以测试一下这三种协助模式中的第一种,然后我们只需要在这个主 agent 中输入提示词就可以, 我这里输入的提示词是让它使用 team task 限行模式开发一个 python 脚本功能就是抓取这个网站的前十条新闻,然后我们直接发送,看一下这个效果。 好,这里提示这个任务已经完成。当任务完成之后,我们就可以看到这四个群组里,这些 agent 分 别输出了自己所完成的这些任务。第一个阶段就是由编辑代码的 agent 还编辑代码。第二个就是由测试的 agent 进行测试,包括十一个测试全部通过,百分之九十八覆盖率。 第三阶段就是文档编辑的 agent 来编辑这个 readme 文档,包含安装,使用方式等。最后就是由这个审查 agent 进行质量评分,评分结果就是生产级的代码, 然后它帮我们实现的这个代码就保存在了这个位置,这里还给出了运行方式,像这样的话我们就实现了这个多 a 帧的场景中限性流水线的这个写作模式, 由于时间有限,剩下的这两个场景就不再为大家测试了,我已经把它做成了 skill, 然后大家只需要将这个 skill 安装到自己的 open cloud, 然后就可以在 open cloud 中使用这三种模式进行项目开发。

不要再花冤枉钱了,三分钟教会你本地部署 oppo klo 阿亮的视频主打一个手把手哈喽,大家好,我是阿亮,最近很多很多粉丝给我留言,想要付费安装 oppo klo, 但我感觉这钱挣了呢,有点心虚,因为这个安装真的太简单了,它就不值几百块。 可能是因为 openclaw 呢,稍微偏技术,把大家呢吓住了。要想使用 openclaw, 目前呢有三种方式,第一种,云服务器部署,比如阿里的轻量服务器部署。第二种,使用别人部署好的云,比如 maxclaw。 最后呢就是本地部署。前两种我都讲过,今天呢只讲如何本地部署。先说一下本地部署的好处,可以直接操作你的电脑,生成的文件呢也都在你的电脑上,可能使用起来更方便,也省下了服务器的费用。 至于很多人担心的安全问题,我个人呢是比较开放的,全世界的人都在优化这个项目,有多少双眼睛在替你盯着? 本期视频我会分别讲解,在苹果和 windows 上安装 openclaw, 真正做到手把手教学。按照我的方法一步一步往下走,八十岁的老大爷,他都能学会 安装方法。我也更新到了这份 openclaw 文档中,里面有大量的 openclaw 实用教程,如果你需要,我也可以发给你。 那么话不多说,接下来我们直接开始。无论是苹果还是 windows, 安装方式呢,都有两种,第一种呢是傻瓜式方法, 如果你已经安装了 cloud code、 open code, 或者说是 code work、 user tree 等 ai 客户端,那么只需要两句话就可以安装成功。打开你的 ai 工具,然后输入这句话,帮我安装最近很火的 open cloud。 接下来你去申请一个大模型的 api k, 再输入这句话,帮我配置模型, api k 式输入你的 k, 就这么简单。如果没有这些 ai 客户端,那么接下来我教大家手动安装也很简单,三分钟内保证你学会。大家呢可以根据自己的电脑系统点下面的进度条,跳转到对应的位置观看。首先是 windows 安装,第一步,安装 node 点 gs, 打开 note 官网,点这里下载安装包,下载完成后双击安装就可以。第二步,安装 get, 打开这个网站,点这里下载,然后双击安装。 第三步,同时按住 windows 加 r 键,回车,就会出现这个黑色的窗口,然后把文档中的这句话输入进去,大概一到三分钟,出现了这样的界面,就代表安装成功了。 然后输入这一句 open clock on board 键盘上下键切换,选择 yes 回车, 选择快速开启模式回车,这里是选择模型,我选择的是千万的模型,有很多免费额度,选择默认的这个,然后会弹出千万的页面让你登录,登录成功后还是会回到这个窗口,选择默认的模型就行, 选择直接跳过,后面我们再单独讲如何接入 r m, 这里选择是否加入技能,选择 no, 我 们后面呢再去配置技能,是否接入钩子,我们不需要直接跳过,按照他的提示操作就可以,这里选择跳过, 弹出的网页有可能会爆红,如果爆红,那么新开一个终端,输入 opencloud dashboard。 稍等一会儿,我们在浏览器打开这个网址, 就会看到龙虾的界面,这时重点看右上角的健康状况,写着正常两个字,有一个绿色的点就代表龙虾安装成功了,我们来测试一下。哎,看到它有回复了, 恭喜你进入龙虾的世界。接下来是苹果电脑的安装第一步,先安装 node js, 注意版本号一定要大于等于二十二。把文档中的这行命令复制到终端,接着把第二个命令复制到终端, 然后把第三个命令复制到终端。稍等一会儿, node 点 js 就 安装成功了。接下来把这行命令复制到终端,就开始安装 openclaw 了。 有了这样的提示就代表安装成功了。接下来我们选择 yes 回车,选择 quickstar 快 速开始 回车。这里是选择模型,我们就选择阿里的千万模型,有很多免费的额度,然后会弹出一个页面让我们登录,登录好之后就可以关闭这个页面了, 选择默认的模型就行。接下来是接入 r m 啊,先跳过,后续我会单独教大家怎么接入,微信、 qq、 钉钉、飞书等。下一步是问你要不要配置 skills, 这里我们先不配置,先保证部署成功,然后继续跳过, 这是 open call, 就 已经部署好了。这里是选择呈现的方式,可以根据你自己的需要去选择。一般呢,我们就选择第二个网页的方式呈现, 然后会弹出一个网页,这是重点看右上角的健康状况,写着正常两个字,有一个绿色的点就代表龙虾安装成功了。点击对话框进行对话,这里我发一个嗨, 他又回复了,就证明部署成功了。恭喜你进入了龙虾的世界。安装好之后,就可以根据自己的需求配置各种工具,比如先配 qq、 钉钉、飞书等,我们可以手机控制龙虾。下期视频我会单独教大家如何配置 r m。 很多人说这玩意一点用没有,那可能确实是你不太会用,要是没用也不可能成为全世界最火的产品。 为了帮助大家用起来,近期呢,我也会更新一些 open call 真实落地的手把手教程,教程会同步更新到我维护的这个中文文档中,比如让他二十四小时持续不断的为我们干活,协助我们挣钱养家。大家点点关注哈,跟着阿亮学 ai!

这是 openclaw, 它的部署并不简单,需要由你的电脑二十四小时挂着。这是 kimi claw, 只需要点击这个创建按钮就可以部署完成并使用。我创建了三个 kimi claw 机器人,并把它接入了这个非输群中。现在我发送一条指令,比如说集合,他们都会回复收到。现在我给它们一个复杂的指令, 让他去 github 仓库上监测一个更新,如果有更新,那就生成一份报告给我。好,我们来看看他会有什么回应。我们可以看到现在他就已经给了我回应,并完成了刚才我给他的任务。那这个过程是怎么实现的呢?首先我们打开 kimi 的 网站,在这里选择 kimi clock, 然后点击这个创建 好,这样就创建成功了。我们直接把提示词发送给他,告诉他我们是谁,还有他应该叫什么好,这样他就明白了。现在我们打开飞书开发者后台,然后点击这个开发者后台, 然后创建一个企业自荐应用,我们给他起个名字,比如 ce 的 kimi 啊四号。好,然后用描述,我们也给他起一个名字, 这里我们给他设置一个图标,点击创建好的,这样就创建完成了。我们回到 kimi club, 点击这个设置图标,然后打开这个用户手册,在这里呢,我们把这串代码复制下来,点击这个权限管理, 然后点击批量导入或导出权限,我们就把这串代码粘贴下一步好,然后就把这些所有权限都开通就可以了。好,我们点击这个凭证与基础信息,复制这个 app id, 然后回到 kimi, 告诉他帮我配置, 然后给它粘贴过来,然后回到这里,我们复制一下这个 app secret, 然后再发送给他。在配置的时候,我们回到这里,然后点击添加应用能力,这里我们记得添加一下机器人,这个能力。好,这样它会成功了。它是要重启 getaway, 我 们点击这里的重启 kimi klo, 然后点击重启。 我们回到飞书,点击事件已回调,然后在这里定义方式,点击这个铅笔,选择长链接,点一下,保存好,这样它就成功了。我们点击添加事件,然后这里会输入接收消息, 然后勾选这个,点击确认添加。点击创建版本,这里我们创建一个版本号,比如我输入一点零点零,只要这个描述,我们也输入这个好,然后保存确认发布好,这样的话我们就发布成功了。现在我们打开飞书这个软件,然后打开我们的 kimi club, 我 们就可以试着给它发一条消息。 好,这样我们就看到它成功的回复了。如果它提示需要一个权限的话,我们可以回到飞书里面,给它添加这个权限。 好的,这样我们就成功地部署好了 kimi cloud, 并把它接住了飞书。总结一下, kimi cloud 就是 在 kimi 的 环境里面一键部署了 opencloud 的 功能, 帮你省掉了买麦 mini 和配置环境这些步骤。它的好处是上手快,能在聊天中不断了解你有技能库和定制任务,而且内置了 kimi api。 但它的局限就是只能在 kimi 里用,不能操作你的电脑,暂时不能把虚拟机的文件发送给你。

想不想拥有一个二十四小时在线的 ai 员工呢?最近 oppo klo 特别火,我在云服务器上也折腾了一个,接下来带大家体验一下我在云上折腾 oppo klo 的 一个过程,还有使用之后我对它的真实看法。当然我这两天时间还没有部署完成,也存在一个比价的环节啊。 首先是腾讯云,腾讯云是比较实在的,他能够二十块钱买一个月的服务器,因为你如果是选国外的节点的话,他能够 使用里边的这个搜索功能,如果你选国内的节点,它搜索功能是不能用的。当然我也是对比了这个阿里云,阿里云的 open globe 是 原价五十九,它其实有一个抢购的计划,抢购的计划它能够做到好像是 九块钱买一个月,但是你如果是续费的话,他是按照原价来续费的。腾讯的续费仍然是二十块钱,这个比较方便一些。这个百度他有一元的抢购,但是我没有抢到,所以不知道他到底好不好抢。 如果是你,他的正常购买的话,就要买他幺五六的幺五六,但是他是买一年的,价格是挺便宜的。 但是,但是他这个有问题,他的地域呢?北京跟广州,所以他部署上去之后,应该搜索功能是用不了的,所以这个体验感到时候功能限制性就会很大。到最后我选的是腾讯云的服务器, 买了之后呢,他这个部署是相当简单的,虽然说已经是在云服务器上了,会省很多时间部署安装的过程,但是他配置的过程也是挺麻烦的。我觉得想用这个其实难度并不是特别小, 你看先配这个 openid, 我 就要选接入的即时通信工具,我就选飞书,飞书我已经我已经配置了。跳过选飞书这一步其实挺麻烦的, 因为你要去跳到飞书的官网上边去创建一个应用,获取这个应用的 api k 跟 secret。 另外你需要把这个应用里边加入这个机器人, 所以它才能有即时通信的机器人工具帮 openroot 来接收消息。所以这一步我大概用了一个多小时啊,这里配置 skill 现在也可以先用上,简单一点。 那现在我首先这里边点空格就能够选中你要装的哪些东西? gmail 跟 github, 我 先装上这些不太认识的,这个大概知道是干啥的, 所以我也先装上。上边还有苹果 note, 默认,其实这些都不知道是怎么用的,干啥的默认我,我感觉应该是做笔记。你可以, 因为它是云服务器,我本地当然有服都当然有默认,但是在云服务器上的话,我就需要把它复制上来。 行好先好,就这样等空格,空格它就会去安装,选择依赖。 但是我觉得现在有一有一个麻烦的事,后边我都需要通过这种没有界面的方式来访问这个台服务器和操作这台服务器我觉谷歌的 g p i k 我 感觉也是比较困难的,来获得又是比较困难的一步。 还有 notion, notion 当然是做笔记的 open ai。 呃,位置不变生成的。下边这个是什么?不太认识啊。 这个也不知道是干啥的。另外装 fox, fox, 因为这个其实不消耗资源, 我觉得都装上吧,现在为 siri c c installed install 你 装好之后重启吧,其实它之所以强大,首先它需要很多其他的软件来支撑啊, 另外有这些软件,当然你也需要有其他的软件的这些工具的账号,所以这账号也是另外一个麻烦事。返回服务器,我看现在看他文档怎么来操作。在配置完成之后,通过文档就能够看到, 看一下,通过文档就能看到。完成以上配置之后启动 get 位啊,这样就能够启动这个,现在按照他的文档来启动一下试试。应该他启动之后会打开一个软件, 现在这里它提醒我,我的 open core 已经启动了启动,但是应该怎么用呢?看一下我的乖乖啊,你启动这个 open core 之后呢?这个界面上服务器上是没有任何反应的,你看它现在这个 说明文档上边,比如说你配置了 discard 或者是飞书,你就需要下载飞书跟你的机器人进行聊天,这样通过聊天的方式给这个服务器发送指令。这个服务器呢,可口可乐在服务器上接收到你的消息,他通过理解你的自然语言去分解任务, 然后调用各种各样的工具来帮你完成这个任务,基本上就这样,所以现在我需要安装一下飞书,不是经常用飞书的人可能都不知道怎么去添加机器人。 腾讯文档上就没有啊,我是看的阿里云的文档,我现在就试一下在飞书里边创建一个群聊,添加一个机器人,添加机器人的时候,往下拉就能看到自己创建的这个自动回复机器人点一下,这无所谓啊,因为没有别的人, 现在他已经正常运行了,我现在看能不能往里输入啊,看他有没有什么反应。 我先不等他了,我在这个在这个飞书文档里边直接问他,金融大师,难道我有我艾特他一下吗?艾特他一下是啥?因为之前没有用过飞书文档,所以不熟 梳理 l l m 发展趋势好了,同样需要艾特他一下。应该是需要艾特他一下,要不然他这边接收不到消息。可能, 但是他在服务端这边不会看到他运行的对话,处理对话的过程感觉不太靠谱,不知道这个时候我应该怎么去检查一下,检查一下到底是谁来处理的这个东西,谁来处理的这个消息。 接着我想让他总结我 obsidian 下边有什么东西。这个时候呢,可以看到他不知道我的 obsidian 的 文件内容在哪个地方,所以我还需要告诉他我 obsidian 的 笔记文件放在什么位置, 现在可以看到我告诉他我的 obsidian 的 根目录是在什么位置,他就给我回复了。 这也是我在服务器上放的两个文件,一个是读书笔记的,另外一个是关于篮球的,他就告诉我这些内容,这个就算是基本打通了,也实现了一些简单的功能。我觉得通过云服务器简单体验了这个 open globe 它的功能,它云部署第一个优点就是它这个部署的方式特别简单,还有一步一步的配置的流程。 因为这些云厂商他们已经做了这个 opencloud 它的镜像,这些镜像使用起来会特别的方便,就是节省了我们安装的一个过程,我觉得第二个优点就是它能够二十四小时不间断的运行吧,这也是一个服务器应有的一个优点。 另外一点就是他不会破坏我们本地的环境,因为他是一个独立的私有的一个服务器。说完这三个优点呢,接着我觉得比较大的缺点有那么几个,最大的一个缺点就是在于我们需要不断的去维护里边的资料, 其实很多时候我们并不想去另外维护一份这种资料,为什么呢?比如说我想要像这个作者他那样说自己要定一个机票,有一些自己的个人资料在本地存着。 那么你让 open 来做这个事呢?他就会自己去找这些资料,打开网站,把需要的资料去填进去, 通过分析去筛选一个比较合适的航班啊,帮你买下来。如果是你在 云端使用这个过程的话,就算他有无头的浏览器,不用你操心,但是你仍然需要把自己的这些资料传到云服务器上一份。那么这个跟自己订机票中间省了多少时间和工作量呢? 这个很不好说,我觉得另外一个就是缺点我觉得也很大,在云服务器上他的 open globe 没有这个界面,这就算是对程序员来说, 比如说你在用 obsidian, 需要打开设置,设定一个根目录,才可以知道哪些文件属于你这个 obsidian 的 这个文件内容。当然还有更多的软件是有这方面的问题的,我觉得这个是对大多数人来说是比较难使用的啊。 通过这个视频大家应该能够知道 open globe 能够实现大概什么样的功能?希望这期视频能够简单的帮你认识一下这个当下最热门的 open globe, 它是一个什么样子的东西。评论区里边可以聊一下大家对 open globe 它的一个看法。

最近爆火的 opencurry, 普通人到底能用它来做什么?它能二十四小时帮你提提它价格,寻找最新最前沿的一手 ai 资讯,能把各个平台收藏家,里面内容打好,标签存到知识库,还可以打通 mac、 ipad、 iphone 日程,让你不错过重要的会议来 十分钟学会 opencurry 安装和三大超神玩法视频里面所完成教程配置这些词 skill 都放在这个文档里面喽。 我们先来看看 open curl 到底是什么?一句话总结,概念上, open curl 是 一个可以自己决策、自己行动的 ai agent, 和你电脑上的其他软件一样,装上就可以用。 功能上它接受你聊天输入框输入的指令,然后调用 chgbt、 jimmy n 豆包千万这些大模型作为大脑来决策,在这里拆解步骤,调用你电脑上的其他软件工具来完成你的指令具体的功能。看完我后面的玩法教程你就明白了。 我们普通人要用 open curl, 主要是与服务器部署和本地部署两种方式。与服务器部署别看听起来很唬人哈,这些操作反而更简单,跟小白友好, 因为各家云计算大厂为了争抢这个风口,都尽可能的降低门槛,计算模型、计算配置、教程也都给你写好了,一两个小时就能搞定。与服务器部署入口和教程都放到教程文档里面喽。 但如果想把 open curl 玩出花来,就推荐部署在本地了,尤其是 mac 生态呢,会更丝滑,为官方提供了很多 g 苹果系统的 skill, 拿来就能用,所以 mac 上玩功能呢,更丰富。但一定要注意,最好不要部署在平常办公的电脑上,让 open curl 那 天抽了风,把你的重要文件删光了。 那本地部署主要有四步,一个就是安装 open curl, 在 mac 终端里面输入这行命令就搞定了。第二是配置底层的大木星, 这决定了你养的龙虾的智商。国外的模型功能是 cloud 的, 加的最好用,但也很贵,而且很难获取 api。 其他用的比较多的就是 jimmy、 nike gpt, 国内模型也有不少不错的。现在大部分人是在用 mini max 二点五、 kimi 二点五、智普的 g l m 五这三个。那具体的配置方法我都会在教程文档里面介绍。 第三步是配置机器人,把 open curl 接入你的日常通讯软件,国内的话可以接入飞书、 qq、 钉钉企业微信。配置方法可以参考大长写的这些文档。最后一个就是安装 skill, 给他装一个机票价格,监控 skill, 他 就能够直接帮你监控机票的价格。 我整理了普通人日常必备的几个 skill, 都放到教程文档里面了,大家可以先照着装上。如果你要用其他的 skill, 但不知道去哪里找,那可以直接让他用这个 find skill 帮你找就行。比如说我想监控机票价格,让他帮我搜索相关的 skill, 他 就搜到了监控机票价格的 skill, 我 装上就可以用了。 我估计很多人跟我一样,某书微信收藏必吃亏。 那现在 opencurry 可以 改变收藏及吃亏的尴尬了。比如我自己做了这个整理收藏内容的 skill 给我的 opencurry, 我 现在在某书某号上刷到有价值的内容,直接转发给 bot, 它会自动提取内容的信息,打好标签,然后传到 obsidian 数据库里面, 把之前散落在各平台的收藏夹里面内容汇总到一起。每天早上九点半,我的 opencurry 会根据爱宾浩斯一共取现的规律,算出今天需要回顾的内容,推送给我, 能知道你在第一天、第三天、第七天这些关键的节点去提醒你回顾收藏的内容。比如你收藏了一篇 open curl 高级玩法教程,只是没有动手实践,就可以用这个回顾机制来不断的提醒自己,而不是收藏就忘。或者你收藏的行业知识,就可以通过都是回顾复盘 来加深记忆。如果偶然想起需要用资料,就可以和 boss 对 话,查这些内容。比如我让他调出和 open curl 有 关的内容,整理成表格发给我了,特别的方便, 再也不用去一个个收藏夹一个一个翻了。能让 open curl 实现这样的一个收藏管理的功能,非常简单,你只需要把这样的一个提示词 get bot, 像我们前面说的那样,它会自己创建一个收藏管理的 skill, 然后你边用边调试就可以了。 这些词我都放到教程文档里面了,大家可以直接用哦。你甚至还可以接入 open curl 的 skill 市场, curl up, 还有全球超强资源网站 get up, 让 open curl 在 这些平台上找大佬们已经做好的工具来拓展功能。 比如我做这个收藏系统的时候,遇到一个难题,就是当我把一篇文章的链接发给了 bot, 它只能保存了一张标题和链接地址,不能读到文章的具体内容,但我这内容又是最核心的部分, 那就可以告诉 bot, 在 github 上找一个能读取网页内容的工具吧。那它就在 github 上找到了 x ray 的 这个开源工具,接录之后, bot 就 可以顺利地读取链接里面的中文内容了,再根据正文帮我做好摘药,把标签存进数据库,非常的方便。 opencrew 还有一个很爽的用法,就是做咨询收集。比如我是 air 博主,我希望第一时间知道最近 airm 已经发布行业大佬观点这些一手消息, 这些信息如果靠我自己去刷,非常的耗时间,而且很杂乱。我就把 opencrew 做成了我的情报助理, 二十四小时不停地帮我收集一手猎爱资讯。比如我可以让他搜某个特定的关键词,比如让他找近三天有关上关于 open crow 比较爆的视频,他马上就能把相关的内容收集到给我。他还会反过来问我是否需要帮忙收藏到知识库,需要的话直接加到 opc 店知识库就好了。 高价值信息的搜索收藏,后续按机取现推送给我重温。所以我的时间用 open curl 看这些降噪后的 ai 前沿资讯,真的非常强大好用。要做出这个情报收集功能,你只需要先装上这些 skill, 把这些信息员的 a p i 发送给 bot 就 行了。那这些我都整理到文档里面喽。 我们之前也分享过用 n 八 i 搭这种情报收集工作流,但工作流搭建起来很复杂,门槛还挺高的。用 open curl 的 话,你只需要把信息源的 a p i 给 bought, 它自己就配置好了。 而且前面讲到按关键词搜资讯,这些 open curl 的 灵活性也比 n 八 i 强很多。 open curl 还支持你在 github 里面找开源工具,想要什么你就搜索就行,比你自己去 github 官网搜要高效很多。 比如我让他帮我找 b 站有关的视频下载工具,他很快就找好了,还总结成了表格,方便我对比不同工具的区别,还附上了网页链接,给了我使用建议,真的很细致,很贴心。 更牛的是,这个 open curl 有 hotbeat, 也就是心跳机制,能帮你二十四小时做任务。像我是自媒体博主,需要监控对标账号的更新,这里我就用 open curl 监控了这七个有关博主,每两个小时他会自动检查一次,哪些博主有更新,就会把内容推送给我。你可以看这里的运行记录,他每两小时跑了一次, 之前人工去盯对标账号,费时费力,还容易漏用,这个盯效率高太多了。需要的话,你还可以用这个监控机票、价格等等,你可灵活的设置每小时甚至每分钟帮你检查一次,做情报,实时的收集定价格,非常的方便。 open crow 还可以帮我们搞定日程管理,它能一句话在 mac 上创建日程,然后直接同步到 ipad、 iphone 上。比如我在聊天框里面直接发创建一个会议日程,晚上七点到八点,它会自动帮我识别时间,生成日程标题,创建到 mac 日历, 然后通过 icloud 自动同步到我的 iphone 和 ipad 上。整个过程我就用跟 bot 说一句话,对比一下。之前创建这样一个日程,我得先填各种信息,还挺麻烦的,现在用 open curl 直接一句话搞定我刚分享的这些玩法,只是冰箱一角,大家还可以去各个平台看看到了我们做的各种玩法, 比如这个可以监控你的健康状况,这个可以帮助你培养习惯,监督你打卡,这个可以帮你做市场调研。 open crawl 热门的工具和 skill 平台我都整理到文档里面喽。 那这里是勋酱,关注我,带你解锁更多普通人的 ai 玩法,我们下期见,比比。

最近很火的 openclaw, 我 用了不到一个小时就搭建完成了,不需要买 mac mini, 且成本很低。今天的话呢,会通过视频手把手教你如何搭建一个二十四小时帮你干活的 ai 员工。 那其实搭建 openclaw 简单来说的话就三个东西,一台云服务器,一个 ai 大 模型和一个 i m 对 话工具。 那第一步的话呢,我们是需要云端的算力支持,不管是哪家服务器都可以选择这种能一键部署的,最方便是如果只是处理日常简单的事物,选择最便宜的就行,我选择的就是这个 服务器,选择完成之后,如果在这里你看到的状态是运行中,就说明服务器的出场已经成功了。继续点击右上角的这三个点顶部菜单栏,选择应用管理这个页面的话呢,你可以看到有三个模块,模型、 通道和技能。那模型其实就是 opencloud 的 大脑,你可以选择不同的 ai 模型供应商。通道的话就是 i m 工具要连上我们平时用的聊天软件,那我们还是一步一步操作。 第一步的话呢,就是配置模型,这里的话呢,你去选择你要配置的模型,选择谁家的,就点击下方蓝色的这个入口去获取 apik, api 呢,复制粘贴过来,粘贴完成之后的话呢,主要看下面这里的状态,如果是应用中就说明模型的话呢,已经连接成功了。 那第二步 i m 工具其实是跟上一步的操作是一样,你选择谁家的通讯工具,就点击下方蓝色的字体查看详情,去获取相应的 id, 复制粘贴过来。 下方通道的状态如果变成是运行中,就说明你你的 i m 工具也连接成功了,这个时候的话还不能直接使用,因为我们要给机器人去配置一些事件和权限。那这部操作的话呢,就需要到你选择的 i m 工具上进行配置,像我选择添加事件, 配置了一个接收信息的事件配置,这个的主要目的是当我在跟机器人发消息的时候,它能自动地跟 opencloud 进行同步。 设置好事件和权限后,下一步就是准备发布这个机器人上线,在这个版本详情页填写必要的内容,状态变成已发布。 接下来的话,就能看到你配置好的这个 ai 机器人,你看,这是我的 ai 机器人,美羊的 ai 助理,你可以试着去跟他说句话,你看,当我跟他第一次对话的时候呢,他给我发来了这样的一段英文。这个时候的话呢,也别着急,像我的这种提示,直接复制最后这一句英文提示, 再回到你的服务器里,在这里点击登录,它会进入到 open cloud 主机,把刚才的那最后一段英文直接复制粘贴到这里,摁一下回车。如果在页面看到了这样的一段提示内容,就说明已经成功了, 也在测试调优这个环节,大家遇到的问题可能会不一样,但是也别太担心,这个就是复制下来发给 ai 来指导你操作就可以。 当我完成这一步之后呢,再回到聊天界面去跟他进行对话,他就会跟我打招呼,并且自我介绍了是完成以上的操作, opencll 就 已经搭建完成了。当然 opencll 真正的能力其实还是大量的 skills 的 使用, 那接下来我会结合我的工作场景,如内容的创作、需求分析、产品设计等工作流步变成 skill, 并集成到我的 opencll 里边。后续也会基于这些场景继续跟大家分享我的 ai 员工是怎么帮我干活的。

这是一期保姆级的 opencall 云部署教程,适用于没有代码基础和 mac mini 的 普通人,帮助大家轻松上手爆火的龙虾助手,感受科技发展的推背感。实操文档我整理好了,放在了评论区。话不多说,我们直接开始第一步,购买云服务器。 更推荐大家用云服务器主要有两点原因,一是云服务器是二十四小时开机,随时在线,你的 mac 关机了, opencall 就 停了,而云服务器不会这样,你可以获得一个七乘二十四小时的智能助手。 二是目前小龙虾还不成熟,可以先用轻量化的方式体验下,后面再买硬件也不迟。关于服务器内存,至少买四 g 以上,内存太小根本跑不动,推荐直接上八 g 服务器,别买国内的,直接买海外的。 opencloud 的 很多功能,如搜索、抓取网页、调用 api、 装软件等都需要访问外网,国内服务器要配代理非常麻烦。 选一个离你近的地域,比如香港、韩国、新加坡,延迟会低一些。找到带有 opencloud 标签的应用镜像,直接一键安装。 也可以选择 ubanto 两千四百零四系统镜像,后续利用 cloud code 自动安装。第二步,创建飞书企业自建应用。首先用你的飞书账号登录飞书开放平台,创建企业自建应用。在左侧导航栏中找到添加应用能力,在弹出的列表中选择机器人,点击添加。 在侧边栏找到频距与基础信息,复制 f id 和 app secret 两个参数,将其保存下来,后续步骤中需要使用。第三步为 openclaw 配置模型和通道。我们进入到腾讯云控制台,选中已部署的 openclaw 服务器,点击服务器卡片,进入管理实力页面, 再点击应用管理选项。在模型配置这里,官方提供了国内主流模型厂商的配置选项,大家选择对应厂商,然后去对应平台获得 a p i t。 粘贴完成后点击一键添加并应用,如果这里没有你想用的模型,直接选择自定义模型,然后按表单填写,我给大家做了个示意,大家可以参考填写 模型。配置好后,我们配置飞书通道,把前面我们复制备用的 app id, app secret 粘贴进去,并点击添加与应用。第四步,完成飞书机器人权限配置。这一步主要是在飞书开放平台给机器人配权限和事件订阅,操作比较基础,大家跟着官方教程走就行, 这里不展开。完成配置后,进入飞书页面,搜索你创建的机器人,进入私聊页面随便发一条消息,首次对话会跳出这样的配对请求,可以复制机器人回复的最后一行命令行。接下来返回服务器控制台,选中配置好的 openclaw 服务器,点击登录,使用免密登录,在终端中粘贴上一部复制的命令,点击回车执行命令, 命令完成,执行后会提示配对成功。回到飞书再发一条消息,如果机器人正常用 ai 回复你,那么恭喜你部署已经完成,但部署完成还没到轻松的时候。现在 openclaw 还不是那么成熟,隔三差五会出点状况,别慌,掌握下面三个工具,基本都能自己搞定。 小问题就问官方知识库,现在云平台都配置了 ai 助手或者知识库,小问题问它效率是最高的。第二个工具,利用 openclui 快 速诊断。 toi 是 openclui 自带的命令行对话工具,不需要浏览器,直接在终端里和 ai 对 话。当飞书上机器人不回复时,先登录服务器终端执行 openclui, 发一条消息试试。 如果 tui 里能正常回复,说明模型配置没问题,大概率是飞书权限配置的问题。如果 tui 也不回复,那较大可能是模型配置出了问题。 我们就需要在云服务器终端请出 cloud code, 这是一个住在终端里的顶级程序员,我们可以用它当维修工程师。 建议大家服务器买来第一件事就是先安装 cloud code, 方便我们自动安装和 bug 修复。安装 cloud code 只需要在云服务器终端执行一行命令, 装好之后在终端输入 cloud 就 能启动,为 cloud code 指定模型。我们参考下面输入命令和利用 tray、 cursor 等 agent 安装。同理,我们可以直接和 cloud code 对 话,比如帮我检查 openclaw 为什么挂了,按照官方文档排查并修复。飞书机器人不回复了,帮我看下日期找原因。 至于 openclaw the web ui dashboard, 目前体验不太友好,与其自己在后台改配置文件,不如直接交给 cloud code 在 终端里搞定,省心省力。 遇到问题时按这个顺序来,一、先用 t u i 测试,确认模型能不能正常连接。二、再看飞书端权限配置事件订阅是否正确。三、小问题问云平台 ai 助手,快速解决常见服务器问题。 四、复杂问题交给 cloud code, 让它直接在终端里帮你诊断和修复。把云服务器终端 t u i cloud code 和本地大模型搭配起来用,基本就能覆盖大多数问题了。以上就是今天的全部分享,欢迎点赞支持一下,我陪你在 ai 时代无限生长。

openklo 可以 接入 qq 官方了?腾讯这终于醒悟了呀,就看微信什么时候开放。我们先用手机扫码,然后创建我们的机器人,好像每个 qq 最多创建五个 boot, 创建之后会给你一个 app id, 然后和蜜柚你根据这个 qq 官方给的命令,直接复制的给你的 openklo 就 可以了。比如我的 openklo 是 让他给我装一个这样的插件,他现在已经开始装了,插件已经安装好了,并且他已经自动重启过了。接下来就是配置我们的 token 和 uid 和 app id, 就 直接告诉他增加个 qq boot, 然后把你的 token 复制给他, 他这边会自动重启。这下已经配置好了,打开我们的 qq, 找到这个机器人,就可以直接和你老本客户聊天了。

今天我来给大家介绍一下我们公司全员 open 可乐,全员小龙虾了,也就意味着现在我们除了有三十个人类员工,还有上百个 ai 员工。好,我先给大家演示一下 我的小龙虾团队,大家看一下我的小龙虾有八个员工,第一个员工是我的短视频编导,这个短视频编导每天可以给我十几个话题,然后我选两个,他就给我把能够直接爆的文案生成,然后我就直接拿着拍短视频就可以了。然后再来看看我们的课程研发,我们以前做一套课可能需要一周,现在用它足智级的课程 ppt 直接生成,然后再让它生成 ppt, 它就可以把 ppt 做出来。再看看我们的朋友圈运营,我们以前发朋友圈有个专人要天 天冥思苦想,现在直接搞定。而公众号选题官就更神奇了,它不光是可以把公众号写出来,还可以直接发到我的草稿箱,让我一键一分钟就搞定一篇公众号,并且我现在的公众号数据比以前好了三倍。那么我这里还有一个 ai 主管,他会监控我的每一个 ai 员工是怎么工作的,哪些员工我没用好, 需要去把它用好。除了这些基础的工作之外,我还有一个 ai 战略观,这个战略观会发现我发现不了的战略视角。好,接下来我带大家看一看我们其他员工是怎么用小龙虾的。我们先来到我们的技术同学水月这里,水月,你的小龙虾叫什么名字? 我的叫大圣。哇,大圣这么屌的名字。然后你用你的小龙虾在做什么啊?我是在做咱们破局的十多个系统,然后让小龙虾来帮 老板,如果说没有小龙虾的话,你今年可能还得再招十个人。这么多的吗?对对对啊,那你太牛了。好,接下来我们看看我们的 业务负责人小军是怎么用小龙虾的,来给大家展示一下。我的小龙虾叫小小,做什么事呢?他是帮我做整个这个业务的这个管理,然后帮我能拆解到每日的每周的运营的动作和拆解的一些 细节。那有了它,我可以完全省略一个 p m o。 的 团队,让我高效的每日获得当周要做的事情,非常棒。基夏,你的小龙虾叫什么?我的小龙虾就叫做小夏,他主要帮你干什么工作?他平常会帮我写一些文案,或者是在我创建其他的事情 的时候,他帮我统一管理。好,非常好。 ok, 我 们再来看一看我们的训练营的负责人王庆同学,你的小龙虾叫什么名字?小龙虾有两个现在 一个是老王,一个是破底,他们家就是破底龙虾,就是专门负责我们现在所带的训练营的。有了小龙虾,你少招几个人,少招三五个吧。好,清晨,你的小龙虾叫什么名字啊?我的小龙虾叫管家。好嘞,王坤,你的小龙虾叫什么名字?我的小龙虾叫什么名字?我叫薇薇。 open call 华仔,你的小龙虾叫什么名字?我能叫阿卓,好,你用小龙虾做什么啊?我就是平常跟他对话一些,我平时用的一些。 啊,非常好,非常好。来看看我们的人力负责人云朵同学,你有小龙虾吗?我有小龙虾。哇,我们的人力都用上小龙虾了,你的小龙虾叫什么名字?我的小龙虾叫云朵,你看它可以帮我写文案,然后整理会议资料,然后写活动策划,而且它还可以帮我申请简历, 这样的话我就可以至少省两个人力的一个呃成本,所以他还是非常提高我的工作效率的。好,再看看我们的设计同学,哎,你的小龙虾叫什么名字?他用来帮你干什么?他会帮我收集这个海外的设计的流行 书籍。上,好,你再看看我们运营负责人辉源的小龙虾叫什么名字?我小龙虾叫雪莉。啊,他主要用来干什么?主要是我跟他对话,做项目的 组织的管理,以及说运营方面的支持,他设定的身份是运营总监,非常好。来,再来看看我们的运营负责人灰灰的小龙虾。我的小龙虾有好几个,一个是项目管理,一个是课程设计和一个公众号创作的,然后都是用来完成不同的工作内容。好,非常好。

彻底解决龙虾不能操作电脑软件的最后一环。很多人用 openclock 最大的卡点不是他不够聪明, 而是他不会像真正的人一样可以操作电脑上所有的软件。例如你让他明天上午给客户发一条消息, 它可以生成很好的回复内容,但它不能这样操作软件发送消息或者剪辑视频,它可以生成很好的剪辑策略,但是它不能操作剪映帮你剪辑。所以我最近做了一套 openclock 加 rpa 的 联动方案,就是这个 skills, 只要在 excel 配置好什么情况下要用哪些软件操作什么流程, openclock 一 旦识别到对应的任务, 就会自动通过 http 请求调用对应的 rpa 流程完成电脑软件的操作,而且这个操作过程是没有消耗。 tucker 的 总结就是, open call 负责动脑, rpa 负责动手。如果你也需要这套 skills, 可以 跟我要,也可以让 ai 帮你做一个。

大家好,今天教大家用最简单的方式去配置 openclaw, 同时还配置我还写了相关的文档,大家可以照这个文档一步一步的去配置 openclaw。 大家可以先看一下 openclaw 到底要可以做什么, 它就是可以你只需要一句话就可以帮你去处理任务,它是你的一个 ai 助手。我在这里先举个例子,比如说 我现在任务就是让他在 c 盘的根目录建立一个叫测试的文件夹,然后咱们写入这句话,他就会在你的电脑里面自动生成这个文件夹。比如说你以后有比较好的创意, 比如说你让他要写一个 ppt, 他 就会写完之后自动存储在你的电脑里面,所以说这个 open club 它的作用是非常大的。 咱们先测试一下,现在就生成一个这样的文件夹,它这里提示在 c 盘的根目录上已经创建成功了,咱们看一下 打开 c 盘,是不是这里有个测试的文件夹,所以说这个 openclaw 的 用处还是非常大的,我就是在教大家如何用最简单的方式去配置 openclaw, 现在正式教大家零基础去部署这个 openclaw。 第一步咱们要安装 node js, 这一步还是比较简单的,大家可以看我这个文档,到时候我也会将这个文档发给大家。咱们先进入这个 node js 的 这个网站, 然后按 ctrl 键,然后点击下这个网址,现在的话就进入我这个 node js 网站,咱们点击这个登录 去下载,注意下你的系统,如果你的系统用的是 windows, 咱们在这里直接选择 windows, 如果你的电脑是 mac, mac, 咱们就选择 mac os, 我 就选择这个 windows, 咱们选择 安装就可以,咱们稍微等待一下,现在的话它就下载完成了,咱们去双击下咱们的这个安装包就可以。这个还是比较简单的, 下载完你的安装包,双击,然后就会出现这样的安装界面,咱们直接点击下一步接受这些条款,下一步,下一步再继续下一步点击安装, 咱们稍微等待一下,它这个过程还是有点慢,咱们等它将这个 node js 安装完成了,点击一下 finish, 继续看一下我写的这个文档, 咱们去检验一下这个 node js 是 否安装完成。咱们这个需要在这个搜索框里面输入 cmd, 这里要注意一下,一定要以管理员的身份去运行,不然在后续步骤都会出现一些错误,所以咱们就点击这个以管理员的身份去运行,咱们在这里输入 node, 然后空格杠 v, 如果出现了像这样的版本号的话,说明咱们的 node js 就 安装成功了。 接下来就是安装 open client, 安装 open client, 咱们先可以复制我文档上这个网址,去进入这个网站, 这个网站是在这里,我已经进进来了,咱们去可以复制里面相关的这些指令,去安装相关的依赖包。第一步 咱们先复制第一个指令,这个指令其实也在我的文档里面是不是也有,大家也可以直接从我的文档里面去复制就可以,所以说就按照我的文档来安装,这个过程还是非常简单的,在咱们这个 cmd 窗口里面将这个指令给它复制进来,安特键这里都复制了一个字母,咱们就将它去掉,咱们稍微等待一下,它正在安装依赖包, 可能第一次安装他需要的时间还是比较长的,这里的注意下,这里会出现些警告,大家也不用担心,直接可以将这些警告忽略掉,这些相关依赖包就安装完成了。咱们要检验下 这个依赖包是否安装完成,安装成功。如果是输入这条指令,如果出现这个版本号,说明咱们这些依赖包就安装成功了。是不是这里出现了它的版本号,说明咱们这个 open cloud 的 这个依赖包就安装成功。 咱现在接下来第三步去运行这个安装向导,咱们直接去复制这条指令, ctrl c 到这里 ctrl v, 因为这个 open class 需要咱们计算机很大的权限,所以说它会提示存在些分析,咱们要无视分析,选择 yes, 咱们选择手动去安装,因为我之前已经安装过了,所以说, 所以我会在这里会出现这几个选项,重置一下就可以。如果你们第四安装是不会出现这几个选项的,到这里完全安装到这步和第四安装步骤是一样的,咱们选择本地网关工作区目录,选择默认就可以, 要选择的大模型,咱们选择 deepsafe 就 可以。第一次安装还是推荐新手使用 deepsafe, 因为 deepsafe 配置还是相对来说比较简单一点。选择 deepsafe, 他 说要要求你去输入一个 deepsafe 的 ipi 这个值, 那么咱们接下来就要去进入 deepsafe 网站,我之前进入过,你们使用 deepsafe 再重新进入一下,现在进入这个 deepsafe 网站,选择 ipi 开放平台,第一次使用可以建议先充值十块钱左右去使用下它的这个 ipi, 去创建个 ipi k 值,给它 ipi 随便起个名字 test test 三,然后创建,然后这里的话就会出现这个 k 值,将这 k 值复制一下,然后 然后输入进来它这里,然后给它粘贴一下,重新重新复制,重新复制一下,点击复,点击复制,然后再粘贴一下这里可能是有点卡,现在的话就是将这个 deep 这个 ipi k 值就是 复制进来了,然后咱们再按 enter 键, enter, 按这个 enter 键以后,咱们继续看下这个文档,咱们可以按照这个文档就一步一步的按照文档一步一步的操作,然后保持当前就可以, 然后这个也使用默认,默认就可以,也是默默认,然后咱们要选择这个第二个 token, 因为它是推荐的,然后这里的话这啊这步话选择这个 off, 然后这里要输入这个, 就是随便就是输入几个这个字母,就是你就是为了保证保证安全,随便输一下,比如说 我输入 wgg, 然后然后接下来就要配着这个聊天通道,选择 yes, 然后咱们选择国内的这个飞书就可以,因为其他都是国外的, 然后咱们使用本地插件路径,然后选择这个飞书国内版,接下来的话要是就要求你输入这个飞书的 app id, 接下来咱们去配置下飞书就可以,咱们在网站上面直接搜索这个飞书开放平台,点击下这个 推出开放平台,先注册一下,注册成功以后点击开发者后台就可,开发者后台去创建咱们的企业之间应用,因为你看这是我之前创建的,咱们现在重新去创建一下, 去点击一下应用的名称,咱们就随便可以起一下,这都是你们可以自定义的,比如说这个就叫 open cloud, open cloud 一 应应用描述,这里就可以写一个 i 机器人 i 助手,它这里的背景色也是可以选,点击创建,咱们去选择机器人。接下来咱们就去打开这个飞兽的权限管理, 点击批量导入和导出权限,继续看下咱们的文档,咱们需要打开这个 opencloud 的 中文社区, 点击这个网址,在这个消息通道里面点击飞书,咱们去复制一下这个配置应用权限,点击下这个复制,这里就复制上来了。继续打开咱们这个 c m d 窗口,打开咱们的配置飞书网站 给他,这里全选 control v, 给他原本的这些就是权限,给他替换掉使用。刚刚咱们这个网站上面的这些啊配就是配置应用权限,看这里 下一步啊申请开通,在这里点击下确认,这样的话咱们权限是不是都全部已经开通完成了?接下来咱们去点击创建版本就可以,这里有一个什么应用的版本号,这里咱们就按照要求写下,比如说写这个幺点零点一, 这里有更新说明,这里更新说明就随便写一下,就可以点击保存,它现在是已经确认发布,现在咱们飞书里面的机器人就已经发布成功, 咱们就可以去点击下屏帧与基础信息,是不是这里就出现了这个 id, 这个飞书的 id 咱们就可以复制一下,打开咱们这个飞书的 app id, 复制下,按 enter 键,接下来 还要去复制下他的飞书的密钥,直接按特键去选择一个通道。当然是选择咱们的飞书,因为我之前已经配置过,所以说咱们要去修改 修改设置,去选择咱们飞书国内版,继续选择一下飞书,这样就可以再选择这个,跳过再选择已完成, 接下来只要配置技能选择 yes, 接下来当然要选择这个 npm, 就是 看到这里咱们就是先空格,再按退键,之后可以进行二次配置,选择这个 node, 因为它是推荐的,它网关服务已经安装, 咱们直接去选择下重启就可以重启,咱们可以就稍微等待一下,咱们继续打开咱们的飞书,这里选择一个选择咱们旁边这个世界与回调,点击这个订阅方式,点击这个使用长链接收事件, 这里点击一下,保存完毕以后注意下,再点击这个添加事件,看一下这个添加事件,继续打开咱们这个就是 open com 中文社区,看这里去选择一个使用长链接接收事件,将这个复制, ctrl c 复制一下, 然后找到这里去搜索,把住进来搜索一下,选择之后确认添加,然后接下来这就可以了, 咱们继续去点击创建版本,这里咱们随便写一个这个版本一点零点二更新说明,这里更新说明,随便写一下,点击保存,进行一个发布,确认发布就可以。现在咱们这个机器人就已经发布,继续回到咱们 c m d 窗口 去看一下如何去孵化它,它现在正在孵化咱们的机器人,稍微这里咱们就稍微等待一下,咱们直接去按这个 ctrl c, 多次按一下这个 ctrl c, 让它进行一个可用格式化的界面去操作这个 openclaw。 咱们继续去打开咱们这个 github, 输入这条指令,启动网关, ctrl c, 到这里就是 ctrl v enter 键,看一下这里是不是有个 ip 地址,咱们将这个 ip 地址复制一下,这里将这个 ip 地址复制 ctrl c, 输入到这个地址栏里面,注意一下这里会有这个幺零零八错误,如何去解决这个错误?咱们直接就输入在盖栏里面,这里有个狼王令牌,是不是我之前设置过,是不是设置过是 wgg, 咱们去将这个令牌输入进来后,点击链接,是不是现在可以用它来实行对话?比如说可以操作里面你电脑里面的文件夹,比如说你 建立一个新的文件夹,或者输入一条命令给他整理这个文件夹里面的内容。所以说这个 openclaw 就是 可以作为你的一个个人 ai 助手,但是在使用过程中一定要注意保护好个人的隐私,因为它的权限是非常大的。最后感谢大家的观看,这就是配置整个 openclaw 的 一个过程。

你有没有想过,让 ai 在 云端帮你写代码,而你在本地直接编辑?这不仅实现了效率翻倍,跨设备也能随时随地开发。今天我就教大家一套超高效的工作流, opencloud 加 vs core 远程开发,整套流程配置一次以后,每次使用都非常方便。 在开始之前,请确保你已经完成了以下前置条件,第一,一台 linux 云服务器,腾讯云、阿里云都可以。第二,服务器上已经安装好了 one pixel 面板,具体安装方式官网可查。 第三,在王帕诺里安装好了 open class, 并且能正常访问网页界面。如果这些都准备好了,那我们直接开始配置。首先,我们打开 open class 的 网页界面,在对话框输入检测当前模型与运行环境,发送之后稍等几秒钟, 这里可以看到当前模型是 dash scope 的 千万三点五 plus, 运行环境信息也都显示出来了,这说明 open class 已经成功连接。 接下来我们打开本地的 vs code, 如果还没安装,可以先去官网下载一个,打开后点击左侧的扩展图标,在搜索框输入 remote ssh, 找到这个插件,点击 install 安装。 安装完成后,建议重启一次 vs code, 确保插件正常加载。重启完成后,我们按 f 一 打开命令面板,输入以下内容,点击 connect to host, 选择 add a new s s h host, 然后输入 s s h 连接命令格式如下,替换进去即可。 回车后选择第一个配置文件,然后点击右下角的 connect 开始连接。第一次连接会提示选择远程系统类型,这里我已经提前选择 linux。 接下来输入服务器密码,输完直接回车,稍等一会, vs code 会在服务器下载 vs code server, 第一次可能需要一两分钟,当看到左下角显示了 ssh 连接的服务器 ip, 说明我们已经成功连接到远程服务器了。连接成功后,我们先回到 web client 网页, 在左侧菜单找到应用商店,点击已安装,找到我们安装的 open class, 点击进入安装目录,依次点击 data 和 workspace 文件夹,就是 open class 名称内容的存储位置。 我们把顶部的路径地址复制下来,等下要在 vs code 里打开。回到 vs code, 点击菜单栏的文件,打开文件夹,在路径框里粘贴刚才复制的 workspace 路径,并确认 vs code 会加载整个项目结构。在左侧文件浏览器显示所有文件,可以看到这里已经有 opencloud 的 一些配置文件了,比如 agents、 md, so md 等等。 接下来我们让 ai 帮我们生成一个项目,测试整个工作流。回到 open 克拉网页,在对话框输入,请帮我生成一个简易的电商平台,后端语言为 python, 发送后 ai 会开始生成代码。 我们稍等一下,生成完成了,可以看到 ai 创建了完整的项目结构,包括后端应用、前端页面样式文件等等,所有文件都保存在 workspace 目录下的 e commerce 文件夹里。 回到 vs code, 在 左侧文件浏览器中找到刚生成的 e commerce 文件夹复制地址,并打开终端,用 cd 指令确保当前目录是 e commerce 文件夹。首先安装 python 依赖输入如下指令,回车后等待安装完成。 安装完成后,输入命令启动服务。可以看到运行在八千端口,我们直接在浏览器上打开界面,电商平台已经正常运行,我们来测试一下基本功能,如果有想改的地方,也可以在云端上让 open color 随时调整,直到自己满意为止。 发现 bug 的 时候也能及时跟 open color 反馈,它改完后会同步更新到 vs code。 在 此期间,我们可以继续测 bug, 节约大量时间和精力。 到这里,整个流程就完成了。在这一套工作流的基础上,搭配 opencloud 的 定时任务机制,可以完成更多有意思的操作。这些进阶内容值得大家发掘,如果这个视频对你有帮助,别忘了点赞、收藏、关注, 有任何想法也可以在评论区分享。感谢观看,我们下期视频再见!

最近 oppo club 非常火啊,然后我发现一个有意思的现象,就是大家还没开始跑业务,就已经在研究买装备了。那其实中间最大的卡点就在于,我们是应该选本地部署还是云端部署,对吧?因为有人问我就是云图,我是不是该买一台最新的 mac mini m 四才能跑到洞龙下? 然后也有人问,就是说网上说云端部署更方便安全,那么四十九块钱单月的这个 kimi klo 服务,我要不要买?那首先大家先醒一下,就是业务还没跑通,零到一,你需要先判定自己的需求到底是什么,这个没搞清楚的情况下研究买装备,那其实有点本末倒置。 那么当然我也会根据大家的需求,今天这期视频来解决一下这个问题,就说你到底应该怎么选。那么首先啊,我们直接先上个数据,我们先看本地部署, 你只需要买一台二手的 mac mini, 然后一般来讲三千来块钱一次性投入就可以用很久很久,它也是一个非常不错的电脑。然后云端部署呢?那么一般来讲,单台服务器九十九一个月啊,现在可能有大厂有活动,它九十九一年就可以买到, 比如说阿里云。然后还有一些 kimi cloth 或者 mini max cloth, 那 它可能就是四十九块钱一个月,现在很多平台都有优惠,所以到不了九十九单月这个价格啊,有的时候九十九每年就能买一台。如果你还没想好用龙虾能干啥,准备干啥, 那么云端部署我推荐你直接使用玩一玩,没有任何问题。但事实上,钱这个事情只是最基础的部署,只是龙虾的使用中最最最简单的一环, 那下面几个才是比较关键的问题。首先本地部署有几个非常大的优势,那就是 opencloud, 我 们对它的期望是它是一个全能的助理,可以接管我们本地的电脑的。 那其实很多人都忽略了这点,因为电脑都不能接管的助理,它能叫什么?全能助理吗?那么它在本地上可以做的事情是非常非常多的,比如说控制本地的一些应用 啊,微信、飞书、 note, 包括闲鱼,对吧?它都可以控制自动给别人发消息,那么它还可以调用本地的很多文件以及资源,只要你给它权限,并且你在创建某些 skill 的 时候,肯定会用到一些本地执行的脚本或者自动化任务,那么它都是可以在本地上跑的。 就比如说我现在做的一个小红书的案例,它就是可以通过我给他输出的文章,自己优化排版,生成小红书图文, 然后再自动打开浏览器帮我一键发布,完全不用我管。那么这一套流程,这个肯定只能在本地上才能够运行的。那么云端上的限制是什么呢?就是说你可以理解为云端其实就相当于一台别人的电脑, 那他和你的本机是有物理隔离的,那他自然没办法读取到你本地的那些文件,也没法操作你本机的那些软件,包括浏览器的控制 啊。我们经常自动化里最重要的一环叫 playwrite, 它也没有办法打开。呃,想同步也有办法,但是非常非常的麻烦,并且你不可能在它的云端服务器登录你的各种账号,就比如说我要让他帮我发个红书图文,那我不可能把我的红书账号交给服务器,对不对?在那个上面登录。 所以这个其实就是本地部署最大的优势,也就是护城河,让龙虾变成你真正的全能助理的基础。现在其实跟风啊,很多大厂都推出了这个 opencloud 啊,它们的主要宣传点是什么呢?就是在于 opencloud 的 安装可以一键部署,非常非常简单, 那其实哪怕在本地部署,它也非常非常简单。大家也看过我的这个教程,那可能你真的跟下来全程也就十分钟吧,那各种问题问问 ai, 那 三十分钟也就完全能够搞定了。那所以说云端更安全,这个我觉得是纯纯的无稽之谈啊。因为我觉得不论是博主还是大厂,现在有点误导人, 因为他说云端安全是因为跟本机隔离了,那么龙虾不会删除你的系统文件或者其他的文件,那其实云服务器对于隐私来讲有非常大的隐患。首先云服务器你就理解为它是一个别人的电脑, 那大厂它肯定不会窃取你的数据,但目前新出了一些小厂,尤其是卖一键部署镜像的小厂,就是说它不是一键部署脚本啊,是指一键部署镜像,把一台装好 opencloud 的 服务器卖给你的那种。那其实它就可以通过磁盘快照,又包括内存转储之类的其他方式来获取你的 cookie, 以及什么 season talking 之类的,那么它就可以直接劫持你的红薯,包括抖音之类的核心账号,那么你还敢放心让它去一键自动化吗?在云端上那肯定不可能的嘛。然后第二个风险就是服务器它是经常容易被攻击的。 那先说一下我的真实经历,大家都知道我有个云图的官方网站嘛,那其实这个服务器直到现在啊,他都是三天两头被攻击的,那各种扫描,暴力破解 dos 攻击,那么最后我是怎么解决的呢?我是放弃了国内用户的这个接入速度, 然后使用了 c f 的 防火墙在防盗啊,大家可以去搜一下就知道这个是干嘛的了。然后另外就是关于服务器的一些安全配置,防火墙规则,端口管理,安全组设置, 然后包括什么 s s l 证书返向代理,入侵检测这些小白都搞不清楚,当然很多大厂他推荐了一键设置这些的东西,当然要交钱,那这不是附加服务吗?对不对?你成本也就上来了。那所以云端服务器它其实就是个公网的靶子嘛,它暴露在了公网上,随时被扫描, 那不懂安全配置的话,分分钟被攻击啊,被植入后门,那你的隐私更加无法保障,所以本地部署的优势在于物理隔离,因为它不会暴露在公网上, 因为安装的时候我带大家选的都是通过一二七零点零点一来运行,对吧?也就是本机,然后它没有暴露公网 ip 攻击者想攻击也找不到你。 但是另外一说就是说为什么大家说 openclaw 是 有风险的,就是说很多人他不知道如何筛选 scale, 又比如说安装了一些植入后门的 scale, 或者说其他的插件,那肯定是容易出问题的,所以这个安不安全重点在于你能不能够 把它的安全策略给它弄好,不要下那些乱七八糟的 skill 之类的。这可就有点类似于我们买电脑的时候说电脑不安全,容易被黑客劫持, 那下了那些病毒软件,那不一定会被黑客给搞了,这是一个道理啊。那么最后我就总结一下到底该怎么选。如果你是小白,纯好奇想体验一下,那么 kimi 啊, mini max 啊,阿里云,腾讯云它都有一件部署,花点小钱去感受一下,没有任何问题 啊。像阿里云,现在我记得有九十九一年吧,你可以先玩一玩通信,玩一玩,记住不要登录自己的账号,隐私之类的东西就行了。然后第二就是如果你准备重度使用啊,比如说你做个人 ip 啊,做艺人公司的, 那运行了十个以内的取程账号,那么我还是推荐你直接去买一台 mac mini m 四,那么你的 open klo 在 你调试的同时,就可以操控你电脑上的各种软件还有文档, 那么它才是一个全能助理的基础,能够帮你做很多很多事情。从安装到我完成说的这一步,它还有很长很长的路要走,中间调试的时候也会花很多很多 token, 无论是在放在云端还是放在本地啊,那么 token 费都是你必须要花的。那么你想想,如果你花了几千块钱, 在云端上,花了一个月,好不容易调好了一个龙虾,当你想把它移植到本地上的时候,哦,这个事办不了,那不是纯亏了吗?所以说我强烈建议大家选择本地部署,当然了我也没有利益相关,因为本地部署的整个详细教程啊,我也已经完整的展示出来了, 并且我不接任何的什么远程部署服务,因为这个事本身就没有难度,没有收钱的任何必要。最后就是关于艺人公司的一个业务的思考,因为我觉得目前大家不能本末倒置,做业务的核心不是工具多好用,而是在于业务不要用战术上的买买买,也就是说每新出一个工具,或者新出一个什么风口, 你都去花钱去试一下这个工具,这个是没有必要的,真正重要的是如何开始。就像很多项目,它其实是哪怕半手工的方式,在各个软件和窗口之间粘你的格式词或者文件,那也总比你买了个自动化工具,但是不知道怎么用好。那么最后我是云图,我们下期再见吧!

一夜之间,所有公司都开始部署 openclaw, 还有冤大头花几万找人部署龙虾的,不懂的就别乱搞。说了多少遍,不用部署不用部署!我们打开 mini max 网页端, mini max agent 最近全新升级上线了 maxclaw 云端,搭载 openclaw 实力,一键部署就能使用。只要简单的一句指令,就 就会每天定时推送最新的跨境资讯。它还能自动生成产品图、产品视频,包括产品介绍、智能分析竞品,为产品 listing, 植入卖点、痛点,真正实现一站式输出。如果你想要更深度的,就用 million max 探索专家模式,这是给各行各业准备的垂直进阶版龙 虾。以跨境出海为例,大家公认卖家最大难题就是选品,那我们直接在探索专家这里点击创建输入指令,创建一个跨境卖家选品助手。 用户输入需求后, ai 能自动解锁选品信息并推荐高潜力产品,它就会帮我们自动生成一个跨境卖家选品助手稍加训练后,效果就很惊喜了。你随便问他一嘴什么产品好卖, 选品助手就开始从全球视野实时抓取新闻动态,他会主动解锁全球资讯和供需搜索热度分析,并告诉你应急求生类产品很容易爆,具体到应急包、净水器、应急食品、手电筒、卫星电话、帐篷,甚至直接给出对应平台目标地区、 建议、售价、供应缺口等等。如果你想让选品大师更强大,我们还可以再给他配几个打工仔专属子代理, 相当于给主管配几个得力干将。比如根据实际需求添加如下四个子代理,净品分析代理,帮你避开过度内卷的红海品类。市场调研代理,精准捕捉高潜力蓝海赛道。供应商评估代理,严控品质,降低采购成本。利润计算代理自动核算,优化利润空间。再叠加以下四个核心 skills, 补 其整个选品部门的专业能力。简单来说,就是刚才我们创建的 expert 选品专家可以理解为选品主管,我们 添加的子代理相当于主管随时能调用的几个得力干将,帮我们做品控、抓成本、找渠道。而我家装的四个 skills, 属于整个选品部门要掌握的选品技能。以平台规则库为例,在每次选品的时候,选品助手都会自动调取各大跨境平台规则进行合规筛查,例如应急包是否需要医疗资质是否要做 c 认证,手电筒是否存在外观专利风险,从源头帮你规避侵权和违规风险,真正实现 ai 全自动选品。调研分析、合规排查,利用核算一站式搞定跨境卖家的核心痛点。现在你该明白为什么越来越多公司都开始用龙虾而放弃之前的萨斯软件,因为它的数据穿透更及时、更 全面,不像之前人工敲代码做出来的工具,应用数据普遍延迟五到七天,等拿到的时候就已经过时了。而这样一个云端部署版的龙虾,可以贯穿你整个工作流。从 从选品到产品详情页打造,再到产品图、产品视频,这在之前做跨境是根本不敢想的,更关键的是,各行各业的专家及助手都在陆续落地,我们可以看到专家社区这已经有大量的 a i a 政策分享,方便高效,抓紧去用。

大家好啊,今天录一个关于 openclaw 没办法去接入像东方财富网同花顺这种 api 的 一个问题。很多人用的这个小龙虾是部署在云上的, 它不是部署在本地的云上,它是一个沙乡环境,所以它很容易就遇到你调用 api, 它会提示你这个 api 没有返回的信息。现在我们有一个方法,就比如说如果你是部署在腾讯云上的 api, 你 可以和它说这样一句,帮我建立一个 调用腾讯财经 api 回答股票问题的服务。像我这样,那它之后所有你问的相关的股票的问题, 他都会去调用腾讯财经的 a p i, 这样你就可以做一个实时监控,做一个信息提醒,这样用小龙虾的时候,或者你连其他软件的时候,他这个 a p i 服务就可以成功运行了。

hello, 大家好,今天我给大家录制一期配置云服务器版 opencloud 的 方法,我用飞书来跟它进行对话。首先我们登录这个腾讯云, 为什么选择腾讯云?因为其实其实其他云平台也有这种比较好的服务器活动,但是我最开始就是用的腾讯云嘛,然后 我感觉腾讯云的他,他的操作对新手来说相对更简单一些。首先打开腾讯云之后,我们找到下面这个轻量应用服务器,二合二 g, 他 的是六十八一年,然后 在上海,如果你打开之后页面跟我不一样,你可以在上面找找到这个最新活动,然后找到这个普惠之上,这里点进来就跟我这个一样,因为可能如果是首页的话,他是不显示这些东西的。我现在是一个活动页面,然后找到他之后,点击下面的立即购买可以了。 然后右点击之后右边这个镜像的话,我可以选择这个 oppo pro 三点二或者二点二六,然后这个版本就是它的发布日期。其实我建议可以选择一下这个二点二六版本,因为网上都说三点二的话六笨一些, 是增加了一些新的检查机制,然后点击立即购买就可以了。 点击点进来之后选择这个在线支付,然后左边勾选上选择下一步就支付就可以了。 点击返回上面等待它一会,上面显示购买成功之后,我们点击查看服务器, 然后这里就是你刚刚购买的那个 opencloud 服务器,它现在正在创建中,我们等它创建完成, 现在它创建完成之后,我们就直接点击进入,点进来之后在上面找到这个应用管理, 哦,这里三个部分分别是配置我们的模型,然后配置通道。通道就是说我们用什么软件跟它聊天,现在模型这里可以配置很多种, 很多种模型,还有它们这种服务器的扣进不断计划。这里我们直接选择 zip 的 深度修缩,因为 zip 相对来说我感觉更便宜一些,然后这里就选择 zip 拆的这个模型,然后输入 api k, api k 的 话 可以在这个 bootstrap 的 首页,然后选择 api 开放平台,点击进点进去,点进来之后上面可以先去充值,充个四五块钱, 充完之后在这个 api k api k 列表这里,在左边这个 api 充完之后,在左边这个 api k 这个页面点击创建 api k, 嗯,填一个名称,比如说我们填 opencolor 二,然后点击创建,然后把它复制下来,复制过来,复制过来之后在左边这模型这里填,填进去我们刚刚复制的 api k, 然后点击添加并应用, 然后等它一会,它会下面按出来一个新的模型,等它下面出来这个深度求索,就算配置成功了。然后右边应该是一个绿点,然后显示应用中, 然后下一步配置通道,通道就是说用什么聊天工具去跟这个 opencloud 沟通,这里我们选择飞书,飞书,然后它需要一个 app id 和 app secret, 嗯,这时候我们在电脑端打开飞书这个软件, 打开之后在下面更多找到应用中心,然后点击创建应用,然后点击右上右上角的开发者平台, 然后点击创建啊创建企业应用,然后输上这个应用的名字,我们就写 opencloud 就 可以,然后描述就是 opencloud 助手,然后点击创建, 然后进来之后点击这个机器人这个功能,点击添加, 点击添加啊,它就添加了一个机器人,如果刚刚你没有进入刚刚那个页面的话,你可以点击这个添加应用能力,它就会跳到刚刚那个页面,然后直接点击添加就可以了。 然后我们到这个 app id, 填到刚刚腾讯云那里 填 app id, 然后复制刚刚这个 app secret, 点击添加 b 应用, 然后下面显示已接入通道,显示飞出之后就是配置成功了,然后右边应该是一个绿点加一个运行中, 然后我们去回到这个页面配置这个事件与回调,然后在事件回事件配置这里再找到这个订阅方式,这里点击右右边这个编辑按钮,然后选择使用长链接接收事件,然后点击保存, 然后在右边这个添加事件这里找到,找到消,找到消息与群组,选中所有的,选中所有的事件, 然后点击确认添加, 然后下一步点击回调配,然后下一步点击回调配置,然后也是选择长链接接收回调,然后找到,然后找到权限管理这个页面, 点击批量导入导出权限,然后把这一把内容替换成这一段,这一段可以去我那个 ai 学习群里找一下,我发到群里,然后点击申请开通, 然后点击确认就可以了, 然后找到上面的创建版本 点,嗯,点击之后输入我们的音乐版本号,这里就写一点零点零就可以,然后更新说明就随便填就可以写 open call 机器人,然后到最下面点击保存 确认发布, 然后打开飞书这个软件,然后最在最上面,我们搜索我们刚刚创建的机器人 oppo pro, 点击它, 首先要配置一下,你给他发个消息,这时候会让你配对,打开腾讯语音网页,然后找到旁边的该要,点击免密登录,这里需要身份验证的话,我们注注册的微信,扫一下码,然后验证一下就可以了, 然后输入这段命 令,后面加上我们的配对码,然后按回车就可以了, 如果出现这样的结果,就是说明你配对成功了,这时候我们就可以去飞书里面聊天了,这时候我们再发你,好, 那这时候下面就会出现一个 open color 正在打字的表情,这显示 open color 正在回复你, 对,然后第一次 open color 回回复这些东西,这时候我们就可以正常跟他聊天了,比如说我们可以跟他说明天我要去做什么,让他提醒你,或者说,嗯,告诉他你是谁,我是谁。 后面后面的这些功能大家可以继续探索,如果大家想看的话,后面我可以继续录制一些 open color 使用的一些教程, 我我自己的一些使用经验,然后大家可以尝试一下,让他去访问,帮你获取一些网网上的资料,其实大家用的话,我觉得,嗯,可以体验一下。一个比较好处就是大家用一下可以对 ai 去魅,你会发现这个 ai 它并不是万能的。