完全没有动,完全是楼下的自己操作去索解这个关于汽车贴膜类的营销类视频,而且必须是一百个赞以上,近三十天内有真实的这个车主评价关于窗膜的内容,他自己在帮我找看见没有, 没有动它可以,这里龙虾已经帮我们找完了,近三十天内点赞必须一百条以上的创模的短视频,抖音上短视频,然后必须是有真实评论的看一下,帮我们分析选择题,然后帮我分析了一下结果,总结了一下特点,然后帮我们生成了三条适合我们品牌的短视频的选择题以及文案,全部包,全部已经做好了,打包在一个文件夹里面,然后我们只需要打开文件夹 找一下在这里海湾短视频脚本,然后帮我们分析了三条完整的文案脚本,非常牛皮,全部的操作在一起可能只用了十分钟左右的样子。
粉丝1.8万获赞16.2万

装完龙虾之后,第二件要干的事情是什么呢?人格抽象。什么是人格抽象?我们要告诉 open core, 我是 谁,你是谁,我们之间的关系如何,你要为我做什么以及怎么做。 更具体的就是完成以下几个文件的初步化,一、 u z, 点 md, 告诉龙虾我是谁。二、 identity, 点 md, 告诉龙虾你是谁。三、 soul, 点 md, 告诉龙虾你的核心人格如何。四、 agent, 点 md, 告诉他你要怎么帮我完成工作。那么如何完成人格的初步化呢? 和 openclo 聊天呢?首先,通过聊天让他认识我是谁,以及我想让他帮我干什么,我和他怎么说的哈,向我提问,以便加强对我的认识。 openclo 哐哐哐跟我提了很多问题,关于我是谁,你不会去网上搜一下吗? openclo 到网上一搜啊,识别出来了我的基础履历,然后他会更新到 uzi 点 m d 中啊,看了一下,还真是那么回事啊,虽然网上有些内容其实也不准。 接着继续,通过聊天告诉他你是谁,向我提问,让我加深对你的了解。然后他给我提了一些问题,他让我去定义什么呀?他的角色定位,他的口头禅,他的专业偏好,以及他喜欢的 emoji 啊?提了一些很奇怪的问题, 我对他提的四个问题进行了解答,然后他更新了自己的 identity d m d。 第三步啊,通过聊天让他知道他的内在要格守什么,你要怎么样啊?你要安全。第一,你在工作中不要闲聊,你要保留意志等等等等。 最后一步啊,通过聊天让他知道怎么完成相关的任务。这里面要聊的内容比较多,比较久,我们需要耐心的沟通,你看啊,最后,更新之后的 agent 点 m d 如上,内容比较多,我就不一一展开了,但可以看到我是非常的强调安全的, 更新了这一系列的 m d 文件, openclore 才知道我是谁,他是谁,他是什么样的人,以及如何更好的辅佐我。最后,和 openclore 相处了那么多天,我的一些经验是,首先把它当人看,而不是工具。 其次,尽量不要手动修改任何文件,全部通过沟通完成。第三,你不知道如何回答的时候,让他主动问我们问题。 最后,不要指望从一开始他就按照我们的指令行事, open colo 需要耐心的调教,随着时间的推移,他会越来越懂我们。 以上是装好 open colo 后的第二件事情,你做了吗?想学 open colo, 我 做了一个三十一天的 open colo 大 航海,十位专家,十二场直播,三十篇图文,十次实操作业,扬帆起航,欢迎来玩!

openclove 安装完成找不到命令环境变量一键修复?部分用户在网络安装 openclove 的 时候呢,显示成功了,但执行命令的时候提示不是内部或外部命令,这是典型的环境变量未加载或权限配置异常的问题。 该现象在 windows、 mac os、 linux 三大系统均会出现,尤其是在局安装后未重启终端,检查这个路径是否加入了系统 path, 安装完成后关闭并重新打开终端即可恢复。 macos 与 linux 用户多因 npm 全局目录未写入 pass 或使用速度安装导致权限错乱,推荐通过重新配置 npm 全局路径,并将路径添加到系统配置文件中完成恢复。同时要注意的是 这个版本兼容性 open club 要求最低配置为十八点叉,过低版本会导致命令注册失败。安装后可使用 open club doctor 进行自动检测,工具会快速的排查命令可用性、依赖完整等问题。 按照步骤完成环境的配置后,命令即可正常调用了,顺利的进入后续的网关启动与模型配置环节。还有什么问题可以评论区留言,下期视频呢,教您怎么解决!

看着别人用 oppo 可乐自动整理文件,全网搜索,自己却在安装的第一步,别急,本期视频手把手教你,无需代码基础,跟着步骤一步一步来,小白也能轻松完成步骤,拥有属于自己的小龙虾。正式安装前,我们需要完成两个准备工作,这是成功的基础。 首先安装 node js, 请前往官网下载并安装,安装过程中一路默认点击 next 的 即可。安装完之后继续安装 git, 同样前往 git 官网下载安装包。安装过程需要注意这个选项,其它的默认即可。按住 win 加二键输入 cmd, 打开命令窗口,输入 needv 检查版本 显示的数字是二十二或者更高和 n p m 版本。然后输入 get, 命令窗口中出现 get 相关信息,就代表可以进行下一步了。现在正式开始安装 openclaw, 在 命令窗口中输入这条命令, n p m install, 即 openclaw at latest, 然后按下回车,此时系统会开始自动下载和安装,这个过程可能需要几分钟,请耐心等待,直到出现者就说明下载 ok 了。安装完成后,我们还需要运行一 的初识滑向呢。在命令窗口继续输入 openclaw on board instore dm, 然后按回车,这个过程会引导你 完成一些基础配置。新手可以先跳过 a p i 与三方对话口的接入,我后续会详细讲解。先照步骤顺序先行跳过。我们把小龙虾先部署至电脑中,在这一步我们能看到这里有 twiki, 一定要复制啊,这个很重要。然后输入 openclaw giving port, 一八七八九 vbox 启动服务。当屏幕出现这个页面时啊,就代表了你的 opencore 已经成功部署在本地了。此时打开油烟机并访问,你能看到 opencore 的 控制面板,在设置中输入出水托屏,就可以开始和你的 ai 助理对话了。是不是很简单,赶紧动手试试吧!如果在安装过程中遇到任何问题, 欢迎在评论区留言,我会尽力帮你解答。下期视频我将教你如何接入大模型 a p i, 让你的小龙虾真正充起来!

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

如果你有一个 chat gpt pro 账号,我有个好消息要告诉你,你可以在 open cola 中使用 chat gpt pro 账号。 方法是添加 codex 模型,而且非常简单,我们只需要运行两个命令就可以完成了。正如你所看到的,我只是添加了我的 chat gpt pro 账号,就成功把 open a i codex 模型加进来了。接下来我会一步步教你怎么做。现在这个流程非常简单,我们只需要两个命令,只需在你运行 open cola 的 终端里输入第一个命令。 我也会把这个命令放到屏幕说明区,顺便按下回车键。现在它会引导你完成导入流程,但我们不需要修改任何数值, 我们只是要追加我们想要的新配置,所以按左键,然后选择 yes i understand, 然后选择快速启动 quick start。 然后在这里我们直接使用现有的默认值。非常重要,我们不想更改任何东西。我们只是想在 open class 上追加一个新模型,所以我选择保留现有值。然后这里非常重要, 你会看到它给了你一个 u r l, 它提示你在本地浏览器打开这个 u r o l, 所以 我要复制这个 u r l, 然后粘贴进去并按回车。接下来会要求你登录你的 openai 账号,所以我现在进行登录。登录后,你需要确认你想用 g p t 登录 codex, 所以我点击继续,然后会打开一个非常奇怪的页面,但不用担心,一切都是正常。你唯一需要做的就是复制地址栏里的 url, 然后回到运行 openclot 终端,按照提示操作粘贴重定向 url, 我 就粘贴进去并按回车, 这样基本上就选定了配置。现在这里我不改任何东西,因为我不想新增 bot。 我 选择不,因为我只想处理 chat gpt 配置。 按回车键,然后我将重新启动网关。重启网关非常重要,因为这样网关才能识别你新增的模型。但这里我选择稍后再做, 因为我们还需要运行扫描命令。接下来我们要运行的扫描命令是这个,我也会把命令放到说明区,然后按回车。这个命令会覆盖配置, 并添加 openai codex 作为默认模型。所以现在技术上, openai codex chat gpt pro 账号已经在使用中。为了测试它是否工作,我在终端里输入 opencloud ui, 打开界面, 然后你会看到下面显示 agent main open ai codex。 我 也可以问他,嘿,你当前使用的默认模型是什么? 然后你会看到他回答,是的,我当前使用的默认模型是 open ai codex gpt five point three codex。 就 这样, open ai 已经添加, 你基本上可以免费使用,因为你有 gpt pro 账号。如果你有任何问题或遇到困难,在评论区留言,我非常乐意帮助你。如果您觉得视频有帮助,请点赞并订阅。已查看更多类似内容,感谢观看,下个视频见再。

今天大家只需要跟着我的开源教程,复制粘贴我做好的直击源代码的提示词,就能掌控龙虾从安装到卸载中一切事物,直接跳过使用龙虾的自然熟悉阶段,原地完成数码进化,像解锁满血能力,拉满记忆能力,瞬间学会一本书,甚至可以让安全加固也一次完成补齐。 第一步是安装,我们复制这行提示词发送龙虾就会自动完成安装,装完之后就会自动打开龙虾的 web ui 界面,然后我们再打开准备好的安装文档,复制这个提示词,发送之后,模型会帮我们自动安装飞书插件 连接好了,我们验证一下,发一条消息,可以看到已经连接成功了。龙虾工具箱中一共有二十五个基础的必要工具,相当于龙虾的虾钳,但现在刚装好,是残血版。 接下来我们用这个提示词把龙虾的全部能力解封,其实就是让他所有的工具变为可用状态,测试一下,让他用隐私模式打开我们自己的 chrome 浏览器,这个打开了就意味着工具成功解锁。接下来复制这个提示词,我们把记忆能力改成满血版,主要目的是安装一个本地向量模型,解锁所有的记忆功能。 成功之后再打开文档,复制这个记忆参数优化的提示词发送,稍等一下就会提示已经完成,并且要求重启,我们直接发送重启龙虾,这样能力和参数就都是满血版了。 能力和记忆都满血之后,重点就来了,我们让龙虾进行数码进化,比如你想让他秒懂一本书,其实不用一轮轮喂语料,直接复制这行提示词,顺便附上你想让他读的那本书的本地文件路径。发送后稍等一下,龙虾就可以直接吸收这本书的精华内容。 接下来我们测试一个这本书的相关问题,看看他有没有用这本书的思维方式去思考相关的问题,给我们更高质量的回复。从回答可以看出,他已经完全基于书里的底层逻辑在思考。 同理,也可以把你的 cloud 或叉 gpt 导出的个人数据文件丢给他,他就能无缝继承你所有的数字资产,完成终极进化。进化完成后就是安全了,我们虽然无法彻底解决安全风险,但可以做个看门狗等方式给安全做个加固。 用我准备好的这个提示词文件,告诉模型查看文件内容,并按照步骤逐步执行。复制文件路径放在最后面即可。稍等片刻,安全加固就会完成。 接下来我们用自然语言安装和筛选适合你需求的 skills, 你 只需要复制这个提示词,描述你的需求。比如我们说我需要每天自动查看 ready、 热铁摘药,点击发送提示词,稍等一会儿,它会自动去筛选好的 skills 库中去找和安装它。自动安装好了之后,我们可以发个消息测试一下, 稍等一下,他会使用这个 skills。 可以 看到他已经找到了我们指定板块的热帖。上期说的那些需要你自己去注册配 c l i, 掏钱买 api key 才能激活的 skills, 建议大家可以尝试让模型帮你从筛选过的库里找一下,看看有没有能直接跑的。最后,在使用中,大家如果觉得 token 消耗太多,可以用这个提示词发送之后模型会根据你的过往使用情况和 tokens 的 消耗强度进行优化,并不是简单的直接调低各种参数,模型优化完成后就告诉我们,预估可以节省百分之三十到百分之五十, 如果不想用了或者想重新安装,就用这个提示词。一句话,把龙虾卸载的干干净净,所有痕迹全部清除。卸载完成后,我们打开 y b u i 刷新测试一下,看不到界面就是成功了。这期教程,我们把龙虾从安装到满血,从净化到安全加固,全程只用自然语言,没用一行代码的完成了, 文档和提示词都开源免费分享给大家,希望多多点赞收藏,鼓励一下大家。在使用过程中如果还有其他的问题,欢迎在评论区留言交流。

老师们, open clock 更新了三点二之后之后就发现他变笨了啊,有些事情原本能做的一些任务他执行不了了啊,主要原因呢,是因为这个更新的时候呢,他一些权限被关掉了 啊,点击代理,点击到你的 agent, 然后对应的那个 tos, 他 不是那个权限全开了,而是有好多是灰的,是没有点亮的。 就是如果大家也发现了,出现了这种降智的啊,执行不了任务的这种问题啊,可以去 搜一下这个有老师啊,在这个短视频里边提供指令啊,可以通过这个终端里边输入命令行,把这些权限全开啊,也可以呢,如果说是这个搭载了什么这个 open code 或者是 cloud code 的 那种,你可以通过他们啊,让他们帮忙去解决,让他把这个 open cloud 的 权限全开啊。我这边呢,是因为用的扣子编程,为什么这个我放弃了本地部署,一方面是因为我那台本地的那个电脑,然后那个 p 键坏了, 嗯,我,我在终端里边输入那个杭州那欧昆克洛那个 o p p p 啊,这个先帝创业未败而而而死在了那个 p 上,我那个 p 键摁不下去,摁不下去, 然后我又用回了扣子,好,我就直接在扣子的那个左下角那个对话框里面跟他说,你把我的这个呃,这个云叔和小小叔的权限全部拉满啊,只是让他们分工就就就好了,我当前的分工就是云叔只跟我对话啊,小小叔只只干活 啊,有什么事情我跟云叔说,云叔再把任务再安排给小小叔啊,是这么一个逻辑,但是我需要他俩的权限是全开的啊,所以他俩权限现在现在是满的,就是这这这就是满的, 全都是绿的,但是如果刚刚更新完的话,有很多很多这个地方都是灰色的,而且你没有通过,就是你在没有点亮他的时候没有开放这个这个这个这个权限的时候,其实那个灰色的你是点过绿的,但是现在你开放了之后呢?你可以把绿的禁禁用,但是 在没有开放的时候没有办法把那个黑的变成绿的,就是我在这,我是当时在这个位置跟, 哎,我往前扒一扒啊,那这我是跟这个扣子编程说把云云书和小小书的各种权限全部打开啊,只规范他们对话和任务执行规则啊,不要限制他们的权限 啊。就是我是通过这种形式去去把他们的权限全开的,那现在的话就是,嗯,已经配置了心跳早间问候啊,加信息推送这个主动聊天,还有 定期的这个什么新闻啊等等,然后包括我这边还可能还有了还有定时任务,我发现好像跟这个云书对话他没有办法自己设置定时任务,但是我这的定时任务是怎么来的呢?也是通过,这 也是通过编程啊,左下角的编程对话框去跟他安排的。那这每天早上几点到几点啊?写作模式如何如何如何如何如何, 哎,咱们现学现卖吗?就是我学到的啊,我就立马就分享出来,哎,就是如果能用到的老师啊,那最好啊,用不着的老师呢,哎,大家也也别嫌弃,哎,就是就就是这样。

今天给大家介绍 openclaw 调试技巧,全部讲透!用 ai 的 时候,最怕的就是不知道它在干什么,开启调试模式,执行过程一目了然。 第一个是 for both on, 展示工具调用的完整过程,方便追踪执行逻辑。第二个是 reasoning on, 展示 ai 的 思考过程,排查问题更轻松。 接下来是流逝回复,强烈推荐开启 ai 回复,像打字一样逐字显示,不是全部生成完才一次性输出。执行这条命令,开启非输渠道的流逝回复。 第一个优势是实时反馈,逐字显示,不用干等。第二个是随时打断,发现 ai 方向说错了,立即停止,节省时间。 第三个是省 token, 避免无效生成,钱花在刀刃上。接下来是两个透明度增强功能,耗时显示和状态展示。 执行这条命令开启耗时显示,每次回复末尾会显示耗时,比如已完成耗时一分五十四秒。 在执行这条命令,开启状态展示,会显示已读、正在思考、正在执行等状态交互更透明。 耗时显示让你清楚知道 a a i 执行了多久,方便计算 t a i 是 在思考钱花在哪,一目了然。状态展示让你明确区分 a a i 是 在思考,不会对着空白干等。 最后是核心执行机制,这个非常重要,理解了能少踩百分之九十的坑。 openco 多条消息进入队列,严格按顺序执行,必须等上一条任务完全结束才会处理下一条。 就算重启 gateway, 也会先把队列里的消息按顺序处理完,再接收新任务。所以阶段任务一次性尽量说清楚,不要连续发送多条消息,执行更稳、更快、更省 token。 好 了, openclout 调试与使用教程就到这里,有问题随时交流,关注我,了解更多信息!

兄弟们大家好,今天呢,我们来出期龙虾官方的部署教程,来看下左上角的地址,龙虾的官方域名地址是什么呢? 哎,就是这个 opencloud 点 ai。 想要部署 opencloud, 我 们先要安装两个软件,一个是 git, 一个是 node js, git 呢是这个地址点这儿下载。 note g s 呢是这个地址点这儿下载。下载完成之后呢,你就得到了这么两个东西了,哎,怎么安装呢?很简单,双击打开下一步,下一步,下一步,下一步,一直到安装完成就 ok 了。接下来你需要鼠标移动到左下角开始按钮,然后输入 power shell, 以管理员身份运行打开它。打开之后呢,你需要手动输入三个命令,来测试你刚刚装的 get 和 node js 是 不是安装成功了。那么第一个命令呢是 node 空格,杠杠 v e r s i o n 回车, 哎,第二个命令呢是 npm 空格,然后杠杠 v e r s i o n 回车,然后第三个命令呢就是 get。 接下来我们就要开始下载和安装了,那根据 opencloud 龙虾官方的部署教程,哎,第一步呢,我们就要执行这个命令进行下载和部署。 这里补充说明一下啊,当你执行这一个安装的命令的时候,你要确保你能够在电脑上访问 opencloud, 点 a n 对, 也就是访问 opencloud 这个官网,如果不能访问呢,你就得想想办法了,哎,搞搞魔法呀,搞搞科学呀, 对吧?那当你的 power shell 出现这个 open cloud 安全警告哎和提示的时候呢,就说明你的 open cloud 龙虾就已经安装成功了。然后呢,我们按键盘上的左右方向键,哎,来选择一个 yes, 然后第一个这个呢,是第一个,这个呢,我们选择最后一个,这个呢,我们选择第一个,这个呢也是第一个。 好,那么这个呢,我们就选择最后一个这个呢?我们也是同样的跳过, 为什么要跳过呢?因为跳过之后呢,可以在后面啊,去再去配置好,这里呢,他问你要不要去配置 skill, skill 什么呢?哎,就是配置技能,那我们就选择 no, 这里问我们要不要配置 hook 啊?就是配置自动化脚本,那我们这边呢,也是跟刚才一样也是跳过, 但不同的是呢,我们要按一下空格键,然后再按回车键。哎,跳过了这一步呢,跟你自己操作是有差异的,因为我现在已经安装了这 opencloud 了,所以他提示我是要重启还是要重新安装还是跳过, 那么为了我们演示呢,我们就现在重新安装一下啊。好,当我们的网关安装成功之后呢,就来到了我们 open cloud 触式化的最后一步,他这样问你的是第一个,你是用什么方式去启动你的机器人? 他说第一个是终端啊,第二个是 web ui, 那 我们选第二个啊。 哎,当你安装成功之后呢,它就会自动地跳转到你的 web ui 的 这个界面,那么当前这个界面呢,就是你的 opencloud 龙虾的操作界面了。

有一个二十四小时帮你办事的 ai 助手 openclock, 还有一个最强的开源模型调用工具 comui, 两者结合就能这样你通过手机发送需求, 然后 ai 在 你自己的电脑上自动加载模型,完成图片、视频、音频的生成,并最终将成品发送给你。 那就可以把 aigc 做到完全私有,本地部署,并且免费不限量。本期视频演示的就是真正意义上可落地的数字员工和数字生产力。 openclaw 和 comui 的 联动就是给极致的大脑装上了最强的开源模型,从会说变成会干活。它可以根据要求自动生成图片、克隆声音、合成数字人口、播跑首尾帧视频, 还能批量执行工作流,把原本需要坐在电脑前一步步点击的操作,变成你随时随地发消息就能完成的自动化流程,这就是最有价值的实战方向。那么本期内容我就会带你从实际演示出发, 看这套联动到底能做到什么程度,又能怎样接入你真正的生产流程。接下来的很长一段时间,我将会陆续开始在星球更新 openclock 教程以及最新的 comui 教程。 想要从零开始系统入门并逐步进阶提升的小伙伴,欢迎加入小黄瓜的知识星球。 open call 和 complain 联系起来之后,它的过程是非常稳定的, 就是它能稳定调用我们使用到的那些工作流,而且它可以稳定的去设置相应的一个参数,能够正常的按照我们的要求去完成图片或者视频的生成,然后以及音频、数字人,这些都是可以的啊, 可以看到我们这后台呢,已经在运行了,我们的硬件呢,现在可以看到已经开始有活动了哈,内存在逐渐的上升,就是在加载对应的模型, 然后图片生成,我给他配置的是用的 z image turbo 的 模型哈,所以说内存现在在上涨的阶段,说明模型正在往内存里面加载, 加载完毕之后呢,我们的 gpu 就 开始运行,也就是开始完成我们正常的图片生成。生成完毕之后呢,这个 openclaw 就 会通过飞书把消息给我们发送过来啊啊,可以看到这里已经生成了,也就是这个生成的过程是他自己做的, 然后生成完之后呢,他就会把这张图片发送给我们,然后包括人物的着装姿势,配饰背景,然后包括姿势形象,这些全都是他自己给我设计的啊, 可以看到这里已经生成了,那等待他把消息发送给我哈,可以看现在已经给我生成了,在飞书里发送给我了,这就是他给我生成的一个男生哈,然后我们把控制台打开哈,把 com 约的后台打开,能够看到他运行的过程哈, 然后显存呢,就是我们的性能占用还放在这边,我建议你能时刻的观看自己的硬件占用状态,了解模型现在运行到什么样的过程,然后这里给我们生成了,我们就可以让他再给我们生成一段音频啊,用小黄瓜的声音生成一段音频,小黄瓜。再说 这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,然后说天气比较热,建议多往室内有空调的地方去。 好吧,就这样,那么这两句话大概也就是四五秒的时间吧,然后我们发送一下,现在呢,我们是让他用本地的 com 给我们生成音频,然后等待他把音频给我们生成完, 生成完之后呢,我们让这个男生用我的音频再生成一段视频,也就是数字人哈,可以看到这里,我们的音频已经生成了,我们来听一下啊, 这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,天气比较热,建议多往市内有空调的地方去, 可以吧,这个声音没问题吧,跟我的声音是一致的啊,我们再听一遍。这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩,天气比较热,建议多往市内有空调的地方去。好的,这个音频也没有问题啊, 我们说用刚才生成的这个男生形象,根据小黄瓜的声音做一个数字人的视频,视频时常控制在十秒钟吧,每秒二十四 fps 吧,然后视频分辨率呢 为一二八零乘以七二零吧,好吧,就这样。然后呢,他现在就开始给我们做一个数字人的视频啊,这里面我给他配置了七个工作流, 这就是我给他配的,所以说大家如果要用的话,你想给他配什么就配什么,我这里配了一个首尾,真的配了一个数字人的,配了一个声音设计的,还有一个声音克隆的,就是让他可以用我的声音去生成音频,声音设计的话就是他可以自己设计声音去生成音频, 然后还有 ltx 二点三的图声视频的,然后以及一个图片编辑和一个纹身图的,就文本到图片生成的那纹身图的模型,你配置完之后,你就可以让他给你做一些,比如说封面设计,然后 其他的内容哈,可以在上面看一下。我有做封面设计啊,你就像这个,在最开始你跟他交流的时候,比如说我这里说给我设计一个视频封面,关于 openclaw 和 compui 的, 然后想把它做成我的封面,然后是十六比九,主要是国内人看,所以说我们的封面标题呢要用中文,然后这是他给我设计出来的第一版封面啊,很明显这是不醒的,对吧?然后呢就给他做了一些个额外的干扰,我说要有标题, 然后呢标题写的清晰一点,有设计感。然后这是他给我的第二版封面,这个也不行,然后我说文字都粘到一起了,要有排版,然后这是他给我的第三版,这版其实还行,但是受限于大模型,也就是我本地部署的这个图片生成模型的能力, 所以他后面的很多文字呢是毁掉的,然后呢就给他说封面文字有误,然后让他重新修改,然后这是他又修改完的一版,看起来还行哈,然后呢我就给了他一张图片参考,我说你把这张图片给我复现出来,当然了 这个生成图片的能力取决于你部署的那个模型,就像我给它配的是 z image turbo, 所以 说这个能力并不是因为 openclock 不好,或者说因为 comfui 不好,只是因为这个模型我们目前用的不好,但是呢模型它是会进步的, 对吧?你像最开始我们用 sd 一 点五叉 l 的 时候,那个时候生成的图片质量是很差的,但是呢,随着模型的进步, comfui 甚至可以什么都不做,就只是适配一下这个模型,它的功能呢就会提升, 因为 comui 的 能力不取决于 comui, 它取决于模型。然后这是他给我的第三版哈,也就是参考刚才的图片生成的,然后发现文字都毁到一起了,然后又让他给我改, 最后生成了这个,所以说限阶段,如果你想用可以,但是他并不会到非常智能的程度。我这里接的是拆的 gpt 的 五点三的模型,所以说能力还是很强的。这里视频生成了,我们看一下哈。这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩。天气比较热,建议多往室内有空调的地方去, 后面因为音频没了,所以说就没声音了。在这里是广州市中心,大家向后就能看到广州塔,欢迎大家来广州游玩。天气比较热,建议多往室内有空调的地方去,可以看到它调用的是我本地的,而且我们的显存呢,确实刚才有在运行啊,然后内存的占用现在还在这一百多 g, 这是演示的一个小功能啊,还有我们的首尾针什么的都可以。 之前的话,我们是需要在 cfui 里面跑工作流的,对吧?现在跟 openclaw 配属完之后呢,我们可以你拿着手机,任何时间,任何地点,你只要给它发送消息,它就可以给你制作。主要是这样的一个过程,而且呢,它可以有自己的设计,比如提示词当中可以让大模型自己写,也就是让 openclaw 接的这个大模型自己写,不用我们写,你 甚至可以让它批量的生成图片。以前如果说你在 cfui 要批量生成图片,是需要自己搭建一些工作流的,对吧?比如说设置种子值自增, 然后让他一个一个的生成。现在我们可以直接让他生成哈,比如我们这里给他说让他生成二十张真实男青年的照片,然后人物配饰、长相、背景,让他自己设计分辨率,在这里写一下。比如说我在一盘哈, 给他重新创建一个文件夹,叫做男生,然后粘贴到这里,然后二十张图片放到这个文件夹,然后名字从零一开始到二零结束。好吧,那这个时候呢?我们就等他给我们生成就行了。 你像以前我们还需要去处理工作流,对吧?然后自己或者说一张一张生成,但现在我们不需要了,批量给我生成了二十张,大家可以在这里看到哈,我们来看看这些图片哈, 怎么都是这种呢?他是他生成的是这种合集,好吧,他生成的是这种合集,我再给他说一下算了,我说把刚才的二十张图片删了, 我要一张图片只有一个人物的,就这样让他再给我做一下哈,可以看这里,我们二十张图片已经生成完了哈,大家可以大概看一下二十张这些还像同一个人啊,对吧? 他是给我们生成了五次啊,这是第一批,第一批当中像是同一个人,第三批像是同一个人,对吧?可以看一下,还挺帅的,对吧? 我们让他这样用第五张和第八张图片,把这路径复制一下, 给我们生成一个视频啊,生成一个五秒的吧,五秒的首尾帧视频,让他用一二八零乘以七二零的分辨率,每秒二十四帧吧,然后让他给我们生成一个首尾帧视频啊,看一下视频啊,这是我们做的首尾帧视频,六秒, 好吧,这个质量还是可以的,这个质量取决于 ltx 二点三,也就是我们给康复 ui 配的这个模型的能力。好吧,这点大家能理解,我们让他给我们做个海报吧,但是海报的话,我们可能需要让模型有一些提示词哈, 或者说写一些比较详细的提示词,我们去搜一个海报的案例的这张吧,这张好看,我们让他说给我设计一个罐装可乐的海报,可以参考这个提示词,文字内容你自己考虑加什么分辨率,我们要个一零二四乘以一五三六的,就这样 我们试一下哈,让他给我们设计一个海报哈,然后给他提供了一些参考提示词,如果直接用这个提示词生成,你生成的就是这样的内容。但是呢,我很明显不对啊,因为我们要做一个可乐的海报嘛, 所以说你自己要去想这上面的字我们改成什么,这两个字改成什么,哪些字要改,哪些字不能改的,现在我们交给大圆模型,让他去想,我们就不想了,不动脑袋了。这他给我们设计的海报哈, 并没有出现可乐哈,但是文字、排版这些都没有问题,画面的质量也没问题,这个质量呢,是因为 the image turbo 的 质量比较好哈,所以说这个呢,不行,我说再给他说一下, 就说图片里要出现可乐,这是一个产品海报这样的这一个产品海报对吧?看起来还不错,但是我们可以让他加一些英文文字,设计一个标题,大字标题, 白色文字啊,手写体最好,然后文字内容为 c o o l, 就 这样,然后放在图片的最上面,我猜测它可能会用到编辑模型的,因为这张图片的话是用 z 生成的嘛。 这里你看它已经在思考了,并没有直接生成,所以说它应该会切换工作流哈,切换到 flex clean 模型,当模型的能力再一次提升的时候,我们现在流程的能力就会再一次提升哈。 所以说现在大家其实可以去接触 open club 了,我觉得因为他们的能力不取决于他们本身哈,取决于他们用到的模型。模型的能力提升呢,不取决于个人, 取决于那些走在前面的那些大厂。好吧,所以说你现在学和以后学都是学一样的。稍微等待一下哈,不知道他现在思考到什么程度?我看一下哈,我们能在 open club 的 后台看到他 思考到什么样的程度啊?哦,他已经加好了吗?我们看一下。靠,他加了一个这样的文字哈,可以看这个,这俩基本上没问题啊,这两张图片除了文字之外的没区别啊。这个文字是他自己加的, 如果说我们有自己的提示词的话,让他去做海报就更简单了哈。比如说像这个,我们直接把这个提示词给他,用这个提示词给我制作一个海报,就这样直接把提示词给他就行了,然后他就会自动给我们生成哈, 等待一下,我推断他加的这个文字啊,是他自己通过脚本加的,并不是用了我们的模型哈,看一下,这是在后台啊,我们跟他交流的过程在后台都能看到。我们看看刚才说的让他加文字这件事情上,他做了什么,哈, 它用了一个工具调用哈,然后在这里可以看到,它是通过代码给我们加的文字哈,并不是用模型给我们加的,它这里用了一个 python p i l 库哈,这个是对于图片设计的,用了一个 image, image draw, 还有 image font 这几个类哈,然后去做了一个图片上面加文字的操作, 所以说呢,它并没有调用我们的 comui 哈,它选了另外一种方式,然后就生成了,所以说我们的 comui 呢,也没有运行。 然后这里他还下载了几个字体文件, ttf 是 字体文件哈,然后就加了几个文字哈,这是他的一个刚才加文字的那个过程,并没有用我们的编辑模型哈, 这里生成了哈,这个怎么说呢,文字排版不太行啊,这个海报如果把这么多中文直接交给模型生成,基本一定会出现错字、粘字、排版乱,所以我还是按更稳的方案来, 先生成了海报底图,然后再把文字排版进去。我说不要这样,直接用提示词生成就行,你看,这就是他自己的一个思考,但是他的思考是不对的,如果直接用提示词生成就会更好,反而他自己写的排版乱了, 对吧?所以说他自己想的,他先生成了一个底图,然后自己又加了一些文字,但是自己加的文字明显排版是乱的,还不如直接让模型生成,所以说这个呢,没办法,你在跟他交流的过程中就会遇到这些问题啊,所以说大家装完之后,最主要的是跟他的配置和交流的过程,可以看这次就直接生成了,这就没什么问题啊, 对吧?这次这个海报就没什么问题,所以大家以后用的时候,你想啊,当你看到了这个问题的时候,你能不能分析出来这个机器人他是在哪里出了问题, 然后让他给你改成合适的。如果说对康复 ui 了解不多的同学,可能看到这里就觉得康复 ui 的 能力也就那样了,对吧?其实是因为模型在中间做了一些事情, 然后导致了这个海报不太好。好吧,现在他的能力确实是有的哈,但是取决于我们给他配置了什么样的工具以及工作流,我来配置一个哈,这里有个图片放大,我觉得是需要的,我们让他直接给我装个插件哈,看这个工作流是不是这个 see the vr two 高清放大我搜一下哈, 我们一定尽量的把指定的插件路径给他哈,让他确定是装的这个插件,比如我们复制给他,然后说帮我安装这个 comui 插件,然后重启 comui, 然后把地址给他就行了,接下来他就会自己帮我们装了哈,可以看一下哦,还是在这里看哈, 一会的话,我这个网速的话就会开始提升啊,说明他已经准备下载了,下载完之后呢,他会处理环境,然后把环境装在 comui 对 应的环境里面,然后呢再给我们启动,可以看现在网速已经上去了,就是在给我们下载插件啊。好吧,他说重启了,我们试一下哈,我们看看这个插件有没有装上啊, 可以看,这里已经有了哈,这个节点没问题。所以说前面的这些呢,是 c 的 vr two 的 插件哈,看一下。所以说还得再装一些插件啊。已经给我们成功装上了一个插件,然后我看一下那个工作流哈,他好像把我的康复 ui 装到了 c 盘里面哈,看一下这个插件里面的视力工作流哈。 插件比较少, seedvr2, 然后找到对应的工作流,这里面缺失几个节点,然后我自己给他装一下吧。手动装一下吧。这是什么?有两个插件装失败了吗?我们重启一下看看啊,好像没问题啊,这几个都是装上的,现在在重启 comui 哈, 这些操作大家应该不陌生了,如果说啊 comui 已经学过一段时间的话。好的,有个插件没有装上,不对,应该不是没装上哈,是这些节点应该过时了哈。 get image size, 这是 c 的 vr two first pass, 不是 这个节点哈。看来这个插件还是没装上,选择最新的版本,看一下后台有没有在下载哈。哦,现在是在正常的下载,等一等吧,我把这个图片放大的工作流也给他,给他之后呢,他就可以批量的去完成图片的放大了哈, 我们刷新一下。好的,已经启动了,我们看看有什么报错哈。哦,载入成功的哈。插件在这里啊, see the vr two video upscaler 在 这里哈,这个节点。所以说把它替换掉啊,这里是 block swap。 然后这个呢,不管它了哈,直接把它从中间给它替换一下就行了。第一个阶段的放大, 这是第一个阶段的图片,第一个阶段有个 block swap 参数,现在不需要了,我们把这个删掉就行了。然后 d i t 就是 它的模型哈,我看看我本地的模型有哪个哈工作流要提前给它配通哈,配通之后再让它去运行 seed v r two 在 这里哈,本地有七 b lp 十六的模型,我是有的。那就直接选这个哈, 选完之后选我们的库达林 block swap, 直接在这里可以设置哈,给个二十吧,不给太多哈。然后这个也连过来 v a e 模型,这是 c 的 vr two 的 v e 模型,然后选上,这是分块放大,我们就按默认参数就可以了,把这个也连过来 v e 模型,那这个时候就相当于我们配置好了模型, 然后来测一下这个工作流的运行哈。等一下啊,我把这个工作流先保存一下,重新命名,然后把刚才这个工作流拖入进来。拖入进来之后呢,我们看看它是怎么做的,参数是怎么连的,做一个替换哈。 open floor 里面, 把 the vance 拖进来看一下哈,这个节点就连出来了一个最短边的参数哈, shortest side longest 最短边的参数应该是连到了这个 resolution 上面啊。好的,那这个工作流基本就没问题了,我们上传一张图片,让他给我们放大一下试试啊,我们就用刚才他给我们生成的这张男生的图片吧, 复制一下,粘贴到这里 set, 因为就给他连过来啊,把这个节点删了,然后第一阶段的话,放大到两千就可以了吧。第二个阶段呢,我们放大到四千吧, 这个指的是它的最长边哈,我们把它的最长边放大到四千,就相当于做了二点多倍的放大哈,二点五倍的放大了基本上,然后我看一下这个参数哈, seed 给它改一下 tailing upscale 放在这里, 然后看一下他的参数有问题啊,也就是插件更新导致了节点出现了问题,所以说我们是需要把节点删除重建一下的,原来他的过程呢,做一个替换就可以了,连到这里,所以说这个节点可以看他已经没有输出了,所以说这个节点对我们当前工作流没用,删掉就可以了, 现在应该没问题了。 new resolution, 把连上放在这里吧,运行一下试试啊。运行吧。好吧,现在这个呢,就是图片高清放大的工作流哈,这个节点有错啊,我们看一下错误是什么? block swap 是 无效的哦,我懂它意思了,它的意思是呢,你的模型放在了显卡,如果你做 offload 的 话,也就是显存卸载,做 block swap, 你 需要把它卸载到另外一个设备上,所以说这里呢,我们得选 cpu, 不 然的话它卸载不了哈,我试一下不做 block swap 它能不能跑哈,因为我想让它尽可能的把我显存占用多一点嘛, 如果我的显存不够的话,那我就去做 block swap。 现在的话可以看在做第一阶段的放大,然后我们的显存占用只有九个 g 是 没问题的,九个 g 占用很少哈,但是等到第二阶段放大就开始大了哈,图片放大对显存的占用很多,所以说这些工作流的配置你一定是要清楚的,不然的话,你没办法把它交给 openclock, 让它给你运行, 因为你需要选择其中的参数,让 openclock 去修改的。你比如说这里的模型的名字,你肯定不能让它修改,因为这个模型是你自己固定好的,放在本地的。还有这些呢, device 这些它没必要修改,所以说你就不要暴露给它,如果你暴露给它了,它就可能给你改,一改的话,工作流就跑不了了, 那个时候问题就大了。但是这个呢,就取决于你康复 ui 学的怎么样。如果说拿到一个工作流,你都不知道提示词在哪写,或者说都不知道你在哪里设置图片的尺寸,那你怎么去让模型配置呢?对吧?所以说这个呢,可能需要就是你学完了康复 ui 之后呢,你再学 openclip 加康复 ui 会更方便一点哈。 好的,放大完了,我们来看看,右边是原图,左边是放大之后的,大家可以看一下哈,看看他的衣服哈,还行吧,衣服质量还不错啊,看这个扣子, 这个扣子原来是扭曲的啊,现在已经到正常了。还行,这个放大质量不错的哈, 对吧,他多少会有点修改哈,百分之九十九相似。还行哈,这个质量没问题,工作流也没问题,那我们就直接把它 导出开始封装吧,导出一下,但是要把它导出成 api 格式哈,图片高清放大命名一下。 api 命名完之后呢,我们就把这个工作流导入进来哈,然后这里有个描述,说明我们要给它写上哈,就是图片高清放大可以,这应该就行了, 这俩节点我们不用管,所以说主要给的就这仨参数就可以了,一个是一百四十八号节点,一个呢是一百零四,一个是一百二十五。 我们先把一百四十八号节点给他暴露出来哈,一百四十八号在这里打开,然后描述一下,就是需要被放大的图片位置,然后生成必须给他勾选上,然后呢还有一百零四和一百二十五啊, 你找到一百零四,一百零四,一百二十五,这俩都给他打开啊,一百零四的话,这是啊 number, 也就是第一步放大的最长边长度 建议在两千以内,然后这是我们的第二步哈, number 二,给他起个 number 二吧,就是最终图片的最长边的长度建议大于第一步放大图片的最长边, 就这样,一个两千,一个是四千,这样的话就应该已经够了哈。第一步放大的最长边长度建议在两千以内,不要超过 number 二的大小。好吧,就这样保存一下, 我们来试一下哈,就像现在我们就已经配置完了,你可以问问这个 openclock 你 现在可以用的工作流都有哪些?可以看到他已经给我们说了他现在可以用的工作流这有八个,然后再加上我们刚才给他配置的这个图片高清放大的, 然后他说刚才装的插件已经装成功了,那我们给他,让他生成一个真实人物,女生在二十五岁左右吧,然后衣服风格,背景装饰,长相你自己设计, 然后分辨率呢在一五三六零二四左右,然后再把这张图片放大到,我们让它放大小一点嘛,不要太大了,最长边放大到三千,不改变原始比例。我们先让他把生成的人物发给我,然后呢再放大发送给我, 然后呢再把这张图片最长边放大到三千,不改变原始比例,放大后再把放大后的图也发给我。 好吧?就这样这个时候他就会去做了哈,然后现在可以看我们的图片已经生成了哈,这个是一五三六乘以一零二四的分辨率吗?然后这是他设计的给我们生成的一个真实的女生,然后包括他的长相啊,然后以及穿着啊, 然后装饰包括背景全都是自己设计的哈,他用提示词设计的。然后设计完之后呢,现在就开始做图片放大了哈,等他把图片发给我了哈, 这确实是放大后的图片啊,这是我们放大前的,这是放大后的 是吧?确实是啊,是放大后的图片。

下面给大家演示一下在一潘诺环境中三分钟部署 openclaw, 首先在一潘诺论坛中有说明文档,点击 openclaw 安装部署说明,这里面有一潘诺安装部署大语言模型 api 申请 openclaw 安装部署 飞出渠道配置好了内容,开始了大语言模型 api 申请,进入 deepsea 开发者平台 注册并完成认证,点击 api keys 创建 api keys, 输入名称,创建 key, 复制并保存好 key 内容。创建模型账号, 进入一攀登 ai, 点击智能体模型账号创建模型账号,输入名称,选择模型提供商,粘贴刚才保存的 key base u r m 默认就可以了。域名中后缀的 v e 与模型无关,点击确认创建模型账号,成功创建智能体, 进入一攀登 ai, 点击智能体创建智能体,输入名称,选择最新版本端口默认即可。如果使用云服务器,记得开放端口号,选择模型供应商 模型选择 deepsea chat 即可。模型账号选择刚刚创建的 deepsea 账号,其他默认即可。点确认很快就创建完成了。点击 web ui 跳转到 open 操作界面 open club 部署成功,测试一下聊天 返回结果正常。飞书渠道配置,登录飞书,进入飞书开放平台。创建企业自建应用, 创建企业自建应用,根据要求输入应用名称以及基本信息,点击创建即可。点击添加机器人, 设置机器人名称,点击保存进入权限管理,点击批量导入权限,复制文档中权限 j c n 文件粘贴进来,确认权限,申请开通权限 创建版本版本号一点零点一更新说明,输入创建保存确认发布飞出,管理员需要审核一下,审核之后应用可以正常使用。 进入凭证与基础信息,复制 id 与 app secret, 再进入 pano 智能体配置聊天渠道,粘贴 id 与 app secret 并输入机器人名称。 进入事件与回调编辑订阅方式,选择使用长连接接收事件保存添加事件搜索 i m 点 m e s s a g e 点 r e c e i v e 下划线 v 幺勾选后确认添加 创建版本,版本号一点零点二,更新说明,订阅方式设置保存、确认发布应用创建完成。测试一下 ai 助手,这里需要把配对码填写到一段落中, 再进入 pano 智能体配置聊天渠道,输入配对码并批准再次测试飞书渠道配置成功。

昨天讲了小龙虾 open core 的 一键部署,今天来讲一下基本配置,这第一个选项要选 yes, 如果你选 no, 它是无法进行的。 接着第二个选项是快速模式还是通用模式?我们选择快速模式。第三个页面是模型供应商,这里我喜欢选择千问,因为千问目前有免费额度,可以给我测试。 选择完千问之后,他会跳转到一个页面进行授权,这里点击确定, 授权完成之后会显示认证成功,然后我们要返回代码的窗口,回来代码窗口第一个选项是由于我已经配置过千问模型,所以它有一个选项是保持默认,我就直接选择保持默认。如果你是第一次安装,你可以选择第三个或者第四个, 我这里给大家演示一下,选择第三个。接着这个页面是对接平台,有很多平台,这里我先选择跳过,当你来到这个页面,就是选择搜索的模型,这里也可以选择跳过, 这里让你去配置技能,选择 no, 我 们稍后再配置。然后来到 hold 这个选项,我们可以选下面的四个,怎么选呢? 键盘按下,然后按空格,按按下,再按空格,再按下,按空格,全部选中,最后回车就可以了。然后到了这个页面,大家就等待,就可以等待大概十秒钟的时间,它会弹出窗口, ok, 它来到这里就自动弹出窗口了。弹出窗口之后,有些用户它是显示网关无法连接的,或者是直接网站没法打开的,那这两种情况你就要重新部署一遍, 因为很有可能他没有获取到配置信息。我这边有个提醒就不是报错,他是让我升级,让我升级到三月十一号的版本,我现在正在运行的是三月八号的版本。然后这边有一个升级按钮, 正常不升级也是可以使用的,我尝试一下跟他说话是吧?正常也是可以去聊天的。 如果你跟我一样选择了千问的模型,但是这里发送信息没有回复,那是因为你认证了信息,但是 a p i 没有接入,因为你并没有申请 a p i。 那 在哪里申请呢?回到部署软件,点击右上角的飞出按钮, 在左边有一个 a p i 汇总,点开来之后,这里就有千问的传送门以及免费额度,有需要这个文档的评论区扣六六六。下期我们来讲怎么装技能。

我的龙虾已经可以操作电脑了,今天我给龙虾发了一条指令,把电脑桌面上的图片全部存入一个文件夹,放在桌面上, 然后他就开始干活了。我们来看一下, 他在桌面上建了一个文件夹,把桌面上的图片全部转移进这个文件夹,完美完成了任务,太棒了。

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

openclaw 保姆级安装教程,搭配免费大模型,让你唱完龙虾,十分钟搞定 openclaw openclaw 最近实在太火了,但是自己搭建的时候难免会出现各种问题,比如这样的这样的, 所以很多人已经开始做起了上门安装五百一次的生意。这里教你小白安装法, 包括环境配置、权限问题、下载速度等等,看完不仅立省安装费,你熟练后甚至都可以接上门安装的单了。我们直接开始第一步,安装 no js, 虽然 opencon 官方文档并不要求我们提前安装 node js, 但先把这一步做完,可以避开很多坑。首先来到 node js 的 官方下载页面中,点击 windows 安装程序按钮开始下载。但是由于 node js 的 服务器在国外,所以下载速度会很慢, 也可以通过 node js 中文网来下载,下载速度会有明显提升。下载完成后,你打开安装包, 安装位置可以保持默认,也可以选择你想要安装的文件夹。接下来呢,我们就一路无脑点击下一步, 然后点击 insert 开始安装,这里要稍等片刻,完成后点击 finish 按钮, note g s 就 安装好啦。第二步,安装 get get 并不是必备安装项,但很多人后面遇到的一些报错,本质上都和 get 的 配置有关, 所以安装了 get 可以 提前避坑。来到 get 的 官方下载页面,根据电脑的架构选择对应的下载链接开始下载。下载完成后,打开安装包,点击下一步, 这里同样可以保持默认,也可以选择你想要安装的位置。再往后,如果你不是专业的开发者,不必纠结这些配置,一路点击 install 开始安装, 等待一小会儿。安装完成后,我们可以把这个对勾给取消掉,它会打开 git 的 更新说明网站,对安装没有影响,然后点击 finish git 就 安装完成啦。第三步,安装 openclaw, 在菜单栏搜索 powershell, 这里要注意以管理员身份运行,然后会打开一个大黑窗口。为了避免 powershell 默认策略太严格,等着安装报错,我们要先输入一下这个命令,然后回车运行。 运行后, powershell 可能会出现一个提示,问我们是否确认修改执行策略, 这里输入 y, 然后回车表示同意这一次修改。为了避免 npm 源导致的下载失败问题,我们需要切换 npm 镜像的下载源,输入一下这个命令,然后回车运行。 很多人安装的时候都会出现这个报错,这个错误的本质是 npm 在 执行 get 操作时拉取仓库或者依赖失败导致的国内访问 get help 困难。先把 get 协议强制切换为 https, 输入一下这个命令,回车运行。上面三条命令能避开很多坑,确保我们一次性安装成功。然后我们再输入这个 open cloud 的 官方安装命令,并回车执行。 这个命令可能会运行一段时间,如果中途出现弹窗,问是否允许公共网络或专业网络访问此应用?点击允许。当你看到一句来自 open club 的 欢迎信息,就说明 open club 已经安装成功啦, 不过这还没完。第四步,配置 open club。 open club 会展示一段话,提醒您使用它可能存在风险。问是否继续? 这里可以按键盘上的左方向键选择 yes, 然后回车确认继续回车。 下一步需要选择 open class 背后的大模型服务商有很多选择,比如 open api、 千问等很多。这里教大家使用免费的大模型。我们先选择 v l l m。 第五步,配置免费大模型。

大家都说 open club 很好安装,但真正自己上手的时候还是很容易因为各种小问题卡住,最后看起来像是安装失败了。所以今天这条视频我就用零基础也能听懂的方式,带你从头开始,一步一步操作, 你不用自己研究原理,也不用担心哪里看不懂,跟着我无脑作,最后就能把 open core 跑起来。第一步,先打开 power shell, 输入 node version, 如果能看到版本号,说明 node 已经装好了,可以继续。 如果提示找不到 no 也不用慌,这说明你的电脑还没装 no 或者环境电量没配好,你可以先继续跑 opencloud 的 安装命令,很多时候它会自动处理,如果不行就先把 no 装好,再重新打开 powershell, 检查一次版本号。 第二步,执行安装命令,接着在 powershell 里输入官方安装命令,运行之后它会开始安装 opencloud, 并进入首次出场流程。 第三步,安装跑到这里的时候会自动进入这个命令,这一步就是 openclock 的 首次出场向导,简单理解就是软件装完以后第一次带你做配置。 看到这里先不用慌,后面虽然会出现模型、默认配置这些选项,但第一次我们不用全配完,先把程序本质跑起来最重要。第四步,当它让你选模型或者认证方式的时候,先别急着配,直接选 skip for now。 这不是不用模型,而是先把模型这一步跳过去。因为第一次安装最重要的是先确认 open core 个体能不能正常跑起来。如果你一上来就在这里配模型,反而很容易因为认证或者接口问题把自己搞乱。所以这里先跳过,后面我们再单独接宽, 不按提示,在这里按 ctrl c 退出。这不是安装失败,只是说明 open core 已经装上了,但初步还没全部做完,后面我们继续按更稳的步骤往下配就行。 第六步,先不要急着开 dashboard, 因为现在开了大概率也是这种页面能出来,但其实用不了的状态,原因不是坏了,而是 gateway 还没启动,所以正确顺序是先启动 gateway, 再打开 dashboard。 第七步,接下来就在刚才那个 power shell 窗口里,按顺序执行这三条命令,第一条是补本地运行配置,第二条是切到本地 get 位模式,第三条才是真正把 get 位启动起来。 你可以把它理解成先把环境补齐,再告诉它走本地模式,最后正式启动服务。所以这里不要跳着走,就按照这个顺序一条一条执行。第八步,如果你看到这个 power shell 窗口一直停着不要关, 这不是报错,也不是卡死,而是说明 gateway 已经在正常运行。这个窗口一关, gateway 就 停了,所以这里先让它挂着就行。 第九步,重新开一个 power shell, 别动刚才那个窗口,因为刚才那个窗口要让 gateway 的 token 读出来,看到输出的异常串字符后,直接复制保存好就行。 第十步,现在再去开 dashboard, 因为 gateway 已经在跑了,端口也有了,偷看也拿到了,所以这时候输入 opencloud dashboard 才是正确顺序。记住一句话,先开 gateway, 再开 dashboard。 如果返回的是这种提示,不用慌,这不是报错,也不是安装失败,它说明程序已经跑起来了,只是模型还没配置好,所以暂时不能正常对话。 第十二步,接下来开始配置模型。我这里用的是阿里百炼 a p r, 所以 后面我们直接把 disco 接近 open core, 前面页面能开但不能聊天。不是安装问题,而是还没有把模型真正配好。 第十三步,拿到 api key 之后,先在新的 power shell 里设置这三个环境变量,分别是 api key、 base、 url, 还有模型 id。 这一步的作用就是先把库恩接入需要的基本参数准备好。 第十四步,前面的参数都设置好以后,直接执行这条括号的接入命令。这一步就是把括号正式接近 open core, 命令虽然长,但你不用背,完整复制执行就行。第十五步,最后重启一下 get 位。 因为刚刚改了模型配置,所以要重启服务,让新配置生效。最后说一下,第一次配置完成以后,后面每次启动其实只需要两个命令,先 opencloudgateway, 再 opencloud dashboard。 记住顺序,先 gateway, 后 dashboard。 如果你想要我整理好的,可直接复制版,完整步骤可以直接私信我,也欢迎关注我,后面我会继续更新更多 opencloud 的 使用教程。