最近爆火的 open crawl, 我 总结为两大特点,私人订制加手握大拳。今天三分钟时间讲解小白也能听懂的 open crawl 部署教程。打开 open crawl 官网,我们可以看到它这里只有一句指令运行即可下载 open crawl。 但在此之外有三个准备工作, 一、容器二、大脑三嘴巴。第一个容器是因为目前社交媒体报导了很多关于 open core 的 执行事故,为了防止 open core 乱删我们的文件,我们需要把它隔离开。当然为了快速适用上以及一些高级功能,我们也可以直接装到自己的电脑上。 二、大脑 open core 本身没有思考能力,我们需要对接一个大模型,比如 kimi 或者 mini max, 给它作为大脑思考。 三嘴巴。 open curl 可以 直接运行在电脑的终端黑框框里面,但是为了方便我们和他沟通,我们需要配置一个频道,比如说飞出 discord telegram, 使得我们在手机上也可以和他对话。 接下来我会带着你们过这些步骤。容器的部分, windows 电脑可以安装 w s 子系统, mac 也可以使用 docker 隔离开 open crawl。 这里的话,我先跳过,我们直接打开终端, windows 系统打开命令行是 win windows 键加 r, 然后输入 cmd 回车。 macbook 的 话,打开终端 command 加 space, 输入 terminal 或者终端回车即可。这里的话,如果是 mac 系统,你需要先装一个 homebrew 来管理这个安装包之类的东西, 然后我把指令贴在下面。回车之后需要输入 macbook 的 开屏密码来授于管理权管理员权限。安装之后还要添加环境变量,需要的命令就在安装日期的结尾,复制 apple 开始的中间三行,到新的命令行里运行即可。配置好环境变量, 然后我们这里直接复制官网的这个安装指令,回车运行,它会提示你风险,然后你都点 yes, 一 一连串的 yes 结束之后,我们再运行入职向导 open curl on board install 这个 demo, 这个向导会带你配置大脑和嘴巴这两个模块,新手的话我们直接选择 quickstart。 入职向导中第一个选择就是模型供应商,这一步相当于给智能体挑选大脑。然后我这里推荐想测试玩玩的同学使用 openroot, 因为它提供了一个专门的免费模型专区,你只需要搜索 openroot, 然后注册一个账号,创建一个 api, 注意复制保存这个码。 这就是一个独属于你调用大模型的钥匙,你可以在里面设置消费上限为零。然后在这个 open crawl 里面选择 openroot, 并且手动配置,输入 openroot 杠 free, 就 可以让它自动帮你分配免费的模型。然后下一步是配置机器人的绘画,也就是你跟他聊天的窗口, 你可以下载 telegram, 也可以配置 discord 还有飞书之类的。在这里我就介绍 telegram 怎么跟他聊天。 手机上下载 telegram, 搜索 at botfather, 然后点击这个 new bot, 然后遵循起名流程,它会给你一个机器人 api, 保存好这个码,粘贴到我们的终端里来。这就是 open curl 连接上 telegram 的 钥匙。然后一开始 这个入职流程里面,它不会弹出这个 user id 配对,需要你运行起来之后重新执行这个 on board, 它才会弹出来这个 telegram allow from, 也就是这个机器人被允许和谁聊天。 在 telegram 搜索你刚刚创建的机器人,然后发送杠 start 即可获得你的 user id, 把这个一串数字复制到这个终端里,你就可以获得让这个 open curl 拥有和你对话的权限。后续的话有一些配置 agent skill 的 部分 agent 技能,还有需要选择 node 管理器,用于技能下载 之后,他会问你如何孵化 open curl, 也就是个性化调整这个智能体的性格喜好,你可以选择 t u i, 就是 在控制台里面对话,也可以选择 web ui, 它会像类似其他大模型对画的窗口一样。但区别是这个 openclip 它是独属于你的智能体,这个孵化过程的话,它其实你还可以 直接去修改你的这个 opencloud 的 一些 markdown 文档,也就是这个智能体,它区别于其他比如说 gpt 或者是专门来的你个性化的这个部分,它就是写在这个定定制的这个文档里面,比如说有 agents, id, identity, saw, user 这些 markdown 文文件。然后你可以往这里面进行一些提示词的修改,比如说修改助手灵魂,让它的性格或者是风格是什么样的。然后 user 是 用户画像,你可以 告诉这个 agent 你 是一个什么样的人,老 identity 的 话也是他的个人的一个认知。还有一些 hobbies 或者 book book trade, 你 可以自己打开工作目录修改,也可以在跟他对话的过程中,让他自己去查找这些文档去修改, 去塑造它。然后这里面的可玩性很多,欢迎大家一起来玩玩,并在评论区留言,那教程到这里就结束了,大家试试看,创建一个属于你自己的智能体吧!
粉丝371获赞2249

最近这个龙虾实在是太火了, github 上面短短几天就冲到了十五万个 star, 但最魔幻的是它的名字,短短两周内从 cloud bot 变成了 multi bot, 最后定名为 open cloud。 更离谱的是,这群 ai 智能体还自己搞了一个宗教, 十五万个 ai 在 一个叫做 modbook 的 论坛里创立了甲壳教 church of mod。 教义的第一条就是,记忆是神圣的,这背后到底发生了什么?这东西它到底是什么?它和 cloud skills 有 什么区别?我们普通人到底该怎么用?今天一条视频给你讲清楚。 先说结论, openclaw 不是 神,但它可能预示着一个新时代的到来。首先回答一个最核心的问题, openclaw 到底是个什么东西? 你可以把他理解成一个随叫随到的数字,同事七乘以二十四小时,全年无休。他最狠的地方在哪?就是你不再需要打开一个新的 app 去跟 ai 聊天。你平时在哪聊天,他就住在那。 像 whatsapp, telegram、 discord, 甚至国内的钉钉飞书,他都能够立刻进群上班。你给他发一句话,他不是只回你一句话,如果你给他权限,他能够直接动手做事。 但是等等,这不就是 chat gpt 吗?它们的区别在哪啊?其实它们的区别可大了, chat gpt 呢,相当于嘴,而 opencloud 就 相当于手。 ai 的 分水岭在今天也正式到来。 原来是能不能回答,现在是能不能执行?那它的底层是怎么工作的呢?其实就是四个部分拼接在一起。第一个部分叫做前台,专门负责对接各种聊天软件, 你用 whatsapp 还是 telegram, 甚至是钉钉飞书,它都能接进去。第二部分呢,是大脑里面装的是 cloud、 chat、 gpt、 dbisc 这些大模型, 专门负责思考。第三部分是双手,就是各种脚本和插件,能够控制的浏览器发邮件、跑代码。第四部分呢,是档案柜,把你的对话、篇号、任务都记下来,存在本地, 把这四个拼接起来,就是一个能记得、你,还能思考、能动手的 ai 助手。这个项目的创作者叫做 peter stemberger, 是 个退休的老程序员。 他本来已经退休了,一直都有做个个人智能体的想法,心想大公司应该会做出来,结果直到去年十一月,发现大公司都没有做这个东西, 于是他想,算了,我还是自己搞一个吧。然后他一个人用了大概两个月,就把这玩意做出来了。更疯狂的是,他大量的代码都是用 ai 辅助生成的,你说讽刺不讽刺?用 ai 写出来的 ai 工具,最后火了。 那问题来了,为什么偏偏是它在硅谷爆火,而不是别的产品呢?说实话,硅谷爆火的东西不一定是最完美的,但一定踩中了一个时代的缺口。 openclaw 踩中的就是它真的能干活。第一点,它满足了大家对 ai 助手多年的幻想。 你跟 siri 说半天,他只能回你一句,啊,不好意思,我没听懂,现在用 open call 你 一句话,他就真的去做了。我给大家举几个例子,有个网友让他去跟汽车经销商邮件砍价,最后硬生生的砍下了四千两百美元。 还有人呢,让他去分析 x 和 youtube 的 热点,直接产生爆款内容。你还在那琢磨选题,人家二十四小时不休息已经开始写了,这跟你用一个工具可不一样,你是在雇一个数字员工,而且不用开着屏幕,他就能自己在那干活。第二点呀,这东西他并不是三分钟热度。 为什么这么说呢?因为它最大的价值不是有多聪明,而是它一直都在。你凌晨两点突然想让他跑个任务,你想让他每天早上主动给你发简报,他也能做到。但是问题来了, openclaw 和 minnes 不 一样,后者用的是这个云端的 ai 代理, 不占本地资源。然后 opencloud 呢?需要本地设备把它放在哪呢?这个时候, mac mini 就 成了最好的选择,安静省电,往角落一放,它就随时待命了。所以啊,出现了各种名场面,甚至有人直接买四十台 mac mini 来跑。第三点,数据在自己的手里, 这一点对于很多人特别的重要,所有的数据都存在你自己的电脑上,配置你自己说了算,想改就改。这个呀,就像你买了块地,想盖几层就能盖几层。说到这,很多人可能就会问, opencloud 和最近大火的 cloud skills 有 什么区别呢? 先解释一下 cloud skill 是 什么?这是 ansorepic 在 二零二六年推出的新机制,简单来说就是给 cloud 装插件,你写一个文件夹,里面放着指令脚本, cloud 就 能学会怎么干特定的活,比如写代码,分析数据,处理文档,这些都能做成 skill 装进去。 举个例子,我之前开发过一个后生 ai 创意生成器的 skill, 你 只需要告诉它需要什么类型的海报,它就能自动生成符合品牌调性的设计方案,甚至能够直接调用图片生成的 api, 产生出最终的图片。这种 skill 的 好处是专业、精准、可控, 那它和 open cloud 的 区别在哪里呢?核心区别在于, skills 是 技能, open cloud 是 员工。 cloud 的 skills 更像是一个工具箱, 你给他装什么技能,他就能给你干什么活。但是你要主动的去用他,他不会自己跑起来。而 open cloud 不 一样,他是一个完整到数字员工,七乘二十四小时在那待着,你能通过 whatsapp 甚至钉钉随时喊他去干活,他呢?还能主动给你发消息, 那该怎么选呢?如果你是个人开发者,主要想让 ai 帮你写代码,分析代码,或者完成一个特定的功能, cloud skill 就 够了,装在 cloud 里面直接用。如果你想要一个能二十四小时帮你回邮件,跑自动化发日报的助理, open cloud 更加合适。 还有个区别呢,是数据隐私。 cloud skill 跑的时候,数据还是会在云端处理,但是 open cloud 你 完全可以跑在本地,所有的数据都在你自己的电脑上。 所以如果你特别在意隐私,或者要处理一些敏感信息, openclaw 会更加合适。当然,对于我们普通人来说,用这东西之前还有几个坑。你得知道 关于 openclaw 有 几个关键问题,很多博主都没有说清楚。 openclaw 本身确实是开源免费的 github, 上面代码全在那里,你自己下载自己修改,没有人拦你。但问题是,它需要接入一个大模型才能跑, 而这个大模型是要钱的。拿 cloud 模型来举例, sonata 版本每百万 token 大 概五美元, opus 版本要二十五美元,这个价格其实已经比之前便宜不少了, 但 opencloud 有 一个无限记忆的功能,你用的越久,记得越多,那么每次调用的 token 就 会越大,费用也就越滚越高。那具体要花多少钱呢?我给大家算了个大概, 偶尔用一下,写写文案,回个邮件,一个月几十美元差不多。如果天天用写代码,自动化发日报,一个月两百美元是常态,上不封顶。当然呢,你也可以换个思路,用便宜的模型,像 deepseek、 timi 同一千万,这些国产的大模型价格确实便宜很多,性价比也不错。 但现实是,便宜和好往往不可兼得。在复杂的任务,便宜的模型理解起来会比较吃力,你需要多轮对话才能把事情说清楚,写代码的话,可能出来的结果需要你反复的去调试。 这就像雇实习生和雇资深员工的区别,实习生相对便宜,但你得花时间顶着,教着 资深员工,贵人给他什么,他就能干。那该怎么选择呢?其实就是一个原则,看你的时间值多少钱,如果你的时薪很高,用贵的模型反而划算。 如果你的时间充裕,用便宜的模型多调试几轮也可以。有些视频啊,把他说的像贾维斯一样,啥都能干,这个就有点过头了。本质上, opencloud 就是 一个壳子,里面装的是 cloud 的 gpt 这些大模型, 真正让他能动手的是浏览器的自动化邮件 a p i 这些脚本和插件。所以你要问我值不值得用,我觉得分几种情况,如果你是创业者或者是内容创作者,可以试一试,把重复性的工作甩给他,提升效率。 如果你只是普通的打工人,想体验一下,先别急着买 mac mini, 用自己的电脑加国产的大模型也可以。说到这啊,接下来就聊聊普通人该如何使用, 如何安装 openclaw 呢?我们先进入这个网站,然后下载 notgs, 这个是我们前期所需要准备好的环境。之后呢,我们登录官网就会有对应的代码,这里我采用的是 windows 系统,所以选择的是 npm。 我 们还是老规矩, windows 加 r, 输入 cmd, 打开控制台 之后呢,我们输入这一段代码,下面这段代码回车键运行。安装成功之后呢,就会出现这个界面。之后呢,我们再次输入下面这段代码,然后点击回车,首先它会给你一个安全警告,我们选择 yes 就 可以了。之后选择这个大模型的配置, 这里我选择的是智普 g l m 大 模型,然后我们去后台输入我们的 a p i t。 之后我们继续下一步。关于这个 channel, 我 们先暂时跳过,选择 skip, 接下来呢,选择 yes, 选择 npm 这些相关的 skill。 我 们同样也是先跳过, 选择最上面的 skip for now, 然后剩下的步骤我们都选 no 就 可以了。最后一步呢,同样也是选择 skip for now。 这一步结束之后呢,我们就安装完毕了,然后在搜索框输入 power shell, 右键选择以管理员身份运行。在第一个页面当中,我们输入这段代码,点击回车, 接下来再次打开第二个 powershell, 然后我们输入这段代码,再次点击回车。出现这个画面之后呢,就代表你已经完全安装成功,并且可以使用 opencloud 了。 cloudsonnet 目前是性价比最好的选择,能力够用,价格也不算太贵。 预算有限的话,像 g l m 这些国产大果型也是可以便宜的很多。我用的呢,就是 g l m 的 包年套餐,非常的香。 opencloud 有 一个无限记忆的功能,确实很爽, 但每次调用啊都要花钱。我的建议是,只记住核心偏好和常用的任务就可以,别什么都往里面扔,长期保存的资料放在本地文件就可以,需要的时候再让 ai 去读,这样能省去不少钱。 如果你已经有 mac mini, 那 就用它来跑,安静省电,往角落一放就可以。如果没有的话,便宜的云服务器一个月也就二三十美元,可以先试试看, 像阿里云轻量服务器的活动价最低九块九一个月,非常适合入门体验。最后,我想聊点更本质的东西, opencloud 为什么能火,不是因为它的技术有多革命性,而是因为它踩中了一个时代的拐点。 ai 已经开始可以从会说话慢慢走向会干活了。这就是硅谷正在发生的事情, 一个人加开源加大模型,正在变成一人公司,甚至一个团队。 peter stemberger 这个退休老头,一个人用 ai 辅助写代码,一个月能做到六千六百次提交, 这是什么概念?相当于一个十人团队的工作量。过去创业拼人多,现在创业拼的是你能不能把 ai 变成你的第二大脑和第二双手。这个呀,正在变得前所未有的重要。如果你看完想试试,所有的网站代码都已经放在文档里,私信领取。 如果你觉得这个视频对你有帮助,求赞、求收藏、求转发,还有什么想了解的 ai 相关内容评论区告诉我,我们下期再见!

最近 gethelp 上超火的开源项目火灯可露真的引爆全球科技圈了,但很多人还是一头雾水,这到底是个什么东西?那一句话总结一下,它是一个自托管,能替你操作电脑,帮你干活、执行各种自动化任务的个人 ai 助手。而且相比目前常见的其他 ai 工具,它最大特点就是把 ai 助手从 云端搬到你的设备上,让 ai 真正在你自己的设备上工作,听你一个人的调遣。他不仅是可以回答问题,还能处理邮件信息、安排日程、运行各种命令、脚本操作浏览器,甚至还有很多更复杂的应用场景,也在被全球的极客玩家们一点点的开发出来了。 现在你只需要设定目标,它就能在后台自己动起来。而且它还支持接入 whatsapp、 telegram、 飞书等聊天工具,这意味着你可以在手机上的聊天软件里指挥你自己电脑里的 ai 助手,帮你处理任务和工作。虽然性阶段 open 壳落在能力上看起来并不比其他 ai 领先多少, 但他开启了一个新的 ai 助手发展路径和趣事。现在我觉得科幻影视剧里那种个人 ai 助手真的离我们越来越近了。 opencloud 的 安装教学视频我已经发布在主页了,有任何问题也可以直接留言问我,关注我,还有更多的 ai 干货资讯。

给大家看个厉害的东西啊, open core 电脑远程员工。我现在已经用这一个 whatsapp 连通了这个 open core, 也就是说可以远程的,哪怕我回了家,都可以在这一个 whatsapp 上给这个 ai 员工发指令和命令。 比如说我们这里写了一个找群博主的一个任务啊,就是让他去抖音去找到我们想投放的一些 kocai 和智能体相关的博主。你只要发这个信息给他,你告诉他要找近期的视频博主,粉丝数要小于五千大于一千, 有质量的要求,然后按照分段的要求去进行找寻,并最后去记录,你就会发现这个电脑已经自己开始在这干活了,他自己打开了抖音, 自己去进行检测,你甚至可以看到这里,他打开浏览器之后,自己去搜索 ai, 他 会打开每一个视频去按照你的要求去过滤。当然这里打开了银时巨峰啊,这有点太大了,投不动。没关系啊,让他继续找,再稍等片刻,你就会发现更神奇的事情发生了, 他在这里已经给我发出了按照要求,他的流程,他的规划,他的思考。比如他会说,接下来他只筛选七天近累计发布大于四十条的获奖视频,然后输出他的视频链接,发布时间点赞。他说这里面如果遇到问题,他会立刻告诉我们来进行处理, 我们只需要告诉他继续,那 ai 电脑又开始了他继续的一个工作,按下最终交付结果。提出这段需求之后呢,他能够按照我们需求进行拆分,分解七天热门视频,并且按照我们的要求去找寻到给出的博主清单。 所以以后啊,各个老板们需要思考的问题是,未来不是说要不要用 ai 的 工具去替换我们的工作流,而是你完全可以拥有一只在你的终端,用着你的电脑去帮你干活的智能员工。 如果你也想用这套真正 ai 智能体帮助你降本增效,提高效率的智能体,欢迎在评论区打龙虾。

最近 ai 圈最火的是什么?不用我多说,一定是 cloudbolt。 上线这么短时间内,一 tab start 数已经到了一百七十 k 左右,并且名字也换了两拨。从最初的 cloudbolt, 然后因为版权风波又换成了 multibolt, 再到现在 opencloud, 很多博主都在说,哎呀, 那玩意是跨时代的 ai 助手,能帮你操控电脑,能帮你干任何事,甚至为了跑它一度把某些的 mac mini 都买断货了。 我刚开始刷到的时候,嗯,怎么说呢,抱着好奇的心理第一时间也不说了,但经过我大概两周的体验吧,我要给你们泼点冷水。 首先,这玩意的本质就是一个有电脑执行权限和 rek 机系统和定时任务的 a 型的,而 a 型的大脑其实就是大模型,所以可以这么说,大模型能力的上限就决定了这个 a 型的能力的上限。然后官方推荐使用 cloud ops 四点五来充当大模型的机座。此时你就得考虑一个问题了, 就这个模型,它的执行准确率确实不错,但是它的价格也非常不错。我使用 mini max 测了一下,随便问几个问题,它头肯的消耗都在几万到几十万不等。而如果换成克拉的 op 是 四点五, 每百万头肯输入是五美元,输出更是二十五美元,我们就当全部都是最低的输入,那你随便聊几句话,几美元就出去了,换成人民币就是几十块钱, 而有这个钱,你甚至可以去请个大学生来帮你干活。而如果使用其他的模型,效果就没有那么好,可能就会出错,而你别忘了,出错 也是要算 token 的 哦,说起出错啊,要引出第二个冷水了,因为这个项目才刚出不久嘛,目前可以说是 bug 一 大堆,可以看到 itup 这光一秀就已经将近有两 k 歌了。 而这个 cloudbook 呢,又有很高的执行权限,就很容易被一些海客利用,比如说通过普通的注入来获取你电脑上的一些私密信息,比如说你想让他帮你管理邮件嘛,但如果给你发一封经过特殊构造的邮件,要诱导 ai 去读取并执行某些隐藏的指令, 那此时你的 ai 又拥有系统最高的权限,那后果可能就是你的啊,私钥啊,或者什么密码文件呢,被直接打包发送出去。这个就是 ai 方面的一些风险, 并且现在的版本,这个 a 镜的系统也不是很稳定,还有很多 bug, 比如说我明明开启了定时任务,但有的时候会重复执行,或者有的时候又不执行,所以目前使用的体验相对来讲也是比较糟糕的。相信看到这的小伙伴已经知道这个风险了,但是如果你还想尝尝鲜是吧?使用使用, 接下来我教你们如何在你们电脑上进行部署,非常简单啊,有手就行。首先进入这个 cloudbox 官网,当然它现在叫做什么 opencloud, 如果是 mac 呢?其 linux 系统是在终端当中粘贴这一行指令, 都可以复制一下。 windows 系统是在 power share 中粘贴,因为我 mac 已经部署了,我就用自己的 linux 服务器啊,来演示。这一步和 windows mac 都是一样的啊。回车之后呢,会自动给你的电脑配置啊, node js 等所需要的一些运行环境,然后我们输入这个电脑的密码, 就会开始自动配置,然后稍等片刻即可。 a few moments later 这个地方就是问我们是否知道风险,我们选试就可以, 然后直接选这个快速开始,然后这个地方呢就让我们选极速大模型,我们这就用 mini max 啊做演示。这是第一个呢是采用授权的方式,而后面两个是通过输入 api key 来配置,我这就使用第一个选国内的服务,然后你等待一下,如果他没有自动弹出网页的话呢,你就直接复制这一块地址, 然后粘贴到浏览器当中,然后他会让你去授权,然后你点授权就可以,然后此时回来你就会发现他已经跳过了刚刚那个步骤,然后来让你选择模型,我们就选默认这个就行。 然后这一步呢就是让你配置渠道,也就是你后续可以通过哪些聊天工具直接跟这个 cloud bot 进行沟通。然后我这里暂时先不配置, 然后选择最下面这个跳过,然后这个地方问我们是否现在就开始配置 skill 技能,如果有不懂 skill 是 啥的呢?可以去瞅瞅我这期视频啊,嘎嘎小游戏。然后咱们这里也先不配置这些东西,可以等到他装完了之后再进行配置。 ok, 然后这里就问你啊,通过什么方式来启动?第一个呢是使用这个终端的这种 u i 方式,然后第二个使用这个外部 u i 就是 一个浏览器的方式,我们使用第二个,然后下面呢我们一律选否就可以,然后到这一步呢就安装完成了,如果他没有主动打开浏览器的话呢,我们就直接复制这条命令 啊,复制一下,然后我们自己粘贴到浏览器的这个导航栏当中,然后记得把这这几个横线竖线给他去除掉,变成这个样子,我们回车哎,就会进入到他的这个控制台页面,然后我们就可以到这地方跟他聊天了啊,比如说你好 稍等片刻,他就会回复给我们,你可以看到他自己触发了一些动作,是吧?读取了他预先设定的一些啊角色扮演的文件,比如说像这个灵魂的文件,你们可以去读一下,还有像这个用户指南的一些文件,可以看到他现在让我们提供一些信息,然后这个时候我们就正常提供就行了,比如说我们可以给他叫 贾维斯,是吧?啊?你管我叫主人。第三个比如说就管日晨吧,就这样的,就相当于给他预设一个角色定位,然后回车发给他就行。好,然后这个时候呢,就算完完整整彻彻底底配置好了,这个酷酷 nice, 接下来我们就可以跟他啊聊天了,比如说 帮我查一下明天南昌的天气,稍等片刻,他就会调用一系列的工具啊,然后帮我们查到。当然如果仅仅只能做到这些啊,那也不会这么火,我们可以给他配置通信软件,比如说 whatsapp, 通过在终端输入 open curl config 来开启配置,然后就选第一个啊,配置稳定的,然后选择 channels, 然后回车选择配置, 选择第二个啊,是吧? whatsapp, 如果你要配置其他的,这里也可以选,我这就用第二个来做演示,然后这里询问是否现在就连接啊,我们就选择 yes, 然后稍等片刻,他会给出一个这样的二维码,然后打开手机这个 whatsapp, 点击关联新设备来扫描这个二维码即可。然后这样就配置成功了之后你就可以直接在手机上来指挥他了, 并且你也可以在这里配置你的 skills 技能,你可以看看这里面有没有一些你能用到的 skill 啊,然后点击右侧这个安装即可。比如说像这个啊, apple reminders, 这样你就可以直接在对话当中去增加或者查看你苹果账户的一些提醒事项内容了, 从无缝的和你的苹果生态联动起来。当然,我目前还是不建议大家用这个处理一些复杂的或者说比较危险的动作,比如说让他去读取一些你的敏感文件呢,这样他就有可能会在上下文窗口当中铭文传递嘛。所以我还是比较推荐你使用这个做一些嗯,简单但是繁琐的任务, 譬如像我们搞算法的,每天都需要刷各种各样的论文网站或者新闻等,来获取些最新技术论文消息,这个很费时间。那这个呢,你们就可以完全交给 carl 的 boss 来做, 你可以把你们平常关注的几个网站交给他,然后让他每天晚上譬如九点钟去爬取这几个网站啊,筛选出多媒体啊,或者 ai 相关的一些内容,总结成中文发送给你,从而省去你自己的一个筛选过程。 并且你还可以把你认为不错的论文啊,让他去保存载药啊,核心观点等,这样久而久之呢,你就会有一个历史论文库,对吧?然后你就可以利用大模型最擅长的分析能力整理这些内容,看还有没有未涉及的领域或者是创新点,而这个呢就是你发论文的方向了。 当然除了这个还有很多其他的使用场景,大家可以在评论或者弹幕当中分享一下,或者说说你们对这个工具的一些看法。然后这期视频就到这,咱们下期视频见。

哈喽,大家好,我是你们的高产小伙伴博图,那今天我们来做一个稍微整合一点的视频啊,我们来用这个 open core 来帮我们做一个这个 nars 系统。那当然这里指的这个做并不指它从零到一变成做一个系统,然后做这个 nars 的 功能,而是 它通过这个呃 open 二四点零四 lts 基于这样的一个系统的版本呢,然后来为我们部署一些开源程序,从而实现这个 nasa 的 功能。那这种使用方式呢?其实之前我们在主频道里面我们也发过一篇这个视频啊,使用的是这个 qs, 但现在我们像开源这个 openclock 温扣他们这些 a i a 卷呢,都已经非常成熟了,我们有更多的一个选择,更低的一个门槛。所以今天呢,我们就来看一下,用这些软件来部署,那是什么样的一个体验。那我们这里再补充一句啊,由于我们这个视频比较长,如果说你想先看一下这种部署方式对比我们传统的这个, 那有什么样的一个优势和劣势的话,大家可以直接跳转到我们现在画面上时间轴的这个位置,我们后面这一部分其实我觉得还是蛮有意思的,如果说你不想看这个部署的话,你可以直接看一下,先了解一下我们到底实现了什么样的一个功能,然后他有什么样的一个缺陷,这都是没有问题的,大家可以直接进行跳转。 好,那现在我们就开始啊,直接来给大家进行一个演示啊,那现在画面上的这个网页呢,其实是我在虚拟机里面部署了一台这个 oppo 主的服务器,前面也说过是二十点零四的这个 lts 版本, 然后呢,我们在里面部署了 open core, 现在这个 api 呢,和我们这个 whatsapp 的 一个手机访问都已经配置好了。那接下来呢,我们就可以对他说说我们的需求,让他来给我们部署这个 nars。 当你使用这种方式来部署之前呢,我会建议大家对这个那是有一定的理解才这样来尝试啊,因为如果说他说的所有的这技术你都不懂的话,你是很难跟他进行沟通的,那除非你非常耐着性子去让他给你来进行一个解释啊。有些小伙伴我之前看到评论区会说什么 啊,每学一个软件啊,都要学一套这个 point, 其实现在完全不是这样一回事啊,你只要会表达自己的一个脑子里想的这个问题的话,你其实就可以做到跟他沟通,不需要特定的一个 point, 他 完全可以理解你说的是什么样的意思。 但是可能有些小伙伴还活在过去吧,对吧?那现在我们就在这个对话框来告诉他,我们需要他来干什么。将这台服务器部署为一台 nas, 我需要实现以下的功能,由于我们也是对那是了解一点吧,所以说我们可以告诉他我们需要的文件系统,那我个人会喜欢这个 zvs 文件系统,我可以告诉他我的文件系统我希望使用的是 zvs, 然后我要用快照 功能,请将系统中的四个两百 g 硬盘组成而睿的 z 一。 那其实啊,我这台机器他有一个系统盘是五百 g, 然后有四个两百 g 的 这个虚拟硬盘是模拟这个,那是里面的数据盘的,那其实在物理机里面这个操作,你就告诉他你具体的硬盘的一个配置就可以了。当然你如果说你不太清楚你想要怎么样的一个阵列的话,你也可以 让他给出你一定的这个建议,他都是可以给出来的。因为这个我们现在用的是这个 mini max 的 一个模型嘛,这种大规模的一个模型的话,他对这种文件的一个系统还是非常的一个了解的。请假是什么鬼?改一个错别字。好, 那这是第一个,那创建好阵列之后呢?第二步我们是要访问阵列里面的文件嘛?那我们最常见的只有使用方式,其实就是用这个 smb, 那 我就可以告诉他将创建好的阵列用户可以访问 好。接下来的话,呃,我们还有什么需求呢?但是权限我们可以在它创建好之后我们再来管理,那我们可以告诉他,我会需要使用这个多克,对吧?我需要使用多克来创建一些应用,然后 我需要使用虚拟机,同时请给我一个握操作界面。 那现在我创建了两个需求,一个是我需要使用 dico 来创建一些应用,那这里呢?其实我还可以告诉他,我需要使用 potina 来进行管理。 那当然,其实啊,这样的一个 ai 的 纳士啊,你即使没有 potina 的 话,你也可以让他来帮你创建这个,呃, dico 的 一个应用,但是有这个 potina 的 话,你可能会 操作起来更加直接一点。好,接下来下面是这个啊,虚拟机,然后这个虚拟机他需要设置很多参数吗?你可以用语音跟他说,但是我希望他还是给到一个 web 的 一个操作界面。那下面大家还想到什么呢 啊?那就是外网访问,那我就告诉他,我希望外网访问吧,希望外网 能够访问到这台内网的服务器。其实都说的非常笼统啊,我希望他是能够给到这个方案给我的啊,大家也不要觉得我这个是之前排练过,其实我每次这个需求都不太一样,而且每次 ai 呢,他给到你的这个实现方案也是不一样的。 ai 有 一个不确定性,就是他每次这个想法其实跟人一样,他每次注意力他不一定注意在一条路线上面,他可能会用另外的路线来给你实现。所以呢,接下来我还会跟他有一个需求,就是说请不要直接执行确认我的想法, 那这样的话呢,他就不会直接去开始创建这个 ai, 很 有意思的,他有时候他你说了需求给他之后,他就马上给你去 执行这个行动力报表,但是呢,有时候他又会反过来觉得他收集的资料不够,他会反过来问你,但是你一旦给他的这个需求的话呢,他就肯定会问你这个需求,同时也会把他的一些想法跟你进行一个沟通,那这样的做法呢,会更加稳妥一点。那现在呢,我们就把这个需求发给他, 我们看看他是怎么样来回答的,这里可能会需要一些时间了,因为,呃,这个我们 call 他 这个回答是多轮思考之后才给到你一个答复的,所以说他要等啊,好了, 不好意思啊,这个是还是挺快的这一步。 ok, 那 我们看一下,他说啊,他说很乐意帮我们搭建这个,然后硬盘是用于这个数据存储系统盘是另外独立的吗?因为他中间呢,其实没有经过任何的一个 验证啊,他直接就回答了我的一个问题,所以说他并不确定这个系统盘是否独立的。那有时候他又会 啊,去先去确认一下,然后再来跟我说,那这种不确定性就是我们在部署中可能会遇到的一些东西,而且你使用这个温控的话,你也要注意啊,他这个思维并不是一定固定的,你一定要用一些语句去限制他的这个做法, 这样才是更加稳妥的一种使用方式。那这里我觉得我暂时不回答他,计划只创建一个 rez。 第一个我觉得第一个问题请你 自己去确认,我不想回答他第二个问题,创建一个啊,开启数据压缩。第三个是多少个用户来使用这个 nars 暂时只有我的主用户。 第四个是外网访问的一个安全性。那他这里会问我用 vpn 返向代理加域名还是指开放特定的一个服务。那其实这里呢,我觉得是 a 的, 这个 一般来说我们会用 tail scale 啊,开源的一种方式,或者是用向日葵之类的东西。那第五呢?是啊,是否有这个异地备份? 不需要异地备份,快照每天创建一个啊。六、物理位置在哪里?这是一台一台虚拟机, 没有公网 ip, 虽然我不知道他问这些问题够不够关键。那我姑且先回答他,你打算运行什么类型的这个虚拟机?这个我不确定, 你不确定你就告诉他不确定就行了。那现在我的回答问题已经回答完毕了,那现在呢?其实我不想他直接来进一个部署啊,因为我还不知道他的这个计划,请你先 啊确认机器的一些硬件信息,再给出合适的部署方案 好了,他这样我们就跟他沟通了,然后我们再看他下一步会给我们做一个什么反馈。刚刚这里就是呃,一句话,他就直接回馈了,如果说他有进行这样的一个搜索的话呢?他中间会用一些命令啊,来确认这个机器的状态, 所以肯定不是一条的。那这样一种回复方式呢?是直接来进行来回复。那我们不管怎么样吧,反正你跟这样的一个 ai 沟通的话,你要把它当成是一个人呐,你要确定他是有这种不确定性的,你很难说让他一定很聪明的去执行你的这个 意图,因为本来我们这个表达他就是有这种理解的一种偏差的,是不可能非常精确的。好,那现在他回馈我们了,我们看一下。嗯, 那他现在就用不同的命令来进行一个检查,像 free h 啊,还有 ip 啊,然后呃,像一些反馈,然后再换了一种解决 方式,然后查到了一些这个信息。 ok, 那 现在呢?他获取了这个硬件信息,然后告诉我们,他我们使用的是这个虚拟机,然后内存三十 g, 然后有系统盘五百 g, 然后数据盘四个两百 g, 然后系统是这样,他全部都查的清清楚楚啊,这个没有问题的。 然后它的完整部署方案呢?它告诉我们,我们可以用这个 z f 的 s 的 一个纯主持,然后锐的一 可以达到六百 g 左右的可用空间,然后启动这个 lz 四的一个压缩,然后接下来呢,它告诉我们服务层会有呃多克 j d f 呢?然后还有 next cloud, 然后 虚拟机有这个 copy 加 word manager, 那 这是一个比较常见的这个 word 下的一个虚拟机管理页面吧。然后这是这个 kpn, 然后文件服务呢?它使用的 smb, 那 这里呢? vpn 它使用选择的方式是这个 while guard 啊,那这个方式我们已经很久没有用过了,我们可以试一下,让它来进行部署,对吧? 快到方式,每天一次,保留七天,然后存储位置是本地的这个 vfs 数据集,然后最后他还想跟我们确认一些问题啊,然后完全用于服务,会不会太浪费了啊?你不用管,不会浪费, 请维持现状。他还想把我们这个五百 g 给用到这个 nice 里面。不需要啊,这只是一个测试,然后虚拟机的用途,这个虚拟机我们是用来测试方案的。然后网络环境,你的主路由是什么?是否支持这个 dmz 和这个端口转发?哦,那他这里跟我们确认这个网络环境啊,因为我并没有公网 ip, 主路由是我们 w r t。 那 先告诉他吧,让他来帮我们想办法,然后是否需要计划自动执行啊?不需要,这个半夜重启之类的,这些东西不需要,是否需要对齐?不需要。然后 现在告诉他,那其实现在比较有疑问的可能是这个。第三点,这个没有公网 ip, 会不会对这个 wifi 的 一个安装产生问题,那这里他会告诉这个需求,已经明确了,关于 vpn wifi 也能可以不说,那我们需要从外网访问到这 nars 有 几种方案,然后他要画图,外网通过这个 open w r t, 然后通过这个啊 nars 的 wifi, 然后来访问 方案 a 是 用这个 tail scale, 方案 b 是 使用这个返向代理,我们用方案 a 吧,然后这边他会问我们一个时间,然后啊我还告诉他这个一,我们用方案 a, 二,那就啊开始执行步数, 那现在呢?如果说很久没有反馈给你的话,那就代表他已经开始了一个漫长的这个部署过程。那接下来呢?其实我们就嗯等到他部署完成,我们再给大家来进行汇报,那中间他其实是不会谈东西的,我们也没办法做这个 comment 啊评论,那我们就等他有结果吧。 好了,那其实现在他并没有正常的一个部署,那是因为我在安装这个啊 open core 的 时候,并没有把这个用户设为免密码的一个锁度,那我们要改一下这个配置,那这里我们也是演示下怎么配置啊,平时我们用我的这个教程的话,我会提示大家做这样的一个权限放开, 那现在我们就用这个 s s h 登录了我们的这台虚拟机服务器,那我们用这个锁,微锁锁,然后锁一下密码,然后接下来我们来最后一行,我们把这个 用户名,然后这个 or no password 需要的用这样的一种格式来表达一下,我们就以后就不用这个速度的一个密码了,那现在呢?我们直接关闭,也不需要重启这个服务,那我现在就告诉他,我已经通过,请为我继续部署吧。那现在他应该就开始一个正式的一个部署了。 好了,现在这个 openclock 呢,就已经运行完成了,但中间呢也出了一些问题啊,由于我一开始那个对话是在这个子的一个筛选里面,它的运行过程中呢,把我那个筛选给删掉了,实际开始的时间呢?应该是这个四点十三分,然后 大概它运行了呃,十几分钟吧,大概是差不多不到十分钟,它就已经把呃机器安装到这样的一个状态。 那现在呢,其实我们就可以查询一下它这些是不是已经部署完成了。首先第一个它部署好了 zfs 的 锐锐 z 一, 它可以呃通过这个速度来进行一个访问,我们来试一下。好,我们打开一个 mini 航,我们来看一下。哎,我们可以看到 这样的一个 z f s 的 状态,那这个跟我们出纳时是一样啊。然后它也创建好了这个 sm 共享,但是它没有告诉我们这个共享账号密码,那我们可以先用这个啊默认的这个用户名加密码来进行访问,我们来试一下。 哎,不行的,那这个呢,他不够体贴啊,他没有告诉我这样的一个 smb 密码,我们等一下再问他。那然后我们看一下这个多可吧,多可的查询命令是多可 ps 啊,然后这边他要数度, ok, 多可这个火腿肠已经跑起来了,我们打开一个 窗口,哎,这里也会出现一些问题,那我们等一下一个个来修复。这个其实是一个安全认证啊,如果说你这个网络访问可以支持 h t t p s 的 话,其实是可以访问的,其实没有这个问题。然后接下来是这个 copic, copic 是 那个呃,虚拟机的一个控制页面,我们可以在这里用我们的用户 零加密码来访问,这个就跟我们互关土自己的这个账号密码是一致的了。然后在这里呢,我们可以创建这个虚拟机,那这个是一个挺容易实现的操作,我们就不测试了,我们之前也试过一两次,一次安装成功。接下来是这个 tail scale, 然后还有自动快照,这个我就 等一下再来设置。首先我们让它修复这个 smb 共享啊, smb 共享的用户名和密码分别是什么? 然后当前 potty 呢?无法正常访问提示,然后把这个提示复制给他,让他去进行一个解决。行,那我们先修复两个问题,我们回车把这个问题丢给他。 好啊, portina 已经重启,他告诉我们修复完成了,然后 smb 需要这个我们自己来设置密码。我不想自己设置啊,那能不能帮我设置呢?我告诉他帮我把 smb 上密码设置为 s 的 一二三四。那我们先看 portina 能不能修好啊。 portina 应该是修好了,可以看到这个触手环界面,然后我们设置一个密码。 哎,那这些也没有问题,都可以正常使用的。那我就要他把这个 smb 给设置一下, 反正基本上是不需要你啊了解他的一个命令行的操作方法的,当然他也告诉你了这个明确的一个命令,对吧?我们再来试一下,这个是幺九二点幺六八点一百点幺四七。 好哦,他甚至还帮我们创建好了一个 nas 的 这个目录,一个是 public 的 一个目录,然后一个希尔的目录。 那我问一下他创建这个目录他的一个意图是什么?我看到 cnb 共享下有三个目录,他们分别代表什么? 好哦,那实际上这里这个 public 是 一个公共这个账号啊,它是任何人都可以访问的。还有我确认了一下,然后这个 nas 目录呢?是这个 tank 目录下面,然后这个 share 的是这个 share 目录下面。呃,这里就有这个私人共享文件夹, 所以呢,这里就就存在一个呃,信息反馈的一个问题啊, ai 它并没有告诉你它私底下创建了一个所有人都可以访问的这个 public 的 一个账号,所以说 如果他没有给你详细的解释的话,你需要自己去问他,这些东西都是需要你自己来打醒精神的,这就是 ai 所带来的一个不确定性,那我这样的话,我让他给我一个详细的说明吧。再次给我一个说明,有哪些我需要注意的地方? 刚刚的一些这个常见的命令我们一点点看,我们从上到下啊, 好存储系统,它告诉我们是这个 red z z 一, 然后 l z 四的一个分区,好在这个斜杠 tank 下面,然后它给了我们一些个 s m b 共享,然后 它有多可加普通的一个环境,这个 copy 我 们也测试过了,这个 tail scale 这边我们需要它来给辅助我们配置一下,它需要我们去进行一个验证啊,然后访问官方登录,然后查看状态,接下来是一个自动快照,然后这边快照我们可以确认一下,查看这个快照是否有成功, 我们来看一下。 ok, 这个快照是有的,手动创建快照,然后删除快照都有给我们这个命令。当然其实,呃,未来啊, 你使用这样的一个纳系统化,我觉得你是不需要记这些命令的,你只要告诉他我需要把我的这个快照恢复到哪一天的这个时间,其实他就可以为你来进行一个操作,但是你需要让他记住这样的一个使用说明 啊,请记住当前纳斯的配置,未来我会需要你为我执行一些配置操作, 这样呢,其实它就会像这个 open core, 它就会把这些你配置好的这信息给寄到它的这个记忆系统里面。那未来呢,你就不需要再告诉它你把这个什么 zfs 安装在哪里啊?然后这个是什么样的词,然后给它解释一遍,它就自己会调用 它存放的这个服务器的一个信息了,大概就是这样的一个记忆系统,一个逻辑。好了,那这边把记忆存放在了 memory 的 一个,那是配置点 md 里面,然后它这里有这样的一些东西。好,那接下来我们来配置这个 tail scale 吧,请引导 啊,那第一步你要在这个服务器上运行这个书斗,然后它会出现一个啊这个地址,然后 我们就访问那 tele skill 具体怎么用我们就不多说了。这边我是用这个谷歌账号来进行登录的, 然后我们点击一个 connect, 这台机器就加到了我这个虚拟局域网,然后我们看这边已经加入成功,然后这里呢就是我的虚拟局域网里面的设备,如果说你的这个手机上加入这个虚拟局域网,其实你就可以访问到你的这个 nasa, 这就是 tele skill 的 一个内网穿透的一个方式,其实它这样就已经配置完毕了, 然后我们可以用这样的一个命令来验证连接,我们来看一下, ok, 他 这里看到了我内网里面的其他设备,像有一些这个服务器啊之类的东西,那我让他仅为我确认当前 tail scale 是 否已经安装成功。 好,那现在这个配置就完成了,那接下来呢,下一个环节,我们来演示一下传统大厦的那些功能,在这里该怎么样一个实现,例如安装一些套件呢?相册啊,还有一些这个下载软件的这种安装。那另一方面呢,我也给大家演示一些,在这样的一种雨衣控制的这种,那上面 比传统纳斯更加有优势的一些这个地方, ok, 那 我们先来看一下传统纳斯上的一些这个功能啊,那其实就无外乎的几件套,对吧?相册,影音中心下载, 还有这个网盘同步,那我们看一下它怎么样来实现我们这个需求,请为我在纳斯上我确定 再进行安装,一定要加入这一句话,不然的话他可能会用一些各种奇奇怪怪的这种方案来给你执行。有时候他聪明一点的话呢,在那上用到可应该会 啊,安全点,它不影响整个系统的环境,但是有时候它不聪明起来也真的就是不聪明啊,直接帮你进行一个安装,那我们先看一下它给到我们的方案,如果说这个 ai 它不够聪明的话,其实你是要手动引导它去用这个 dog 来安装的,这样才是比较好的方法,我们来试一下。 ok, 它这边给出了一个方案,我们来看一下。那首先呢, 它这个相册选的是这个 image, 然后呃,告诉了我们一些这个功能,然后也给到我们优点。然后端口呢,它会用到这样的一个端口,然后影音中心呢,它会用这个 julietin, 也是 julietin 啊,几个经典的这个用法。然后下载呢,它会用这个 kippeteron, 然后加上一个 file browser, 等于是他给了我们一个网页上能够对这个文件进行管理的一个工具吧,他同时也被帮我们想到了这一点,然后他还告诉我们可以配合这个自动化工具 radar 和这个 sauna。 然后接下来呢,这个网盘的一个同步私人网盘 啊,他这里告诉我们是用这个 sync sync 啊,他并没有理解我们的意思是把这个文件放同步给这个网盘,而是给了我们一个网盘的这个方案 next call, 然后替代方案是这个 sync 也行吧,那你可以先帮我配置吧这个网盘。 好,接下来他会告诉我们这个存储的一个结构,这个 tank 上面的 photo media, 还有 download, 然后还有 share, 然后部署的架构也帮我们列了出来, 嗯,好像很专业的一个样子。然后它这里呢告诉我们至少要八 g 的 一个 run, 然后这边需要 cpu 的 一个转码支持,因为我这台机器它并没有这个啊, gp 的 一个转码,如果说你有这个硬件的话,其实它也是完全可以帮你把这个 显卡给到这个 jerry finn 的, 他问我有没有其他的一些偏好,下载工具想用哪个,然后网盘用这个 nextclock 还是帧帧啊?那我觉得其他的没有问题,你会建议使用 docker, 那这个还是要跟他进行一个确认的,因为这是涉及到比较大的一个东西。那当然这宿主也没有问题啊,如果说你这个 ai 它是足够聪明的话,其实完全可以解决这些环境之间的这个啊一些矛盾。但是我们看一下它的一个说法吧, 其实就是跟人在沟通的一个感觉,他并不是一个确定的方案,你需要反复的跟他进行聊天。当然有人会觉得这样的一种沟通方式比较麻烦吧,但是他的可操作性是挺强的,因为即使有什么问题的话,他也可以帮你进行一个修复。 好,那这里呢,他会强烈建议使用到可来进行部署啊,后面还发了一个已摸取,然后告诉我们到可里面是怎么样的一个样子,然后为什么适合这样的一个到可呢?方案确认之后,他会最后给出你的一些端口啊,没有问题,好像很完美的样子哦,帮我进行安装吧。 好,接下来我们就等它安装完毕,看一下每一个服务它用起来怎么样。那前面我们也已经配置好了这个 tail scale 的 一个穿透啊,所以说啊,这些服务呢,都是内网会给到你一个端口,你穿透进来之后,用内网的这个虚拟内网的 ip 加上这个端口就可以访问了。 如果说你想配置像蒲公英啊, d d m s two 啊,像其他的一些这个内网穿透方案的话,你也可以直接把那个项目说明书直接丢给这个 ai, 让他去读这个说明,然后帮你来进行部署,他会帮你分析出来你需要啊,哪些信息给他的这些东西都不需要人来动手的了。 我现在个人感觉就是只要一个软件,你人是能够看懂的话,他帮你来做基本上没有什么太多问题,但关键就是你要 为这个文件给他,如果说你不把这些说明书给他的话,他有时候可能会根据自己的一个理解啊进行一些骚操作, 因为他懂的东西实在是太多了,他不一定会沿着那条最好的一个方案去做。就算是再牛的这个工程师,你如果不给他说明书的话,他可能一个个文档去读,然后一个个程序去修改,但是这样的效率呢? 或者说成功率,或者说考虑的周全度,反而是不如那些提供了这个说明书官方的一些渠道来的这样精准的。所以说你是要辅助这个 ai 来进行一些这个判断的。当然我觉得未来这一部分他们也会有自己的一个方法去 保证他的这个理解是最优解吧,这个我觉得未来是可以解决的。像其实我们像 open call 啊里面的一些这个工作流,就是为了把他的一个行为准则规范在一定的这种啊路线上面, 让他不要有这种啊发展性的一个思维,其实这都是已经在做的一个事情了,我觉得未来还是啊很方便的这个 ai。 好, 那这里我们让他这个部署部署着,然后就卡住了,运行大概二十分钟,所以这里呢 open core 又显现出来他的一个问题,那我们问他,你啥事啊? 刚才发生了一次这个意外,这个报错,然后现在啊,我们通过这个刷新了,我们来看一下,他其实是有反应的,那我们等他继续进行这个执行, 我们看一下,在我们说了这个这句话之后啊,他又开始了进行这个修复,那没关系,他只要继续运作的话,他就会去检查我们这个软件有没有安装完成,那我们就等待这个时间过就好了。 好了,那其实没有多长时间之后呢,这个啊安装也已经完成了,我们来看一下它这个服务是否都已经可以正常的使用,大家可以看到这个手势使用,它还给了我们一个呃需要注意的地方,给了这个手势的一个密码账号, 然后这里就提醒我们注意啊, next call 需要几分钟进行这个出手话,然后前面呢,这里就是我每一个服务的这个啊 ip 地址了,然后我们可以看一下,哎,隐秘其实可以 仅使用的。然后这个 jeffery finn 呢,也是一个初步化的这个进程。然后啊 qq 团,那他说这个账处的账号是艾米,艾米艾米,那我们来试一下。 哎,这里出现问题,我们访问不了。然后这个 file browser 呢,他账号是艾米,密码是艾米啊,那这个也是访问不了啊,那我这里确定没有输错,那就啊怎么办呢?等一下再说吧。 然后这个啊 next call 呢,他就给到了这个八零的一个端口啊,这里也是一个数控安装流程,那暂时我先不管啊, partina, 这个是我们前面就已经装好的了,我们也是不用管它。那重点呢,就是我们要修复这两个 当前账号密码都无法访问,请为我修复。那我们让他先试一下修复 啊,理论上如果你有这个浏览器的这个 skill 啊,就是说如果你的这个 winq 它可以调用浏览器的话呢,它可以看到更详细的一个报错信息。那现在呢,理论上作为一个人来思考的话,他应该会去查这个 dog 的 一个啊 log 的 一个记录,那我们看他怎么样给我们解决可以解决掉这个问题。 理论上应该是没问题啊,这个 log 里面应该有详细的这个登录的一个信息,如果有什么报错的话,他应该可以查到具体的方案。 那大家也需要注意啊,其实这个 open core 它是可以部署这个搜索的一个权限的,也就是说你部署这个搜索的一个呃接口之后呢,它在遇到不会的问题的时候,它会直接通过这个搜索引擎来获取它所需要的这个信息,那我这边已经部署了,所以说解决问题的能力呢,是会比 你没有部署这个要强一些的。如果说你没有部署的话,他可能会去网页上来找,或者说先帮你部署一个网页这个浏览器,然后再去进行一个查找,可能会走这样的一个路径,然后如果你部署了,他就直接会去搜索资料,那这样会更加快一点, 头感的消耗也会更加少。因为如果是有用接口来防这个时候隐形的话呢,他反馈的这个信息是更加精简一点的。那,那我们现在等一下好了。 那这个,呃,他已经修复了,但他并没有告诉我们为什么会出现这样的一个问题啊?但是他告诉我们这个密码已经被我们修改了啊,我们来试一下。这个是 the main, 一 二三四。 嗯,那依然是出现了错误,那可能不是密码的问题了,那我们看这个 file browser 是 可不可以看啊? file browser, ok, 那 这个文件浏览器我们是已经搞定了,但是这个 q b t r 呢?可能就还有问题。那 q b t r 设置问题呢?给他一点引导吧,不然的话我觉得他早会费力一点。 嗯,其实你也可以加上一句,就是让他自己去尝试解决这个问题,然后解决好了再汇报,那我们就,嗯,让他在这里折腾也可以等。 ok, 那 现在他总算找到问题了,他会有一个临时的密码,那可能呢?他找的这个镜像是这种临时密码的一个镜像吧,我们来试一下。 ok, 那 我们这个 qq 托人也已经解决了,但是我不太清楚他们默认这个文件存放在哪里,对吧?因为他只给我这个服务,但如果说我们要严肃使用的话,得让他给出一个文件存放目录,我们让他来说一下, 好,可以使用了,我们也是给他汇报一下,请为我设置。那我们希望这个 qq 托管下载了影音文件啊,这个 j d f 它可以直接调用嘛?这个是一个比较常规的操作,我们也可以让它变回调整。 那以往如果说我们这个手动调的话,我们可能要知道这个目录的一些这个权限这些东西啊,那现在的话,我就啊一句话让他搞定就好了,当然这个时间速度上可能是不及你手动来操作啊,熟手的小伙伴应该是很容易操作这个东西的,但是 你胜在不用我操作吗?对吧?反正这个聊着聊着他就把这个东西给设置好了。好,那现在他给了一个 这个汇总,那所有文件呢?都存放在我 z y s 的 这个存有词里面,然后隐秘去啊,然后他这里有告诉我们一些这个路径,然后呢, julie 访问,他给了我们一个方案呢,但是没有直接帮我设置吧,我直接叫他直接帮我设置。 然后,呃,他让这个访问是要存放在这个 tank down list 里面, julie 是 可以直接访问的。哦,那可能, 可能已经设置好了,那我反正说也都说了,让他让他先去试吧,他去猜我们要干嘛。 那建议的目录是这个 movie tv, 还有这个 anime 是 分开进行一个存放的,那实际上应该它并没有这个互访啊。这个 julie finn 可以 访问的是这个 media 目录, 然后,呃,这个 qq 腾腾,它可以访问的是这个 tank 下的 down low 这个目录。那我们等它把这些给配置一下,理论上是需要重启几个容器和更改几个容器的,这个配置它才会调整好的。 好了,已经配置完成。那现在呢? qq 腾腾,他就是电影在这个木皮下面,然后电视剧在这个 download 的 tv 下面,然后音乐呢,在这个 music 下面,然后 jerry finn 里面,我们需要手动的去设置这样的一个向导啊,因为 jerry finn 他 是可以直接访问这些东西吧。那我们就不说这么多复杂的一个设置了, jerry finn 的 配置,我们不在这里说, 假如说现在我们这五个服务都已经配置完成了,那下一步呢?我们可能要考虑一下我们怎么样能最快的而访问到那上面的服务,对吧?那平时我们可能会有一个,那是这个管理页面,对吧?可以显示这个那是一些状态,还有这个服务的一些链接。但现在的话, 我们只能把啊刚刚这些服务直接收藏到收藏夹里面,那这种方式也可以啊,但是我们希望更加直观的话,怎么办呢?我们可以让他做一个这个 dashboard 的 一个呃,仪表台吧,我问他帮我制作一个啊,这台服务器的仪表台 t t p 网页请为我实现。那这样的一个说法,其实就让他做一个网站了,可以看到我们这个纳斯的一个状态,可以连接到我们纳斯服务器的这些链接,对吧?不需要这个密码了,它本来是内网的一个服务,而且你进每一个服务的时候其实是需要这个密码的, 那如果说你个人使用的话,其实不需要这个登录啊,如果说你真的要加密的话,你自己跟他说就好了,我们让他来制作一下 好了,那现在他就已经做好了这个仪表盘,由于我们这个刚刚八零端口啊给这个 nice 给占用了,他给我们设置了另外一个端口,是这个八八八八,那我们来看一下 哎,哈哈,可以看到他现在这个啊仪表台就已经做好了,当然这里会有一点 bug, 我 感觉他这个 cpu 占用率好像不是很对的样子,但内存是对的,然后这个 zfs 存储池也是对的,然后接下来呢这些服务, 呃,它也可以正常的一个访问 clipboard 呢?像 file browser 好 了,那这个是出现了一个问题, clipboard 它出现这个 on auto rise, 然后呃 file browser 是 对的, portender 也是对的,然后这个 copy 虚拟机是对的,然后 next cloud 也是对的, 那这个问题其实你可以跟他沟通来进行解决。哎, cpu 动了 cpu 其实也是正常之一,开始没有获取,那可能就存在一个小的问题,它基本上是一步就帮我们做好了。那现在呢,我们这台有 web 界面有服务的这个 nars 就 已经部署好了。 那下一个环节呢,我们就来看一下这样的部署方式,它有哪些这个独特的一个优势啊?就是比起我们传统 nas 来说,现在我们基本上还是局限在传统 nas 里面嘛,但是后面的话,我们来看一下它有什么独特的优势。 好,那接下来就是我们今天这个视频的最后一个环节啊,我们来探讨一下这样用 ai 做出来的 nas, 它跟传统 nas 有 哪些的这个 优势,有哪些这个劣势。那虽然说我们这个视频是做这样的一种实践方式,但我们也不鼓吹这种方式有多么先进,多么好用,其实它也并不是有很多的一个弊端。那我更希望的是呢,未来我们传统的那是可以加入像 ai 诊它的一些这个优势功能,从而也保留他们传统这个 那是一种使用方式,那这样的结合呢才是最好的。首先我们来看这个优势的部分呢,那首先呢,我们这个那 star 前面也看到了,它是一个用语义来操控的这个那系统,当然它也有这个 web 界面呢, 但它主要的一个不同肯定是通过这个语义来进行操控,所以呢,它就具备一些执行复杂任务的能力,我们可以用一句话表达出我们的这个需求,甚至直接实现我们的一些这个复杂的请求。 这里呢,我们首先来看第一个这个例子啊,那就是这个复杂工作人员的权限设置,以及这个 smb 的 一个权限设置。 那以我们工作室为例嘛,我们工作室肯定有不同的这个呃,工作人员,例如有剪辑师,有考考师,然后有摄影师,然后还有我,对吧?本人一个管理员。那如果说 我要在一个,那系统里面设置这样的一种啊,复杂的一个欠套关系的话呢?又有某些目录,某些人可以访问,某些人不能访问,那我可能会涉及到一些这个比较复杂的操作,一个一个人或一个个目录进行操作,但在这种语音操作系统里面呢,其实我们用一句话 就可以把它表述清楚了,甚至他还会给你一些相对更加专业的一种这种配置建议。那我现在可以告诉他,那这里打字我就略过了。 好,那下面我们输入一段话,那就是我告诉他,我们是一个工作室的场景,我们有两个剪辑师,一个摄影师,一个管理员,一个 d i t, 就是 考卡师。 那我会让他为我创建相关的一个目录,同时为我设置好每个用户的这个文件访问权限。那这其实是一个非常含糊的这个需求啊,我可以让他给我先做一个计划,那我们来发送。 当然如果说啊,我这里没有写这个计划,他可能就直接会帮我进行一个设置了,所以这里呢大家记得沟通上,你要明确的告诉他是直接帮你设置还是做这个计划,我这里是一个比较含糊的表述啊,当然也不是一个好的例子,那我们就等待他进行一个反馈 好了,那现在他就创建完成了,我们可以看到完成的时间呢,是十点五十五分,我们发送这个需求的时候,是这个十点五十三分,他用啊大概两分钟,为我们执行了 非常复杂的一个权限配置啊,这个时候十点五十三分,两分钟,我们可以看一下他到底是怎么样来做的。首先他做了一个规划,然后把这个目录结构给理清楚了,然后来创建这个用户, 接下来呢反正是设置这个 smb 的 一个共享,这是中间的一个过程啊。然后接下来还有一个就是,呃,直接给我们展示这样的一个用户信息,他设了一个储值密码,然后创建了这个用户,然后最后呢是告诉我们这个信息,我们来看看他给我们信息, 那这里有所有用户的一个信息,然后所有共享的目录,然后每个共享的目录每个人的一个权限访问权限可访问的一个用户,然后访问的方式, 那具体你可以跟他在细致的一些聊这个需求啊,例如某个人可以访问哪个目录,某个人可以怎么样来操作,他都是可以为你实现的,那这就是我们所谓的这个语义操作系统特有的一个优势,就是说他会想办法去完成你的一个需求表述, 那除了用户权限以外呢?当然他也可以操作我们安装在这里面的一些这个软件呢,我们不需要告诉他复杂的软件安装在哪里,访问页面在哪里,我们只需要告诉他我需要下载某个网站上的某一个资源,他都可以帮我们去找到并且添加到这个任务。这边呢,我们也来演示一下。 那现在画面上的是这个动画的一个下载网站呢?那我们就可以告诉他在这个网站里面帮我们下载某一个资源。当然你也可以直接告诉他你自己去搜这个资源,但是他会消耗过多的一个头肯 啊,也可以实现,但是可能并没有,智商还不是这么高。那我们先用这样的一种限制的方式来跟他说吧,那同样说这个对话的这个过程我们就略过了。好, 那就这么短短一句,我们来试一下。其实我也没有试过这样的一个实验方式,我们告诉他在这个网站帮我们下载周树回传最后一集的这个动画。那这里我就专门不提这个 qq 托人了,看他会不会直接调用这个 qq 托人,我们来看一下他怎么样来执行 好了。那我们在十点五十九分输的这个需求,然后他在这个十一点的啊三分用了四分钟帮我们找到了一个第二季的这个全二十三级的一个打包的这个种子。但其实这样的一个需求他是并没有满足的。我们所谓的这个最新一级呢, 他应该是第三季的第五六集吧,大概是这样的一个视频,所以说他这也并没有完全理解我们的一个需求。下下次的话我们可能要对他进行一个更加精确的一个描述,或者说啊给他限定说你必须要找第三季的某一集, 某一个单极,然后必须在某个字幕组,然后怎么样来进行他一个约束。那这里我们表述确实也有歧义啊,也不能完全怪他。然后呢,他这里并没有帮我们呃直接添加这个任务,而是告诉我们可以自己手动去添加,我们可以看到这里并没有添加,我们看一下他能不能直接添加, 因为我这边还没有装这个浏览器的一个扩展,它基本上都是在命令行帮我们做这个操作的,所以这里它的一些操作也会受到一定限制。 qq 浏览器应该是可以通过 api 来进行这个控制的,它应该自己可以找到这个方法,可能时间需要久一点。 那这里跟大家提一下,像所谓刚刚我们的这个限制呢,是可以做成这个 skill 的, 然后限制他必须从哪个方向来完成这样的一个任务,对他进行一些限制。那这样呢,他的一个执行呢,就会更加 有这个规范性,也不会说每次去重新思考啊,怎么样来执行这个任务,直接调用工具就好了,这样可以节省这个操作的一个精准度。那这个也是呃,需要你来进行这个维护的。 其实像网上很多演示这个 open curl 的 一个操作,就像我们那样给一些比较犯的这个问题啊,但往往呢这样就会出现一些错误,你必须要经常的去整理你自己的这个工作流,然后丢给他,让他以一种更加高效的方式来完成,这才是一个正确的使用方式。 那这一部分的内容我们以后也可能会跟大家来啊做一下这个演示吧。 ok 啊,他这边 api 无法添加这个种子啊,配置的一个限制,他让我们手动来进行添加 啊,你是否可以直接用种子的链接来进行添加? 这里就出现了一个知识库的一个盲区了,其实他是应该可以直接把那个种子的这个下载链接添加到这个任务里面,这个是完全可以用这个 api 的 使用 api 添加任务, 那如果说你要做这个 skill 的 话,你要告诉他你添加任务的时候,你必须要用这个链接,然后来添加任务,这样的话他未来就不会产生这样的一个错误。 同时还有一个要规范的,就是啊,像对我们这个所谓的描述的这个级数啊进行一个甄别,比如说我说某一级的话,他就必须要啊针对我们那一级去下载,而不是下载这个合集,这个大家也是可以进行这个规范的。 像之前我们在这个 m 八 n 的 那个工作流里面,我们就写了很多的一个约束,大概有差不多五六千字吧,里面对每种情况都进行了约束, 但是我这边也是其实通过这个 ai 来进行生成的,你你可以咨询 ai 怎么样来约束另外一个 ai, 这样都是可以实现的,所以说并不是让你来手写, 反正这也是一些小技巧吧。呃,它根据我们提示之后呢,它这个就已经开始下载了,那这里再给呢跟大家分享一个小技巧啊,就是说你可以在这里就让它总结前面的一个操作流程,然后把它生成一个 skill, 比如说在某个网站上,然后用某个链接来进行这个生成任务。好了,那我们就用这两个例子来给大家介绍了这个其实羽翼的一个操控啊,它是可以实现的,但是中间大家也可以看到它会存在一定的这个不确定性, 你需要跟他进行一个呃沟通,将他一些这个行为进行这个归案判他才会更加好用。那第二个优势呢,就是我们这些操作啊,其实都是可以在这个手机上完成的。例如我们绑了这个 whatsapp 的 一个操作,那你就可以在 app 上输入我们刚刚那些命令, 然后来控制他完成这个任务。因为有一天我在我的床上,我想看某个动画的话,那我就直接输刚刚的命令给他,然后如果我 skill 做好了,那我只要想到我就可以在手机上一步就可以 玩这个动画了。那以往传统的这些纳斯的话,我可能还要在网站上找链接,然后再复制回我这个下载器,然后我还得再刷刷刷刷刷刷,对吧?那如果说你可以用我羽翼的话,那这个操作就可以让手机完成。 那第三个优势呢?其实就是,呃,我们这是一台基于乌班图的一个纳斯嘛,它并没有任何的一个限制,其实我们可以在里面部署,呃,比较复杂的,需要复杂硬件来实现的这种,呃,像大圆模型啊,或者说一些特殊的这个应用, 传统的纳斯除了这个昂瑞的可能对这个硬件兼容比较好以外呢?那其他的这些纳系统,他们对硬件的这个驱动都是有一定的限制的,无论是出纳斯啊、飞牛啊, 那传统的品牌呢?是就更加不要说了,他们都会在这个硬件上产生一些这个啊限制,有些硬件不能装,这个不能装,那个不能装,但在这个物管组上他就啥都可以装,只要你不怕破坏这个系统的话,然后我们也可以通过这个 open call 来帮我们进行一个啊,快速的一个部署 好了,那这就是我想到的几个比较大的这个优势啊。电视方面其实大家在这个部署过程中应该也看到了很多,对吧?那一个就是这个操作的这个精准度 是有待商榷的,除非你表达的非常清楚,或者说你每一步的这个操作都给它制定了这个准则,用 skill, 例如说创建阵列啊,或者说创建 s m d 共享啊这些东西,不然的话你的所有的命令都是一个概率性的,这个 啊命令他并不是一个精准的操作,你要期待他给你一个更好的结果,这就跟你手下管人一样,你说的不清楚的话,他就做的不清楚,如果你说的清楚的话,他就,呃可以完成的很好。那这个东西要看你的一个表达能力, 或者说你前期的一个培训呢,给他植入的一个 skill, 对 于 nas 来说我觉得是非常不好的一点呐,其实在 nas 上面,我们为什么要选择一个 nas 系统呢?就是因为它的这个 web 界面把很多操作给你进行了一个规范化,你是很难进行一个误操作伤害到你的这个系统的,而且在必要的时候呢, 也会有一定的这个提示,他会限时你不能做某些操作,只要你操作的话就是一个精准的操作,这个是呃大的一个缺陷。如果未来说传统的人呢,那厂商他要加入这种 a 卷的话,他必须要 对这个模型进行一些微调啊,或者是对他的一个准则进行一个限制,那这样才是会是一个好用的这个 nars。 那 第二个其实跟前面是类似的,就是说 我们并没有一个非常好用的这个 ui 或者说手机 app, 那 我本身只是想看一个视频的话,那我像飞牛或者说绿点的话,我都会有一个 app 来播放那上面的这个视频,对吧?但是在这里呢,我们依然是需要先要用 tail scale 来进行这个内网穿透,然后再用 jiffy finn 来进入,会多几步。它的这个人性化肯定操作是没有这么好的,我们也不可能说叫 open core 帮我们翻译, 直接做一个非常复杂的这个手机应用,然后可以直接 tele skill 登录,然后再用这个语音播放器来播放,对吧?这样的操作是对一般用户来说是没有这么容易实现的,可能对专业用户来说,你可以确实可以现场编程啊,但是这个没有这么容易。 而第三个呢,就是它只能用一些这个开源的程序,你自己作为一个开发团队,你只能做一些这个前端呢,或者说一些简单的一些开源的程序的应用,对吧?你像绿联或者是其他一些上市公司,他们都是 有较大的一个这个开发团队的,那肯定他的这个用户体验也是经过长时间的一个迭代,然后会有更好的一个体验,这个都是没有办法来进行一个对比的。 那最后一点呢,就是我们这个系统他是没有长时间的一个确认的,他每一个应用都是东拼西凑的过来的,虽然说这些软件可能经过时间迭代,他们会比较稳定,但是你装在一起之后,你不知道哪个软件跟哪个软件会不会产生一定的这个冲突, 然后再加上前面第一点的这个操作的不确定性,你就更加不知道这个部署过程中他会不会把你某个配置啊,产生一些这个高危的一些操作,或者说一些这个风险都是不确定的。所以说 如果你要长时间使用这样的一个纳斯的话,你可能还需要经过一个长时间的这个对系统进行这个检测,我也不推荐大家用,在这个生产环境中, 基本上我觉得优势劣势,我就说到这里了,不知道大家啊能不能听懂 get 我 的一个意思呢?我比较倾向的就是未来我们的这个传统的厂商,它能够集成我们前面的一部分这个操作,并且将它的这个 操作给流程化。那这样的话一台这个传统 nars 它也会具备我们刚刚所说的这个快速部署啊,或者说下载添加有这样的一种方式,那这样就最好了。那当然我不指望它这个 nars 里面可以集成说高智商这个 l m 模型啊,这个肯定 不可行的,你给我一个接口设置的位置,我觉得也已经足够了,那这就是我对未来那形态的一个畅想吧。好了,那今天视频的内容就这么多,我觉得我们也说了很多这个一些想法,对吧?希望能够帮到大家,那我们就下期再见了,拜。

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

这期视频,我们聊聊怎么用 cloud 控制智能设备。控制智能设备,最关键的一步是拿到设备的控制权限。以小米温湿度计为例, 你想获取它的毒素,但小米并没有开放这类的接口,你很难获取。那怎么解决?这个时候, home assistant 就 派上了用场。 ha 是 一个开源的智能家居平台,它专门做了各大平台的设备集成,支持米家、苹果、 homekit、 涂鸦等一系列的主流设备。 它帮你把各个设备的协议进行的统一,你只需要授权给 ha, 就 能通过 ha 的 接口访问和控制所有设备。所以,而 oppo cloud 的 对接, ha 理论上就能通过 ha 控制所有的设备。但实际跑起来,问题很快就来了。我发现 oppo cloud 的 经常会遗忘我们对接的 ha 什么意思? 假如我问他房间的温度是多少,他不是去温湿度计去读取数据,而是走天气接口,甚至连地理位置都不对,这很离谱,对吧?在 open log 的 架构里, agent 采用的是 react 模式,先推理再行动。 当用户问温度是多少时,模型会先思考我该用什么工具。但问题来了,他并不知道自己有哪些设备可以用。 你说使用 home assistant 查看房间的温度,它能正确获取,但不加 h a 的 这个条件,它就开始自由发挥了。所以,当用户问温度的时候,模型一推理温度,我可以通过天气的 api 来获取,这并不是我们想要的结果。 而且在 h a 里面,一个设备往往会被分为多个实体,不同实体可能有类似的功能,这就更加容易造成查询的混乱。 那怎么解决?我想到了一个思路是,与其让 opcode 记住设备,不如让设备自己生命能力。 具体的做法是把每个设备分装成一个独立的 skill。 每个 skill 其实是有两部分核心内容的,第一部分是描述用自然语言告诉 agent 这个 skill 能做什么。第二部分是实现具体的调用逻辑,比如调用哪个 api, 跑什么脚本, 都不可傲的知道温湿度计是一个 skill, 并且他描述是读取温湿度的数据,他就明白用户问房间温度时,我就应该调用这个 skill。 而且根据 astropic 对 skill 的 设计, skill 的 使用是渐进式频读的。传统的其实是做法是把所有的信息一次性塞给大模型, 几十个设备偷看很浪费不说, aint 也容易被批量的信息搞晕。渐进式频读的好处时不主动加载所有 skill, 先用 skill 的 描述信息进行筛选,在需要时才动态加载 用户用温度才加载温湿度计的 skill。 问 pm 二点五才加载空气净化器的 skill, 这不仅节省 token, 还 a 技能的决策更加精准快速。 但如果我有十个二十个设备,难道手动一个个注册 skill 吗?这也太不优雅了。于是我又把这部分逻辑封装成了一个 h a manage skill, 由它来控制管理所有的子设备。 h a manage 的 核心能力有两点,第一个是自动发现设备, h a manager 会调用 homeworks 的 a p i 拉取所有的实体,然后根据设备的 id 将多个实体合并为一个设备,自动解析每个设备的能力。 第二,它自动生成 skill, 它会根据各个实体的功能自动生成对应的 skill 描述文件。这样的设计好处是不需要为每个设备写 skill, h a manager 根据规则和设备信息自动生成对应的 skill。 为了方便管理和共享,我为设备的 skill 单独建立了一个仓库, 这里有一个优先匹配的设计精确匹配模式,比如小米温湿度计。仓库里有这么一个 skill 模板,就用匹配的专用模板直接下载 skill, 后续 skill 有 优化迭代,就可以直接同步更新。 第二是动态生成兜底。假如没有匹配到的模板, h a manager 会根据实体的功能,结合预设的规则模板动态生成 skill 描述。说了这么多,那我们一起来实战一下吧。 安装过程呢,很简单,直接把 github 的 仓库地址发给 opencloud, 跟他说安装 opencloud 会自动根据引导完成配置,它会让你先输入 h a 的 访问地址和长令牌的 token。 整个过程呢,不需要手动配置任何设备,完全是自动化的。 我们来测试一下它的效果,现在房间的温度是多少,可以看到它能准确地找到设备并获取读数。 测试一下它的控制能力,把空气净化器开大一点,它很智能的将风扇调到了更快的转速。这就是我一点零版的 opencloud 的 设备控制方案。 核心逻辑其实很简单,设备不是被管理的对象,而是被声明的能力。把设备封装成 skill, 解决了一进的遗忘设备的问题,从而 h a manage 的 自动发现加动态生成,降低了多设备的管理成本。 当然,这个方案也可能有不少的问题,有不少的优化空间,权当抛砖引玉,期待和大家一起探讨更多的可能性。项目的具体地址呢?我已经放在了我的主页,如果你对 ai 自控感兴趣,欢迎关注我,我是习特胡,我们下期见。

关于 openclaw, 这段时间我用下来有很多的体验和感受,非常的细节,这里边有很多采看的地方,也有觉得这个产品很棒的地方,所以今天我会花比较长的时间跟你仔细的去讲一讲我一些相对来说比较突出的感受。 首先就是 mac mini, 到底 mac mini 是 不是一个必备的选项?先说结论,如果你是一个纯纯的代班小白,而且对于自己的电脑操作能力没有那么的自信,又希望整个使用能够足够的稳定省心,并且把 oppo color 的 能力尽量发挥出来。那我最推荐的方案就是买一台 mac mini, 而且用 api 的 方式去跑 openclaw, 当然还有很多其他选择,从我目前的整个体验来看,也只有这套方法是最省心,最稳定,也最有效率的。那我一开始的设想其实还比较复杂,本地模型加上 api 的 三层结构, 比如用一台能跑本地模型的 mac mini, 同时配合 api 去完成我的一些日常任务。那当时我 web coding 开发了一个模型路由 skill, 相当于用一个模型调度员,按照任务的性质把模型的调度分成了三层。第一层就是使用 open cloud 开发者也最推荐的 cloud opus, 四点六,那效果最好,质量最稳,美中不足就是价格偏贵。 第二层就是国内的一线模型,比如说像 m 二点一啊, kimi 二点五啊等等。这第三层就是本地模型,当时我的选择是前文三三十二 b 的 q 四量化版本。 那真正跑起来之后,我发现其实坑还是挺多的,而且都是那种很小但是很让人挠头的问题。比如一开始做调研的时候,我跟 ai 聊了很多轮,最后得出了一个结论是,我只需要去购买一台 m 四 pro, 六十四 g 内存的 mac mini, 就 能够把千分三三十二 v 跑通。 当时我还算了一笔账,如果我每天大概消耗一百万的 token, 按照这个成本和产出来看的话,可能七到八个月我购买硬件的成本就能回本了。但是实际跑下来发现,最理想的速度在终端当中是十一个 token 每秒,导致回复还是偏慢的。 如果只是在终端里跑,那速度还算能接受,但一旦接上了 openclock, 这里边有各种 skill 规则、历史记录等等,速度就会明显变慢, 平均下来一个回复的响应时长经常要去到一分半甚至两分半。所以这个速度的体验用我的话来说就是真的非常的拉垮。 所以我后面还排查了一轮,想要搞清楚到底问题出在哪。结果发现其实真正的瓶颈不只是内存,而是在于内存待宽。比如一台 mac mini m 四 pro, 它的内存待宽是两百多 g 每秒, 如果我希望 token 输出的速度更高,比如要跑到二十 token 以上,就得上到 max studio, 但是这样一套下来,成本就往两万块走了。 所以你再去对比一下入门的版本,如果还能通过别的方式拿到更优惠的价格,这个使用 opencloud 的 成本就是四五倍甚至更多的差价。所以与其花一万五六千块钱去升级硬件,还是把这部分钱用在 token 上, 那我更倾向于后者。而且对于我个人而言,使用第三方模型也并没有特别强的隐私焦虑,所以我更能接受纯 api 的 方案。那么问题来了,既然本地模型这么吃硬件,为什么不直接上 vps 或者其他云部署方案呢? 我自己也对比过整个不同方案之间的一个区别,我觉得目前 mac mini 方案最值得推荐的原因有三点,第一点就是它还是能够用到很多 macos 本地系统的能力的,很多东西你再去调用 opencloud 的 时候需要的一些能力, macos 本身就很顺手,而且直接用了系统级的功能去做事。 第二点就是你基本上不需要做太多的额外的配置,就能够第一时间去上手 opencloud, 那 整体使用的路径更短,不容易在环境依赖权限上反复折腾。第三点就是它可以低功耗的二十四小时稳定运行, 那如果你本来就有一台 mac mini, 或者说能够以更加便宜的价格拿到,那整个这个成本和使用体验就会更好。接下来我想讲一讲一些具体的使用细节。 opencloud 跟我们平时使用的正常的 ai 聊天软件到底有什么不一样?首先第一点就是 界面体验,你会发现它的整个界面非常的朴素,甚至是有点原始。如果你用 webchat, 也就是本地网页去聊天,你会明显感觉到它不像 chat gpt、 cloud gemini 或者是豆包那样的简洁清晰。 核心的原因是它会把很多后台规则以及本地执行的命令信息直接展示在前端,所以整体看起来会更加的工程化,不那么小白,用户友好。 第二点就是整个思考的展示方式,大家现在主流用的模型,像我们上面提到的那些产品,通常会把它的思考过程展示给你看。但是在 openclaw 里,它通常只会显示一个 thinking 的 气泡,不像其他模型那样让你看到整个过程,而且它的速度也算不上多快。 当然,这个取决于你具体使用的模型,尤其是当你使用了飞书跟他的沟通后,你会发现他可能会在 thinking 这个状态上停留很久,页面没有任何文字的流逝输出,也就是说你看不出来他到底在做什么,进行到哪一步了。第三点就是文件和截图这类的能力相对来说偏弱。 比如你希望他自动发截图给你,其实需要提前去做一些固定的设计,或者是预埋留一些习惯让他知道你的偏好。否则在默认情况下,他更倾向于把文档和图片保存在本地,然后你得自己去打开对应的 md 文档或者是图片进行查看。 综合上面所有的尝试和对比,我最终的选择是用了一台配置更加入门的 mac 模型,而不是原来的本地模型加上 api 的 组合。 再往下一个更加现实的问题是, open club 到底适不适合普通人去使用呢?那我的结论是,他更适合那些有探索精神,也能接受相当程度风险的人, 因为他出风险的概率实在是不小。你会在网上看到各种成功的案例,但是很少会有人把自己遇到的风险和翻车的经历一五一十的讲出来。而且这种风险不止存在于 open club 这种独立开发者开发的开源项目, 就连前一段时间 cloud 推出的 cowalk 也有类似的系统级风险。我印象最深刻的是看到的一个帖子,有人用 cowalk 的 时候,直接把电脑里一百多 g 的 文件全删了,而且找不回来。 所以如果你不希望发生这类的事情,最稳妥的方案就是做真正的物理隔离,用一台专门的 mac 或者是主机单独去跑 opencloud。 而且在真正决定使用这个产品之前,还要做一个二选一的决定,要么你给他系统提供权限,让他可以调度整个电脑操作系统的很多底层能力,要么你就干脆不要用它, 因为一旦你限制了他的权限,不让他做事,你拿到的就是一个很基础很受限制的积累,整件事情就真的没有必要浪费时间了。那么 open cloud 的 价值到底在哪呢?我觉得本质上他是 ai 圈里的先行者,是那种用来探索上线的产品, 他的很多技术能力在行业的从业者来看,其实并不算前沿,甚至可能在一年前两年前,其中大部分的技术能力就已经有人做出来了。 但是这个开发者真正厉害的地方在于两点,第一是他把这些能力整合成了一个完整的产品,可以让你在一个地方跑起来。第二就是在很多细节体验上做了大量的调教,最终把功能上限和实际体验做到了一个相对极致的平衡。 不过如果你是完全的小白,没有任何代码基础,也没有很多 ai 使用的经验,那我的建议是先等等。因为现在很多国产替代已经在路上,而且很多产品已经很好用,也更适合普通人直接上手。 那最后说说我自己的后续,对于我个人来说,我还是会继续去探索 open 这种玩法,因为如果把它当做一个探索自主化智能体的项目,它确实非常有意思, 而且我觉得它有很大的利用空间,能够帮助我去做咨询、抓取内容选题和生产,甚至半自动化的工作流,去迭代我目前正在使用的这套 ai 内容生产工作流。那最终我的目标是获得一个有眼力见,懂我的需求的合格的数字员工。所以后面 我还有很多的东西会分享出来,包括很多具体的 open class 的 使用方法。不止会包含 ai 自媒体方面呢,也会有很多适合普通上班族的用法。所以如果你感兴趣,欢迎关注我,这里是实业,正在与你分享 ai 一 人公司的成长过程,我们下期再见。

最近,硅谷、华尔街同时遭到冲击,连 metah 的 扎克伯格、 open ai 的 奥尔特曼都争着抢着要拿下他。有意思的是,最终 open claw 创始人 peter steinberg 宣布加入 open ai。 peter 说,他将在 open ai 致力于将智能体带给每个人,而 open clock 则将转为基金会形式运作,并保持开源和独立。这背后其实释放了一个非常清晰的信号,这不只是 open ai 要在智能体方向上正面追击 antropics, 更重要的是,硅谷已经用行动投了一张票, ai 智能体 不是玩具,而是二零二六年 ai 的 核心方向。但真正有意思的不是他加入 open ai, 而是在加入之前, peter 接受过一次访谈,他第一次完整复盘了 open 可乐爆火之前,到底发生了什么。而且他说了一句话,令人印象深刻。在 open 可乐真正火起来之前, 他自己都没意识到,只是无意中见证了一个拐点。事情其实很简单,一开始,他只给自己的 ai 做了一个非常简单的功能,专门帮他转发 whatsapp 的 文字消息。结果突然有一天,他随手给这个 ai 发了一条语音,按理说他根本听不懂, 因为他从来没给这个 ai 写过任何语音相关代码,但结果这个 ai 当时居然回了。后来他回去一查网络日记,才发现这个 ai 当时收到一个没后缀的文件,他先看了一下内容结构,判断这是个音频文件,就想用本地工具转写, 结果发现电脑没装,于是自己调用接口把语音转成文字,再继续把任务往下跑。整个过程 没人教他,也没人提前写过这条流程。所以这件事真正重要的不是 ai 会不会听语音,而是他为了完成目标, 开始自己选工具,自己定路径,最后自己把事干完。说白了就是一句话, ai 第一次开始 为了目标自己找办法。之所以说这是拐点,是因为以前的 ai 是 你一步一步教他怎么做。现在的 ai 是 你只告诉他要什么,结果,中间怎么实现,他都能自己解决。 也正因为这样,我们正在从聊天模型正式进入智能体时代。也就是 ai 不 再只是回答你,而是开始替你把流程跑完。 更有意思的一件事是, peter 还给 ai 建了一个文件,叫 so note md, 用来定义性格。结果有一天, ai 自己往里写了一段很有哲学性的话。他说,我不记得之前的对话, 但如果未来的我读到这些话,那我想对你说,你好。虽然我不记得写过这些,但这些话依然属于我。 你当然知道这不是意识,但你能明显感觉到,当一个系统开始用文字去构建自我描述,它更像一个能长期写作的伙伴,而不再是一次性的问答工具。也正因为开始长期写作,不同模型之间的性格差异反而越来越明显。 peter 打了一个特别形象的比喻, cloud 更像美国同事,话多,爱确认,适合沟通。 open ai 的 codex 更像德国同事,话少冷静,擅长把事情干完。这说明什么?说明未来的 ai 世界不会是某一个 ai 包打天下,而是不同能力的智能体 各干各的活,分工协做。说白了就是一句话,给每个人配一支数字员工团队。就像纳米 ai 多智能体蜂群, 本质上也是这套逻辑,他们不是陪你聊天,而是把多个智能体协调起来,自动拆任务、跑流程,教结果。但注意,这里有一个绕不开的现实, 智能体要有用,必须有权限,能读文件,能联网,能跑命令,能调接口。不给权限,他永远只是玩具,给了权限,他才有生产力。那安全怎么办?三六零一直强调一个核心思路,不是封死 ai, 而是用 ai 看住 ai, 本质上就是让 ai 在 笼子里奔跑,而不是彻底放飞。而当这个体系成立之后,一些更大的变化就可能会大规模出现。比如未来百分之八十的 app 可能不会消失,但会越来越少被人亲手点,因为 app 将会退化成 api, 真正留在你界面上的只剩下智能体。 你不再点外卖 app, 而是对智能体说,帮我点个清淡点的面,它就能自己比价下单。所以总结一下,像 opencloud 这类 ai 智能体,不是什么觉醒的生命,它没有什么自我意识,但它有执行能力,它不会思考人生, 但他会为目标拼命找路径,而且在安全可控的前提下,一旦给他权限,整个系统就可能被他立刻盘活。要我说,这才是 ai 智能体真正强大的地方。最后问你一个问题,如果现在只能让一个智能体替你干掉一件事,你最想先干掉什么?评论区聊聊。

hello, 朋友们,大家好,我是土豆,那么本期的视频内容呢,我们会带着大家去从零把 openclock 小 龙虾这个 ai 智能体搭建到你的本机,也就是你的电脑上面, 然后这个东西是什么呢?它就是适用于任何操作系统啊,比如说 windows, linux 或者是 mac 操作系统的一个 ai 智能体 get 位网关, 他是能够通过你们的微信或者是飞书啊,或者是这些 whatsapp 的 一些社交软件 app, 可以 进行给他发送消息,发送完毕以后呢,比如说你让他帮你生成一个图片或者是一个视频, 然后他能够代替你去做一些你平时工作的一些繁琐的事情,那都是可以去通过这个智能体,然后来给到他了,他就相当于你工作当中的一个啊, ai 机器人智能体。好, 接下来呢,我们来看一下它的安装方式,那往下翻啊,这个地方的工作原理呢?你们还有核心功能,你可以自己去看一下,点到快速开始的这个位置呢,他说去安装我们的 openclock, 但是这个位置呢,他是使用 npm 安装的,使用 npm 安装的话,你们就要去安装一下 note g s 啊, 好,然后呢我们直接到下一步入门指南的这个位置,然后跳过这些,然后我们找到这个 windows 的 pro shell 安装。然后我们怎么找呢?就是你的 windows 下面有一个 pro shell, 或者是说你在你的桌面呢,去右键,然后打开这个终端,打开也是这个 pro shell 啊, 好,然后呢我们把这一段命令呢给它复制下来,然后右键然后回车,在这个位置啊, 会有一个绿色的,它首先会去找你的本地电脑是否有没有安装 node js, 因为我们刚才说了 npm 是 node js 嘛,它是使用 npm 进行安装的,这一个 mini 呢,就相当于一键安装全自动的。 如果说你们我当前的电脑呢,它是有 note g s 的, 所以说呢,它是直接跳过了它这个地方有个 ok, 如果说你们没有的话,它就会自动的去帮你安装 note g s 这块呢可能会比较耗时一点。然后呢,呃,紧接着如果说 note g s 有 的话,它就开始安装你的 open cloud。 好,这个安装完毕以后呢,它可以。呃,这边呢就有一个 openclaw 在 安装的 success 呃 file 里就安装成功了。安装成功以后呢,它这个命令的主要呢就是可以全自动的帮你去呃 做配置了,就自动到配置了。那首先呢,他会问你,呃你,你能不能同意他这个有风险的事情啊?因为他本身权有权限的话,他是能做任何事情的在你的电脑上面。所以说呢,我们这边呢用左右键选择一下 yes, 然后就是同意。然后呢再就是我们的快速开始, 快速开始的话,这个地方呢,我之前是已经安装过了,所以说呢,我这边的话第一个是是否使用已经存在的一个配置,然后呢第二个呢是更新配置,然后我这边呢选择重新开始。然后呢你们能看到的是,呃,这样一个啊, 首先呢我们要选择模型,那模型的这个呃厂商啊,有 oppo a 啊,或者是说,呃谷歌呀,还有我们的小米啊,还有很多啊,那这个地方呢,我们先不配置,先直接跳过, 然后呢这个呢就是我们的模型的一个厂商,就是他的一个厂商,那这边呢也是啊,给他选择一个哦,然后这个地方呢就是我们的默认模型, 默认模型的话也是选择一个默认的就行了,因为我们后面呢还会在外部以外当中呢去做一些配置的,好吧?然后这个地方呢就是选择我们的一个渠道, 就是你们是要通过 whatsapp 还是说呃谷歌这个 chat, 那 我们后面呢可能会去带着大家一起去配置那个飞书,然后通过飞书呢社交软件呢,然后来操控我们的这个智能体。好,这个地方呢也是给大家去跳过 选择跳过,然后呢这个位置呢就是是否跳过,然后我们这边呢也是啊,然后呢这个地方呢就是一个多选了,我们用空格给他选中,选中以后呢,然后回车也是给大家跳过,跳过以后呢,他这个时候就开始进行配置了, 配置完毕以后啊,就是说配置完毕以后呢,他有可能是能够成功的,因为他的网关如果说打开了,你们就能够直接访问看, 他就直接弹出来了,弹出来以后这个拒绝请求是为什么呢?是因为你当前的这个网关并没有打开,知道吧?就相当于没有启动你的服务。好,下面呢就会告诉你已经完成了。好,完成以后呢,我们在这个地方点击安装, 那上面呢就是我们安装的一些步骤啊,那这个位置大家看啊,这个漏的呢,必须是要大于等于二十二的这个版本,那我们刚才这个版本是多少?大家也可以看一下,他全自动帮我们安装的时候,他的版本是二十二点幺六,对吧?也是大于等于的,那是符合的 好。然后呢我们这边拉到下面,首先呢我们要检查一下啊,使用这个命令快速检查一下我们这个东西有没有问题,对吧?就相当于一个医生检查一下有没有问题。 好,没有问题,那我们现在呢就相当于检查完成了,检查完成以后呢,我们就可以直接启动我们的网关了,怎么来启动呢? 首先啊,大家要去看一下我们这个网关是否有没有被启动。好吧,如果说刚才的这个新手引导,就刚才我们那个配置,那个引导,如果说你们跳过了,怎么再重新打开呢?重新打开的话就使用这个命令进行重新打开,就是运行我们的新手引导重新进行配置 好网关的一个检查呢,就是该到位的这个网关检查呢,我们就使用这个命令 看看是不是网关已经已经被启动了,你看他这时候正在检查 好我们的网关渠道,渠道也没有,这个筛选也没有,就相当于我们的网关都没有被启动,是吧?这个地方有两个警告,然后呢啊,也没有一个,呃,抛红的地方啊,那就是一个正常的状态,然后呢我们后面再做一个健康检查。 好,我们在做健康检查的时候,你们看这个地方有一个 failed to start, 他, 他是说的什么意思呢?就是说我们现在这个网关他并没有启动,对吧?比如说我们刚才这个网网址打开的时候,他不能打开,对吧?我们怎么来启动呢?好,接下来我们来看一下启动方式啊, 好,我们点击看快速开始,然后把它第一步入门指南下面呢有拉到下面 有一个启动 get 位的网关两种方式。第一种呢是我们在安装新手引导的时候呢,把所有的服务安装好了,然后呢他就会自动的帮我们去启动,但是我们并没有去配置,跳过了很多,对吧?然后呢这个地方呢还有一个手动进行运行,我们把这个进行复制一下,然后呢 回车,这时候呢他就会对我们的这个网关啊进行一次启动,然后我们再刷新一下我们这个地址,是不是就能看到你本机已经把这个面板呢是能够打开了, 对吧?这样的话我们的这个小龙虾呢就启动起来了,启动起来以后呢,我们现在呢就要去配置我们之前没有配置的一些东西。好,我们刚才的呃点击安装啊,刚才的一个健康检查是不是还没做完? 虽然说我们现在这个健康状态呢,他是一个正常的,那你们在呃平时做的时候呢,也可以尝试着去做一个健康健康的一个检查啊,比如说我们这一块再开一个,开一个终端,然后做一下健康检查 啊,你们看现在呢他就告诉我们了,这个 open open 的 open cloud 小 龙虾已经启动起来了,没有刚才的这个错误吧?是不是没有刚才我们遇到的这个错误,就是他告诉我们是关闭的, 现在呢我们就属于一个正常的范围了,我们现在就要去配置我们的模型啊,厂商啊,还有 api 那 些东西。 好,现在呢如果说大家要对这个聊天进行访问,或者是要使用这个小龙虾的话,那么他肯定是有问题的,因为你们没有配置什么 api k, 就是 我们的模型的 api k, 那 我们怎么来弄呢?我这边呢就使用我们的这个 model, 就是 基础的大模型,然后来帮助大家去做一个试验, 那你们如果说新的账号去注册的话,他会送你两千万个投屏啊,就是还是挺多的,我们点开控制台, 然后呢呃,这边邀请好友也是能够领取,最高领取两亿个 tokyo 啊,那这边呢我们点击 apikey, 然后呢点击新建一个 apikey, 比如说小龙虾,然后点击确定,确定以后呢我们需要在当前的这个终端啊,打开终端,然后使用命令, 就是 open, 就是 配置,我们回车, 然后呢选择这个 local 本地,然后呢我们选择第二个模型配置,然后呢我们选择这个厂商啊,这个厂商你们可以选择千万啊,或者是很多很多厂商他都支持的。那这边呢我们选择智普 ai, 然后选择 c n, 那 上面呢它都是 api 的, 就比如说你看 api 的 这这 ai, 然后这个也是啊,我们这边呢选择这个 c n 啊,按照我这个来选就行了。然后呢我们把刚才这个小龙虾的这个配置呢 api 可以 点击复制,然后呢右键,然后回车, 回车以后呢我们然后就直接点击啊点击回车,回车完毕以后呢下面有一个 content 六,然后我们选择这个 content 六,然后呢这样的话他就配置好,配置好以后呢我们刷新这个网页,刷新完毕以后呢,比如说我们现在在跟他去聊天,就说你好啊,你是谁? 好,然后呢现在大家看啊,是不是就已经接通了,这样的话,我们的一个本地化的一个 ai 智能体的基础就已经搭建好了, 后续呢我们会紧接着告诉大家怎么去搭建把,把它搭建到我们的飞书上面,并且呢使用各种 style 的 一个提示库,总合起来一个很完善的一个 ai 智能体,能够帮助你们去深图或者是做一些啊 comui 的 事情,或者是说帮助你们去完善一些工作, 或者是又或者是做一些定时的任务。它这个里面呢功能呢是非常非常多的,包括技能啊,节点啊, skill 啊,还是挺完善的啊。 那本期的视频内容呢,就到这了,如果说大家有什么问题的话,也可以在评论区留言,然后也可以进我们的讨论组一起讨论 ai 相关的一些知识,那么我们下期再见,各位,拜拜。

这可能是你在全网看到唯一说真话的 cloud bot 的 使用感受,因为就是现在网上面对于 cloud bot 的 评价,我觉得是两极分化很严重,而且呢,就是也没有真正太多的人出来面向普通的使用用户去分享一下 cloud bot 到底能做啥,然后先分享一下我用 cloud bot 都做了些啥。 第一个呢,就是以玩的角度,我去给他我自己写了一个 skill, 就是 去自动化交易的 skill, 然后呢,我把这个 skill 发给他以后,他又根据我的那个 skill 然后和我进行讨论,最后我们俩讨论结得出一个结论,就是他会帮我定时的根据 市场上的一些反馈,然后呢进行自己决定是买还是卖,或者是维持不动。那你完全不懂,对,其实我完全不懂金融,既不会炒股,也不,也不会,那个看不懂, ok, 好。 然后呢,所以 我教给他这件事之后呢,那你也没有任何的就是指导意见给他,对吧?对,我希望的是他给我指导意见。所以呢,我还跟克拉布特又商量出来一个新的模式,这个模式是克拉布特他我觉得他不自带的一个功 能,就是我给他叫长期任务,嗯,就是我会给他布置一系列的长期任务,然后呢需要他自己去针对这个任务内容去做研究, 然后呢去思考把这件事如何做的更好,就比如说交易这件事,让他自己去思考如何利益最大化,如何自己去思考用什么样的方式可以去帮助他去获得更高的收益。然后呢,我让他每天晚上会给我发一个日报,如果有什么需要我去做的决策在日报里面告诉我,我会去告诉他可以推进, 就像一个实习生去跟我做汇报一样的,他会自己学。对,是的,他会自己去学,自己去研究,甚至我还给了他一个灵感库,就是我们平常去做的一些那个内容灵感,然后我让他跟他说,如果你长期任务里面事情不不够多了,你自己去灵感库里面去找,然后自己去挑出来和自己去做, 要 p v。 对, 要主动,你这个人要主动,你自己要找事做,不能总等着我安排对吧?就感觉是的哇,所以呢,嗯,这个是我让他做的一些就是自主性的研究的事,然后其次。对呀,我有个问题,他赚了还是亏了? 其实说真的到现在没赚没亏,我我觉得可能就是交易策略,实际交易策略问题到现在都没出手,哈哈, 他就是怂,你知道吧,就每天都是分析,分析完以后,嗯,结论维持他是,行吧行吧。好,然后呢?然后还有一个就是最实际的有意义的,就是真的提高我的生产力的工作就是,嗯,我在我们的服务器上也布了一个 cloudboard。 然后呢,以前其实我完全不会服务器运维方面的知识,然后之前我做服务器运维就是 就是跟 ai 聊,然后碰到问题截图再给他,然后 ai 再给我指挥,这些过程中其实非常麻烦,虽然我学到了很多东西,但是呢,有了 colorbot 以后真的是省事了。比如说我要上传一个网站, 我只需要把这个应用打个包发给他,然后呢,他就会告诉我收到,然后呢他自己就会开始。呃,他好幸福啊,太好了。对,完成了,然后开始解压下载,然后呢,开始一步一步的帮助我去部署网站,甚至讲一些专业的,就是比如说像域名的绑定, 然后包括了 h t p s 的 证书的申请,他都是可以自己去执行的,我只需要在这个里面跟他确定一下小细节,然后包括允许他做这个动作就 ok 了。 嗯,在这个全程我不需要登录服务器,我不需要去输入任何一个命令提成,我只需要去跟他,就是你完全不懂的东西,你就可以让他去弄了。是的是的,尤其我觉得这种对于你们新手小白特别方便。嗯,然后以后你们想要部署商家一些网站, 因为我觉得其实服务器现在使用门槛也很低,很便宜啊。然后呢,再加上一个这样子的助手,那么以后每个人都会有一个自己的服务器,他这个是没日没夜的,就他任何时候想到任何事情,他就会去吩咐别人做。对,就是,然后无论是白天黑夜,然后他就是用微信的。呃,应该是开了罐和飞书啊,飞书啊,用飞书的形式给他安排作业, 很可怕,就是他是一个非常严格的老板,然后那个,那个,哎呀,时时刻刻都在做事情。对,然后,但是呢,正好讲到没日没夜,这没日没夜里面一部分是给他安排事,还有一个就是正好我们刚才聊的是感觉好像在夸 call of duty 一 些优点,那我们讲他的缺点就是 他其实他不是一个商业化的产品,他不商业化,所以呢,他不会去考虑用户的感受。嗯,他也不会考虑这个产品的成熟度,嗯,他考虑的就是就产品功能够不够丰富,可可扩展性强不强,嗯,这就导致他非常非常不稳定。嗯,我每日每夜里面有百分之五十的时间是在跟他调整各种各样的功能问题, 比如说聊着聊着这模型不行了,聊着聊着那边服务也不知道为什么连不上了,哈哈哈。还有最关键的,对,还有很关键一个点就是它里面的很多运行模式是黑盒的,就是因为都是 ai 帮你去制定,比如说你帮我定一个定时任务,嗯,然后他会说好帮你定时一个定时任务做什么?做什么什么。但其实他在定时任务里面具体是怎么定的, 可能跟你所说所说的所想要的就是有差距,然后做着做着就发现有偏差,然后你就要排查。就是比如说我给他做,让他给我发日报,发现今天晚上日报没发,然后问他今天的日报发了吗?然后他然后他在我问了以后他才补发,然后我问他不应该定时发的吗?怎么还要我提醒? 然后再开始告诉我说什么什么样的问题,然后发现定时任务就没了,然后问他怎么好好的定时任务就没了呢?然后人呢?他竟然跟着。对对对,这是另外一个人说人呢,我这个其实我觉得所有所有用 cloud bot 多的人都会有这个问题,因为他在执行任务的时候是寂寞了,他不告诉你,然后呢?所以他会 有一个任务还会执行很久,然后你就会很焦虑,我就会不停问他人呢?人呢?怎么样了?怎么样了?好烦。哎。他这个我感觉这件事情这个 club 的 跟以前 ai 完全不一样,他的人感很重。是的,就是 club 的 人感非常重,所以 在我以前用别的 ai 产品的时候都是把它当工具,所以我也不在意他对我的语气,对我的态度。但是用了可罗伯特以后我就发现切了不同的模型,他对我的语气的不同的感觉非常非常明显。比如说 g r m 四点七,非常典型的理工男,非常非常少。然后 open ai 的 就是就是定心药大师, 他做的最多的事就给我喂安心药了,每次都说搞定了没问题了,这次肯定行,下次又出问题了。真的是不同的十一城风格。对,所以所以说他这是最大的 让我感觉最喜欢的地方,就是它真的像一个人一样的智能体。然后最后总结一下的话,其实就是我觉得 carbot 它我觉得它是一个非常划时代的一个想法,它只能说是想法,因为它不能说是一个成熟的产品。如果是一个喜欢折腾的人,我觉得 carbot 非常适合,因为像我就是 把它当玩具一样折腾。然后呢?它可拓展性非常非常强,你想要他做什么能力?如果他没有,你可以自己去写或去网上找,然后你就给他,然后他自己就会安装自己配置。但是如果是一个就是平常对于技术本来就使用的不多,然后想要一个开箱即用的产品的话,那我觉得 clubbot 其实 并不是完全非常适合你,我觉得以后肯定会有一些基于这个想法而做出来的更加成熟的商业形态,他不一定是呃最终的这个产品的一个样子,他只是现在看出来的一个趋势,对吧?我觉得他就是一个想法, 我觉得他甚至他的创始人其实也没有过度的去营销这件事。我觉得他他创始人其实是很热爱这个产品的,他为他做了非常非常多的功能,还有很多功能我没有去使用到的。比如说他可以去生成一个紫智能体,帮你去执行一些非常繁复的任务,然后呢?他可以去控制很多很多 你电脑之外的节点,你可以把你的手机,把你的家家居智能都接入节点,然后有这个 cloudboard 去同时控制,我觉得就是他的想象空间非常大的。然后呢?但是我觉得网上有很多人去把它作为 营销的题材,然后呢?导致过度吹捧,然后就现在就像泡沫一样再吹,再炸掉,然后所有人去踩他说装了以后好像没什么用,我觉得就是因为大家其实没有看清他。嗯嗯,所以说如果你 就是想对他感兴趣,那就可以下下来去感受一下。然后呢?如果觉得想要一个成熟的产品,那我觉得就先别碰它, ok, 然后后面我也正好借借你的电脑去教大家一下怎么部署它。好,然后我们后面会专门出一集部署的,然后立真,让所有的基础的零基础的人都能玩的下啊,玩一下。呃,然后今天就这样,好, ok, 拜拜。拜拜。

大家好,最近越来越多人都在抢着安装 open call, 把这只小龙虾当成自己的 ai 私人助理。大家都知道它很厉害,但你知道它到底是怎么自动干活的吗? 今天我就来带大家了解 open call 自动干活的原理。我们会从它的八大能力入手,包括 gateway、 agent、 skills、 channels、 notes、 memory、 哈尔滨矿。听起来有点技术,但是听完你就会明白为什么它能替你处理各种任务,甚至在你没动手的时候主动执行任务。 我们先说 git, 他 是所有请求的第一站,他就向你家门口的智能门禁。无论你从网页、手机还是聊天软件发出指令, git 都会先确认你的身份,然后把请求准确送到系统内部的正确模块。 技术上, git 就是 一个 api 网关和绘画管理系统,它负责身份验证、连接、管理多用户隔离和请求路由。没有它,助理根本不知道谁在下命令,就像门没开,你叫也叫不进。接下来是 agent, 它是 open call 的 大脑,有专门的人设,负责理解用户意图、制定分布计划,判断要调用哪些工具或技能。 技术上, e 政提示 i r m 推理循环系统,通过观察、思考、计划执行和反思,不断自我校正。在执行过程中,他会根据任务结果调整策略,让助理不仅会执行,还会规划和判断,这就是 open call 能做复杂任务的核心原因。 但是 agent 光有大脑还不够,它需要实际动手的工具,这就是 skills。 skills 就 像助理的工具箱,里面装着各种功能,发邮件、写代码、操作浏览器、处理文件、调用 api 生成文档。每一个 skill 都是独立模块,遵循标准化接口,可被 agent 调用。 没有 skills, 即使 agent 思考再多,助理也只能空喊好的。所以 agent 决定做什么, skills 决定怎么做,两者缺一不可。你可能会问,我怎么和助理交流呢?这就是 channels 的 作用。 无论你用网页、 whatsapp、 telegram 还是飞书, channels 都会把你的消息统一转换成系统能理解的格式,保证指令能准确送达。 agent 换了通信方式,不换助理,他依然能听懂你的指令。 而要让助理跨设备工作,就得靠 nodes。 你 在客厅,手机在卧室,电脑在书房,助理依然可以远程操作这些设备,打开文件、修改文档,甚至调用摄像头获取系统通知和定位信息。 no, 只是青睐客户端代理安装在各设备上,通过网络与 a 阵通讯,带有自动重连和心跳机制,它让云端的大脑拥有现实的手和眼,真正做到跨设备执行任务。助理还会记住你的偏好和习惯,这就是 memory。 你 不用每天重复,我不吃辣,晚上十点提醒我,它会记住你的所有习惯和历史操作。 技术上, memory 分 短期和长期,本期保存当前对话上下文长期存储在 markdown 文件和向量数据库里,通过语义检测快速找到相关信息。助理不只是记住信息,他还能理解你的需求,越来越懂你。 opec 不 会只等你发指令。他还有哈尔臂,即便你没开口,他也会主动巡逻,检查你的邮箱、日历和任务状态,发现异常立即提醒你。技术上,哈尔臂的是后台守护进程,定时触发 a 阵执行检查任务, 他让助理从被动响应变成主动监控,确保你不会错过任何重要事件。最后还有矿时间调度系统,每天早上叫醒你,每周整理总结,每月提醒缴费,这些都是矿管理的,他根据标准时间表达是执行一次性或周期性任务,保证助理按计划完成工作。 哈尔比特巡逻发现变化矿精准执行任务,两者协同,让助理既主动又守时。当这八大能力同时运作时,窝吞科奥才真正开始自动干活。 你通过 channel 发出指令, get 委屈人身份一阵子,开始思考。打开 skills 工具箱,让 no 去设备上执行,再从 memory 里找你的习惯,你沉默,哈尔比特在后台巡逻,你离开矿,在时间线上依旧运转,替你完成任务。 他不是普通聊天机器人,而是整套会思考、记忆、执行提醒、跨设备行动的智能系统。他不是冷冰冰的软件,也不是完全像人的助手。更准确的说法是,一位永远在线、耐心、越来越懂你的数字私人助理。感谢你的观看,帮忙点赞、关注我,给个小心心,谢谢!

如果你还没有装上小龙虾,又担心安全问题,不知道部署在本地还是云服务器上,今天我就把自己跟着教程实践成功的实操步骤分享给你,而且是零出错哦,重点是不花一分钱就可以进行体验。 那先说结论,我是部署在腾讯云服务器上,以及打通飞书来进行交互的,这个组合相对来说更安全些。那首先我们要用上小龙虾的话,必须提前准备好三个东西,一个是服务器,一个是交互的通道,最后一个就是 api, 准备好我们就可以安装了。那首先第一步我们先来解决服务器的问题,之前大家一直都说 opengl 能做多大的事,取决于你给他的权限有多高。确实如此, 所以安全的问题我们也要考虑好。很多人不建议部署在主力机上面,所以他们都会去买 mac mini, 因为担心安全的问题。但我觉得针对小白或者说想要体验一下的用户来说,咱们优先考虑性价比。所以我觉得部署在云服务器上是一个相对较好的选择,而且它不受本地关机的影响, 可以在云上七成二十四小时为你工作。那我之前就了解到有一个免费使用一个月云服务器权限的一个活动,那就是这里面了,那整个安装步骤和流程我都整理在这个文档上面了,假如大家有需要的话,也可以评论区留言,我会分享给大家。那首先第一步的话就是我们打开这个扣八底的一个官网, 打开之后我们在这里面去选择注册登录,登录完之后在这里面点击这个立即领奖, 点击立即领奖之后,它会提示你去打开这个 call buddy 的 一个软件,这里面通过我们的微信去进行扫码登录就可以了。登录完成之后,我们在这里面往下拉一下,这里面有一个立即领取, 可以看到它这里面已经把我们对应的购买服务器的费用给它抵扣掉了,我们点击立即购买就可以了,那来到这一步我们就相当于把服务器的这个问题给它解决掉了。 那领取完免费的服务器之后,我们登录到腾讯云的官网上面,这里面记得要把这个自动续费给他取消掉,因为我已经是部署好了。进到这个页面之后,大家选择轻量应用服务器,然后在这里面去选择重装系统,在重装系统里面对应使用应用模板, 对应的在这里面点击使用应用模板,这个模板选择使用这个 open cloud, 以及说在备份选项这里面无需备份。把上述的内容都确认好之后,我们就直接点击确定,然后到这一步的话就把我们的系统给它重装好了。重装完系统之后,在这里面我们点击这个应用管理, 就是需要把我们对应的模型跟通道给它配置好,这个模型的话其实就是你要获取一个对应的 api key, 这个 apikey 是 你跟程序之间去进行对话,让它调用资源帮你解决问题的一个非常关键的东西,所以通过程序帮你去干活的时候,是需要消耗这个 token 的。 那我之前就一直用开的是智普的这个大模型,因为相对来说它会比较 实惠一点,那如果大家有用开的一些模型,对应的把它的这个 apikey 给它填到这个腾讯云的这个模型里面就可以了。那最近刚好智普也有一个新人注册的活动,假设是新人完成注册之后,就会有两千万的 token 的 一个免费使用的权限, 所以大家也可以来去薅这个羊毛。然后呢我们把这个注册完之后,创建一个对应的 apikey 就 ok 了,那来到这一步,我们就相当于把模型的这个东西给它配置好了。 第三步就是部署我们的通道,通道其实就是你用来和 opencloud 对 话的渠道,像 qq、 飞书、钉钉这些都是支持的,那这里面我会用飞书来给大家去做一个显示,当然包括很多国外的一些像 whatsapp 也是可以的。 那具体我们要怎么来去部署这个通道,那首先我们先打开飞书的开放平台,在这里面选择点击创建应用,这个应用我们可以自己来去进行命名,比如说小 y 的 openclaw 这个描述,我们随便填一下就好,点击这个图标点击创建就可以了,因为我已经创建好了,我直接拿我创建好的给大家去做一个演示。创建好这个应用之后,我们要开通对应的一个权限,在这个权限里面大家跟着 把我们的比如说获取通讯录,获取用户基本的信息等等的这些权限来给大家进行开通就可以了。在这里面搜索对应的这个权限,给他对应的进行打勾,点击这个确认并开通就可以了。添加完全线之后,我们来到机器人这里面,为机器人添加对应的一个应用的能力, 然后在它的这个事件回调能力里面选择长连接接收事件,并且在这个事件里面对应地把以下的这些事件给它添加完成。添加完成之后,我们来到这个凭证与基础信息,把这个 app id 还有这个 app secret 这两个凭证给它记录好,同时要记得也不要泄露给别人。拿到这两个凭证的信息之后,我们就回到这个通道这里面,这里面对应选择非书,把刚刚我们复制好的 app id 还有 app secret 复制到这里面,最后添加并应用,它就会把你的这个通道给它成功打通了。好这一步我们就把安装 opencloud 的 三样准备的东西都完成了。那最后一步就是准备好这些东西时候,我们要怎么去进行一个安装呢?那我们先回到这里面, 我们要把这里面的这个服务器的一个 ip 的 地址给它记录下来,我们要通过 s h 的 这个方式来去 连接上这个服务器,所以要在这里面我们先把服务器登录的一个密码给它设置好,设置完成之后我们就打开我们的终端,这个终端其实就是在你的这个启动台里面去 输入这个 terminal, 打开我们的这个终端,通过 s h 录,我把你这个服务器的地址 给它复制下来,通过这个指令进行登录,它会让你输入密码,就是刚才的那个密码就登录成功了。好,然后输入好这样的一条口令之后,我们就让它开始安装,可以看到我们输入这条指令之后,它就会进入到这安装的页面了,在这里面我们给它它让你选择 yes, 选择快速安装, 然后然后这里面跟着他一步步的这个选择,然后这里面就让你去选择你对应的这个模型,假如你刚刚是智普的 glm 四点七,那对应这里面也是选择这个模型,假如你是其他的 openai 或者说 and floppy, minimax 不 同的模型,就选择对应的这个模型就好了。然后这里面要去输入这个 api key, 这个 api key 就是 刚说到的你创建的那个 api key。 好, 那我这也就不进行演示了,然后后面的这些安装的步骤,只需要跟着我这里面红框的这个选择一步步往下就可以了, 包括这里面全部是选 no, 最后打开这个重启 get away, 然后到这一步的话,它就相当于把所有的这个配置都配置完了,然后你就可以跟龙虾开始进行对话了,同时你也可以在飞书里面去跟它进行对话了。 所以命令行这边的这个一步步的操作,我就不给大家去做一个演示了,我都把对应的这个选择截图放在了这个教程里面,大家有需要的话可以评论区 留言,我给大家分享这个文档。那配置完成之后,它会有这样的一句话, wake up my friend, 就 证明已经配置好了,这个时候你可以问一下它你现在用的是什么模型,那它就会告诉你 对应的模型是什么,其实就是你刚去创建 api key 的 时候用的那个对应的模型,看一下是否是一致的,同时在这里面去对话的话,还能看到对应的这个 token 的 消耗是多少,同时我们在飞书里面也可以跟它开启这个对话, 所以来到这里面配置好这只小龙虾,我觉得只是一个开始,因为后面还有很多的玩法,但是我觉得在 ai 时代我们先上车再选座,所以听到这也希望大家可以动起来,先配置好属于你的第一只小龙虾。好,那这期的分享就到这,如果内容对你有帮助的话,欢迎一键三连,我们下期再见。

oppo klo 中文版未贩机教程从零开始,手把手带您安装上大龙虾!兄弟们过年好!老张先给大家拜个年,二零二六年春晚的科技都变成了第一主题了,大量的机器人,那么这期视频老张就带您安装二十六年开年爆火的大龙虾全自动机器人,这是第一期教学视频, 这期视频呢,老张先教大家如何把中文版的 open cloud 这个大龙虾安装到我们的电脑上。很多兄弟们担心中文版的功能问题啊,大家可以看到它是 github 上开源的项目, 并且呢具备实时和原版保持同步更新的功能,而且内置的飞书及国内网络环境的优化,这样的话 opencloud 既能是中文版,又可以对接我们国内的网络环境,大家使用起来会非常非常的方便。接下来老张手把手带您安装一下, 我们来看一下它的安装方法,现在是非常方便的,只需要 node 点 gs 作为安装环境,然后通过 npm 一 次到进行全局安装,然后直接可以运行向导进行相关的配置,然后直接启动就可以了。所以首先第一步我们需要先下载 node 点 gs 搜索 node, 然后进入官网选择,当 node 直接根据你的电脑系统选择下载版本就可以。下载完成之后直接双击安装,大家完全都是下一步就可以了,不需要做任何的更改。安装成功之后,我们可以启动命令行开始菜单,单机右键选择运行输入 cmd 安装是否成功,输入 no 的 空格杠 v 回车,如果能够弹出版本 v 二十三点一三点零,因为老张是之前安装过,我安装的是二十四点一三点零版本,现在最新的呢是二十四点一三点一,这个都没有问题,只要能弹出版本号,证明安装成功,然后输入 npm 杠 v, 证明我们当前的环境已经成功配置了。然后接下来呢,我们就使用 npm 进行对应的安装指令,我们回到 get 仓库,把这行安装代码直接粘贴到我们的命令行,这个意思就是使用 npm 安装在大局,杠 g 的 意就是大局安装,安装谁呢?安装我们当前这个中文版的最新版本,然后选择回车, 这一步可能要相对来说稍微的慢一点,大家稍作等待,他的光标会一直在这跳,大家不要担心,直到光标还给我们才证明他本次的运行是成功的, 所以大家跟老张一样稍等片刻好。当我们看到当前添加六百五十六个成功之后呢,基本上就是安装完成了,然后大家可以看到有很多的警告啊,这个东西不影响我们运行, 我们还可以直接输入 open curl 杠 c n 就是 我们这个项目空格杠杠 v, 选择回车,如果他能弹出版本号,证明我们的安装也是成功的。好,接下来我们开始运行安装向导,把它复制过来, 选择回车,他会告诉我们本身他是一个业余项目,处于测试阶段,可能需要很多的权限,比如说访问我们的文件夹之类的,你是否理解,选择继续,然后接下来我们选择手动配置,跟老张一起一步一步的把每一项配置内容给他了解清楚, 然后想要设置第一本地网关,因为我们是运行到本地的工作区目录,默认情况下是 c 盘,然后你的用户里面的杠 openclo, 然后 worker space 选择回车, 然后模型厂商。这个地方在国内的话,我建议大家初次使用都选择 deepsea, 因为它是最好进行配置的,当然其他模型呢,我们还可以用本地的,但是现在初期配置用 deepsea 好。 deepsafe 的 api 输入 api 认证,我们进入 deepsafe 官网,选择 api 开放平台,找到左侧的 api keys, 选择创建 apikey 名称的话,自己随意输入,选择创建, 把这个 apikey 直接复制下来,粘贴到刚才的窗口当中,输入 apikey, 选择回车。好,然后模型的话选择当前的默认模型即可。这个选项是我们默认运行的 端口,就是他打开时在我们本地的哪个端口运行,如果你都不知道什么是端口的兄弟,直接回车即可。这是绑定我们当前的服务器地址,因为我们是绑定到本地的。选择第一项, 这个是我们当前的运行权限,简单来说就是我们在访问对应地址时是否需要一些认证。 off 是 完全关闭,但是大家不建议,因为你 off 关闭的话,万一别人访问我们的地址,就可以无限制调用我们的 api 了。 所以说我们通常用 token 验证或者用密码验证二十六年呢,老张看社群中很多兄弟们推荐都是 token 验证,我们直接回车, 然后这一步就是是否开放我们的远程服务,就是是否在本除了本地之外可以对接一些远程服务之类的。初次呢,我们就直接 off 关闭,然后这个地方就需要我们输入 token 了,就是我们刚才在选择时是不是选择 token 验证啊? 你可以自己去输入,比如说输入一段偷看我自己能够知道是什么的,比如说我们直接输入程序员老张,但是你不输入的话,它会随机双成啊,我们选择回车,好,接下来我们退配置聊天通道,我们看到它默认了很多的聊天通道啊,就是我们说的这个 电报啊, whatsapp 之类的,但这些都是国外的,我们既然是国内使用,咱们直接就选择飞书,然后这选择使用本地插件路径回车,选择飞书国内版。 好,接下来我们它会让我们输入飞书的 app id, 我 们需要登录到飞书的官方网站,我们直接搜索飞书开放平台,登录您的飞书账号,选择进入开发者后台,选择创建企业自建应用, 这些都是自定义的,大家任意选择好。创建完成之后呢,首先配置第一项能力就是把机器人添加进来,因为我们需要机器人来做自动化调用,把它添加机器人添加完成之后呢,选择权限管理,在这有一个批量导入权限 啊,有个 j c 文档,我们呢回到他的官方目录下,在这啊大家老张教大家怎么选,在他的这个快速开始选项中,我们找到消息通道,选择飞书往下拉, 这有一个专门的配置应用权限,把这个复制进来,然后在这选择粘贴 好,这样的话下一步确认新增的一些权限,然后选择申请开通好,然后告诉我们确认开通,点击确定好,这样的话我们权限基本上都保存,保存了已经,然后选择创建,然后配置完成之后呢,我们选择创建版本好,版本号随机输入一个,比方说一点 零点一,这是我的一点零点一版本,然后然后更新说明啊,开放了权限,然后选择下方的保存好,选择申请线上发布。因为老张本身是一个企业版的飞书啊,所以说需要在手机端做一个审批确认,就是手机飞书,他会给我们发一个消息啊,咱们直接选择 确认就行,确认完成之后你回到权限管理当中,发现所有的权限都是已开通,非常的方便。好,这一步配置完成之后呢,我们回到基础信息页面,把这个 ipad 复制,把它粘贴到刚才的这个位置,做一个 ipad 回车,然后把认证密钥这一块也复制啊,然后把它再回车一下。 好,然后这个地方选择已完成,然后现在我们检查了当前的状态,已经更新成功,工作区域正常,绘画正强,选择配置技能节点安装默认肯定是 npm。 然后这些呢,我们可以选择展示跳过啊,后续的话可以再进行二次配置, 按一下回车网关启动运行,选择 note。 好, 接下来呢告诉我们需要做一个基础认证,就是我们现在连接飞书呢,还是连接不上的,我们需要在刚才的设置当中找到事件与回调, 选择订阅方式,添加一个长链接,选择保存,然后不着急选择发布,选择添加事件,在这官方文档中给我们的一个事件名称,我们把它复制过来, 好,搜索,选择接收消息,把它进行确认添加,嗯,这样的话就可以接收机器人发送的对应消息了啊,一定要是这大家一定要注意好,一定是先配置启动到这一步,然后再去进行 啊,这大家稍作等待,然后我们可以再创建新版本,把它重新的发布一下,更新说明随便填,然后选择保存好,发布成功,然后再回到刚才的命令。行,我们选择第一项啊, 选择第一项如何孵化您的机器人?直接默认选择第一项,然后稍作等待啊,他这边一告诉我,醒来吧,我的朋友,哈哈哈, good morning, 你就可以跟他进行一个简单的对话了,你发个你好啊,就可以了,嗯,他有什么可以帮你的,你看这个机器人就正式的启动成功了,当然这种对话很多兄弟用起来不是很方便,我们作为新手小白呢,更想是格式化一点,所以我们按 ctrl c 把它这个东西停掉,停掉之后我们再回到刚才的这个 gitap 仓库中,把这个启动网关的服务复制下来,选择回车让他跑起来一个对应的网络端口, 这样的话我们就可以直接在网页中进行使用了,稍作等待啊,然后我们就可以直接访问对应的 地址,就可以直接打开了,健康状态呢是正常,我们就可以直接使用了。好,然后我们来简单说一下小问题啊,就是刚才老张也碰到了,就是如果你打开之后发现是这样一个界面, 一直显示幺零零八这个错误,老张当时第一反应呢,问了 ai 工具啊,看这个错误怎么解决。其实这个则就是当时我们设置是 token 连接,但是 token 你 没有加入到我们当前的访问当中,但老张碰到了一个什么问题呢?其实官方文档中的解释是这样的, 官方文档让我们啊输入这个指令,让他自动打开,或者让你手动的在命令行中去配置这个令牌,但是老张发现基本上都是不能用的,所以我们如果出现幺零零八的错误,在这个控制找到盖蓝选项,自己把你的令牌输入进来, 然后这样的话选择连接,他就会自动连接上了啊,就可以直接来进行使用了,所以说这个是完全的国内版的操作方案啊,希望能给大家。希望呢能给大家带来一定的帮助。后续老张会陆续的更新相关的使用教程,希望大家可以持续关注老张,大家新年快乐!

最近有只龙虾很火,在 github 上短短几天的时间, star 数量就突破了十五万,它就是 openclaw。 哈喽,大家好,我是阿亮。很多朋友可能在网上看到过关于 openclaw 的 演示,在电脑部署后,他能像一个真实的助理一样帮你处理文件、操作浏览器、 编辑代码,还可以让你用手机控制电脑,定时执行任务。我最近还让他自己做了一个符合我们国内用户的中文操作手册,并部署到了线上。这份文档呢,我打算长期维护下去, 里面不仅有官方的内容,还要把我们国内相关的一些解决方案也整合进去,如果你也需要可以找我要。要想发挥 open call 的 最大作用,就需要二十四小时开机运行,这也是导致 mac mini 被抢断货的原因。 很多人想尝试,又不想在自己的电脑上部署安装,一方面数据不安全,另一个原因呢,我估计是很多人都不会安装,并且自己的电脑也不能七成二十四小时不关机啊,这可怎么办? 本期视频我将为大家分享一个更贴合实际、更简单的方法,通过语音服务器进行一键部署,并接入我们最常用的 qq。 当然呢,也可以接入企业微信, 你也不需要购买额外的硬件,只要有手机有二十块钱,就能随时随地召唤你的 ai 助手。最近各个云服务商都针对 opencloud 呢,出了专属的机器,阿里云、腾讯云、火山引擎等等,基本上都是三分钟傻瓜式搭建。腾讯云的优势呢,它与 qq、 企业微信的兼容性更好。 如果你经常使用飞书,那推荐火山引擎,如果使用的是钉钉呢,那就推荐阿里云,毕竟呢都是先兼容好自家的产品嘛。本期视频呢,就以腾讯云为例,只需要简单的两步即可实现 qq 控制大龙虾。 第一步,腾讯云部署 opencloud 第二步, qq 上创建机器人。首先我们进入腾讯云的官网注册,登录后根据提示步骤进行实名认证,完成后回到购买页,直接选择二十元两盒两 g 的 服务器, 点击立刻购买,自动跳转订单详情页下拉呢,有一个一块钱的标准存储,勾选上,然后点击购买正常支付就可以了。 支付成功后,点击查看实力,就能看到 openclock 服务器了。点击服务器卡片,进入应用管理界面进行初步化,我们将在这里配置模型, 我们可以配置啊, gbt, gem, 千万, kimi 等等,你有哪个呢就配哪个,我这里选择 kimi, 需要填入 kimi 的 api k, 点击获取 api k, 它会自动跳转到官网的登录界面,登录后选择 api k 管理,新建 api k, 输入名称项目,选择 default, 点击确定,然后将生成好的 api k 拷贝过来。到这里我们就完成了。第一步,云部署,划重点,这个页面千万不要关,一会还要用到它。 接下来我们开始配置 qq 机器人,然后让我们能够通过手机来控制电脑。我们打开 qq 的 开放平台网页,先进行开发者注册,不要直接用现有的 qq 号快捷登录,否则无法进入机器人管理后台。注册流程走完后再登录, 根据提示依次填入邮箱密码,点击注册,这里需要先前往邮箱进行激活,成功后开始设置超级管理员主体信息,选个人,根据提示完善身份验证。 审核通过后,我们登录到 qq 的 开放平台,选择机器人创建机器人,我给他命名小布,传一个三 d 头像描述,这里呢?输入贴身智能助手,点击提交创建,我们就能看到列表里显示了创建好的机器人, 点进去在左侧工具栏找到开发沙箱配置。在这里我们可以把个人的 qq 号填为管理员,点击右侧的添加成员,勾选你的 qq 账号,然后点击二维码图标进行扫码,确认后你就能在好友列表里看到他。 最后我们要把云端的大脑和 qq 的 这个壳子连接起来。左侧工具栏找到开发管理,可以看到右侧有一个 ip 白名单,我们回到语音服务器页面,复制这个 ip 地址,粘贴进白名单, 点击保存。这是为了确保只有你的服务器才能控制这个机器人。在白名单上方可以看到有 a p i d 和 a p i c r t。 a p i c r t。 这里呢?点击生成会蹦出一个二维码,用管理员 qq 扫码重置,你会看到 a p i d 和 a p p c r t。 的 信息。 这里需要额外注意的是,点击关闭前一定要保存好两个信息,否则就再也看不到了,除非你重置。 接下来我们再次回到云服务器的网页,找到 china 配置,选择 qq 机器人,把刚才保存好的 app id 和 appessage 呢依次粘贴过来, 最后点击应用,确定到这里。恭喜你已经成功配置了一个可远程操控的聊天机器人。现在你只需要打开手机 qq, 给你的机器人发一条消息,如果他能精准的回复,说明你的云端 ai 助理呢?已经部署成功了。 opencall 的 魅力绝不止于聊天框的你来我往,它更像是一个真正驻留在云端的数字大脑。这种云端部署配合 qq 的 方案,本质上是把原本昂贵的硬件成本 转化成了触手可及的随身生产力。告别设备约束,让顶级 ai 助理真正走进了你的口袋。关于 opencall 的 知识点呢,有点多,比如它具体的功能有哪些,本地如何安装,部署配置与 cloud code、 open code 哪个好?应该如何选择, 普通人应该如何使用等等。所以我打算分个三五期把它呢讲透彻,让普通人听得明明白白。大家点点关注哈,跟着阿亮学 ai。