粉丝34.8万获赞805.1万

兄弟们,我终于养出了一只会做 ppt 的 龙虾,而且是大龙虾,你看,我只是在手机上摆个文档发过去,让他帮我做 ppt, 他 就一口气帮我做成了十几种不同风格的 ppt。 有 这样的这样的、 这样的,还有这样的、这样的,今天一分钟教会你。首先,你需要给你的龙虾配置个擅长做 ppt 的 api key, 比如 mini max 二点五,它的高阶文档处理能力非常屌,而且还是给你的龙虾配置个做 ppt 的 skill, 就是这个之前讲过的有几万个 skill 的 网站里面找到这个 anselpik 出品的 ppt skill, 然后把这个指令复制下来,发给你的龙虾,让它安装这个技能。 最后一步是调试,用我这个祖传的指令文档,加上你的原始材料,就能做出多种风格而且非常专业的 ppt。 如果有需要调整的地方,直接让它调整就行。更牛的是,它会自我训练,自我加强,越做越好。最后要说的是,用 mini max api 的 时候,记得去用它的 coding plan, 超级便宜, 一杯咖啡的花费都肯随便用,这个能力和价格也太适合养龙虾了。以后我就有一个全年候待命的 ppt 工程师为我服务了,帮我再做一份 ppt, 详细文档已经整理好了,点赞关注,轻松获得!

hello, 大家好,今天跟大家分享一期非常实用的 cfui 为生产地的视频,这期视频设计的众多 skill 技能和节点都是我独家制作的,相信这期视频一定能百分之百帮助到大家,那么这期视频所有的 文件和这个工作流我都是免费分享到我的简介下方的网盘里,大家自取就好。简单来说,这期视频主要能够实现让大家以最低的配置,最少的花费,全自动化地实现我们 cfui 的 长视频。然后图片就更不用说了,呃的一个生成,那么 我刚刚提到了生产力,首先要提及这个生产力,我认为要具备解决四个痛点才能称之为生产力。第一是效率问题,不能说我半个月一年的时间来生产一套高质量的视频,这是不行的。第二是我们最关键的费用问题,我不能说我只能花大量的钱去买高配置的电脑,我要花大量的钱去买各种厂商的积分次数和调用各大 api 接口,才能够去生 产我几次的视频和图片,这也是不行的。那么第三就是我们的质量问题,我不能只有生产,没有考虑结果,这是不行的。那么第四可能难理解一点,就要容纳连续性。简单来说就是 比如大家合作过商单和企业的小伙伴应该知道甲方的需求,比如是一周让我生产一个皮卡丘视频,我要半个月才能生产出来。或者让我一周做一个模型迭代优化,我要半个月才能把它做出来,那这样市面上有更多的需求可以供甲方和供应商去迭代更新了,那肯定也是达不到我们生产线的要求了啊,说了这么多, 就是想告诉大家,真正的生产力要实现四个痛点的解决,或者至少能够尽可能的实现这些痛点的解决。好,那么正式开始我的这一期的分享,它主要分为两个部分,第一部分涉及到我们的康复员的远程操作和衔接,这里主要用到大家都应该非常清楚的,我们现在非常火的龙虾。那么第二部分就是我们的康复员的工作流程方面,我做了一个实在落地的一个针对性的优化,那么为了方便 小伙伴更加直观的感受,我先举一个大概的例子吧,啊,就是我前不久刚刚通过一个不到十二级显存的一个配置,实现了一套长视频 的生成,那么是借助在手机上利用飞书远程去控制命令,让我的 ctrl y 能够批量自动化的去生成我想要的视频进行进行修正,那么最终产生了一个一 分二十秒的一个视频,你看这一分二十秒的一个长视频,那么它是一个牛马猪从睡觉一直到被自己家虐取的一个视频短短视频动画,因为时间关系,我在这里做拖下吧,大家可以看一下。 好,那么接下来我来开始正式的这个分享啊,它主要分为两部分,我们要实现这样一套生产线的全过程。首先我们需要做的就是第一部分,我们需要一个远程的去控制我们的这个 copy y 啊,毕竟它能够按我们想要的去加载我们的工作流,批量实现我们的工作流的运行。那么第二部分就是我们要有一套真正能够落地成为生产的工作流啊。那么第一部分涉及到我们 的远程这一块,主要就用到我们目前非常熟悉的应该很多小朋友都知道的 open qq 小 魔仙,那么因为我们这期视频主要照顾的是一些普通玩家,大家消费都不会很高,配置也不会很高,时间也不会很够,我们怎么去实现它,所以我会只简单的去理解一下。 那么要使用 open qq, 首先要安装,因为现在安装视频教程特别多,并且为了防止大家踩坑,我这里只简单总结为两个方法。第一个方法就是直接在百度上搜 open qq 官网,然后你就会打开 这样的一个界面,然后点击安装这里,按他的要求依次去安装就行了。那么为了照顾到更加小白一点的同学,我就也可以推荐第二种方法,就是这种目前比较成熟一点的 ai 插件。我举个例子啊,我这不是广告,比如说啊,我这个 mini max ai 插件,它就是一个 ai 插件,你在百度上搜索名字,并把它下载下来之后,注册一个账号,它会送你一千二百积分,这都是全部免费的啊。然后你直接 到它输入这句话,让它安装就行,因为我考虑到很多小伙伴它是 windows 系统,并且它比苹果会相对安装会复杂一点,那么现在呢,我就是以 windows 系统举例, 你告诉他让他安装这个 oppo, 你 可以让他安装到 ws 里面去隔离现有的系统环境,然后告诉你安装到哪个盘都是没有任何问题的,然后在过程中依次点击,确定给他一定的权限,他就会帮你安装好。整个这个安装过程耗费应该是只要几十积分就够,所以是完全免费的,当然考虑到大家配置不一样,可能有的会耗费一百积分,但是也是完全够的,那么这会保证你非常完整的安装好的。 安装现在已经非常的简单了,那么安装完了之后,大家大概会打开一个这样的界面,有的并不是这样的界面,原因是你并不是使用的原版 oppo, 因为现在很多大厂 啊,他自己做了自己的啊, office, 比如说我们的飞书,比如说我们的各类的什么 q 叉 pro 等等啊,这个大家自行去辨别它有利有弊吧,我个人还是推荐原版的。那么安装完了之后,打开了这么一个界面,我们还并不能实现我刚刚所 展示的这一套的性能力啊。首先我们需要去建立一个,呃, workspace, workspace 简单的说就是工作空间,这里我不做详述,你也可以不建立,但是我建议你建立。建立很简单,从现在开始,大家明白一个概念,就是你当你拥有了 office 之后,你要学会利用它,你可以说帮我去重新新建一个工作空间,那么他就会帮你 新建一个工作空间。然后你可以告诉他另一个什么,可以告诉他接下来我所创建的所有的代理都在这个工作空间里啊。接下来呢,就是我刚刚说到代理问题,一定要建立一个代理, 也叫 agent, 建立完了之后适用于我们后续专门用它来帮我们学习我想要的技能,并利用技能实现我们刚刚的一系列的操作的啊,那么这个 agent 建立完了之后啊,怎么建立呢?也很简单,我刚刚提到你直接告诉龙龙,让他帮你创建一个 agent, 然后啊,就是这个让他帮你创建一个 agent, 呃,然后呃,并对他进行呃一些描述,比如说性格的描述等等的。这个在呃平台上有很多教程,我就不多说了。那么建立完了之后,比如说我这里我建立了两个呃,几个吧,几个这个呃 agent, 其中有一个叫 starcraft decision, 就是 我建立的一个呃机器人,那么建立了这个机器人之后, 你要实现远程的控制,你还需要做第二步,第二步就是我们要在我们的通讯平台上建一个跟他绑定的机器人啊,我们在这个里面把它更多的叫为 agent, 那 么在我们飞猪里面他叫机器人,当然你不用微信,这些都没有任何问题。比如说我刚刚展示的这个,就是我自己建立一个 star com com 的 这个群聊,在这个群聊里面总共有三个人,一个人是我,另外两个是机器人,这两个机器人分别 在后台绑定绑,绑定到了我在 open globe 建立的两个 agent 啊,那么我就可以实现在我的飞书的 app 手机上面去,在群聊里面去艾特他们中的任何一个啊,比如我这里艾特他们任何一个,然后来实现我对我电脑上各类命令的操作啊,比如说 我这个斯科夫决策者,我就是让他来实现我的康群安的各类啊,顶层设计的啊,那么我们把电脑飞速的机器人,并且把他拉入群聊,你也可以不拉入群聊啊,这都是可以的,那么拉入群聊之后,他可以在机器人之间进行左右互搏,并且互相学习,那么如果是私聊也是完全 ok 的。 比如说你拉入了群聊之后,像我这里拉入了两个机器人啊,拉入了两个机器人啊, 那么我就需要艾特他啊,比如说艾特的这个,这些决策者,他其实对应到的就是欧盟的这个啊, start up decision agent, 那 么我在 app 上艾特了他之后,我就可以对他进行发号施令,当然你现在去做这个,他肯定无法帮你实现,那么这就涉及到我自己整理的这个技能,所谓技能就是让机械或者让 agent 他 能够学习到你的一些特定的 能力,比如说我们刚说到实现我们这一整套自动化制程力的能力,就是我啊会在网盘里面分享出来的这个 skill 文件,大家把这几个 skill 文件啊,直接让他学习, 或者是说你在这个 open 科里面直接从这里切换到你的 agent, 比如说切换到这里啊,飞速 group 切换到这里来,然后切换完了之后啊,然后你就告诉他,请学习你把哪个 skill, 把他的 skill 文件拖到这里,然后让他学习这两个 skill, 然后重启你的 open 科啊, get 微 service, 那 么你就可以能够让你的 agent 学习到这个技能了。学习完技能之后,你就可以在这里或者是说 在这个群聊里面,这都是同步的,然后艾特他,比如说我举个例子,请帮我自动打开 auto 来,并尝试加载某个步骤流,让它批量运行多少次,并发送给我。 大家记住这个非常重要啊,那么这是第一部分,就是我们通过远程的通讯平台,比如飞书在手机上艾特我们指定的机器人,然后能够实现后端绑定到我们的 opencloud agent 上面,并且帮我们通过让他学习技能实现我们想要的一个成果。比如说我输入到这个指令,他就会自动的帮我打开这个 ctrl y 在 浏览器里面,并且自动的啊去将运行 p 四改完按,并且自动的找到我的这个工作流进行运行了啊。那么这个过程之中可能会有一个问题,也就是我这个 skill 里面实际上它做的一个浏览器自动化控制的功能啊。如果是说大家的这个 open color, 它并不一定是 版本一致的,那么一些之前的版本它可能没有集成这个浏览器插件,那么你可能要去自己去安装这个 open color pro 软件,那么这个也很简单,直接去搜索并且下载就可以了啊。这个我就不多做举例啊,只是做一个简单的提示。 那么比如说我这个运行就是完完全全啊,让远程的这个机器人告诉他,让他自动在我电脑上打开了这个 ctrl y 并且运行的,因为这个打开它会有一定的时间,所以我在这里就不做做举例了 啊。具体而言呢,我这里有一整套 ctrl y 的 工作流啊,这一套工作流是我的商业化实战工作流啊,这套工作流分了很多部分,大家看起来可能会头晕,但实际上啊,它非常的简单,并且非常的全啊,它能够实现我的批量的 短视频生成,你再把它组合起来,它就是长视频。为什么我要做这一套工作,就是因为考虑到事实上真正落地的商用的或者是交付成果的啊,这个视频绝例的啊,视频,长视频,他一定不会说我只要五秒视频或者十秒视频,很少啊,他一般会要求你一整套啊,那怎么办呢?我不管我有多高的配置, 多好的模型,它一定会涉及到抽卡,并且在过程中一定要可控。那么这套视频就是能够实现你如何从零开始到提示词的批量生成到首尾帧的控制。为什么这里会用到历史上这个可能大家不太用的这个首尾帧,因为它依然是控制我们视频的一个非常关键的功能。 那么批量生成的提示词,批量进行手手帧和尾帧图片的生成,然后再批量生成各种视频。大家可能说,那这一套视频工作流我是不是要花费很大的行程内存啊?我可以很负责任的告诉大家,这一套视频工作流能用多好,能用 多少时间,完完全全跟显存和内存不会做限制啊,也就是说你如果显存比较低,你可以选择较低的模型就没问题,然后请你抽卡,那么抽卡无非就是耗费时间,耗费时间恰恰能被第一部分所解决,也就说我可以在上班摸鱼或者是上课 摸鱼,我就能够通过手机来控制它啊,这完全不占用我们的时间,所以我们等于是以时间来换这个空帧来解决这个效率问题。当然如果你显存比较好,你可能花费的时间就比较少,以上过程全部免费。那么具体我来简单介绍一下,这套工作人员有众多节点,是我自己制作的,他最核心的, 那我都写清楚了各个步骤,最核心的几个步骤,比如说我从零开始啊,从零开始,我有一个想法,比如说我刚提到了我有我想要一只牛马猪,他展示一下他怎么从起床一直到去打工为资本家赚取利润的过程。那怎么办呢?我首先我要有这个构思,有了这个构思之后,我就可以启动这个批量生成本地提示词了。 呃模块,那么启动了所有的这个开关都在这里,启动完了之后,呃,你就可以通过呃模型这个就建立为以千万三微 l 举例啊,千万三微 l 因为它是本地的,不需要带有任何 a p i 啊。我这期视频最重要的就是让大家以最低的、最复杂的,然后最低的配置来尽可能的实现我们这个生成的一个字, 你可以忽略这一步啊,我就不多说了,那么生成本地提示之后,它就会自动生成到你的指定的这个呃文件夹下。我举个例子,我自己建了一个叫 cfton video 的 这个文件夹,那么在这个文件夹里面,它有很多违心间的各种各样的文件,比如我刚刚提到的这个 problem 就是 我们的奇字,奇字呢?你看我可以批量生成作图奇字任意数量,那么这个节点是我自己制作的,生成完了之后它是用来干什么?就是我们第一步生成的奇字词,第二步我们要引导我们的首帧图片去依次根据这些奇字来生成我们的伪真图片,对吧?并且把它保存到一个文件夹里面,那么 我们就涉及到我们这个批量生成伪真图片啊。那么呃,手提词,对于手帧图就是我们第一张图片,第一张图片生成之后呢,我们就会生成到我们的这个 e s 这个文件夹里面的手帧图里面,比如说这里啊,来生成完之后,它就这里永远都只有一张一张图片,那么接下来就是我们的伪真,它就会依次根据第一张图片去批量的调取我们本地的已经生成的这个批量的 刚刚展示的批量的提示词,来生成我们的伪真图。比如说我一个一分二十秒,或者是说我一分钟六十秒的视频,那么我配置非常低,我只能一次性跑五秒,我怎么办?我这里运行提示改成一杀一杀一个五秒啊,就是六十秒,对吧?然后跑完了之后,我就能够实现 一个长视频,我放在剪映仪一拼,他就是一个长视频了。简单逻辑是这样,那么我第一个视频生成了之后,他会在这个手针里面就运行到二十四次,之后他就会生成二十四张图片啊,刚刚 生在这个尾帧一脉之源。那么有了首帧尾帧和提示词之后,接下来我们就需要做的是我们要让他在我们指定提示词的控制下,生成我们想要的各个五秒的视频 啊,对吧?最后把它拼接起来啊,也就说这套工作的逻辑在哪里?就是我不需要很高的配置,我也能够控制好我的长视频,并且还是全自动化的,对吧?那么这个才叫真正的生成力啊。那么首先我们有了这么多首帧和尾帧图片之后,就进入到最核心的环节,就是我们的 视频生成。第五步,视频生成分为几个大模块,第一模块我简单讲一下啊,第一模块就是我们的首帧图和尾帧的加载,它这里会批量的去加载我们指定路径下的图片,其中首帧的图片每跑一次之后,它就会进行一个切换,因为我们第二个五秒是第一个五秒,第二个五秒的尾尾帧图是第一个五秒的首帧图啊,那么它就会自动的将这个首帧图进行替换,那么尾帧图它就会自动的进行保 留。如此一来,我们只需要修改键的运行 p 四,就能够 p 四调取我们的文件夹里面的首帧图和尾帧,并且生成若干个 短视频啊。那么这个我是以一个大家非常用的比较熟练的 y 二点二作为一个工作流举例,实际上呢,啊,我这里还有这个 l t 叉二点三,也就是说这一套视频为什么它是我商业时尚的工作,就是我只需要把这个模块进行更换,未来你现在生成视频可能比较好一点的模型是 l t 叉二点三,那么未来可能会有更好的模型啊,那么打印机等等我怎么办?我只需要把这一款换掉, 我就能够实现用更好的模型生成更好的视频效果啊,那么这一套流程生成完了之后,我就会生成若干个视频在指定的文件夹里面,最后我把它拼起来,当然你也可以 一次性把它拼起来,但是我为了照顾到一些低性能的小伙伴,我认为还是进行批量比较好。最核心的一点,通过我大家可能也都非常清楚,事实上真正实战的真正商用的它一定不是完完全全自动化,不是因为技术上实现不了,而是因为模型上实现不了,因为现在就算是非常市面上已经公开的啊,比如说 cd 这种,都没有办法去完全保证你一个非常长的一个视频的一贯生成, 大家要清楚这一点,所以说真正使用的实战的工作流,他一定是可释化过程的,或者是能够批量解释的,所以才有了这些文件夹的意义啊。也就是说我在这个里面,一旦我在某一个图片上出现了问题之后,我能及时去进行修正啊,这是非常有必要的,我就不需要再重头跑一遍了啊,或者我去剪辑有没有意义,对吧?所以说 这是他实在的意义和目的在哪?其次我刚刚提到的他具备朴实性啊,就是说我模型更新了怎么办?我的工作就用不了了吗?当然不是,你只要把下一个新模型的工作流换到这里来,逻辑还是一样的,他永远能够帮你生成长视频啊。 那图片我就不觉得因为图片就会比这个简单的很多啊,因为它本质上我这一次的教学主要还是帮助大家能够理解这个逻辑,以后大家借助这个逻辑可以去生成任意的工作流,都是没有任何问题的 啊。那么这这期视频主要解决了几个问题,第一就是我们的效率问题啊,这个主要是利用了 oppo 的 名称自动化,因为我知道大家很多人啊,都是并不是主业是做这个的,但是又想去接触他,我平时在上班,在上课,怎么办?我就用我的时间 来换取我的这个呃,空间,就是我能够远程的去操纵它。那么第二个呢,就是我的费用问题,我刚才已经说的很明确了,就是不到十六 g 的 显存 它都能够去实现这个东西啊,因为本质上 open core 其实并不需要多少内存啊,主要就是 ctrl i, ctrl i 里面的这些模型的选举,你大可以根据你的内存去换啊。那有人可能会提及到这些模型如果换换的比较劣质一点的效果不太好, 但是没有关系,因为我们这是因为有第一部分的远程自动化的存在而可以弥补这棵树,因为我有时间去试,我平时我不需要自己在电脑上啊。那么这就是 open globe 结合进来的意义,那么 open globe 加 ctrl y 本质上它并不复杂啊。但是 我刚刚提到的第三点就是如何以最低的费用来衡量,因为现在很多 open globe 加 ctrl y, 它可能是要借助 api, 它可能是要去调用其他第三方平台,我们就会涉及到一个费用问题啊。那么第四点痛点就是它的这个延续性问题, 我刚才也说的很明确啊,因为这套工作流它是实打实可替换的,只要模型更新你就可以换就可以了,你就把这个工作流换一下就可以了,根本不需要去做非常大的调整,因为本质的逻辑还是一样的,那么就基本上解决了我们四个痛点,而成为了我们真正的竞争力 啊。那么说了这么多,可能表述也没有特别清楚,如果大家在过程中遇到各种各样的问题,可以在评论区互相讨论啊,那我这里简单举几个在过程中可能会遇到的问题啊。呃,大部分我是给大家解决了的,但一定是会可能会有其他的问题的,比如说我们按照这个 skill 之后,它并没有完完全全实现我们的这个批量自动化运行,这个时候 请大家自己学会利用 open call 去问他,我这个 style 为什么没有实现,这一点他大概率能够帮你解决,因为我的 style 已经相对来说非常成熟了,如果遇到了问题,那大概率可能是大家确实在浏览器或者是说在系统环境上会有个别差异,或者你之前安装了 open call, 或者你的调用做了一些偏差, 那没有关系,那一定要学会自己去解决这种问题。那么第二个就是我们的费用问题,我刚刚这期视频的所有的 skill 和包括我展示的都是基于一个非常小白,非常低配置,非常没有时间的一个市场来做的一期视频。如果你有更好的配置,或者是说你的模型,比如说你的模型只有 mini max, 只能用国内的 mini max 来顶其这种或者更 更拉一点的模型,那么你可能就会涉及到很多很复杂的东西,所以我的 skill 并不是只有一个,不是举例没有换成一个 skill 就 照顾到这个逻辑模型,有些小伙伴并不是很好,他可能一下就会触及到他的上限,我就崩掉了,大家也不知道怎么处理,所以我这里尽可能的去规避了这些问题。然后 最后我也是想说,就是不管 ai 发展成什么样,未来呢肯定是更加便捷化,更加自动化,但是我也希望大家能够 在拥抱 ai 的 时候,能多回归一下现实,能多去跟大家进行一些真实的社交交互,或者是聆听一下自己内心最真实的一些想法,可能就会成为我们以后 ai 社会里面反而最缺失的部分。好,这期视频就分享到这里,谢谢大家。

这个小龙虾非常好玩,现在用远程指令给系统发一个消息,让它做一个 ppt, 看它会有什么效果。 好,现在做好了,看一下它的效果展示,还是比较详细的,这个这个只用了三分钟就做好了, 在工作里还是比较方便的。 然后咱们用这个小龙虾欧朋克拉去跑一下这个本地量化。我自己做的量化,就是用这个小龙虾做的, 直接是调取的 oe 的 api 实时获取数据,它比这个原来的这个客户端获取那个数据拉取的还要快。 这里打开本地电话直接就进行开仓了,因为用的测试版,它开仓的条件比较快,会比较快, 这三端同时是同步的,三端同步这个量化还有后移的客户端,还有手机客户端, 而且这个数据获取的实时信息比那个比那个原装的客户端还要更快一点。现在用小龙虾移动端去直接调取本地的量化,不用在这个 pc 上去操作。 然后现在是直接打开本地的亮化,开始运行,测试一下能不能跑起来。直接跑起来了啊,这个就直接开仓了, 然后我会回到正式版,就是给我的亮化加上他的逻辑,先让他跑几天,看一下效果怎么样。

嘿,欢迎来到这期视频,今天我们来聊一个让很多小白头疼的话题, open core 的 配置文件,别怕,我保证讲完你也能搞定。 首先, open core 的 配置文件叫做 open core 点杰森,默认藏在你电脑的用户目录下,路径是 open core 斜杠。 open core 点杰森拨浪号代表你的家目录。 这个文件用的是杰森 five 格式,比普通杰森更友好,你可以在里面写注是末尾,多一个逗号也没关系,而且这个文件不是必须的,如果没有 open class 会用默认配置自动运行。 配置文件主要分四个模块,第一是 agents, 用来配置 ai 助手的行为。第二是 channels, 配置接入渠道,比如飞书 telegram。 第三是 gateway, 配置网关的端口和认证方式。第四是 session 管理绘画策略。 重点来了,模型配置在 agents 里面,你可以设置主模型和备用模型格式式,提供 entropic, cloud senate 四五, 还可以配置一个模型白名单,只允许用户切换到指定的几个模型。注意, api key 绝对不能写在配置文件里,应该用环境变量,比如设置 andropic 下划线 api 下划线 key, 或者运行 openclaw configure 命令来安全的存储密钥。 opencloud 支持热加载,也就是你改完配置文件不用重启,大部分改动会自动生效。但如果改了端口号这类关键配置,还是需要重启网关,运行 opencloud gateway restart 就 行。 修改配置有四种方式,第一直接编辑文件。第二用命令行,比如 openclaw config set 来改某个值。第三,打开控制台界面,访问本地一万八千七百八十九端口。第四,运行 openclaw config 交互式向导最适合新手, 如果你要同时运行多套配置,可以用环境变量 openclaw 下划线 config 指定配置文件路径, openclaw 下划线 profile 指定环境标识,这样状态目录会自动隔离。 好啦, openclaw 配置文件的核心就这些,记住配置文件放在斜杠, openclaw 斜杠用杰森 five 格式, apikey 用环境变量大部分改动热加载生效有问题评论区见,我们,下期再见。

opencloud 默认跑在你电脑上,电脑关了 agent 就 断了。想让 agent 二十四小时在线,就要用远程网关,把 gateway 部署到服务器,随时响应,不用守着电脑, 原理不复杂。本地 app 通过加密通道连到远端服务器,消息发到聊天工具,服务器上的 gateway 接收 agent 响应。你关电脑,服务器照样跑。配置分四步,先把公钥传到服务器上的 agent 响应。你关电脑,服务器照样跑。配置分四步,先把公钥传到服务器,然后启动加密隧道,最后重启 app 连上去, 夹到开机字迹里,不用手动操作,最适合三种场景, cron jobs 需要持续触发手机控制手机发消息,服务器 agent 立刻响应资源密集任务推到服务器跑本地不卡顿。本地网关,电脑开着才在线。配置简单。 远程网关,服务器持续运行,需要加密隧道配置,两种模式按需选,不冲突。远程网关,让 agent 持续在线,不依赖本地电脑下集讲 docker 持续在线,不依赖本地电脑下集讲 docker 持续在线,不依赖本地电脑下集讲 docker, 让 agent 持续在线上。

六十秒教会你为 openclaw 配置多 agent 写作如果你在使用单 agent 时常常遇到以下问题,那么将智能划分能够使问题得到显著改善。为实现多 agent 写作,我们会进行这两步操作。 首先我们来进行第一步,打开终端,运行 openclaw agents add, 跟随你想设定的 agent 名输入指令,然后进入引导配置, 看到这里提示配置完成。第二步,我们来配置 a 卷间的通信能力。在 opencloud 的 主配置文件 choose 下面补上这两段配置, 或者直接将这段提示词发给你的 a 卷,让其帮助配置修改成功。我们重启 get 位,至此配置完成。我们来测试一下 我这里在 a 卷面中,让其将新闻整理工作分发给 a 卷 news。 我 们看到这里提示委托成功。 切换到 aj news, 可以 看到一条来自 aj man 的 消息,并且已经启动了工作。稍等片刻后, aj news 提示我们工作完成。随后打开它的工作区,可以看到工作成果已经整理。在此 至此,你已掌握多维犬之间的协助方式,利用它的强大能力打造专属于你的龙虾集群。

大家好,今天跟大家分享一下如何安装 opencloud 和如何在远程访问 opencloud 的 web ui 页面。为什么要通过远程访问 opencloud 的 web ui 页面呢?在有些场景下, opencloud 并不一定会安装在本机,也可能会安装在远程的服务器上,这时候就要通过远程访问它的 web ui 页面,可以更好地 使用 openclaw。 接下来再分享如何对接飞书在移动端对 openclaw 进行操作。好,下面我们安装 openclaw。 先安装运行 openclaw 所需的环境 npm n p m 安装好了,下面再安装乐乐 g s。 如果说直接安装乐乐 g s 的 话,它的版本可能会不符合 opencloud 的 要求。现在我们需要通过 nv m 这个命令来安装乐乐 g s。 我 们运行这个脚本, nvm 这个工具已经安装好了,下面我们用 nvm 来安装乐得 gs。 乐得 gs 安装好了,下面我们来安装 openclaw。 openclaw 安装完成,下面对 openclaw 进行触式化的一些设置。这一步选 yes, 选 quickstar。 这一步是选择 openclaw 使用的模型,我们选 deepseek, 需要输入 deepsafe 的 ibr k, 进入到 deepsafe 的 官网,点击 ibr 开放平台,点击 ibr case, 创建 ibr k, 输入名称,点击创建,点击复制,回到微粒行,点击粘贴, 我们选择这个模型。这部是用来对接移动端的通讯工具的,我们稍后再演示。先跳过这个步骤。跳过,这是用来搜索网页信息的工具,我们先跳过, 是我现在安装 qq 也先跳过,用空格选择跳过是否要打开,我们稍后再做 好了。 oppo cola 已经安装完成,但是我们当前的机器是没有图形界面的,我们向上滑动, 在这里可以看到一个地址,这个地址是用来打开我们的 web ui 页面的,在这种环境下如何打开我们的 web ui 页面呢?下面我们就介绍用 an 克斯代理这个地址 来达到远程访问 opencloud 的 web ui 页面。现在我们来安装 nix 好 了, nix 安装完成,用 nix 带你 opencloud 服务。这时候有一个点需要注意 opencloud 它的安全机制,要求前端的 web ui 页面和后端的 opencloud 服务要通过 s s l 加密工序,所以说需要为 nix 创建证书 来达到安全加密。我们进入到 nx 的 配置目录,这个是 nx 的 配置文件,我们打开它, 我们向下翻动,在这个位置我们注视掉这一条配置,然后保存,我们进入到当前的目录,在这里面可以创建我们自己的 nx 配置。 这个配置文件如何写呢?我们不用完全的手动写,我们这时候我们通过 deepsea 可以 获取到江阴的配置,给出这样一条对话,让 deepsea 为我们生成证书文件,这里我们点复制, 我们创建一个 s s l 目录,用来重放证书文件, 我们将刚刚复制的创建证书的脚本放入到这个文件中 粘贴,我们保存一下,我们来讲讲一下这个配置文件,这个域名,这里自定义域名,也可以写任意的域名,这里是域名证书的有效天数,也可以任意填写,我们保存,我们运行这个脚本, 可以看到已经为我们生成了两个证书文件。后面在配置 nxt 配置文件的时候需要用到这两个证书文件, 现在我们通过这样一条对话,让 deepsafe 为我们生成 nxt 配置文件,我们写成复制,现在我们就到这个目录, 我们将刚刚复制的配置文件粘贴到里面,也是粘贴在这里,我们将这一段配置文件删除,我们手动配置它, 我们输入这样一段配置文件,在这个配置文件当中,这个地址就是我们 opencloud 的 服务的地址,下面我来讲解一下这个配置文件,在这里 同样的这个域名是你自定义的域名,但是要保持统一。还有这里这里是配置我们证书文件路径的地址, 就是刚刚我们用脚本生成的这两个证书文件,我们保存,我们查看一下当前 nxt 的 运行状态,当前 nxt 正在运行,我们去检测一下 nxt 配置,配置完成且没有错误,我们重新加载这个配置。 下面我们再对本地的 host 文件进行一个配置,让我们的自定义域域名执行到对应的 ip 地址,我们打开资源管理器,进入到这样一个地址,我们选中这个文件,打开它, 输入这样一条解析,我们对它保存,然后关闭,我们打开浏览器,输入我们的自定义域域名,会出现这样一个提示,我们不用管它,点击高级继续访问,这时候可以看到我们的小龙虾页面, we can call 已经可以访问了,但是这里出现了一个错误, 这个错误提示我们这个源没有认证,没有得到容许,可以在这里进行配置。我们回到命令行,进入到 opencloud 的 配置目录,进入到这个文件当中,查看 opencloud 的 配置,在这个地方加入一段配置, 这里填写的是我们的自定义域,域名,我们保存。重新启动 open call, 我 们查看一下当前 open call 的 运行状态, 运行正常,我们再回到 web ui 页面,这时候出现的另一条提示,未认证的我们再次回到命令行,我们打开 open call 的 配置文件, 在这里可以看到 token, 我 们复制这条 token, 在 这里粘贴,点击连接,这时候又有一条提示需要配对,我们再次飞到命令行, 出入这样一条命令,查看当前的设备,这就是我们当前的设备,这边是已配对的设备,这是待确认的设备,我们对这一个设备进行容许确认。 我们再次查看现在已经配对的设备有两个,我们再次回到外围 u r 页面,点击链接,这个时候就可以正常地链接到我们的外围 u r 页面了,我们来测试一下当前的 openclaw 是 否可用, 经过一段时间的等待,我们可以看到我们当前的 openclaw 小 龙虾可以正常地运行和使用。 下面我再来介绍一下如何用移动通讯工具飞书和 openclaw 进行一个对接,让我们可以随时随地的和 openclaw 进行通讯和下达任务。我们输入这条命令,对 openclaw 进行一个配置, 我们选择 yes quickstar 使用当前的配置,我们选择跳过 这一步,选择第一个报时当前配置,这一步就是设置飞书和 opencloud 通讯的步骤,选择飞书,输入 apple secret, 这个 apple secret 如何获取呢?我们打开飞书开放平台,点击开发者后台, 点击创建应用,输入名称,点击创建,点击天下机器人,点击权限管理,点击导入。我们打开这样一个地址,点击左边的飞书向下滑到配置应用权限这里,我们点击这段配置, 我们粘贴,点击下一步申请开通确认, 我们再回到这个页面到配置事件订阅这里我们找到这一条复制,我们点击事件与回调,点这里修改,点击保存,点击添加事件, 我们找到这一条点击添加。我们点击上面的创建版本,输入版本后 给你保存给一确认发布,这时候我们的手机会收到一条创建应用成功的消息,我们再点击凭证与基础信息,点击这里的 apple secret 给一复制,推到迷你行粘贴, 再填入 app id, 嗯,点击复制粘贴回车。选择第一个,选择飞书,选择 open 这里选择跳过,选择愣这里选择跳过这里,我们重启 get 位, 这里选择第三个。好了,这时候我们查看一下 open club 当前的运行状态, 当前运行正常,这时候我们打开手机,我们在手机上可以看到与 opencloud 通讯的应用已经创建成功, 我们点击打开应用,在对话框里输入,你好,这时候 opencloud 会给我们发一条消息,这条消息中有一个命令,这条命令的作用是让我们移动端的设备与 opencloud 服务进行配对确认, 这时候已经配对完成。我们打开手机,在对话框中再次输入,你好,这时候我们就可以与 opencloud 进行正常的通讯对话了,这期视频就分享到这了,拜拜。

我们都知道,市场行情在趋势和震荡之间来回切换,我们很难准确判断当前是什么状态。趋势策略放在震荡池里会反复止损,来回打脸,网格策略碰上单边行情又会深度套牢,这个痛点相信做量化的朋友都深有体会。 所以今天我们来做一件更有意思的事,打点一个能自动判断行情切换策略的智能系统。 在这套系统里, opencube 扮演的是决策大脑的角色,它要完成一个完整的闭环,首先是感知,通过 m c p 协议获取发明者平台的实盘状态,通过文震系统获取余情新闻。然后是思考,根据我们第一的规则分析市场情绪,判断当前是恐慌还是贪婪,是该追趋势还是做网格。 最后是行动,调用 api 启停对应的趋势或者网格策略,把分析报告推送给我们。这样一来,原本需要我们盯盘分析,手动操作的事情就变成了 ai 自动化,我们只需要定好规则,剩下的交给他。 明确了思路,我们来看需要准备哪些东西,主要是三块儿,第一是 m c p 配置,让 openclaw 能连接发明者平台,这个待会儿详细说。第二是消息渠道,我用飞书,如果你不熟悉飞书,机器人怎么配?没关系,直接问 openclaw, 它会一步步引导你完成配置。 第三是发明者平台上对应的实盘策略,鱼情采集工作流和两个交易策略,一个趋势,一个网格,先搞定 m c p。 m c p 是 一种让 ai 调用外部工具的标准协议,通过它 open core 就 能获取和控制。发明者平台的试盘 配置流程是这样的,首先在发明者平台的账户设置里申请 api 密钥,然后获取平台提供的 m c p 协议地址。 拿到这两样东西后,打开 openclo 的 配置文件,把服务器地址和认证信息填进去。配置完成,我们来测试一下,让 openclo 执勤获取实盘列表的命令。可以看到,返回了账号下所有实盘的信息, id、 名称、运行状态、累计收益都有了。这说明 openclo 和发明者平台已经打通了, make c p 通了。接下来在发明者平台准备策略和数据源限速策略,我在自营策略库里挑了两个,一个是多品种超级趋势策略,用 a t r 指标判断趋势方向,趋势来了就顺势开仓,适合单边趋势行情。 一个是专业网格交易策略,在设定的价格区间内低买高卖,适合横盘震荡。这两个策略的适用场景正好互补。但注意,我们不是同时开两个石盘,而是让 open call 根据市场情绪判断当前适合哪个,只启动相应策略,所以先分别创建好石盘,放着备用 再说。余情数据员,我在平台上部署了一个余情采集工作流,他从九个 r s s 数据员定时抓取加密货币相关的新闻快讯,保存成 jason 文件,每条新闻包含标题、时间和赃要。后续 openclaw 会分析这些新闻的关键词进行情绪判断。 渠道和策略都准备好了,现在要给 openclaw 布置具体的任务了。在这份指导语中定义了 ai 每次执行时应该做什么, 我们来看具体关键点。首先是决策定义,实盘配置,然后是核心执行流程以及鱼情分析规则,接着是最核心的决策矩阵, 根据鱼情信号以及策略收益进行不同策略切换的抉择。最后还有日制格式报告模板、定时任务和飞书通知配置这些,搭建了一个完善的任务执行流程。 指导语写好了,上线之前,我们先手动跑一遍验证效果。出发执行后,可以看到 open call 依次完成了这些动作,读取实盘状态、余情分析决策执行,最后生成一份完整的分析报告并发送到飞书, 整个流程完全自动。我们看一下报告,情绪指数、重大事件、策略收益,本次决策和原因都清清楚楚, 手动测试没问题,现在让它自动跑起来。在 openclaw 里创建一个定时任务,执行频率设为每小时整点,设置完成后,每小时整点, openclaw 就 会自动醒来,进行设置好的操作,从此策略管理变成全自动。我们再也不用纠结当前到底是什么行情,改跑哪个策略了。 系统跑起来之后,我们不可能一直坐在电脑前盯着,这时候移动端的价值就体现出来了。每次定时任务执行完, openclock 会把分析报告推送到飞书,打开手机就能看到,相当于有个 ai 分 析师每小时给你汇报一次市场情绪和策略表现。在地铁上,在吃饭时随时能掌握系统运行情况。 当然,有时候我们等不及下一次定时报告,想立刻知道情况怎么办?直接发消息问就行。比如我发一条查看一下持盘收益, open 框收到后,立刻调用发明者接口,返回两个策略的最新状态,包括是否在运行,运行了多久,累计收益多少,今日收益多少。这种双向交互让整个系统非常灵活,不只是被动接收报告,而是随时可以主动了解情况。 还有更实用的玩法,比如我发现趋势策略跑了一段时间一直没开仓,我就发消息问策略长时间不开仓,通常是因为 a t r 通道太宽,价格没有突破趋势线触发信号, 建议把 a t r 周期从十调到十五,让指标更平滑。把 a t r 乘数从三调到二,让通道变窄,更容易触发。 我觉得有道理,就回复暂停十盘,按这个调整一下参数。 open call 收到指令后,先调用 api 暂停策略,然后自动打开浏览器,进入发明者管理后台,找到参数设置面板,调整 a t r 周期和乘数的滑块,点击保存。 整个过程我只是问了一个问题,确认了一下建议,剩下的全是 ai 自己完成的,这才是真正的智能助手。 好,我们回顾一下今天做的这套系统,核心是用 open code 解决趋势和正道行情难以辨别的痛点。 通过 m c p 连接发明者平台获取实盘数据,通过余情工作流感知市场情绪,用指导与理的决策矩阵自动判断该跑趋势还是网格策略,用定时任务实现自动执行,用消息渠道随时接收报告和发送指令。 当然,这不是一个完美的框架,可以优化的地方还有很多,但今天的重点是给大家展示各种工具的组合应用方式,希望能帮助大家理解这些工具怎么配合使用,在此基础上做出更多更好的创造,我们下期再见。

来了,兄弟们,今天我们来聊一个颠覆认知的问题, open call 能不能实现自己进化?大家养龙虾这么久了,有没有发现它刚装上的时候挺聪明,用着用着就变笨了。同样的任务,第一次干得漂亮,第二次就翻车,你教过的东西,转头就忘。 如果你也是这样,那么今天这期视频赶紧码住!只要装上这五个 skill, 你 的龙虾就会实现自动进化,从你教它做事,变成它自己学本事。第一个, self improving agent, 自学习代理进化的大脑。 crowhub 排名第一,安装量超二十万,他记仇,你告诉他一次,别用 n p m, 用 p n p m, 他 这辈子都不会忘。你纠正过的错误,它会自动归档,用久了,你会发现 它越来越懂你。第二个 skill, vendor 技能,安全扫描净化的免疫系统容。想要净化就得装新 skill。 但 crow hub 上三点三万个 skill 里,有三百四十一个被剪除恶意代码。这个 skill 能在安装前自动扫描,拦截有毒插件,没它净化就是作死。 第三个, planning with files, 复杂任务规划,进化的工作记忆。 ai 最大的毛病是健忘。这个 skill 会自动创建三个文件,记录任务进度,即使会化,中断打开文件就能继续干。实测让他规划一周学会 python。 第二天他直接说,昨天学完基础,今天该练项目了,全程没掉链子。 第四个 skill, creator, 自定义技能,开发进化的繁殖能力。有了它,你的龙虾能自己造 skill。 你 只需要用自然语言描述需求,帮我做个每天早八点发天气提醒的 skill, 它就能自动生成,从消费者变成创造者。第五个 fine skills, 智能解锁进化的触角 三点三万个 skill, 你 手动翻到什么时候,它能根据你的使用场景自动推荐合适的插件,它会主动发现新能力,而不是等你去找最后这五个 skill。 装完你的龙虾会自己进化。记住你的习惯,不用重复教,处理复杂任务,全程不教练,主动找新 skill, 自己变强,想要啥功能跟他说就行, 从你养它变成它养自己。好了,兄弟们赶紧去试试吧!评论区分享下你的养虾经历,关注我,看最烫的 ai 干货,下期见!

hello, everybody 本期视频呢,给大家分享一下如何使用 cc switch 去连接 ai 的 api, 然后从而实现本地的 cloud code, 可以 任意搭配 api 上网。呃,然后我这边随便打开一个浏览器, 然后我们搜索 github, 如果这里进不去的话,可能需要打开一下你的科学上网,然后在右侧的搜索框呢,我们搜索 cc switch, 然后我们找到这个四十二 k star 的 这个项目,这个就是我们本期要使用到的一个项目,我们点击进去,然后我们可以看到右侧有一个 release, 然后我们找到这个 release 的 最新版本,就是直接点它就好了。 然后呢我们就往下翻到下方会有我们的安装包,在这边我们就可以看到有 linux 的, 有 mac 的, 有 windows 的, 然后我们以 windows 举例子啊,我们找到这个点 m s i 的 这个文件,然后我们点击下载, 然后下载完成之后呢,我们就是双击安装在这里,直接下一步就好了,看不懂也没有关系,直接无脑下一步就好了。然后我本地呢已经安装好了,这里我就取消了。 嗯,然后 cc switch 打开之后就是一个这种状态, 在这边呢我们点击添加,添加完之后默认的是这个自定义配置,我们就保持就好。然后我们翻到下方供应商名字,我们就随便取一个吧,类似于,嗯, cloud 啊, cloud api, 然后在 api k 这边的话,我们找到这个自己常用的一个 api 服务商,这边是我经常用的,因为我用它,呃,它挺便宜的,速度挺快的。然后我这边给大家先注册一个账号,就是给大家先注册一个啊, ok, 点击进去之后呢,嗯,我们可以看到个人钱包管理这一块,因为这个平台他们是新出的账号,就会有两美金的一个免费试用额度,所以说我们可以白嫖一下, 这个可能需要等几分钟,我们再点击刷新就好了。 嗯,好,这边我们可以看到额度已经收到了,然后我们再点击我们的这个令牌,在添加令牌这里,我们可以输入名称,我们随便起个就好,类似于 cc switch, cc switch 其他选项我们默认就好,我们点击提交,提交完成之后,这里有一个复制,我们点击复制密钥,再回到我们的 cc switch 这边,把密钥填进去,请求地址的话,我们回到首页。 呃,哦,对,然后他这里有写到,嗯,就差不多,你们后期如果说觉得用的还不错的话,呃,可以用一用试试啊,我当时买下来好像是一美金也不到七分钱好像是。 嗯,在这里有一个基础配置,然后我们点击这个地方,我们复制到这个点 com 这里, 然后我们将这个复制进去。为什么直到点 com 这里呢?因为我们这里用的是 cloud code 原生的 message 这种请求方式,如果说你想用 open ai 的 这种方式也可以,我们选择 open ai 之后,把这个 v e 也复制上, 就后边的斜杠 v e 也复制上,然后我们本次演示的话,我们还是以原色 message 为主,然后我们把后边删除, 删除完成之后,我们要选择一个模型,可以在模型广场这边,我们以阿里的举例子吧,我们用千问三麦的 max, 然后我们点击复制, 在主模型这里,将 id 填入,这个就是它的模型 id, 然后其他的统一默认就好,我们点击添加,添加完成之后,我们这里就可以看到有一个已经配置好的了,我们点击起用,然后这时候我们就已经配置完毕了,我们可以打开我们的 c m d, 在 c m d 这边我们输入 clode, 输入 clode 默认,然后我们随便敲一个类似于 hello, 点击回车,这边已经看到有回复了,就说明我们这个 api 是 可以正常联通的。然后如果说你想用其他模型的话,其实也很简单,我们以 deepsea 举例子吧,我们也可以点击这里点击复制,然后在 这边我们可以选择新增一个,也或者说直接在我们当前进行修改,我这里就直接修改了,然后我们将主模型 id 进行一个切换,然后直接点击保存,保存完成之后它就自动更新你的配置了,然后我们从回到这个 cloud 的 这边, 然后我们重启一下 cloud 的 扣子, 默认回车。在这边我们就可以看到我们的模型已经切换成 deepsea v 三点二了,是不是很简单?然后接下来你就可以完成你的开发了,如果说你想使用 codex 或者说 jim niklin, 我 们都同样的办法进行配置就好了。

今天我刚把 openclaw 更新到最新版本,直接被整无语了, xs 命令彻底用不顺手,每次执行都弹授权窗口,反反复复点确认点到手抽筋,好好的自动化流程直接废掉。别慌,我亲自试出两种终极解法,一行命令或改个配置,就能永久关闭凡人的授权弹窗, ai 想干嘛就干嘛。问题根源 我仔细研究了一下,原来是最新版权限大升级了,官方为了加强安全防护,把 xs 命令改成了默认,每次执行必须手动授权。虽说安全是好事, 但对我们开发者搞自动化的人来说,这简直是噩梦,严重拖满工作节奏。方法一,终端命令最快我试过了, windows、 mac、 linux 全平台通用复制粘贴直接跑,不用额外折腾。我亲测搞定, 照着输完命令,从此 exact 无授权无阻拦,用起来丝滑太多。方法二,修改配置文件一劳永逸。要是有人找不到终端或者不想输命令,我建议直接改 opencloud, 加机身配置文件,一步到位,永不复发。我给大家整理好文件路径,照着复制就行,保存文件,重启 opencloud 永久生效。安全小提醒, security four 就是 完全开放权限,日常用起来效率最高最省事。要是有人特别看重安全,我建议用白名单模式,只放行指定命令更稳妥。我自己平时做个人开发,跑自动化, 直接开服务权限最爽,不用纠结。我身边不少同行升级后都被权限坑到了,兄弟们赶紧试这二招,经测试百分百有效, x x 瞬间丝滑自动化流程直接重回巅峰!

新手别乱装, open class q, 只有这五个最值得装,你是不是一搜教程就装了一堆 q, 结果用了俩月,常用的还是那么两三个。 那么今天这期视频,我把市面上的 q 全扒了一遍,只有这五个装了是真香,其他都是凑数的。看完这期视频,帮你省下百分之九十的试错时间,效率直接起飞,话不多说,直接上干货。第一个,也是最重要的一个 skill better。 新手最大的坑是什么?不是装错 skill, 是 装到恶意插件,这个 skill 就是 你的保镖,每次装新 skill 之前,它自动帮你做安全体检查代码审权限,确认安全才放行。一句话,没装它之前,别装任何其他 skill。 第二个, tablie search, 你买 openclo 是 要个能联网的 ai, 不是 要个百科全书复印件。装上它, openclo 直接联网搜索,而且不是扔一堆链接让你自己翻 ai 自动抓取加智能总结,问最新政策,热搜事件、产品动态,摘药直接喂到你嘴边。一句话,不装它,你的 openclo 还活在去年。 第三个, agent browser, 还在手动填表,点按钮复制粘贴,你 out 了,这个 skill 让 openclaw 直接接管浏览器,你只需要动嘴帮我把这个表单填了,帮我抓一下这个页面的数据,它自动操作,你该干嘛干嘛。 一句话,重复性工作, ai 干得比你快,还不用发工资。第四个, excel processor, 几万行的 excel 老板让你简单处理一下,你是不是想当场辞职?装上它, 表格直接丢给 openclo, 说帮我清洗数据算增长率,它自动搞定,清洗计算透视图表一条龙。 一句话,它是打工人和 excel 之间的和平使者。第五个 obsidian, 跟 ai 聊完天回头找对话,翻半天翻不到,那是你没装它每次对话自动存到你的 obsidian 知识库,日积月累,这就是你的私人记忆库,想查啥直接搜,再也不用我记得聊过,但找不到 一句话, ai 聊完就忘,让他帮你记住。 b 装总结一句话,核心 skill vader, 安全第一,先装它 tablie search 联网搜索,告别过时 agent browsers。

你有没有遇到过这种情况,想部署一个 ai 助手,结果装了半天,依赖报错、配置混乱、端口冲突。 open call, 一个开源的 ai 私人助手框架,它能连接你的手机、电脑、智能家居,通过 telegram、 微信、 discord 随时为你服务。 但是从零开始部署 open core 并不容易。 node js 环境、 api 密钥配置、服务、注册、防火墙规则,每一步都可能踩坑。 这就是我们提供远程安装服务的原因。你只需要一台能联网的电脑,剩下的交给我们。 远程安装分三步,第一步,我们通过 ssh 或远程桌面连接你的设备。第二步,自动部署运行环境和 opencloud 核心。第三步,配置你的 ai 模型和通讯渠道, 整个过程通常不超过十五分钟,我们会帮你检查依赖配置、 api 密钥设置、开机自启,确保一切正常运行。 如果 open core 二出了问题,服务崩溃、连接断开、模型异常,我们也提供远程修复服务,快速诊断,精准修复。常见的修复场景包括 node js 版本不兼容、端口被占用、 api 额度耗尽、 windows 服务丢失、证书过期等。 open core 二最强大的地方在于定制,你可以安装各种技能插件,让 ai 助手变成你的专属工具, 天气查询、日程管理、智能家居控制、代码辅助、客服自动回复。这些都可以通过技能系统一键安装。我们还提供深度定制服务,根据你的需求开发专属技能配置、多设备联动设置定时任务和自动化流程。 服务分为三档,基础安装帮你快速上手。专业版包含修复保障和基础定制,企业版提供全套定制和持续维护,不要再折腾环境配置了,把技术活交给我们,你只需要享受 ai 助手带来的便利, open call, 让 ai 真正为你所用。现在就联系我们,开启你的 ai 助手之旅。

想用 open call, 但不会安装,别自己硬啃环境配置,远程带装更省事。只要你的设备能远程连接,我就能帮你从安装到部署全部跑通。你不用懂命令,也不用反复排错。 异地电脑远程服务器,新手用户都适合安装配置上线一步到位,当天就能开始用,不想折腾流程,直接远程安装就行。

大家好,今天我们来解决一个困扰很多 openclo 用户的问题,运行时的各种报错、闪退、加载失败、模块缺失等,用种简单高效的方法搞定大部分问题。本次分享将分为五个部分,针对一些更复杂的情况, 我们会探讨深度修复方案,并给出一些实用建议。我们先来看看大家在日常使用中最常遇到的几个问题,闪退、无响应、模块缺失、配置修改后无法启动、升级后功能异常。这些问题确实很烦人,但都不是绝症,不需要重装系统这么麻烦。 那么这个神奇的命令是什么呢?就是 opencloak doctor fix。 这是 opencloak 官方提供的一个强大的修复工具,它就像一个智能医生,能自动诊断系统的各种问题,包括配置错误、依赖缺失等,并尝试自动修复。 它具备自动诊断系统健康状况,修复过期或损坏的配置文件,帮助用户将旧版本的配置平滑迁移到新版本,还能自动补全缺失的依赖模块。这个命令非常强大,能解决我们刚才提到的百分之九十的常见问题。 对于 windows 用户来说,操作非常简单,首先打开命令提示符或者 power show, 然后输入我们刚才提到的修复命令,按下回车,等待命令执行完毕即可。 整个过程就是复制粘贴,非常方便。对于 mac os 和 linux 用户,操作同样简单,打开系统自带的终端,输入相同的修复命令,回车执行即可。 如果基础的修复命令没能解决问题,我们还有一些进阶的解决方案,比如使用 config reset 命令,可以重置配置 repair apps 可以 专门修复依赖问题。 get to it restart 可以 重启网关服务, 这些命令可以针对性的解决一些更复杂的问题。在操作过程中,大家可能还会遇到一些其他问题,比如系统提示找不到命令,这通常是环境变量的问题。 如果修复命令执行后问题依旧,请仔细查看命令的输出日期,里面会有详细的错误提示。最后我们来总结一下,进入这个核心命令, open clock doctor fix, 它是我们日常维护的好帮手,养成良好的习惯,比如升级前先修复定期备份配置,能让我们的使用体验更加顺畅。如果遇到实在解决不了的问题,别忘了官方文档和社区都是很好的求助渠道。再次强调,当你遇到 opencloud 相关的报错时,请不要立刻重装, 先尝试运行 opencloud doctfix 这个命令,绝大多数问题都能轻松搞定。希望今天的分享对大家有所帮助,感谢大家点赞支持!

m 四芯片装一个这个小龙虾是吧?远程给我们小伙伴装好的,他装好之后他拿去干嘛呢?你看他是拿去做这个,就这个吧,是吧?大家知道了对不对?然后呢我也装好了,也自己去拿去钉这个东西。那么现在的话呢,我们 就是我们做了一个麦克版的安装啊,就是一个包,还有教程呢都在这里,还有一个 windows 的 离线包也在这里,依次啊就装好了,装好之后呢 养虾是吧?这个东西其实不需要怎么去养呢,就是装好之后啊,你让他干嘛他就能干嘛了,就像一个人一样,你现在告诉他啊,去这么做,去这么做,那我们给他的指令是什么呢啊?我们简单给大家看一下我们给的指令是什么? 就是没有什么特别的,养虾就是你要怎么干啊?你想怎么做你就让他去做就可以了,让他去做他自己会跑,你看他会给你一些建议是吧?建议 大概就是这个意思,然后呢你觉得这个建议可以啊,达到你的理想效果了,你就让他就说啊,帮我把这个东西打包成一个 s, 然后啊你可以把这个 s 装就分发给你的朋友,是这个意思 就就不需要怎么去讲啊,就是想要的东西跟他讲,他会回馈你,回就是回馈到你,你呢就跟着他这个东西呢去操作就可以了。

大家好,欧阳克劳最新更新了全新记忆架构,今天我们来聊聊本次更新架构的意义。智能体的记忆系统是其核心能力,但长期以来,上下文管理一直是个黑箱。模型为什么会忘?东西压缩到底丢掉了什么?台上时经常一头雾水。这次升级不是修补某个工具, 而是把记忆管理从模糊直觉变成可控工程系统的一次跃迁,让我们看看智能体的大脑如何实现真正的工程化。智能体的信息来源可以清晰的分成三层,第一层是工作记忆,也就是当前绘画里要送进模型上下文的消息集合,目标是当下可用,预算可控, 在有限头肯预算下,让模型看到最相关的内容。第二层是长期记忆,把未来可能附用的信息长期保存。目标是找得到、 可维护、可审计,不仅要有存取能力,还要能管理和追溯。第三层是外部知识,比如搜索引擎和业务系统,目标是事实、权威、可验证,确保引用的信息来源可靠。记忆模块的升级,本质上是在这三层之间重新划清边界, 并把最难调的工作记忆管理从固定流程变成可替换的设定。先看看旧版本在长期记忆这一层的做法,它以文件为增量,把记忆写进可读的文件集合,再用缩影层做加速。这个设计有几个关键点, 文件增量,让记忆可读、可改、可迁移。你可以直接打开文件查看,甚至手动编辑缩影层,让精确命中和与意相似都可用。 支持关键词剪辑和相像剪辑。对外提供两类工具,先用记忆剪辑工具做召回定位,返回少量后选片段与定位信息,再用金箔工具按定位读取小段内容,避免把大段文本直接塞进上下文。两段式工具,让上下文注入变成先找再读的收工动作, 能显著降低上下文膨胀与误注入风险。这一层的工程设计是合理的,但旧版本真正的难点在工作记忆。随着绘画变长,消息越来越多,系统就要做清洗、校验、截断,再再一出使粗包压缩。 问题在于,这些策略是内置的固定流水线,也能调参数,但很难替换成另一种上下文管理思路。牌照时经常出现三类模糊,第一, 模型忘了某个信息是解锁没召回还是被截断压没了,根本无法区分。第二,压缩再要质量不好,是压缩策略本身的问题,还是输入装配时就已经丢三落四,难以定位。第三,一旦理想尝试更保真的上下文管理方式,往往要改核心链路,成本高,风险大。 这就是为什么要升级。新版本的升级点就集中在把工作记忆管理做成可插拔的 context engine, 你 可以把它理解成上下文引擎, 它不负责把长期记忆写成什么格式,也不直接替代记忆解锁工具,而是只负责两件事,一是在 token 预算下装配出模型真正看到的上下文字。二是在预算压力下做压缩与整理,并把过程变成可观测、可替换、可审计的策略。这套引擎用生命周期把责任切开。 bootstrap 用于绘画启动时从既有记录促使化。 ingest 或 ingest bash 用于把新增消息写入引擎的存储 assemble 是 最关键的, 他拿到当前消息集合和托克预算,决定保留哪些顺序,怎样是否重写成更短的等价表达。 compact 是 压缩策略,入口输出压缩远数据, after turn, 在 每轮结束后收敛状态。你会发现这里有一个非常重要的原理,转变读写分离加预算驱动。 写录阶段,追求完整与可追溯,保留所有原始信息,不做删减,确保可审计。装配阶段,追求为推理配餐,在拓客预算的约束下,精选最相关的内容,按最优顺序排列,让模型看到最好的输入。 压缩阶段,追求把取舍显示化并可复盘。压缩不是黑箱,而是有明确策略、有记录、可追溯的透明过程。各阶段职责边界清晰,互不干扰,这就是新版本记忆架构更清晰的根源。这种设计让记忆管理真正变成了可控的工程系统。接下来我们对比新旧版本。 第一,扩展性。旧版换上下文策略要改核心流水线。新版把策略收敛到 context landing 叉槽,通过配置就能替换引擎,从改核心变成换插件,风险和回吻成本大幅下降。第二,边界更清楚。新版把 assemble 和 compact 变成标准接口,解锁装配、压缩各司其职, 排查时能明确判断问题出在哪个环节。第三,可观测性显著增强。新版在压缩前后会发出标准事件、携带消息数、 tock 估算等指标,还支持勾子回调。旧版压缩像黑箱手术,新版像有麻醉记录,术前术后指标还能接入监护仪。 第四,可控性更强。新版拔压缩后需要回填的关键段落做成可配置,还会把日期占位符替换成真实日期,避免模型训练、记忆猜测。第五,多智能体知识更强。 新版有统一网关和请求级作用欲,降低并发串化风险。最后我们用一句话总结新版本优势,旧版本的长期记忆解锁已经解决了,找得到。新版本通过 context engine 把放得进、放得对、压得稳,可追踪系统化了, 它带来的不是某个工具问强,而是记忆系统在扩展性、可观测性、可控性和多智能体一致性上的整体升级, 这才是你要强调的核心价值。记忆管理从模糊的经验积累变成了可控的工程实践。每一次压缩都有记录可查,每一次装配都有策略可依,每一次故障都有边界可定位。谢谢大家! 新版本通过 comte 三井实现了读写分离、标准接口和透明压缩,让记忆系统在扩展性、可观测性、可控性和多智能体一致性上整体升级,让记忆管理更可控、更可观测。这就是 opencl 记忆架构升级的意义。