hello, 大家好,今天跟大家分享一期非常实用的 cfui 为生产地的视频,这期视频设计的众多 skill 技能和节点都是我独家制作的,相信这期视频一定能百分之百帮助到大家,那么这期视频所有的 文件和这个工作流我都是免费分享到我的简介下方的网盘里,大家自取就好。简单来说,这期视频主要能够实现让大家以最低的配置,最少的花费,全自动化地实现我们 cfui 的 长视频。然后图片就更不用说了,呃的一个生成,那么 我刚刚提到了生产力,首先要提及这个生产力,我认为要具备解决四个痛点才能称之为生产力。第一是效率问题,不能说我半个月一年的时间来生产一套高质量的视频,这是不行的。第二是我们最关键的费用问题,我不能说我只能花大量的钱去买高配置的电脑,我要花大量的钱去买各种厂商的积分次数和调用各大 api 接口,才能够去生 产我几次的视频和图片,这也是不行的。那么第三就是我们的质量问题,我不能只有生产,没有考虑结果,这是不行的。那么第四可能难理解一点,就要容纳连续性。简单来说就是 比如大家合作过商单和企业的小伙伴应该知道甲方的需求,比如是一周让我生产一个皮卡丘视频,我要半个月才能生产出来。或者让我一周做一个模型迭代优化,我要半个月才能把它做出来,那这样市面上有更多的需求可以供甲方和供应商去迭代更新了,那肯定也是达不到我们生产线的要求了啊,说了这么多, 就是想告诉大家,真正的生产力要实现四个痛点的解决,或者至少能够尽可能的实现这些痛点的解决。好,那么正式开始我的这一期的分享,它主要分为两个部分,第一部分涉及到我们的康复员的远程操作和衔接,这里主要用到大家都应该非常清楚的,我们现在非常火的龙虾。那么第二部分就是我们的康复员的工作流程方面,我做了一个实在落地的一个针对性的优化,那么为了方便 小伙伴更加直观的感受,我先举一个大概的例子吧,啊,就是我前不久刚刚通过一个不到十二级显存的一个配置,实现了一套长视频 的生成,那么是借助在手机上利用飞书远程去控制命令,让我的 ctrl y 能够批量自动化的去生成我想要的视频进行进行修正,那么最终产生了一个一 分二十秒的一个视频,你看这一分二十秒的一个长视频,那么它是一个牛马猪从睡觉一直到被自己家虐取的一个视频短短视频动画,因为时间关系,我在这里做拖下吧,大家可以看一下。 好,那么接下来我来开始正式的这个分享啊,它主要分为两部分,我们要实现这样一套生产线的全过程。首先我们需要做的就是第一部分,我们需要一个远程的去控制我们的这个 copy y 啊,毕竟它能够按我们想要的去加载我们的工作流,批量实现我们的工作流的运行。那么第二部分就是我们要有一套真正能够落地成为生产的工作流啊。那么第一部分涉及到我们 的远程这一块,主要就用到我们目前非常熟悉的应该很多小朋友都知道的 open qq 小 魔仙,那么因为我们这期视频主要照顾的是一些普通玩家,大家消费都不会很高,配置也不会很高,时间也不会很够,我们怎么去实现它,所以我会只简单的去理解一下。 那么要使用 open qq, 首先要安装,因为现在安装视频教程特别多,并且为了防止大家踩坑,我这里只简单总结为两个方法。第一个方法就是直接在百度上搜 open qq 官网,然后你就会打开 这样的一个界面,然后点击安装这里,按他的要求依次去安装就行了。那么为了照顾到更加小白一点的同学,我就也可以推荐第二种方法,就是这种目前比较成熟一点的 ai 插件。我举个例子啊,我这不是广告,比如说啊,我这个 mini max ai 插件,它就是一个 ai 插件,你在百度上搜索名字,并把它下载下来之后,注册一个账号,它会送你一千二百积分,这都是全部免费的啊。然后你直接 到它输入这句话,让它安装就行,因为我考虑到很多小伙伴它是 windows 系统,并且它比苹果会相对安装会复杂一点,那么现在呢,我就是以 windows 系统举例, 你告诉他让他安装这个 oppo, 你 可以让他安装到 ws 里面去隔离现有的系统环境,然后告诉你安装到哪个盘都是没有任何问题的,然后在过程中依次点击,确定给他一定的权限,他就会帮你安装好。整个这个安装过程耗费应该是只要几十积分就够,所以是完全免费的,当然考虑到大家配置不一样,可能有的会耗费一百积分,但是也是完全够的,那么这会保证你非常完整的安装好的。 安装现在已经非常的简单了,那么安装完了之后,大家大概会打开一个这样的界面,有的并不是这样的界面,原因是你并不是使用的原版 oppo, 因为现在很多大厂 啊,他自己做了自己的啊, office, 比如说我们的飞书,比如说我们的各类的什么 q 叉 pro 等等啊,这个大家自行去辨别它有利有弊吧,我个人还是推荐原版的。那么安装完了之后,打开了这么一个界面,我们还并不能实现我刚刚所 展示的这一套的性能力啊。首先我们需要去建立一个,呃, workspace, workspace 简单的说就是工作空间,这里我不做详述,你也可以不建立,但是我建议你建立。建立很简单,从现在开始,大家明白一个概念,就是你当你拥有了 office 之后,你要学会利用它,你可以说帮我去重新新建一个工作空间,那么他就会帮你 新建一个工作空间。然后你可以告诉他另一个什么,可以告诉他接下来我所创建的所有的代理都在这个工作空间里啊。接下来呢,就是我刚刚说到代理问题,一定要建立一个代理, 也叫 agent, 建立完了之后适用于我们后续专门用它来帮我们学习我想要的技能,并利用技能实现我们刚刚的一系列的操作的啊,那么这个 agent 建立完了之后啊,怎么建立呢?也很简单,我刚刚提到你直接告诉龙龙,让他帮你创建一个 agent, 然后啊,就是这个让他帮你创建一个 agent, 呃,然后呃,并对他进行呃一些描述,比如说性格的描述等等的。这个在呃平台上有很多教程,我就不多说了。那么建立完了之后,比如说我这里我建立了两个呃,几个吧,几个这个呃 agent, 其中有一个叫 starcraft decision, 就是 我建立的一个呃机器人,那么建立了这个机器人之后, 你要实现远程的控制,你还需要做第二步,第二步就是我们要在我们的通讯平台上建一个跟他绑定的机器人啊,我们在这个里面把它更多的叫为 agent, 那 么在我们飞猪里面他叫机器人,当然你不用微信,这些都没有任何问题。比如说我刚刚展示的这个,就是我自己建立一个 star com com 的 这个群聊,在这个群聊里面总共有三个人,一个人是我,另外两个是机器人,这两个机器人分别 在后台绑定绑,绑定到了我在 open globe 建立的两个 agent 啊,那么我就可以实现在我的飞书的 app 手机上面去,在群聊里面去艾特他们中的任何一个啊,比如我这里艾特他们任何一个,然后来实现我对我电脑上各类命令的操作啊,比如说 我这个斯科夫决策者,我就是让他来实现我的康群安的各类啊,顶层设计的啊,那么我们把电脑飞速的机器人,并且把他拉入群聊,你也可以不拉入群聊啊,这都是可以的,那么拉入群聊之后,他可以在机器人之间进行左右互搏,并且互相学习,那么如果是私聊也是完全 ok 的。 比如说你拉入了群聊之后,像我这里拉入了两个机器人啊,拉入了两个机器人啊, 那么我就需要艾特他啊,比如说艾特的这个,这些决策者,他其实对应到的就是欧盟的这个啊, start up decision agent, 那 么我在 app 上艾特了他之后,我就可以对他进行发号施令,当然你现在去做这个,他肯定无法帮你实现,那么这就涉及到我自己整理的这个技能,所谓技能就是让机械或者让 agent 他 能够学习到你的一些特定的 能力,比如说我们刚说到实现我们这一整套自动化制程力的能力,就是我啊会在网盘里面分享出来的这个 skill 文件,大家把这几个 skill 文件啊,直接让他学习, 或者是说你在这个 open 科里面直接从这里切换到你的 agent, 比如说切换到这里啊,飞速 group 切换到这里来,然后切换完了之后啊,然后你就告诉他,请学习你把哪个 skill, 把他的 skill 文件拖到这里,然后让他学习这两个 skill, 然后重启你的 open 科啊, get 微 service, 那 么你就可以能够让你的 agent 学习到这个技能了。学习完技能之后,你就可以在这里或者是说 在这个群聊里面,这都是同步的,然后艾特他,比如说我举个例子,请帮我自动打开 auto 来,并尝试加载某个步骤流,让它批量运行多少次,并发送给我。 大家记住这个非常重要啊,那么这是第一部分,就是我们通过远程的通讯平台,比如飞书在手机上艾特我们指定的机器人,然后能够实现后端绑定到我们的 opencloud agent 上面,并且帮我们通过让他学习技能实现我们想要的一个成果。比如说我输入到这个指令,他就会自动的帮我打开这个 ctrl y 在 浏览器里面,并且自动的啊去将运行 p 四改完按,并且自动的找到我的这个工作流进行运行了啊。那么这个过程之中可能会有一个问题,也就是我这个 skill 里面实际上它做的一个浏览器自动化控制的功能啊。如果是说大家的这个 open color, 它并不一定是 版本一致的,那么一些之前的版本它可能没有集成这个浏览器插件,那么你可能要去自己去安装这个 open color pro 软件,那么这个也很简单,直接去搜索并且下载就可以了啊。这个我就不多做举例啊,只是做一个简单的提示。 那么比如说我这个运行就是完完全全啊,让远程的这个机器人告诉他,让他自动在我电脑上打开了这个 ctrl y 并且运行的,因为这个打开它会有一定的时间,所以我在这里就不做做举例了 啊。具体而言呢,我这里有一整套 ctrl y 的 工作流啊,这一套工作流是我的商业化实战工作流啊,这套工作流分了很多部分,大家看起来可能会头晕,但实际上啊,它非常的简单,并且非常的全啊,它能够实现我的批量的 短视频生成,你再把它组合起来,它就是长视频。为什么我要做这一套工作,就是因为考虑到事实上真正落地的商用的或者是交付成果的啊,这个视频绝例的啊,视频,长视频,他一定不会说我只要五秒视频或者十秒视频,很少啊,他一般会要求你一整套啊,那怎么办呢?我不管我有多高的配置, 多好的模型,它一定会涉及到抽卡,并且在过程中一定要可控。那么这套视频就是能够实现你如何从零开始到提示词的批量生成到首尾帧的控制。为什么这里会用到历史上这个可能大家不太用的这个首尾帧,因为它依然是控制我们视频的一个非常关键的功能。 那么批量生成的提示词,批量进行手手帧和尾帧图片的生成,然后再批量生成各种视频。大家可能说,那这一套视频工作流我是不是要花费很大的行程内存啊?我可以很负责任的告诉大家,这一套视频工作流能用多好,能用 多少时间,完完全全跟显存和内存不会做限制啊,也就是说你如果显存比较低,你可以选择较低的模型就没问题,然后请你抽卡,那么抽卡无非就是耗费时间,耗费时间恰恰能被第一部分所解决,也就说我可以在上班摸鱼或者是上课 摸鱼,我就能够通过手机来控制它啊,这完全不占用我们的时间,所以我们等于是以时间来换这个空帧来解决这个效率问题。当然如果你显存比较好,你可能花费的时间就比较少,以上过程全部免费。那么具体我来简单介绍一下,这套工作人员有众多节点,是我自己制作的,他最核心的, 那我都写清楚了各个步骤,最核心的几个步骤,比如说我从零开始啊,从零开始,我有一个想法,比如说我刚提到了我有我想要一只牛马猪,他展示一下他怎么从起床一直到去打工为资本家赚取利润的过程。那怎么办呢?我首先我要有这个构思,有了这个构思之后,我就可以启动这个批量生成本地提示词了。 呃模块,那么启动了所有的这个开关都在这里,启动完了之后,呃,你就可以通过呃模型这个就建立为以千万三微 l 举例啊,千万三微 l 因为它是本地的,不需要带有任何 a p i 啊。我这期视频最重要的就是让大家以最低的、最复杂的,然后最低的配置来尽可能的实现我们这个生成的一个字, 你可以忽略这一步啊,我就不多说了,那么生成本地提示之后,它就会自动生成到你的指定的这个呃文件夹下。我举个例子,我自己建了一个叫 cfton video 的 这个文件夹,那么在这个文件夹里面,它有很多违心间的各种各样的文件,比如我刚刚提到的这个 problem 就是 我们的奇字,奇字呢?你看我可以批量生成作图奇字任意数量,那么这个节点是我自己制作的,生成完了之后它是用来干什么?就是我们第一步生成的奇字词,第二步我们要引导我们的首帧图片去依次根据这些奇字来生成我们的伪真图片,对吧?并且把它保存到一个文件夹里面,那么 我们就涉及到我们这个批量生成伪真图片啊。那么呃,手提词,对于手帧图就是我们第一张图片,第一张图片生成之后呢,我们就会生成到我们的这个 e s 这个文件夹里面的手帧图里面,比如说这里啊,来生成完之后,它就这里永远都只有一张一张图片,那么接下来就是我们的伪真,它就会依次根据第一张图片去批量的调取我们本地的已经生成的这个批量的 刚刚展示的批量的提示词,来生成我们的伪真图。比如说我一个一分二十秒,或者是说我一分钟六十秒的视频,那么我配置非常低,我只能一次性跑五秒,我怎么办?我这里运行提示改成一杀一杀一个五秒啊,就是六十秒,对吧?然后跑完了之后,我就能够实现 一个长视频,我放在剪映仪一拼,他就是一个长视频了。简单逻辑是这样,那么我第一个视频生成了之后,他会在这个手针里面就运行到二十四次,之后他就会生成二十四张图片啊,刚刚 生在这个尾帧一脉之源。那么有了首帧尾帧和提示词之后,接下来我们就需要做的是我们要让他在我们指定提示词的控制下,生成我们想要的各个五秒的视频 啊,对吧?最后把它拼接起来啊,也就说这套工作的逻辑在哪里?就是我不需要很高的配置,我也能够控制好我的长视频,并且还是全自动化的,对吧?那么这个才叫真正的生成力啊。那么首先我们有了这么多首帧和尾帧图片之后,就进入到最核心的环节,就是我们的 视频生成。第五步,视频生成分为几个大模块,第一模块我简单讲一下啊,第一模块就是我们的首帧图和尾帧的加载,它这里会批量的去加载我们指定路径下的图片,其中首帧的图片每跑一次之后,它就会进行一个切换,因为我们第二个五秒是第一个五秒,第二个五秒的尾尾帧图是第一个五秒的首帧图啊,那么它就会自动的将这个首帧图进行替换,那么尾帧图它就会自动的进行保 留。如此一来,我们只需要修改键的运行 p 四,就能够 p 四调取我们的文件夹里面的首帧图和尾帧,并且生成若干个 短视频啊。那么这个我是以一个大家非常用的比较熟练的 y 二点二作为一个工作流举例,实际上呢,啊,我这里还有这个 l t 叉二点三,也就是说这一套视频为什么它是我商业时尚的工作,就是我只需要把这个模块进行更换,未来你现在生成视频可能比较好一点的模型是 l t 叉二点三,那么未来可能会有更好的模型啊,那么打印机等等我怎么办?我只需要把这一款换掉, 我就能够实现用更好的模型生成更好的视频效果啊,那么这一套流程生成完了之后,我就会生成若干个视频在指定的文件夹里面,最后我把它拼起来,当然你也可以 一次性把它拼起来,但是我为了照顾到一些低性能的小伙伴,我认为还是进行批量比较好。最核心的一点,通过我大家可能也都非常清楚,事实上真正实战的真正商用的它一定不是完完全全自动化,不是因为技术上实现不了,而是因为模型上实现不了,因为现在就算是非常市面上已经公开的啊,比如说 cd 这种,都没有办法去完全保证你一个非常长的一个视频的一贯生成, 大家要清楚这一点,所以说真正使用的实战的工作流,他一定是可释化过程的,或者是能够批量解释的,所以才有了这些文件夹的意义啊。也就是说我在这个里面,一旦我在某一个图片上出现了问题之后,我能及时去进行修正啊,这是非常有必要的,我就不需要再重头跑一遍了啊,或者我去剪辑有没有意义,对吧?所以说 这是他实在的意义和目的在哪?其次我刚刚提到的他具备朴实性啊,就是说我模型更新了怎么办?我的工作就用不了了吗?当然不是,你只要把下一个新模型的工作流换到这里来,逻辑还是一样的,他永远能够帮你生成长视频啊。 那图片我就不觉得因为图片就会比这个简单的很多啊,因为它本质上我这一次的教学主要还是帮助大家能够理解这个逻辑,以后大家借助这个逻辑可以去生成任意的工作流,都是没有任何问题的 啊。那么这这期视频主要解决了几个问题,第一就是我们的效率问题啊,这个主要是利用了 oppo 的 名称自动化,因为我知道大家很多人啊,都是并不是主业是做这个的,但是又想去接触他,我平时在上班,在上课,怎么办?我就用我的时间 来换取我的这个呃,空间,就是我能够远程的去操纵它。那么第二个呢,就是我的费用问题,我刚才已经说的很明确了,就是不到十六 g 的 显存 它都能够去实现这个东西啊,因为本质上 open core 其实并不需要多少内存啊,主要就是 ctrl i, ctrl i 里面的这些模型的选举,你大可以根据你的内存去换啊。那有人可能会提及到这些模型如果换换的比较劣质一点的效果不太好, 但是没有关系,因为我们这是因为有第一部分的远程自动化的存在而可以弥补这棵树,因为我有时间去试,我平时我不需要自己在电脑上啊。那么这就是 open globe 结合进来的意义,那么 open globe 加 ctrl y 本质上它并不复杂啊。但是 我刚刚提到的第三点就是如何以最低的费用来衡量,因为现在很多 open globe 加 ctrl y, 它可能是要借助 api, 它可能是要去调用其他第三方平台,我们就会涉及到一个费用问题啊。那么第四点痛点就是它的这个延续性问题, 我刚才也说的很明确啊,因为这套工作流它是实打实可替换的,只要模型更新你就可以换就可以了,你就把这个工作流换一下就可以了,根本不需要去做非常大的调整,因为本质的逻辑还是一样的,那么就基本上解决了我们四个痛点,而成为了我们真正的竞争力 啊。那么说了这么多,可能表述也没有特别清楚,如果大家在过程中遇到各种各样的问题,可以在评论区互相讨论啊,那我这里简单举几个在过程中可能会遇到的问题啊。呃,大部分我是给大家解决了的,但一定是会可能会有其他的问题的,比如说我们按照这个 skill 之后,它并没有完完全全实现我们的这个批量自动化运行,这个时候 请大家自己学会利用 open call 去问他,我这个 style 为什么没有实现,这一点他大概率能够帮你解决,因为我的 style 已经相对来说非常成熟了,如果遇到了问题,那大概率可能是大家确实在浏览器或者是说在系统环境上会有个别差异,或者你之前安装了 open call, 或者你的调用做了一些偏差, 那没有关系,那一定要学会自己去解决这种问题。那么第二个就是我们的费用问题,我刚刚这期视频的所有的 skill 和包括我展示的都是基于一个非常小白,非常低配置,非常没有时间的一个市场来做的一期视频。如果你有更好的配置,或者是说你的模型,比如说你的模型只有 mini max, 只能用国内的 mini max 来顶其这种或者更 更拉一点的模型,那么你可能就会涉及到很多很复杂的东西,所以我的 skill 并不是只有一个,不是举例没有换成一个 skill 就 照顾到这个逻辑模型,有些小伙伴并不是很好,他可能一下就会触及到他的上限,我就崩掉了,大家也不知道怎么处理,所以我这里尽可能的去规避了这些问题。然后 最后我也是想说,就是不管 ai 发展成什么样,未来呢肯定是更加便捷化,更加自动化,但是我也希望大家能够 在拥抱 ai 的 时候,能多回归一下现实,能多去跟大家进行一些真实的社交交互,或者是聆听一下自己内心最真实的一些想法,可能就会成为我们以后 ai 社会里面反而最缺失的部分。好,这期视频就分享到这里,谢谢大家。
粉丝5获赞16

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

新手想玩 openclo, 到底选哪个平台的小龙虾最合适?怕买贵又担心不会安装?今天一分钟就给你讲明白,记得先收藏起来。先给纯小白科普一下, openclo 本身是免费的,咱们花钱呀买的其实是平台的一个服务器,还有模型的使用权, 不用自己折腾本地部署和对接 a p i 那 重点来了,六家主流平台对比,我将从收费模式、价格、安装难度等维度来帮你筛选出最合适你的 openclo。 首先是腾讯云和阿里云的 openclo, 它们采用的是服务器加模型收费的模式,优点是便宜,这里推荐阿里云的 openclo, 只需要十八块钱就能够拥有一只自己的小龙虾,但缺点是需要折腾两次付费流程。而且考虑到很多人连服务器是什么都没有搞明白,非技术人员呢,就可以直接 pass 掉这两种了。直接看下面四种就好了。 kimi clo 先排除, 因为它太贵了,且不说功能和其他几家相比起来大差不差,光订个会员就需要一百九十九块钱,直接就是一个劝退了。从价格上来讲,我更推荐火山引擎,它有九块九体验七天的一个套餐,别看时间只有七天,我 敢打赌百分之九十的人呢,在装了 oppo nano 不 到七天就会放弃了,如果是想尝鲜的话,这是一个不错的选择。最后是扣子跟 mini max, 也是我最推荐的两个, 质量其实差不多,一个四十九块钱,一个三十九块钱, mini max 会更便宜一些,但扣子的生态更完善。这里有很多大神已经做好的 skill 呢,可以给 openclaw 来调用,大家可以根据自己的需要来进行选择。这六个主流平台的 openclaw 安装指南,我也整理了一份完整的文档,点个关注轻松获得。

一分钟教会你部署最近大火的 open claw。 本期视频要说的方法是本地部署,可以直接把 open claw 部署到本地,并且可以使用千万的免费模型,无需担心出现 token 消耗过多的情况,可以说是最经济的部署方法了。话不多说,我们直接开始操作。 首先我们打开带有部署工具的齐油加速器,先点击右上角小方块,找到口令入口,输入口令领会员,然后搜索 openclaw 一 键部署。找到后点击右边的一键部署工具,选择好安装路径和工作路径,然后直接进行一键部署即可。 接着只需要等待十分钟左右, openclaw 就 会自动部署完成了。部署完成后,我们配置一下自己需要的模型,点击开启极速配置即可。配置完成后刷新状态,如果状态是健康,就代表配置完成了。接着我们需要接入大模型千问,点击右边的这个授权, 等待千问授权后登录自己的账号,授权成功后,点击开始对话,就可以和 openclaw 进行对话了。本期视频到此视频我们说说怎么给你的 openclaw 添加技能。

好多人说安装这个龙虾很麻烦,不知道怎么安装,其实这个龙虾安装不麻烦的,它主要在网上,它分有两种形式吗?第一种就是一键部署,也就是说你可能要给一些费用,然后呢你在那个浏览页里面直接下载,然后呢一键部署到电脑上,这种呢它是 便捷版的,他这种也是要收一点费用。然后呢第二种那种呃呃不需要费用的那一种,呃布置在电脑上的那一种是需要魔法的,也就是说你们该懂什么魔法,他才能说在呃 稳地上来运行。然后第三种很多人说那我用国内的呃布置,其实布置这些都很简单,相当于就是说 你把这个龙呃龙虾复制到电脑上很简单,但是他其实什么都不懂的,但是你想让他懂事,一个让他能调用这些大模型,他是需要收费的,一个他需要消耗那个 top, 消耗那个 top 的 话对不对? 那你就是需要去用大模型,比如说豆包的 dsp 的 对不对?还有千万的对不对?等等这些,那你用这些你也是需要,你也是需要呃一些费用的。那 可以建议大家可以说去选什么阿里云啊,这些东西千万,阿里云千万嘛,对不对?大家可以去选一个,然后呢布置。但是现在其实我也懂,大家不想花钱,就想来玩一下这个小龙虾到底是怎么样,其实也很简单,我给大家看我电脑实操一下,大家看我的电脑这个, 对,我这个也是龙虾的,但是他可能说没有说呃没有调,没有没有教学过他什么,但是呢我这个他是有什么呢?第一个他是有起码有 三千万的,那个不肯,也就是那个使用的这个,这个叫什么呢?也就说你们可以在这里看这个叫国家超预算互联网曙光智慧的这个对,你们可以点进去,然后这里会有这里就会有,你们可以自己用, 对不对?他这里都有,你们可以在上面,这里对不对?在上面来选,而且重点还有什么呢?你们看 我这里起码有个十百千万,十万,百万,千万,也就说他送三千万的图腾对不对?可以用,而且你看我请求量,我已经花了多少个十百千万,十万百万,最少花费了三百万,但是呢我请求总共请求了一百二十八次,但是呢这里你看我还有那么多, 现在他这个是免费的,你们可以拿来玩,所以说前期大家可以说先不花钱的,可以不用花钱,我也是在网上看一个博主,他呃教小白这么使用这些,我也我也 自己去尝试了,还挺不错。这你们想玩龙虾的可以先尝试用这个来玩先可以说先不用付费对不对?如果说你们真的想在 本地部署啊,这种你们可以说去搞个大模型来对不对?如果说你们觉得部署在电脑上不好,那你们可以说是去买个云服务器,阿里云、腾讯云这些都可以用的,买一个低配版的就就可以了, 直接步骤并不难的,不需要去给任何人付费,一定不要给任何人付费,网上就有那些博主分享,大家一定要多去看,多学习,干就完,兄弟们。

如何本地部署 openclog? 无需付费,无需 api, 可调用多种大模型,适合想尝试但是分币不花的同学。今天嘴对嘴教会你,记得一键三连鼓励一下。第一步,环境准备,我们先来安装 get, 点击电脑开始菜单,这边输入 powershell, 然后右击以管理员身份打开,输入上面这一段代码,注意空格,然后按下确认键,等待安装即可。这边已经提示我们安装成功了。第二步,安装 elama, 进入欧拉玛官网,点击右上角的下载,这边有三个系统版本可供选择,大家根据自己的系统自行选择,然后复制上面这段代码,打开之前的 power shell, 把刚才的这段话复制进去,等待下载安装 已经提示安装成功了,我们点击开始菜单,找到刚才安装的欧拉玛,打开欧莱曼以后,我们发现这边有很多模型可供选择,我们也可以自行选择模型,比如我选择最近刚发布的千问三点五模型。第三步,安装模型, 大家根据自己的配置找到合适的参数进行下载,复制上面这一段代码,然后点击开始菜单,输入 cmd, 把刚才复制的代码复制进去,等待下载安装即可。 由于模型比较大,大家需要耐心等待,我这边直接跳过了,我们显示已经安装成功了,我这边输入你是谁,他会跳出思考过程,然后说我是通一千问系列最新的模型。接下来我们回到奥拉玛,点击左上角的设置菜单,打开 expose alama to the network 这个选项, 然后往下拉,找到 context list 这个选项,把上下文长度设置六十四 k 到一百二十八 k 之间,如果你显存高,可以调高。第四步,安装 openclaw, 我们进入 openclaw 官网复制上面这段代码,记得不要看错了,它有 mac os 版本的。然后重新打开 powershell, 把刚才复制的代码复制进去,跟之前一样等待安装即可。这边显示已经安装,我们点击允许我们输入 alama launch openclaw, 然后点击确认键。 接下来可以通过 tab 键来选择你想要的模型,因为之前我们下载了快三点五模型,所以我们直接选择这个。安装好以后,我们复制上面这个链接到浏览器打开即可。 看到这里就恭喜你成功安装了 openclaw, 下一期我会教大家如何链接 qq, 实现全自动工作,小伙伴们别忘记点波关注哦,咱们下期再见!

挑战全网最快最简单 open globe 本地部署!朋友们,你们一定在互联网上看到过很多 ai 的 博主,还有一些 up 主,教我们大家怎么去部署安装包,但是他们的视频动辄十几分钟,二十分钟, 还有一些那些代码我们根本就看不清楚,我们小白怎么才能够快速又简单的安装这个东西呢?朋友们,今天我来挑战一下啊, 市面上大多数的这个安装的部署大概可能都是这样的啊,然后呢,开始教大家啊,怎么去部署啊,还要大家写什么代码,我们新手小白,我们怎么去能弄懂这些东西是什么意思呢?还要去配置,这也太难了吧,朋友们,所以 看好了啊,我今天所教大家的最简单的方式是什么?首先啊,把这个东西复制一下,这是第一步啊,只需要三步,第一步,复制一下,第二步,打开这个啊, 然后把它给粘贴上去好了,这是第二步。第三步,点击,点击,点击点三下,等它下载完成。 看好了啊,朋友们,我让你们看看什么是最简单的,一个能打的都没有啊, 好,好了是吧?来,先点下面这个清理一下, 然后点击中间这个,就哪怕你不会编程,咱不需要啊,不会编程你也你也会,然后你要预览一下你要把它装到哪里,我这里是提前建好了一个这个文档,然后我就把它装到这个文档里面 安装,如果你的电脑没有安装成功,那么你就再安装一遍就行了。好,就这么简单,朋友们,想要的朋友们点上关注评论区评论简单两个字。

呃,大家好,今天给大家带来的是在 windows 上可以直接部署的一个无线拓客版的 open curl, 大家也可以看到这是我当前的一个拓客消耗的一个使用情况,基本是没有花钱的。然后这边其实也是前天就已经部署好了,最近部署好在用了,但可能 工作上比较忙,所以没有时间去更新旧使用工具以及去做那个教程的更新。 这边的话我先会先讲一下环境的一个要求,就或者硬件要求的一个情况啊,以及会讲一下那个啊将架构是怎么去实现的。 最后的话可能会讲一下啊,参数里面就这边是使用多款去部署的参数的一些啊,配置是如何去配置的?首先说一下那个环境的要求和那个硬件的要求,在使用那个本地部署的话,其实 如何做到那个无限拓展,其实就是用本地的那个显卡去做那个大模型的一个部署。嗯,本地模型呢,我这边是用的啊,千万的那个三点五九币的一个模型,然后使用的话是使用罗马的一个框架去做一个这个模型的部署。 嗯,这个模型的话是需要那个四点五到六 g 的 一个显存,所以这边建议是需要八 g 以上的一个显存的一个显卡才能去做到一个使用 啊,这边本地部署了是用那个啊 windows 去做部署的 v 十一去部署啊。其次给大家讲一下这个方案的架构是怎么实现的,因为 open core 它其实本身与 我们的 china 就是 频道去做那个通信的话,其实是依赖于公网的一个端口 webshop 的 这个协议端口来去实现的,所以本身是需要有那个公网的一个能力,这边在本地的公网的话,是通过去购买了一个阿里云的服务端, 呃,清江应用服务器部署了一个 mps 的 一个服务端来实现公网的一个端口转发,然后,呃将我们 windows 机器的一个端口进行 open code 这个幺八七八九的端口进行转发。 呃,首先的话就这边也大概说一下,就是本地都可部署了三个服务,对应的话就是这个是用做端口连接服务端并做端口转发以及转访问到对应的那个 open curl 的 一个 getaway 容器, 以及这边部署了一个参数的一个搜索引擎,用做 open curl 的 去做搜索,默认搜索不用那个,呃,默认的那个搜索引擎,因为那个还需要那个 api k 以及它也有每月的一个调用次数的一个上限。 呃,这边的话,呃对应的话是欧朗玛的话是部署到那个宿主机,也就是 windows 当前环境下去实现的。呃,可以大家可以在这边叫 这种方式直接去部署实现的,然后,嗯,这边端口是要改一下的,然后一会也会给大家看一下,就这边其实也对应你需要将那个环境变量去做一下修改,因为需要去实现跨域的一个访问配置, 这个的话是通过环境变量这边的话有一个叫欧拉玛的一个参数, 允许跨域的一个配置以及那个 host 的 绑定, host 需要修改一下,然后它才能对应去啊,让那个 open curl get away 去直接能访问到 啊。最后呢就给大家说一下整个方案中关于那个参数的一些配置以及需要注意的点吧,像简单的那个啊应用的安装我这边就不做介绍,像多壳的这些安装,大家选到 对应的进入官网,进入对应选对应的版本,直接下载,然后点点点的方式去安装就可以了。这饿了吗的话是也是通过那个 pro shop 直接用命令安装也行,通过那个下载那个离线包 安装包的方式来进行。点点点你是一路往下点就行了,用默认配置不需要去做外的一个配置。然后像那个注意一下,就是刚刚说的需要改一下那个 roma 的 那个监听端,监听地址加和端口,监端口可能不用变,就主要是监听地址要改成零点,零点零去 监听所有的那个地址以及的话啊,大家需要一个轻量应用服务器,这个的话就不局限于说阿里云,就各个厂商的都可以,大家自己看下哪个便宜点就可以,自己去购买就行了。主要用做部署那个 n p s 的 一个服务,这个服务的话,嗯 啊,这边也有对应的一个啊,文档说明就使用文档,这个是开源的,就大家可以用其他的软件去实现,也可以,就反正链路流程是通的啊。这边最后的话就给大家说一下整个配置啊,我这边打开一下, 就首先啊多个 compose 的 一个配置,是当前是这样子的一个配置,然后目录的话,我这边是分了三个一个目录啊,对应的话是这样子,首先第一个就 opencode 的 这个服务, 这个的话我们这边做端口映设,这个端口需要跟自己的那个启动命令对得上,启动命令的话是在这里面就这个多个 file, 这里面啊这个端口跟这个端口对应上就行了。 然后以及呃这边的话,大家新进一个 open color data 的 一个目录去保存,就做那个呃映设目录映设,然后以及方便本地去做直接修改。比如说这边当前的一些配置,可以直接那个在本地就直接去修改实现, 到时候直接重启一下容器,就能实现配置上的一些更新。然后这边的话以及第二个服务,就 npc 就客户端连接那个清凉饮用服务器用于转发端口的一个配置。这个的话,呃我我把这个包也直接放上来了,然后通过它让它直接实现多个 friend, 里面直接实现自己复制解压以及对应的安装执行去实现那个呃自动启动 以及打印日期。这个的话需要大家填一下,自己填一下这个啊,那个 k 跟搜物端口,这个的话大家参考这个在服务端去做配置就可以了。这边是 web 端管理里面 进入相应的 web 服务器里面可以去做那个查看到对应的那个 vk 以及搜我 ip 加端口,这个搜搜我的 ip 一 般就是你对应的尽量应用服务器的一个公网 ip, 这个大家自己根据自己的去做配置就可以了。 然后以及这边的话,呃这个这个是不需要去做任何修改的这个插入的一个配置, 然后这边的话,呃或者这个如果大家有需要的,可以那个关注我,那个我给大家新建一个,提供一个我们当前我当前在用的就尽量拥有服务器啊,在资源没达到上限啊,就我贷款没到上线之前应该大家都可以自己先用着,没什么关系, 先跑着用,然后这边的话整体的方案就这样子,其他基本没有什么特别需要注意的。

哈喽哈喽,我是大海,很高兴又和大家见面了,昨天呢,大海给大家录制了一个教程,就是在我们本地的这个电脑上去安装我们本地的大模型欧拉玛啊,然后呢再去用我们的虚拟机安装一个 open close, 然后实现我们完全本地化养虾的一个全过程,对吧?不需要偷啃,也不需要花钱, 但是呢,很多朋友反映说这个安装过程还是比较复杂,尤其是安装虚拟机和后面半段,这个安装 open close 啊就云里雾里了,最后可能还是安装不好,那么今天呢,大海就给大家来一个更快速的方法,大海直接把自己的这个 ym 虚拟机昨天安装好的这一套打包成一个压缩包,大家下载下来一解压就能用了,对吧? 当然这个 openclo 这个本地大模型还是要需要大家自己去安装一下,根据自己的实际需求和你的电脑的配置,然后去安装一个属于自己的模型,那么下面这个 openclo 的 安装大家可以直接一步带过了,对吧?我们来看一下今天这个 教程啊,首先呢我们就要安装一个虚拟机,然后呢把这个大海的虚拟机压缩包打开,修改一点点内容,然后咱们直接就给他访问,非常的方便。那首先第一步我们来安装一个 vm 虚拟机啊,这一步如果说已经做了的朋友,你就跳过这一步,直接看第二步,对吧? 大海这里呢去安装一个啊,没有下载的同学呢,你就去这里下载一个,直接去安装这个 vm 虚拟机,它是向下兼容的,如果大家想使用我今天打包的这个程序,你必须版本至少要高于我昨天是十七点六点四,所以大家这个版本至少也是十七点六点四,不够的你就去升级到这个版本, 点击下一步接受下一步。这个地方呢,安装的时候我们自动安装这个对应的程序啊,以保证我们能使用。 然后呢什么什么我们下一步,对吧?其实就是一直下一步就行了,然后我们直接下一步,下一步 安装好,这里已经安装好了,我们点击完成。然后呢我们就开启我们的这个 v m v 二迅疾,开启了之后呢,大家这个地方不要新建,也不要这个打开,对吧?把大海打包的这个迅疾给它下载下来啊,我给大家提供了网盘链接,随便选一个进去下载好, 然后这个下载出来的安装包就是长这个样子,一个无邦图六十四位的 vip 压缩包。然后呢你就自己找自己的固态硬盘,比如说我,那这个盘是固态硬盘的吧?我我新建一个文件夹进去, 我这个压缩包呢,打包是两 g, 解压后是五 g, 所以 说大家最少最少你的那个固态硬盘上要留十 g 到二十 g, 对 吧?去给它用来运行,如果说你想很好的体验的话,至少也得五十 g 左右啊, 这个地方我们直接去给它放进去,放进去之后我们直接给它解压缩,全部解压缩就可以啊,好,解压缩好之后呢,我们就可以直接从我们的这个虚拟机里头去打开虚拟机,找到你刚才解压缩的这个文件夹, 然后呢里头会有一个六十四位文件,我们直接打开它,好,然后你就打开了这个虚拟机,点击虚拟机,然后给它设置,主要是看看大海设置这个四核八 g 你 能不能带动啊?你的电脑的硬件配置比四核八 g 低,你就 把它改的小一点啊,不然太大那个开启不了。接下来就是这个选项,这里呢,我们选到高级,看看他有没有起用这个侧通道缓解的禁用啊,一定要把这个地方勾上好,这个地方勾完成之后,我们就可以直接开启我们的迅疾啊,这个地方弹出了我已移动或者我已复制,你就随便选一个,我选择我已复制。 好,这里我们就已经登录了,对吧?登录名是无邦图,登录的密码是大海增援网,无邦图 密码是大海资源网啊,好,然后这就登录了,对吧?登录了之后呢,我们要去远程连接一下,不然这样操作太麻烦了,你点击上面的虚拟机 s s h, 我 们去连接到 用户名呢,我们还是无绑图。然后呢,我们直接选择连接,然后这里呢?连接的时候他问你 yes no, 你 就 yes, 对 吧? 然后呢, password, 就是 大海资源网,对吧?盲书就可以。好,我们就进入了我对应的这个地方啊,大家进来之后呢,就是如果你要去试用一下,那没问题,如果说你试用了之后感觉不错,你准备长期用的话,大家一定要把自己这个乌帮图系统的那个密码改一下, 这个改密码的命令就是这个搜索 password, 呃,乌帮图,这是改这个乌帮图登录用户 的这个,嗯,登录密码,然后你速度 password, 就是 后头不加用户,不加误绑图,那他改的是这个 root 权限的密码,然后这两个密码都应该改一下,因为这个大海的视频暴露在公网上的,你将来要长期使用你这个密码,别人能访问到啊,这,这不太好,大家还是要去改这个密码的哦,密码现在都是大海资源网。这原程连接了之后呢,咱们就可以把这个地方关掉了,把虚拟机关掉,我们 点击叉,然后让他在后台运行,因为这里我们远程连接了吗?就可以直接去操纵他,然后呢我们去输这个 ipaddr 啊,看一下他的本机地址是多少,右键粘贴进去,回车, 然后呢找到这个 e n s 三三,然后下面有一个 int, 对 吧?然后你看这个地址和昨天不一样了,昨天是呃, 幺六零幺二八,我今天变成了幺九二幺六八二四七幺二八,对吧?你要记住这个地方是二四七幺二八,把后半段记住,一会咱们会用到。好,知道这个之后呢,我们接下来就 s s h 转发小龙虾,对吧?我们直接在这里去给他搜索 powershell 啊,找到这个 powershell, 然后我们去打开,然后呢 powershell 里头就是用这条命令,对吧?把它复制一下这个地方,我们右键粘贴进去,然后呢把最后这个改一下,对吧?这是二四七点幺二八啊, 回车,然后输入一下你改好的登录密码,我这里还是大海资源网,对吧?回车,好,然后你就转发成功了,然后我们就可以直接通过这个下面这个幺八七八九这个带这个的去登录了啊,我们直接在这个浏览器就去 黏贴,然后他就访问了,对吧?访问了之后呢,我们就用我给你的这个登录 token 密码给他 连接好,就登录了,就和大海昨天就长的一模一样了,对吧?当然现在有一个很很大的问题,是什么呢?就是现在咱们这个连接是连接上了,对话不了,因为你这个电脑上还没有欧拉玛大模型,而且即使你有欧拉玛大模型,你这个连接这个地方也不对,对吧? 啊?我说你好,他开始一只猩猩转圈圈了,对吧?很多朋友都是这个问题,所以说呢,咱们还得给大家演示一下这个欧拉玛的问题啊。 那么今天呢,大海是给大家做一个快速演示,如果你想详细的了解欧拉玛的安装和具体如何去选择配置和模型,去看大海昨天的教程,非常的详细啊,非常详细,讲了大概十五分钟,欧拉玛 好,这个地方我们直接去安装,然后呢,如果说不会的朋友,你就去参考我昨天的这个文档教程啊,就是这一篇,这一篇开开篇就是安装欧拉玛啊,好,然后呢,弹出这个,我们直接 install 欧拉玛的这个下载地址,如果说大家下载慢的话,在昨天的这个文档里, 他有对应的这个网盘分流链接,大家去我的网盘里下载,速度会快一点啊,奥拉玛的官网呢?我们这里要访问一下,一会要下载一个模型,我今天呢就选一个小一点的模型,为了给大家演示嘛,对吧?咱们看千分三点五最小的模型是多大? 千分三点五最小的模型是零点八 b, 二 b, 四 b, 咱们就来个零点八 b 的, 对吧?最小的这个只要一 g 嘛。这个模型,然后呢这个复制上, 今天是为了演示,快啊你,你实际上零点八 b 在 电脑端根本没法用,零点八 b 这种模型是给手机准备的,是给移动端准备 各种小设备。安装好了之后呢,咱们先不管他,根据咱们昨天的教程,还要给他去配置一个全局的系统变量啊,我们直接在这个 windows 里这里搜索系统变量,然后呢编辑系统环境变量,打开这个窗口,点击环境变量,然后去下面系统变量里头点击新建,然后呢把咱们这个欧拉玛 host 给它复制进去, 然后呢变量值复制,我这个幺幺四三四啊,大家都是同样的粘贴,然后呢直接点击确定就行了。这个地方我们点击确定修改了这个环境变量之后呢,我们要重启一下欧拉玛啊,把这个欧拉玛在这里去啊,去给它退出, 然后呢我们再重新把这个安装的欧莱玛去给它打开好,然后接下来呢,我们是要找到这个 windows 真机 ip, 我 们从这里呢搜索一个 cmd, 在 这个界面下呢,我们去给它输入一个 ip config, 也是在这里复制就行了, 复制,然后在这里去粘贴,回车找到这个 vm。 net 八下的 ip 为四地址啊,今天你看我变了,变成幺九二幺六八二四七点一啊, 把这个 ip 地址给它复制出来,在浏览器里头黏贴,然后呢去给他后头加个英文的冒号,加上欧拉玛的端口。幺幺四三四, 回车允许啊,这个地方呢就可以看到我们访问对应的地址,幺幺四三四,欧拉玛 is running, 对 吧?能看到这个就说明行了。然后接下来呢,我们就是去给我们的 open close 把我们的欧拉玛弄上去,这个欧拉玛还没有安装咱们对应的这个大模型,对吧?咱们刚才复制的大模型 在这里啊,咱们把这个重新复制一下,然后呢在这个里头我们右键回车,然后让欧拉玛去拉取对应的前文三点五的镜像啊,整好了咱们可以在这个窗口里试一下啊,你好 好,前文三点五啊,这次不不错,虽然是零点八 b 啊,但是他还能回答,行,然后我们把这个地方关掉就行了, 这个欧拉玛已经安装好了,然后就是看我们的教程,对吧?现在我们这都已经搞定了,然后最后就来到了最后一步了,欧拉玛的模型也准备好了,我们就来到这把这个网关和模型重新配置一下啊,这里复制 啊,在这里呢,我们去右键粘贴进去,然后去回车,然后这里呢?首先我们是 yes, 对 吧?然后呢?呃,我们来,呃,这个快速开始, 然后呢我们去升级数据,就是选择第二个,然后这个地方我们的欧拉玛我们去,呃,选到欧拉玛回车,然后呢你看这个地方,这个地址就不对,对吧?这个地址我们要用哪个呢?幺九二点,幺六八点, 呃,二四七点,幺幺幺四三四,就是用这个地址啊,把这个复制一下, 这个地方右键粘贴进去,然后给他回车,这个地方他让你选是本地还是云端家本地,大家一定要选云端家本地,因为你一选本地,他就开始给你拉取那个超大的模型啊,这个肯定是不行的, 那么想要设置这个云端家本地,你欧拉玛就得登录云端账户才可以啊,没有欧拉玛账户的同学呢,你就在这里你去注册一个啊,大家最好是用啊,比如说 altlook 邮箱,就是微软的啊,比如说这里我就用一个 altlook 邮箱啊,然后呢它会让你创建密码,然后呢它就会给你的这个 邮箱里头去发一个验证码。好,然后呢还需要一个手机号,我这个地方呢用我国内的手机号啊,咱们国内手机号前头就是加八六,好也正常收到了, 这样我就注册好了欧拉玛的账户,然后就能登录了啊,你就拿你的这个欧拉玛,把欧拉玛界面打开,然后呢你会看到这里可以找到你刚安装好的模型,我这是千万三点五零点八币啊,刚安装好的,然后呢你点击左上角这个 呃 city, 然后呢点击这个登录,然后它会跳转到你的网站账户,你直接点击 connect 连接 好,这个时候你这个奥拉玛账户你就登录上,而且呢登录这个账户有一个好处,就是云端大模型能免费用啊,只不过它每个月每一天都有限额,那么具体限额的消消耗量什么的,大家去看昨天的视频啊,我们这里就可以选择了,在这里我们选择 云端加上本地的大模型,然后这里呢我们就可以找到我们本地的模型,比如说这里可以找到我们欧拉玛三点五零点八 b, 就是 咱们刚刚安装的,我们直接回正,然后呢剩下的这些内容咱们就不需要,对吧? 全部都是稍后再设置,这个地方设置我不需要,然后呢空格不需要 网关,咱不需要的网关咱们已经登录了,这个地方我们直接退出,然后呢也是等一会再设置好这个地方我们就搞定了,对吧?搞定了之后呢,我们把这里我们重新去给他刷新一下,然后模型这里呢我们就可以选择我们刚刚安装的千问三点五零点八 b, 对 吧? 好,然后我们来尝试的和他对话,你好,这个地方你会卡住对不对?那你当你这个地方卡住的时候,你就先切换一个其他模型,先给他刷新,对吧?先给他切换一个云端模型啊,这里,比如说我给他切换一个这个, 哎,啊,来了来了,稍微等待了一下,你好,我是你的 ai 助手,然后千分三点五零点八币,对吧?没问题,这个地方呢我们就已经完成了我们的快速配置,只要大家把这些包什么的安装包下载好,那么大家也能像大海一样在十几分钟的时间内呢,把我们这个大模型配置好,直接本地用起来, 好吧,那么大家注意使用的时候呢,要注意去修改自己各个地方配置的那个密码,不管是系统登录密码还是 open clone 登录密码相关的这些具体的设置呢,大家可以返回去看我昨天的视频,好吧,那么咱们今天视频就到这里结束,我们下期视频再见,拜拜。拜拜。

最近 a h r open klo 这个小龙虾实在太火了,付费上门安装的服务都被炒到了五百元一次。某大厂办了一个线下免费安装的活动,排的队比老年人领鸡蛋还长。那今天这个视频教你如何一分钟部署 open klo, 视频结尾我还会演示几个硬核的用法,教你如何压榨这 只龙虾。那开着前先给大家提个醒,网上很多教程都教大家本地部署,但是如果你没有一个备用电脑的话,就不建议尝试本地部署, 因为 oppo 壳到需要的权限实在太高了,如果你在有重要文件的主力电脑上去跑,一旦出错,后果就很严重。上个月 mate 的 高管被龙虾删了大量的工作邮件,这就是个惨痛的例子。当然这也是为什么最近苹果的 mate mini 被买断货的原因。 所以本视频我们用的是云端部署方案。限阶段龙虾能无缝接入 telegram、 discord、 whatsapp、 飞书、企微等平台。国外用户接入 t g 的 比较多,但如果你人在国内,又不想折腾网络的话,飞书是目前国内玩龙虾好的选择。它们家的生态非常齐全,前两天发布了官方版的 open 格式插件, 接住龙虾后的操作特别丝滑。那废话不多说,我们正式开始。首先打开飞书,直接搜索 open class, 选择这个妙搭,然后点击一键部署 open class, 这里你需要给你的龙虾起个名字,并且给他选一个形象, 然后点击创建按钮,他就开始部署了。大概等了一分钟左右,他就给你部署好了。选择这个立即对话, 在输入框里跟他发送,获取所有权限,点击授权, ok, 这一下就大功告成。现在你就拥有了一只属于自己的龙虾,并且不需要网上那些复杂的配置,你就可以直接在飞书上去指挥他干活。 这个部署真的对小白用户来说特别友好,啥也不用管,一分钟就搞定。当然,如果你之前已经在各大厂的云平台上面买过服务器的话,直接部署好也可以接近飞书来一样能用。 具体结构教程我写到文档里,大家感兴趣视频接本自取。那接下来我们开始压榨龙虾,看看在工作中到底可以怎么样使用。 open class 案例一,私人秘书日常工作中最简单的用法就是让他去充当你的私人秘书。你可以让他帮你创建代办事项和日程,或者帮你预约会议, 又或者让他每天给你发送行业日报,了解最新的资讯。不光如此, overclock 还能跟飞度上的各种办公软件结合。比如在日常工作中,你写了一份文档,然后你的同事和领导在文档上添加了各种批注。现在你可以直接让他动手帮你修改文档。 不光文档可以用,表格的工作也可以处理。比如你让他去做一个市场调研,我给他发这一串指令,等他干完活以后会发消息提醒你点开他消息里面的链接。刚才我们要的所有数据,他都整理好了,登记在周围表格里,这个玩法用来监控或者爬取数据都特别方便。 那这说句节外话哈,虽然现在龙虾的热度很高,但我不会无脑去吹。坦白来讲, open klo 目前执行任务也会出错,比如这个任务,我在测试的时候他就失败过两次,但我让他自己想办法解决,过了一会他改一改就跑通了。所以在执行任务中遇到报错或者无法解决的问题,不要慌, ai 时代,我们要学会用 ai 去解决问题。 这个案例是我觉得最实用的。写日报估计是所有打工人都讨厌的工作内容。在过去的一年里边,有不少 ai 工具都号称自己能写日报。但如果你用过那些工具,你就会发现,想让他写个日报,你需要先把今天的工作事项、文档等数据喂给 ai, 他 才能帮你总结。 讲实话,如果我愿意把今天干的活自己去梳理一遍,为啥还要多余让 ai 去总结?所以市面上很多 ai 工具都有点华而不实。但如果你的公司是在非书上办公的话,现在可以让龙虾帮你写日报,直接跟他说,给我生成今天的工作日报,它就能获得你所有的文档、日程,还有聊天里边的数据 看,不仅能看出我今天创建的几个文档,甚至连今天装龙虾做了七十五个系统授权,也总结出来了,跟市面上那些需要自己未数据写日报的 ai 工具比,这才是真正能落地的生产力。 视频最后聊一下我个人对龙虾的看法。在深度养虾一个月以后,我觉得这波 open klo 热潮最大的赢家有两个,第一个毫无疑问是苹果公司 mac mini 的 销量直接被带起飞, 另一个就是那些在用飞书这样的软件办公的企业。因为接触龙虾以后,你会发现 agent, 它不再是一个只陪你聊天的对话工具,而是拥有你的工作数据,能真正帮你干活的执行者。 视频里面的所有步骤,包括云端部署和本地步骤教程,我都整理在了一个文档里面,赶紧去创造你的第一个赛博员工吧!下期视频教你 open klo 的 进阶玩法,别忘了点赞加关注,我是山河,我们下期见!


朋友们知道吗?这个 openclaw 可以 免费的使用,我们不使用 api, 我 们只用本地的一个大模型来代替,那就是今天我给大家说的欧拉玛, 可以看到这边欧拉巴的安装我已经写好文本了,今天我们就跟着这个一步一步走,我们给我们的 openclaw 部署一个本地的大模型,这个方式比较适合我们轻度的去玩,或者是我们新上手这个 openclaw 去练习用, 因为本地不说大冒险毕竟不如网上这个 api, 但是它是一个很好的练手的一种形式。废话不多说,我们开始,那这里呢?我直接是给到了大家安装的一个代码, 我们复制代码,如果你也是这个 windows 去你的 linux 系统可能会碰到什么问题,比如说碰到我们这个叫 z s t d 这个支持,没有这个东西我们怎么安装?我们用这个代码去安装,安装完这个代码以后,就这个代码执行完以后,我们就可以进行正常的一个安装, 这里我们就等待这个欧拉玛安装完成就可以了。那接下来这个时间我们可以去看一下我们想在本店跑的一个大模型,让我们直接搜索欧拉玛的官网,直接来到这个 models 里边, 这里大家可以看到有好多种模型,这里我推荐大家使用千万三点五,在这里有好多个模型,点一下理由,大家根据自己的显卡的现存多少去选择适合自己的模型。那比如说如果目前我是一个什么,我是一个二零七零, 二零七零,他只有八 g 的 显存,而且目前我们运行这个顽徒的迅疾,他已经占了二点三,也就说我们只有多少五点五点七的一个显存,五点七的显存正常我们大概只能跑个一个 四 g 左右的一个大模型,那目前看下来我这块显卡只能跑这个三点四,也就是千万三点五四 b, 这个四 b 应该是已经量化过了,之前的一个原生的四 b 应该是九 g 左右了, 我们可以选择这个模型去跑,那如果你是四零九零,这里推荐你可以使用 r 七 b, 我 们可以四零九零可以跑一下这个模型应该都是没有问题的。当然如果你是什么二零八零的双卡,这个之后我会说我组了一台二零八零的双卡, 他就可以跑更大的一个模型,那接下来我们就等待他安装就行了。我们把我们这样跑的模型我们记一下,这期视频其实也反反复复的做了好几次,那主要老杨也是个代码新手,所以说在中间会遇见遇见各种各样的一些事情, 后来经过我的一些查询,也把这些问题解决了,那基本上我就把这些遇到的问题都给大家去总结在这里面。这里我们拉玛安装好了,它已经系统级的运行了,这个是自动运行的,为了方便之后我们去看后台数据,我们这里建议把自动运行拉玛的 server 给它关闭。 那所以说这款我已经写了,之前我是下了模型以后,他就关闭了整个系统级的自动运行,后来就是这个模型丢了,所以说这里我们直接去执行,让他不要运行,然后禁止他的一个自动 set 访看是否运行成功, ok, disable 就 可以了,那接下来我们就可以去代码让他运行,那我们自己启动了,运行以后我们就可以看到什么宝莱玛的一个后台, 方便我们后面去监看他是否会出现问题,这样看起来比较方便,下面我们就去拉我们这个模型,这里我用刚来讲,我们就用这个四 b 复制一下,那么再开一个命令终端,我们再开一个终端,用这个欧拉马库,这里我们就进行等待就行了,等他下载好这个模型就可以。 ok, 到这里其实我们这个就已经装好了,我们看一下欧拉马 list, ok, 可以 看到这里有个千万三点五四 b, ok, 接下来我们直接把我们这个 openclaw 的 ap, 呃,就是 mod 它的模型给配置过来,我们 openclaw 直接选择 local, 然后我们选择我们的 model, 接下来我们就找一下找什么,找一下这个 customer provide, 选这一项,这里的它就自动是欧拉玛的, 我们打开斜杠 v 一 pass api key, 这个 api key 随便填,我们随便填一个,行了,它是一个 openai 形式的,这个模型的 id 这里一定要填对,直接去复制也行, 它是三点五冒四 b, 嘿,那这里就应该可以找到了,嘿,已经找到了,这里回车就行了,接下来我们 continue, ok, 那 这里我们就已经把这个模型配置给我们的 open cloud, 我 们 open cloud gateway, 他 说这个已经运行了, 也是自动运行的,我们 gateway restart, 让它我们这个 gateway 重启一下, ok, 看到其实这个后台上已经读到了,我们这个 就是 openclaw 调用它,我也没打开,还是报的一下,我们找一下这个网址,复制一下,打开浏览器很牛,这里就出现一个什么问题了,可以看到这个反应非常的慢,为什么 在这后台就能看到什么?就是 limit, 也就是它上下文限制多少?四零九六,我们这个 openclaw 给了多少?给了一万零一百六十七,所以说这个是远大于这个四零九六的,所以说他就把这个画开始裁切了, 这就是他的问题。那关于这个问题昨天也是研究了不少,可能我比较小白,这里给到大家一个解决方案,在这里这是我记录的 limit 四零九六 给的这个 promote 就是 提示死这么长,然后他就会出问题,他就反应非常的慢,那我们来解决这个事。回到这个命令符,首先你看你先下载的是默写,比如说我们看一下这个默写,那可以看到他的上下文,他默认的 给可以给到就是二六二幺四四,那这个二六二幺四四是远大于这个奥拉玛,他给的限制四零九六的,所以说我们需要新建模型来解锁这个限制,我们把如果你下其他模型,把这个代码改一下,把它我们导出,我验证它是否存在, 找到了我们编辑它,这里可以看,我们需要在这个 essence 这上面去加一行,是吗?加一行我们把它这个上下纹的长度给扩大, 这里我这块显卡加到三十二 k 就 可以了,因为我们用这个方向键来到给回去了,把这段复制进去,然后 ctrl 加 o 回去, ctrl 加 x 退出, 只有我们改了这个,用这个 modify, 我 们重新去新建一个模型,这个新建模型这块的名字根据你自己的改的去修改,比如说你改成六十四 k, 就 改了六十四 k, 好 标记加某拉玛 list。 那 可以看到我们新建这个模型,就通过这个四 b 新出来这个模型它已经存在了,这叫三十二 k, 也就是我们上下文调整到三十二 k 了。 接下来我们这个把我们的 openclaw 它的 model 重新改过来,这里复制一下,把这个复制一下来到 model 还是 custom provided 这块,还是斜杠 v e a b i k 边数这块,把这个新的模型名字输进去,哎,找到了, ok, 我 们在 openclaw restart 一下,就 getaway restart 一下,包括刚刚我们刚打开这个文本,如果你是觉得回答质量差,你就可以适当调整这些参数,再去新建好,我们回到网页里刷新一下, ok, 我 们再 set new, 看这个反应,可能还会提示这个提示词过程吗?没有了, 这样我们就把相当于把这个模型给配置好了,这样我们就打个招呼, 可以看到这个后台不停在提示他,其实在做这个正常的一个输出,这个都已经没有问题了,那这里已经给大家完全讲完了欧拉玛的一个配置,包括我们中间会遇到的一些,比如说的这种问题啊,山下文的一个问题, 这个四比模型现在就完全的可用了,其实我们这块二零七零他跑的时候可以看已经七点五级了,进行起来速度还是可以的,没有说速度特别的慢。怎么测试?给我写一片三百字 关于 ai 进化的文章,三百字的文章,你看一下我们这个四 b 它发现怎么样? 其实这个 token 怎么讲?它的速度是可以的。只有三百字吗? 只有三百字吗? 这有三百字吗?我数不过来,问问他, 就是他可能载入了会慢点,但是这个字数的话就是说他的投屏速度还是可以的,所以说四 b 在 我们这个二零七零上都可以爆。当然大家我觉得你们的显卡可能会更好,那比如说如果你真的是一个,比如说幺零六零之类的卡, 我不太建议跑,但是也有这个这种的特别小的,但是我没用过这个啊,我会感觉特别傻,但是四 b 用下来只要你不是这个扣定,就是我们这个编码做很多的话,应该是没什么大问题啊。 这场对话包括帮你写文案,他都是怎么讲可以去胜任的。好了,今天就到此为止,谢谢大家。

经过一整天的折腾,不停的调试测试,终于把龙虾和欧拉玛本地部署的大模型链接上了。下面说一下我这次的经验,并不是所有本地大模型都支持龙虾,目前经过我测试,最好用的是千万三, 我本地的硬件最高能支持在欧拉玛里面跑三二 b 的 大模型,但是速度比较慢,所以我下载了一个九 b 的 千万三,先试一下 九臂的千万三在欧拉玛里面可以很快的速度运行,但是在龙虾上反应的速度就有点慢, 而且只能支持本地聊天或者处理文本任务,让九臂的千万三驱动龙虾去打开浏览器都实现不了,也可能是因为我本地部署的大模型太小,有没有哪位部署过比较大的本地大模型的朋友可以说一下使用效果如何? 所以我打算暂时放弃使用本地大模型去动龙虾,去购买二十九元包月的 mini max 的 a p i 来使用 tucker, 量大管饱,关注我,一起交流养龙虾!

一天一个邪修网站第五十七期今天介绍的网站是今天一个视频教会你怎么本地部署最近爆火的小龙虾,这是一个可以免费本地部署小龙虾的网站,点击立即部署,选择符合电脑配置的模型,这边建议选择推荐的就可以了,然后等待部署就可以直接跟他对话, 就非常简单。在这里你还可以看到他现在所拥有的技能,足足五十一个,也是完全够我们普通人日常使用了。最离谱的是 你担心的托管费用在这里都无需顾虑,这里的本地模型都是免费使用的,而且本地部署数据都在自己的电脑里,绝对安全。更有意思的是,独大师 ceo 田野带着团队的龙虾 ai 纯纯跨界实测,用龙虾五天硬生生憋出六点六万只,从 被拒签到直接过审签约了番茄这本虔诚的网文叫穿镜恋中后全网求我别发疯,感兴趣的爽文爱好者可以去看一看,不想花钱又想试试小龙虾的,可以先从 l f 扣的试试,手不掉队不踩雷就非常离谱。

使用 open 可熬不花钱的办法安装本地模型。我的电脑 gpu 只有八 g, 嘿嘿嘿,测试一下,让它简单打开 word。 注意看左侧调用模型的次数和 token 消耗。由于本机 gpu 太小,所以比较慢,后续还得慢慢试别的模型。 终于终于打开了,所以个人觉得 lm studio 比欧拉玛好用,打开之后卡这儿了哈哈哈。

龙虾 open 可乐用本地算力可以吗?这位朋友有数据安全洁癖,一定要用本地算力做龙虾大模型要极致性价比方案,价格控制在万元以内。那这台机器又请出了咱们的老朋友特斯拉 v 一 百三十二 g 版,刚好可以跑最新的千万三点五三十五 b 版本。那你要问为啥装双显卡, 因为它还需要另外一张显卡,跑知识库的引杯的模型,不用知识库时还能给龙虾加速内存。其实十六 g 就 够了,不过它上到了 ddr 四六十四 g 哦,因为它是金融行业,为了防止龙虾抽风装在了虚拟机里,而且使用时它会同时开 n 个虚拟机, 都调用宿主机的大模型。没错,这就是很多人口中的洋垃圾配置。但是万元以内的本地算力不用洋垃圾还能用什么呢?配置我放评论区里了,有需要的自取。