openclaw 系统构架底层原理好?大家好啊,这节课是咱们这个 openclaw 的 这个公开课,之前听过我课的同学在这个 vvip 课上听过我课的同学啊,知道我是主要做科研的啊,简单自我介绍一下吧,我是硕博毕业于海外某高校的人工智能专业,师从海外工程院硕士。 呃,国内的大长江团队啊,现在是博士两年毕业,现在是该领域上最年轻的全职助理教授啊。据我了解,反正是这样的啊,大概就是些这样的发文情况, 现在呢,也是主要做大模型 opencloud 它现在特别火嘛,那咱们也是趁着这股东风,那我们一起来看一下这个 opencloud 到底是个什么玩意儿? 好,咱们这堂课呢,主要会分三节来讲。第一个,我们会详细的去讲一下这个 ai agent 是 什么啊?我们都知道 openclaw 它很火, 但是 openclaw 它其实也只是 ai agent 的 一种而已啊,那它在这个普通的 agent agent 上,它有什么样的改进啊?或者说它到底是做了什么样的操作, 可以让他这么出圈,可以让他摆脱大大众对这个 ai agent 的 这个认知啊,可以进入到我们普通人的视野里面啊。第二部分呢,我们会讲一下这个 open code 的 底层架构啊,咱们既然来了这个课嘛,那就是知其然,我们更希望知其所以然啊, 现在网上有很多的教程啊,路客啊,大家应该都刷到过啊,大概就只会讲一下这个 openclaw 怎么用啊,大概是个什么玩意儿啊,但是它底层工作是怎么进行的,它怎么运行的?它用了哪些框架,用了什么样的技术 啊?这个可能一般涉猎的会比较少一点啊,这样,了解了底层之后,对咱们这种不管是做开发的同学,或者说做科研想用到这个 open code 的 同学,我相信都是会有点帮助的。最后呢,可能也是大家比较关心一点,我们做一下本地部署啊,链接一下推书。 好,因为咱们这个是个直播课啊,大家如果有问题可以发在这个弹幕上,我这边看到的话,会跟大家解答的。好,话不多说,咱们发车吧。好,我们先讲一下什么叫 a i a 阵的啊, 大家也知道,大概呢,在年前开始啊,就选选起了一个全民养虾热潮啊,左边是腾讯大楼, 腾讯大楼下面免费装虾啊,大家都看过新闻哈,说一代人有一代人的鸡蛋要领啊,那我们这一代人的鸡蛋是什么?去领一个小龙虾过来啊。那右边呢,是抛开我们这个现象不谈啊, openclaw 在 这个 github 上,它的新数啊,从二月一月底二月初开始就一路飙升啊,可能大多数原因呢,是得益于咱们国内的宣发能力啊,还有一些比较出圈的操作啊。那在这个这么火的一个现象后面, 我们不禁要思考一个问题啊,大家为什么非要来养虾啊?你拿到这个虾的时候,你知道他是干嘛的吗?或者说你能知道他能对你创造一个什么样的价值吗?你就去领啊,你鸡蛋囤多了还会放坏呢, 对不对啊,我,我个人觉得呢,现在大多数人啊,养龙虾主要还是以猎奇心为主啊,更多的呢,我觉得可能是我们家的哎, f o m o 在 作祟啊,就是 fear of missing out, 你 是怕错过这个技术啊,可能觉得哎呀,这是是不是一个像 g p t 一 样出来的技术,我如果不提早入局的话,我就要被淘汰啊,大多数人可能都是情心理对不对啊, 那也因为这个给他蒙上了一个非常神秘的一个面纱,那他到底是不是这么厉害,是不是这么神秘啊?我们其实只要理清这里面的结构原理就会发现啊,他其实还是一个很好懂的一个东西啊,对于我们个人来说, 要不要去部署这个 open klo, 或者说我们学这个 open klo, 我 们需要学到一个什么地步啊?我觉得要从它部署难度还有成本啊,还有一个呢,就是它安全性这三个方向来考虑一下啊。好,这个是前话。 好,那我们正式进入今天的课啊,讲一下这个 ai a n 的 以及到这个 open klo 的 这个发展历程啊,实际上已经落地的阴影,感觉没有那么强大,哈哈,这个我们到后面说啊,好, 我们说这个 agent 啊,其实在 agent 之前啊,它的前身其实还是大模型,就是我们最早熟知的这个 gpt 啊,以切的 gpt 为首的是一个传统的大语言模型啊, 说早不早啊,那个时候呢,大家其实对这个大模型最主要的概念呢,就还停留在问答上,就跟大家现在用用豆包一样啊,打开一个手机问个问题,他告诉你一个答案啊,那个时候还是以这个叫什么,以问答为主的大大语言模型时代啊, 但是呢,发展到 g p d 四的时候啊,三到四它其实是一个很大的跨越啊,那个时候呢,就已经出现了早期的这个大模型 agent 的 框架雏形了啊,大家那个时候可以发现,这个大模型好像不光只是简单的问答那么简单了 啊,他会用上一些。我们听过我之前的课的同学都知道,有个叫 react 的 框架啊,他会推理了啊,并且会做一些相应的操作啊,这个是早期的大模型 agent 的 啊,但是呢,那个时候他叫什么?他还是主要停留在类似于在大模型上做一个拓展能 力部部署的地方呢?还是服务器?还是云端?还是大模型厂商,我们的可操控性还是非常低的啊。后来呢, 再往后发展,大概有个半年到一年左右啊,这个时候呢,就有类似的推理模型框架出现了,我们在之前的 vip 课上也讲过啊,这个 v i m 啊,它的作用是什么呢?简单一句话就是可以搞了个框架出来呢, 帮你非常简单的可以把这个大模型给部署到本地啊,并且呢,他不光是一个问答,他还有操作的属性在里面啊。 那当然呢,你既然部署到本地了,那你就只能用一些开源的模型了,比如我们的拉玛,还有谦问以这个为首的代表模型啊,这个是本地大模型 agent 的 时代啊。那从这个之后呢,其实也没有过多久,大家就看到了现在的突然有一夜爆火的这个要 opencloud 的 东西啊, 这个东西他到底是个啥啊?大家可能了解的知道啊,他是一个欧美一个退休的程序员啊,他闲着没事一个小时搓出来的一个东西,目的就是为了让他在外面的时候也可以用手机操控他的电脑,电脑黑奴来帮他干活 啊,就是一个这么简单的东西啊,但是他突然就火起来了啊,他为什么火起来啊?他相比于之前的本地大模型啊,他做的无非第一就增强了这个 g u i 的 控制能力啊。之前这个本地的大模型,大家可能需要用到一下命令行或什么样的东西,会需要稍微有一点点的基础 才可以去完成这个东西啊。那个时候大家觉得搞大模型,用大模型这些可能还是稍微专业一点的基础才可以去完成这个东西啊。那个时候大家觉得搞大模型用大模型这些可能还是稍微专业一点的就可以了啊。 open cologne 呢,在我看来它是走了最后一公里的路的啊,就把它给带到了大众的视野里面,用一个相对于比较傻瓜式的操作就可以去干到某些之前我们想不到的事情啊。再来一点呢,它有一个非常关键的改进呢,就是它 大胆的开放了权限啊。刚刚有个弹幕同学问这个 open klo 为什么没有被认定为病毒啊,很简单啊,还没到时候啊,哈哈,他如果一直这样发展下去的话,肯定是会有相应的限制措施出来的 啊。现在大家从新闻上已已已经能看到啊,可以有很多的学校已经开始明令禁止在这个学校的电脑里面按 open klo 了, 并且呢,有些国家啊,比如说我现在在日本,他们对这种对这种数据安全是非常的在在乎的啊,所以在这个实验室的电脑上去部署这种 opencloud 也是不太现实的啊。 好啊,我这里放了两两张图啊,大家一看这个画风就知道 ai 生成的啊,但是我发现啊,它生成的非常好啊, 这个我们先看看一下左边那个图,从左边那个图我们可以看成三部分,第一部分就是 ai 是 怎么工作的,这里我们啊先不细讲, 左下角呢,是这个 ai agent 的 现在有哪些类型啊?这个我们也先放在这不讲啊,右下角这个 ai 系统在部署的时候啊, 我们知道大家可能看新闻也看到了有人说什么一人团队一个人养了一群龙虾啊,养了一个池塘的龙虾,什么意思呢?就是一个 multi agent, 就是 一个做代理的一个过程而已啊,它其实就是一个二个这种 ai agent 的 实力 啊,这就是所谓的多个 agent。 好, 那我们再回到上面再看啊,上面这个 ai 是 怎么 walk 的? 我们现在先不讲它的流程是什么样的啊,我们先主要理解一下这个 ai agent 它有哪些东西啊? 首先右边啊,它啊有一个工具,比如说什么我如何去访问互联网,对不对?我怎么样可以写代码呀?我怎么样去调用这个 api 的 接口啊,对不对啊? 还有一个很关键的 memory, 这个是大模型就有的啊,那 agent 里面的 memory 跟大语言模型里面的 memory 有 什么不一样? a i agent memory 跟我们 openclaw 的 memory 又有什么不一样?大家先留一个小小的疑问啊,它其实是这个是 openclaw 比较创新的一点改进啊,在它的 memory 上面。好,这里我们先不讲,我们下一页会讲到,我们先再看一下右边这个,右边这个 中间这些组件啊,大家可以先不管啊,可以先看这两个标识啊,第一个我们一个 wifi 画了一个叉,还有一个就是锁了啊,什么意思呢? 没有 skills 吗?有 skills, 这里 ai 没画出来。我们后面会讲啊,这里意思呢,第一就是在本地,你可以部署到本地啊, 部署到本地之后呢,你的数据就非常安全了啊,那这两个属性叠加在一起会产生一个什么效应呢?首先在本地之后啊,你就可以自我玩的很花嘛,我们常说的 可以随心所欲的去改它呀,去操控它呀,你的数据全部都在你的本地。我们之前讲那个 v l l m 框架的时候,我们就提到了,这个框架对于公司或者企业来说 是非常友好的啊,因为很多公司和企业,它的数据不可能说我放到我调用的这个 api 的 云端上,不可能放到 openai 那 里,我不可能放到 google 那 里啊,这是我公司的私有数据,所以在很多业务场景下呢, opencloud 它是 叫什么?是一个非常好的选择的啊。好,那我们具体来看一下这个 ai agent 是 个啥玩意儿?我们说到 ai agent 啊, 其实可以拆成两块来看,第一叫 agent, 第二才是 ai。 有 同学如果了解过,强化学习啊, 应该知道啊,这个 agent 呢,是里面的一个概念,一个最基最基础的概念。它的定义呢,就是说一个实力啊,可以通过观察环境啊,做出行动 啊,为什么做出行动呢?为了达到某一个目的啊,这样的一个实力呢,就把它定义为 agent, 在 强化学习里面,那 ai agent 无非就是说可以用 ai 来提升自己的性能,这就是 ai agent 啊, 这就是它最基础的定义,没有什么太难的地方啊,我们看框框架这里啊,先看左左边,我这里写了三个模块啊,第一个是输入模块啊,输入模块的作用呢,就是从外部环境中来获取信息啊,它可以是多模态的, 在传输系统当中呢,这个输入的可能只是文本数据而已啊,但是呢,在我们今天这个 ai agent 呢,包括 open code 现在用的这个环境里啊,它其实已经是多模态的啊, 也就是说不光包括文本,还可能包括图片啊,语音啊,还有视频啊,或者说是来自于各种 api 的 结构化的数据,都是有可能的啊。 那我们如果想把它应用到科研领域,或者说应用到一些比较专业化的垂直领域的时候,可能就会需要这种 api 的 结构化数据了 啊。我讲的尽量稍微概念浅一点啊,因为咱们直播间里会有很多对这个 ai 基础会稍微薄弱一点的同学啊,希望大家都是可以听懂的。 蛋白质结构能不能详细介绍一下?那行,我们最后会有十分钟的答疑,如果你感兴趣的话,我跟你讲一下。好啊,我们继续回到这里啊,我们说第二个模块呢,叫思维模块啊,这也是 ag 的 系统中最核心的部分 啊,也就是这个大模型发挥作用的地方啊,这个模块呢,通常是由这个大模型来驱动的啊,他负责对我们前面说的这个输入模块获取到的多模态的输入进行理解推理啊,以及决策 啊。具体来说呢,大模型可以根据当前任务啊,先对问题做一下分析啊,对任务做一下分解,去规划一个策略来解决这个问题啊。 所以我们说这个大模型在 agent 系统中呢,其实就扮演的是一个大脑的一个角色啊,用来负责思考和决策啊。那我们现在获取了输入,有了小龙虾的钳子了 啊,有了思维模块,小龙虾有了大脑之后啊,我们需要进行交互啊,这就是我们的交互模块,当 agent 完成思考之后呢,我们就需要采取行动。 什么东西?左下角有个小窗口遮挡,是否关掉?我这里看不到哎,这个很影响吗?同学们,我这里啥也没有啊,哈哈,问问题不大啊,那我先讲了,因为咱们咱们时间比较紧啊,我准备的内容可能一个半小时讲不完啊,有个思维导图啊, 好, ok, 这个让我们助教老师去解决一下吧,我这里控制不了。好,我们接着讲。刚刚这个思维模块讲哪来着啊?对,我们这个小龙虾就需要采取行动了 啊,这些行动呢,其实没什么高大上的,他就是通过一些现有的工具啊,你看我们这里画的图里面啊,工具啊,其实你比如说 我们这个小龙虾遇到一个需要计算的任务了,他干嘛呢?他又去调用一个 calculator 啊,他可以根据他的角色,他自己去写一个小小的这样的方法去计算一下。可以啊,他如果觉得累的话,他也可以去调用一下。你这个计算机里面自带计算机的程序啊,小程序他来去计算一下都可以 啊,具体怎么做就看它自己来判断了啊。再有像 search 啊,其实呢,我们一般把它叫 websearch 啊,但是呢,因为 search 比较高大上嘛,所以现在都是把它叫 search 的。 大家看到这个其实就是一个搜索网页的过程,但是相比于搜索网页来说的话,它还有一个 就是综合和整理的过程啊,如果单纯只是搜索网页的话,他其实就像爬虫嘛,你爬虫下来的数据啊,那全部喂给这个小小的龙虾里面,当然也不合适,所以呢,需要有一个稍微一个整理的一个工作在里面的, 用什么代码写的可以有这么高的权限?是这样的,他有这么高的权限不是因为什么什么代码,而是因为他的端口啊,他在端口开放的这个过程当中啊,是给予了他一个非常高的权限的,再来就是很多端口他本身就是具有很高的权限啊, 超级用户对当前里面讲的 agent 的 比较像,对,当前这个其实叫什么,也是大模型的一个框架嘛,其实 agent 所有的东西,不管是什么,最终就是一个 基于大模型作出的拓展而已。大家记住这一点啊,现在你们看到的所有东西啊,它的底子啊,都是切了 gpt 一 手的这种大模型,只不过呢,我们因为受到这个 scanning log 啊,尺度规模 法则的这个限制,大家在堆叠基础能力上,大模型本身的基础能力上,目前是现金陷入了一定的瓶颈啊,所以呢,之后从 g b t 四开始,现在所有的大模型厂商开始把这个大模型从这种堆参数砸钱,把它往大了去搞, 从这个思路慢慢去转向了一些工程化的一些改进和落地,就比如 ag 的 就是其中的产物之一啊。 好啊,我们再看一下右边这个模块图啊,我们刚刚讲了有输入模块、思维模块和交互模块分别对应的。哪输入模块没有啊?我们这里 工具 pos 刚刚讲的有这么多我们这个智能题啊,他可以直接去执行操作,也可以调用这个工具来执行操作,这个取决于你给他的任务难不难啊,如果你只是简单的问答,他本身的大脑就可以告诉你了啊,他就不用去拿计算器了 啊。右边是他一个决策的过程啊,如果你的给他的任务非常难啊,他首先会触发他的这个决策过程,去判断一下他需要通过什么样的操作才可以去完成你指定给他的任务啊。这里面会有一个思维链, 这个也是一个说老不老,说新不新的概念啊,在大模型里当然老,但是按年份来算的话,还是一个比较新的概念啊。我们这个 vip 课里面也是之前详详细的讲过两节关于这个 c o t 的 内容啊,它也是当前这个 a j 的 能出现的最主要原因之一 啊,让那个大模型可以像人类一样进行思考啊。当然呢,它现在变成小,变成小龙虾了。好,那我们看完这三个模块会发现我们还有一个什么模块没有讲呢? 这个 memory 啊,刚刚我也说了,这个 agent 里面的 memory 跟这个大模型里面的 memory 有 什么不一样的啊?我们知道大模型里的这个 memory, 我 们通常指这个上下文窗口,对不对啊?上下文窗口? 那在 agent 里,它分成一个 short term and long term 的 memory, 有 有一个长期和一个短期的 memory 的 区别啊,那它到底是个什么东西?好,我们仔细看一下这个记忆模块儿啊,前面可能稍微会枯燥一点,因为给大家讲的是从发展历史开始啊,去讲这个 open code 出现的这个原理 啊。但是希望大家还是可以好好理解一下这一块的内容啊,因为现在网上 openclaw 的 视频这么多,你看了他们也会看,大家都会看,你的同事也会看,那你跟他们相比,你的特性在哪里啊?对吧?你的特性就在于你可以跟他讲出这些底层的架构上的不同啊,对不对? 他的决策和能力是通过调用的大模型能力决定的吗?对,根本来讲就是大模型进行思考的啊,包括你要不要用工具,怎么用工具这个东西也是大模型里面的思维链来进行决定的,是不是和 lstm 相似啊?不是,完全不是一个东西啊,我们仔细看一下。 好,我们说一下这个最关键的记忆模块啊,我们在理解这个 agent 的 时候,很多人会觉得你的大模型怎么这么厉害,好像那啥都记得啊,我昨天跟你说的话,你怎么今天还记得呀?我明明都关机了,对不对啊?但实际上呢,并不是这样的, 大模型本身呢,他并不具备真正意义上的持续记忆的能力啊,大模型是没这个玩意的,他的本质还是代码啊,那他如何去获得这种能力的呢啊?他的工作主要是依赖于这个, 大家都知道叫这个上下文窗口啊,因此呢,我们可以把这个大模型的上下文窗口理解为一块儿面积有限的一块儿黑板理论啊。所谓的黑板理论, 他的核心思想就是大模型,在每一次推理的时候,你只能看到当前上下文理的内容,也就是说,推理的时候,这个模型会把所有输入的信息全部写在这块黑板上, 基于他黑板上写的这些版书啊,去进行思考啊,进行推理来产生结果啊。但是有个问题,什么这块黑板它的面积大小是有限的啊,比如几千 tok, 几万 tok 啊,甚至在一些大的模型里面会有几十万的 tok 啊, 无,不管多大,他始终都是一个有限的资源啊。一旦信息容量版书的内容超过了个黑板的大小, 那新的内容就必须要覆盖旧的内容啊。我板书写不下了,大家上学的时候都看过,老老师一开始从左边写板书写到右边写满之后啊,再跑到左边,问大家这边抄完没抄完,我擦了啊,大模型也是一样的,如果内容太多的话,就会导致信息丢失啊。 因此呢,在这个 ai 智能的系统中,就需要专门设计这个叫什么一个记忆管理机制来解决这个问题啊,弹幕啊,主持人的屏幕,哈哈哈,这个我没有办法,看看那个助教老师他们那边有,有没有办法解决啊? 没事,人类是一个适应性的动物啊,你多看一会就适应了。好,我们刚刚说这个大模型需要专门设计一个记忆管理机制来解解决我们刚刚说的黑板理论的问题啊,我们没有办法把所有的历史信息都无限制的堆在这个上下文窗口里, 而是呢,要有策略地去管理哪些信息应该保留,哪些信息呢?应该压缩或者删除啊。这里就涉及到两个非常重要的机制了。第一个机制叫这个 system prompt 啊,叫系统提示词, 它是什么呢?我们可以把它理解为啊,就固定在黑板顶部的一段指令啊,这段指令呢,通常用来定义我们这个 ai agent 的 它的人设, 给他一个身份啊,给他一个角色以及一个行为轨,一个行为规则啊,比如我们可以规定在 a 证呢,它是一个金融分析助手 啊,或者说你是一个科研助理啊,甚至呢,你是一个超级牛的一个 p 十级别的这个代码生成专家啊。由于这个 system prompt 它的是位于这个整个上下文的最前面啊,所以,并且它在整个对话过程当中,它通常是保持不变的, 因此呢,它可以持续地影响这个模型的行为啊,不会发生改变啊,相当于给我们这个 ai agent 锁定了一个叫什么稳定的人设和任务目标啊,这个是 system prompt 啊。第二个呢, 叫 contact 呃, contact management 啊,一个上下文管理在真实的这个 ai agent 的 系统中啊, 这个对话往往会持续很长时间啊,如果你把所有的历史对话都保留在这个上下文当中,那很快就会超出这个上下文窗口的限制了。但因此呢,系统常常会针对这种大量的历史信息进行压缩摘要或者筛选啊, 什么意思啊?就比如说我们可以定期的对我们之前聊过的内容历历史对话进行一个总结 啊,因为大家很多时候用大模型上来来来一句你好对不对?像这种就属于废话,在大模型看来,而且也额外消耗你的 talk 啊,也占用你这个上下文窗口的这个限制大家以后用的时候可以不写了啊, 没有必要跟 ai 那 么礼貌啊,谢谢也不用说你好跟谢谢都是废话啊,那我们说了,把历史对话压缩成一短一段简短的这这种摘药,或者说只保留与当前这个任务相关的重要信息啊,把不重要的内容删除啊,这样就 能够在有限的上下文空间中来保留最关键的信息啊,从而保证模型在推理的时候既可以看到前面的知识啊,也有空间来理解当前的这个任务啊。 这个是他的一个记忆模块,主要有两个关键的机制啊,第一个我们回回顾一下,就是固定在那整个黑板的最顶端啊,就比如说这这堂课的内容, 他通常会定义了你一个大模型的一个角色行为和准则啊。第二个我们会对历史的大量的这种记忆进行一个记录、优化、结论总结,把那些废话全部什么 ok 剔除掉,我会感觉到正在进行社交互动,哈哈。啊,这倒是啊,这是一个叫什么?这个是一个情绪价,情绪价值的体现啊。我那小侄女啊,天天我, 我问她你懂不懂 ai 啊,她说我懂,我说你懂 ai 什么?她说我每天都会跟豆包讲话。哈哈,谢谢可以作为奖励算法的关键词啊。 那不一定啊,比如说你没有得到答案,你也有可能会跟他说谢谢嘛,对不对?那只是出于你礼貌的一种表现。你在淘宝问这个商家的时候,他没有货了,你不会跟他说一句谢谢吗? memory 点 md 啊,这个同学了解的比较多啊,这个我们在这个 opencloud 里面会讲。好, 那我们刚刚了解的这个记忆模块,基本的 agent 的 记忆模块是什么东西啊?我,我们看一下它具体实现方式是怎么样的啊?我们上页说到大模型本身的上下文窗口,它是有限的啊,因此这个系统必须通过一些机制来拓展这个记忆能力。 那么在实际的 ai agent 的 系统当中呢?最常见的一种实现方式呢?就是这个东西,我们说叫 rap 啊,外部记忆系统,或者说知识库或向量向量数据库啊,是 rap 的 一部分啊, 大家如果之前上过这个大模型的课啊,应该会了解这个 r a g 啊, rap 解锁增强生成记忆机制啊,它其实分为两块啊,它既有解锁和增强生成记忆机制啊,它同时它也是一个记忆模块 啊,整个流程就可以拆分为这几步。首先用户提问,用户向这个 a g 呢输入一个问题,那这个时候大模型就会把你输入的问问题 embedding 之后进行解锁啊, 跟什么东西解锁呢?你给他的一个知识库啊,这个知识库是什么?你自己来定义啊,他会把你给他输入的问题啊,和这个知识库里,他觉得在向量空间中最相似的那个东西做一个 match 啊,把知识库里给的答案 做一个增强跟这个大模型它本身的能力生成的这个回答,去做一个 enhance 的 一个操作啊,这个就是你最终的答案啊,简单来说就是让你在考试的时候让你啊带一本参考书, 你做一道题,你可以翻一下那本书,你看跟哪道题比较相似的,你就去抄吧啊,当然也不能全抄对不对?因为他毕竟只是例题,跟你这个题跟你考试的题可能不太一样啊,所以就要把这个参考书里的内容和你自己本身的 题目的内容去做一个修改也好,改进也好,拼接也好,反正就是一种以 hands 的 操作,这个才是你的最终答案啊, 这个就是我们常说的这个 reag, 它现在是一个主流的 agent 的 记忆,一个记忆模块 啊,这种机制机制的核心优势在哪呢?就是它可以突破大模型参数知识的限制啊,能够有效的解决这种上下文窗口有限的问题啊,为什么?因为知识库在外部的。
粉丝7930获赞3.1万

相信大家已经安装好了自己的 openclare, 但是你有没有想过你每一次的 openclare 的 使用都会消耗你的 tokyo, 这个 tokyo 的 话就是需要大家去花钱去买, 那有没有办法能够免费的使用 opencloud? 如果说你也想要免费使用 opencloud 安装 olemma 模型,那一定要点个关注,点个收藏,不然的话你下次就刷不到了。那我们进入正题,我们直接啊百度搜索一下 olemma, 然后在这个右上角位置点击下载, 这边的话选择自己电脑系统,然后点击一下,直接点下载就可以了。 ok, 下载好了之后,我们直接正常安装啊,就会进入到这个页面,然后右下角我们要选择一个模型,正常来说一般是选择这个 gpt 二十 b, 也可以选择千问,三点五千问。 ok, 我 们在这个位置选择好了之后,你发一个消息,你比如说我选一个,我没下载的,我发个一,你发一个消息之后,他就会开始自动下载这个模型。 好,我们直接进行下一步。欧莱玛下载好之后,我们直接通过这个运行安装向导重新把 openclock 跑一遍, 因为之前你们装过 deepseek 的 模型,然后这个配置处理的话,选择更新值, 在这个模型认证供应商这里选择 olemma, 本地本地本地,然后它会有一个模型 id, 例如 deepsea 杠 r 一 比八币,我们再打开你的 olemma, 看一下你的右下角, 就是把这个名字输入进去, 我们用的是这个二十币, 这个的话直接回车就可以了。 这个聊天通道的问题,因为之前已经跟大家讲过了,我们就直接挑过了, 我们把网关打开,等这个 opencloud 的 正常运行。 ok 啊,大家在运用这个 oemma 本地模型的时候,它是不需要花钱的,但是它是基于你电脑来去做的本地模型,那是什么意思呢?就是说它直接消耗的是你电脑的性能, 比如说我们在这个内存 gpu 直接消耗你的电脑性能,比如说你的电脑越好,那它运算速度就会越快,大家这么说能理解吗? 还有就是这个欧莱玛上面的模型,它对应的有一些,比如说它这个二十 b 的 模型,它是 比较推荐八到十六 g 的 这个显存的显卡,然后才去使用,然后有一些是呃,一百 二十币的支持二十四 g 或者三十六 g 的 显存的显卡才能去使用的,也就是说他直接消耗的是你电脑本身的性能。 ok, 如果说大家感兴趣的话,可以自己去装一下试试。

不要云端部署龙虾 openclaw 真的 不要云端部署,这个是千千万个 openclaw 里的很大的一个,为什么这么说呢?有以下几个原因。 第一,如果你追溯到 openclaw 创始人 peter steinberg 去看看他最早的采访,他自己开发 openclaw 的 初衷就是因为每次想要和 ai 写作,都必须把自己的文件内容传给像叉、 gptcloud、 java 这些云端部署的 ai 工具,或者叫 ai 聊天机器人, 完成完之后又得下载下来,这样对于想要在本地高校办公的人来说的话非常不友好,所以他决定要把 agent 部署在自己的电脑上面,这样才能达到和自己在同一个电脑同样的环境下办公的可能性,这样才随之诞生了 open cloud 这个项目。 那云端部署的弊端就显而易见。第一,无法直接和你电脑里的东西发生交互,比如他没办法直接读取你电脑的需要整理的表格文件, 如果是遇到比较大的视频需要进行修改的话,可想而知你要上传到云端部署 opencloud 的 那种时间的消耗和费尽程度,在上传下载的过程中,你的视频大概率都会被压缩,所以云端部署的 opencloud 就 和其他的 ai 工具没有什么区别。第二,云端部署会限制你很多的灵活性。有些 opencloud 的 高级用户,他想去接接一些智能硬件, 但是在云端,如果你的通讯协议不被支持,那你很难去进行这样的操作。这种内容也适用于,比如你想把你自己的工作流变成一个 skill, 那 在云端这个东西是几乎无法实现的。然而在本地你可以轻松的去实现。当然云端部署最大的好处就是它在安装部署的过程非常的简单,但同时你的效率和你的工作流程会受到极大的影响。 所以我的建议还是,如果你是真正的想要提高你的效率,就跟 peter steinberg 一 样,想要让龙虾和你一起去并肩工作的话,那本地部署还是最标准最规范的选择。如果你想要本地部署,但你自己还不会的话,我们正好在工具小组里面提供一系列手把手的课程。如果感兴趣可以点击头像看主页介绍,第一行会有专人给你提供更多的信息和介绍。

你可能已经安装了 openclaw 大 龙虾,但你的使用方法可能一直都是错的。今天我们来盘一盘四大常见 openclaw 的 误区。第一是 openclaw 需要一个单独的机器去配置安装,实际上根本不需要。你平时正常用的电脑,不管是 windows 还是 mac 都是可以部署的。 而且创始人 peter steinberg 做 opencloud 的 初衷就是想让他和你已有的电脑里面的文件发生交互,以至于他可以帮你做更多的事情,了解你的工作流程和内容。如果你单独找一个新的机子,那他没有任何可以参考的内容,也无法很好的融入到你现在的工作习惯、方式和流程中。第二, opencloud 需要二十四小时都在运行,当然也是错的, 因为 opencloud 能力很强,很多任务都可以在几分钟之内就能完成,除非你是有一些定时去发生的任务,那带来的结果就是投份费用会很高,估计你都支付不起, 所以开二十四小时并不是正确的用法。第三,需要实时更新。答案是错的,因为按照现在的更新频率,每一两天 oppo nano 就 有一个大的版本的更新,每次更新之后可能会对之前的失费产生影响,导致你更新之后没办法马上就能起用。我的建议是,只要你的版本和最新的版本是在十天之内,就没有必要去更新, 你用的顺手,用的好就可以一直去用。第四,需要部署在云端。其实这个和第一条是一样的,如果你把 oppo nano 部署在云端,其实和其他的聊天机器人没有任何区别,浪费了真正 oppo nano 的 核心功能。 最后再送一条误区,就是大家觉得 oppo colo 很 危险,会暴露你的隐私信息,操作不当会让你的电脑宕机,这个也是一个误区,尤其是现在几十个版本更新之后, oppo colo 已经弥补了一开始明显的安全漏洞,只要你正确操作,而且下载安全的 skills, 他 就不会产生这样的问题。我们工具小组一百多人在用 oppo colo, 没有听到谁说因为用了 oppo colo 导致自己的信息泄露或者宕机反病的事情。如果你对大龙虾 oppo colo 也感兴趣,想要系统学习,我们正好在工具小组里面提供这样的课程。如果你感兴趣,可以看视频主页介绍,第一行会有专人给你提供更多的信息和介绍。

我劝你别把 opencall 部署在云端,相信不管是软件还是硬件工程师,都已经被 opencall 深深震撼到了吧。如果你也想玩,那我劝你一定要在本地安装。众所周知, opencall 主打一个全能,你一句话让它配置整个开发环境,它就能把所有 ide、 所有软件依赖,甚至 getop 上的精品库全部下载,变异调试一条龙给你跑完。 但一旦你把它部署在云端, vps 问题直接拉满,各种管理员权限受限,很多功能根本用不起来。没有本地硬件,摄像头串口,手机调试、硬件联动全都失去意义。部署在云端的 opencloud, 本质上跟 cos 这类普通工作流并不区别。所以听我的,就在自己机器上本地部署才是真正的 opencloud。 关注我,下一期告诉你为什么不要花钱让别人帮忙配置大龙虾!

想在本地部署 openclock 的 同学,这个视频你们跟着一步一步来做,基本上都可以成功的。这里我用 windows 系统来举例啊,如果你们是苹果或者 linux 系统呢,那部署起来会更加简单。其实要在 windows 上面来部署呢,也不是很难, 需要我们手动去安装的东西呢,其实就两个啊,一个 ws l, 还有一个就是 openclock。 你 们在网上面看到那些啊,让你们在 windows 下面呢,又安装 nodekit, 完完全全是多余的啊。 不是说 opencl 不 需要 note 和 get, 而是说装在 windows 下呢,它一点作用都没有,因为我们是在 wsl 下面去跑的,也就是那 windows 下的一个 linux 系统, 你在 windows 里面给它装这么一堆东西, linux 里面还是没有的,到时候呢, opencl 还是要给你再重新装一遍这些东西。所以呢,我们就直接在安装 opencl 的 时候,让它检测到环境需要什么,它就会自动给我们安装了。 就比方你们现在看到的这个终端啊,现在呢,我还是在 windows 目录下面的,我来检测一下 no 的 版本,可以看到这个的版本号呢是二四点幺四点零,这一个呢是我本来就装在 windows 系统下面的,现在呢,我进入一下 wsl 这里呢,大家可以理解成啊,我在 windows 下面呢,进入了一个 linux 的 子系统,然后在这里呢,我同样查看一下 node 版本,可以看到两个的版本号呢,是不一样的,一个是二十二,一个是二十四。 因为到时候我们的 openclock 是 要在 wsl 下去跑的,所以 openclock 它环境需要的 node git 这些呢,都要在 wsl 下面去安装才有用的。 我们给它装在 windows 下面呢,一点用都没有,所以我们不需要额外安装那些,我们直接去安装 w s l, 把这一个装好呢,我们的部署就成功一半了。其他环境需要的那些 node git, 到时候安装 opencloud 的 时候呢,它会自动帮我们安装的。虽然我们不用手动去装这些 node git, 但是呢还是要做一些额外的准备啊,比方科学上网, 学上网这一点非常重要啊,要不然的话,这个过程呢,很有可能你就会因为网络的问题啊,没办法部署成功。其次我们的电脑呢还要做几个设置啊,这一点呢,很少人说到,但是还是挺重要的。首先我们打开任务管理器,在左边呢,进到性能选项卡, 然后看一下右下角啊,它有一个虚拟化啊,我们要保证虚拟化呢是一起用的状态,基本上呢它默认都是一起用的啊,如果说没有起用的话,我们就手动给它起用一下,然后我们通过运行窗口输入这一个命令, 打开 windows 功能,拖到最后,这里面呢有一个适用于 linux 的 windows 子系统,还有虚拟机平台啊,这两个呢,我们都要给它勾选上啊,勾选上之后呢,我们就点确定就可以了, 等他应用我们的更改,然后呢我们就要启动一下我们的电脑大模型,这里呢我就用千问来给大家举例啊,因为他有免费的头梗赠送,所以呢大家可以来到千问这里啊,先注册一个账号。 安装这个之前呢,我们还要对网络进行一下配置,选中我们连接的这个网络啊,右键属性, 现在呢,我们都还不需要配置科学上网啊,就用我们本来的网络设置就可以了,我们就来改一下这个 dns 服务器啊,给他编辑一下, 我们就来改一下 ip 四的 dns 地址,默认呢,他可能是自动获取的,我们给他手动填啊,这个地址你们就按我一样的填就可以了。准备工作做完之后,我们就来打开泡泡消,这里呢,以管理员的身份运行 这里,我们就输入 wsl instyle 这条命令,然后根据它提示的这条命令哈,我们来安装一下,有帮图, 安装完之后呢,它可能新弹出一个窗口啊,也可能在本来的窗口啊,让你新建一个用户名和密码,你就按照提示来输入就可以了。 输入密码这里大家要注意,它是不显示出来的,你就正常输入,确保输入的没有问题就可以了。最后看到有颜色的这一行,带有你创建的用户名的这一行啊,就证明你的友邦图已经安装成功了,也就是那你的 ws l 就 安装成功了。 接下来我们就准备安装 open curl 了,来到 open curl 的 官网,现在呢,我们就要把科学上网配置好了,要不然呢,它会出问题啊。 找到 runs on your machine, 左上角先切换成简体中文,然后呢点安装, 我们就复制它快速安装的这条命令,这个时候就可以打开 wsl 了,没问题,成功进入了 linux 系统,然后把刚才复制的安装 opencloud 的 命令粘贴运行一下,现在它提示我们输入刚才创建的用户密码, 输入完之后它就开始安装了,像这里它会先检测环境需要的东西啊,像这里 node js not found it's already now 啊,它第一步就会把 node 给你装上, 下面就正式安装 open curl, 这里大家可以看到 git 它都给你安装好了,所以通过 wsl 方式呢,我们是没必要在 windows 下面手动来安装这个 node 而 git 的, 你一装还装错地方,甚至呢,装这个东西还装出问题,所以还不如直接给 openclip, 它自己来帮你安装。现在呢,它就帮你安装 openclip 的 二零二六三点幺二版本。 意识到出现 openclip 这个图像,我们 openclip 的 安装呢就已经成功了,接下来呢就做一些简单的配置就可以了,现在问我们是否继续啊,选 yes, 然后呢 crystal 快 速开始。下面这些呢,我们都是保持可以跳过的,先给它跳过啊,否则呢,就选默认,先让它把 open color 给装起来,后面呢再更改配置都可以了。选 skip now 给它跳过啊,选第一个默认也是保持默认啊, select channel 啊, step now 给它跳过。 search provider 也是给它跳过,问我们是否配置 skills no, 后面再配置都可以的,这个 whose 也是给它跳过。 ok, 现在我们就可以打开 open crawl 了,它上面呢有一个地址,我们按着键盘的 ctrl 键,然后点一下它, 他就会打开 openclaw 的 web 页面。这个呢是和 openclaw 的 智能助手聊天的页面,但是因为我们现在还没有接入大模型啊,所以呢,和他聊也没什么用。接下来呢,我们就要去接入千问的大模型,同样打开 power shell, 进入 wsl, 然后运行一下 openclaw config 这条命令,选 local, 然后就 model 这里模型的话我们去选到千问, 现在它是等待千问那边的授权,授权完毕呢,就接入成功了。这里我们可以复制一下这个地址,然后到浏览器去打开, 因为刚才已经让大家注册好千万的账号了,这边呢,直接点确认就授权成功了。其实到现在啊,我们的大模型呢就已经接入成功了, 现在就可以回到 opencloud 的 web 界面了。现在呢,我们和智能助手聊下天呢,只要他能回答我们的问题,就证明我们的大模型呢已经接入成功了, 没有问题,已经可以正常回复了。这样呢,我们的 openclaw 就 部署完成了。这个视频呢,就先到这里啊,下个视频再带大家来把 qq 飞书这些聊天工具呢,接入 openclaw。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

今天呢录一期视频,教大家用扣子一键云端部署我们的 openclaw 小 龙虾,这期视频呢会讲的非常非常细致,大家只要跟着我的这个视频一步步的操作,肯定是没有任何问题的。另外呢我这里有这个 openclaw 小 龙虾本地部署的完整版的图案教程,大家如果说有需要的话,三个六 低调领取,那么我们现在呢从这个扣子界面开始讲,我们会发现这个主页呢上方有一个一键部署 openclock, 我 们点击一下,然后呢我们点击这个部署你的 openclock, 好, 然后呢就会弹出这个界面,这个模型选择呢我们就选择自动,自动的话它的意思就是说它可以根据我们的需要随时进行这一个大模型的一个切换。 然后这里有两个版本,一个是满血版,一个是省流版,像满血版的话,他回复的质量相对来说就会高一些,但是相对应的他消耗的这个积分算力也会更多,那么我这里呢就选择这个满血版,省流版的话就相反, 他的话这个消耗的积分相对来说呃会比较的低,我们选择这个个满血版,然后呢这个渠道配置,如果说大家没有飞出账号的话,大家这个去注册一下,然后就有一个授权,这里呢我是已经授权好了的,这里就显示这个取消授权, 然后呢这里我们可以给我们的这个机器人呢取一个名字,我这里就叫做这个妍媛智能体的助手,然后呢我们点击一下这个去创建,它就会帮助我们创建我们的这个机器人, ok, 大家看到没有?我这里这个右下角这里弹出来一个应用审批通过,已发布成功。 ok, ok, 看到没有,他弹出了这个界面,他说你的助手已经连接到飞书,这样子的话就已经完成了,我们把这个叉叉给他点一下, 然后点击这个确认。 ok, 现在呢我们就来到了这个小龙虾的界面,那么下一步呢,我们需要打开另一个平台,叫做飞书开发平台,我们在这个网址这个地方我们输入一下,我们来点击一下这个第一个,然后呢点击这个开发者后台, ok, 我 们看到这里有一个企业自建应用,然后这个蓝色方框里面写的是创建企业自建应用,我们去创建一个 这个名字呢,我们可以随便去取啊,大家这个按照自己的兴趣去把这个名称啊包括描述给大家填充一下,我这里呢给大家演示,我就取名为三个一,然后我们点击下这个创建,包括这个应用图标,大家也是可以去设置的,点击创建。 然后呢我们现在就到了这个添加应用能力的这一块,我们添加一个机器人进来。 ok, 然后下一步呢我们点击这个权限管理,就在开发配置这个地方,打开这里呢我们需要开通五个权限,我们点击这个开通权限, 这个权限呢其实可以开通非常非常多的,但是呢我们这里就添加五个,能够保证我们这个最基础的应用,它是没有问题的,是可以去运行的。第一个呢叫做以以应用的身份发消息, 我们打勾,第二个呢叫做获取通讯录基本信息,然后第四个叫做获取单聊, 这个叫做获取与发送单聊, ok, 这五个权限我们全部给他打上勾之后,然后点击右下角,这里有一个确认开通权限, ok, 然后点击一下这个确认就可以了, 那么这一块呢,权限这一块我们就已经搞定了,然后上方会有一个这个弹窗,它上面写着应用发布后,当前配置方可生效,就是我们需要把我们刚才配置好的这些权限呢进行一个发布,我们点击创建版本, 然后这里有应用版本号,这里呢我们填写这个一点零点零更新说明呢,我们也可以填写一点零点零,其他的都按照他这个默认的设置来,然后往下滑,这里有个保存,我们保存一下就可以了,点击确认发布, ok, 右下角他又弹出来一个说应用审批通过,已发布成功,这样子的话呢,我们就可以进行我们的下一步,下一步呢我们点击这个开发配置这个地方的事件与回调, 那么这个订阅方式这个地方呢,我们需要选择的是长连接,然后我们点击保存,这个时候呢会发现问题,他无法使用这个长连接,他说未检测到应用连接信息对不对?请确保长连接建立成功后再保存配置。所以说我们第一步呢,呃,需要先去这个进行长连接的这个操作, 我们看到左上角的这个基础信息,这里凭证与基础信息,这个地方呢,我们需要把应用凭证里面的这个 app id 和这个 app secret 这两个部分内容呢,分别复制给我们的小龙虾, 让它帮助我们在这个飞速上面啊创建一个啊,这个进行相应的一个配置就可以了,我们分别的复制进来,然后我们继续把这个 app secret 也把它复制进来, 然后呢这里我们再跟他说一句话,我说,呃,帮我在飞书上进行配置, 然后我们把它发送过去就可以了,它就会帮助我们这个确保长连接的这一部分操作,我们稍微的等待一下, 好,来我们看一下,他说飞书渠道现在已经是配置完成了, ok, 那 么现在呢我们就可以进行我们这个事件与回调的这一步,现在我们再点击这个长连接,选择保存, ok, 现在就没有问题了,大家发现了没有?然后我们点击这个添加事件,我们添加一个 接受消息,就是我们的第二个这个啊接收消息,点击添加就可以了, 然后回调配置,这里呢我们也是需要去配置下这个订阅方式,我们选择这个长连接,然后选择保存, 这里呢我们就不需要添加回调了, ok, 那 么世界与回调这一步我们也已经完成了。这个地方呢,我们还需要点击一下这个查看其他权限啊,把另外两个这个权限呢都给他开通起来, 开通完成了之后呢,上面他依旧会有一个小弹窗,叫做版本发布后,当前修改方可生效,我们需要再去创建一个新的版本, 这个地方呢我们就叫做一点零点一啊,因为前面是一点零点零嘛,然后呢这次我们进行了一次再更新,我们就叫做一点零点一,然后这个更新说明呢我们也选择一点零点一,那么其他的我们就按照默认的设置,然后往下滑,点击保存, 点击确认发布。 ok, 然后接下来呢,我们需要稍微注意点的就是,呃,大家设置好了的这个 机器人了之后,大家打开飞书,你如果说直接去对话,可能会出现他不回复的问题,这个怎么解决呢?首先是大家可以呃把自己的这个 ip 放到这个里面来, 开启 ip 白名单后,仅白名单中的来源请求可以正常调用开发平台的 api。 那 么如果说你不去添加这个 ip 白名单,还有另外一个方式就是我们在这个 openclock 里面, 我们让它设置成为这个开放模式,然后我现在呢已经是设置好了的,他说,呃,我来帮你将飞书渠道设置为开放模式,然后这里它已经显示这个配置成功, ok, 然后现在呢,我们就再打开这个飞书,然后打开我们的这个机器人,我们跟他说,你好 来,你看他现在就会回复了, simon 的 这个 e e 什么意思呢?这就是我们的机器人,他会帮我们的这个你好呢发送给我们的这个 openclock 小 龙虾,让他来帮我们进行一个回复 啊,看到了没有? ok, 现在呢我们就已经完成了这个云端的部署,那么这一期视频呢,相对来说比较的基础,比较的简单,大家按照我的这个视频步骤啊,一步步来应该是没有什么问题的, 后期呢,我会教大家一些更深入的玩法,这个如果说想要跟我系统性学习的话,也是可以在这个评论区飘三个六, ok, 那 么我们下期再见。

可口可乐大龙虾,他是云端好还是本地好?那他们两者之间的成本有什么样的差异,以及他们实现的效果,功能上面有没有区别?那今天一条视频给大家讲清楚,哦,对了, 还有适用的一些人群啊。我先说云端,现在目前你部署一个大龙虾到云端上面,你需要花费的成本大概在五百以内啊,不会太高,因为现在阿里、腾讯 各大云厂它都出了这种 opencloud 的 一个镜像,你只要是买一个清亮云服务器,买了之后呢,自动就给你它部署好了,这个界面就是云端的界面了,对吧?自己配一个模型, 一个通道,以及它的技能数啊, skill 就 完了,非常简单,傻瓜似的,这个东西部署的时间也就在二十分钟以内,就这么快的一个时间,它适合什么呢?咱们本地没有什么设备啊,并且呢,我本地是需要关机的嘛, 所以我在云端上面就能七乘二十四小时不间断的让它去运行。那说完云端的好处优势,那我们再说一下本地,难道本地真的是那么一无是处吗?啊,倒也不是,因为现在网上但凡你去搜一下,现在有很多那种 opencloud 的 一体机啊,说实话是之前那种 魔改的一些机器,因为云端的优势刚也说了,但他的劣势也挺明显,就是他的核心以及他的内存不会给你很大,你像你花个两三百,可能买个四合八 g 的 都都都这种都很难逃了,一般是二二合四 g 的 这种样子。这就来说对大龙虾的这个本地发挥就有限制,他不能去做多现成的这种任务,可能会因为自己的深度思考,然后卡死, 也不能调用太多,那我们在本地部署的时候,当然硬件就没有什么限制了,那限制的可能就是一些什么你的贷款,对吧?网络波动 以及你本地化的一些环境搭建,这个就是一些进阶玩家的啊,这么一个操作了,你需要在一个纯净的系统上面。当然这里建议不要拿你自己的主力机,比如说像我现在用的这台 windows, 我 有很多里面自己的资料,我不 能说把大龙虾装在里面,那他万一抽风删掉了我本地的一些资料怎么办呢?那后悔莫及,追悔莫及,那对我造成了一定的损失。但凡事都有两面性,所以呢,一般的解决问题呢,我就会在我本地的这个机器里面再装一个沙盒系统, 也就是在 windows 里面再开一个 windows, 让它在沙河里运行。那这个时候问题又来了,那你在沙河里面运行,你得关机,你不能说二十四小时一直开着对吧?但大龙虾就需要二十四小时开着,所以大家都在网上疯狂的抢那个 mac mini, 就是 因为它足够让大龙虾去运行, 单独为大龙虾装这么一个硬件,那剩下就是看怎么去用了,而且 mac mini 可以 多个这么组建起来,然后让它的性能再一步去提升。但是现在也有很多那种伪 windows 的, 就是大龙虾一体机,也是以前的上古, 但是整体来说比云端的这个无论是从核心数来说,还是内存来说,还是你的硬盘来说,要宽裕太多了,足够让大龙虾多开几个浏览器或者多端去运行,深度思考 迭代一些东西。那其实在云端上面我们是适合小白,并且不是那么深度去玩的,就简单配置一下,平常我记个手帐, 运行个文档什么之类的啊,规范化。那如果说我需要大型的一些执行或者复杂一点的话,那就是在本地,但本地呢,更适合我们中高端玩家 diy, 因为要解决环境的问题,包括自定义,包括技能数 skill 的 一些自我的配置,那配置就更多了,每个机器每个机器有不一样的东西, 同时你也得保持这个二十四小时在开着机,它在运行,包括大龙虾的运行的这种情况下,水土不服的情况下,你都要去解决这样的 bug, 所以呢,两者的区分 就非常大了。那大龙虾现在能做什么?就是做一些表格公式之类的,帮你去提醒,帮你去服务一些会员,有的把它接到了一个企业微信里面,去服务一些客户,在客户群里解答一些问题。像我呢,我更多的是把它当成一个我知识库的管理员,但是他之前也建议我说把它当成一个 写脚本的,但是脚本对我来说呢,相对来说这是人该写的东西, ai 写永远没有我自己写本那个味儿, 这个对于 ai 来说是难的。呵,这个是多年的说话习惯或者使用习惯,这个 ai 的 确是做不到,但它能做到就是在我既有的内容之上,它可以自己浏览我的知识库,然后同时呢规划我的知识库更新方向, 以及呢帮我填充一些啊有必要的一些细节,然后作为我的一个助理,二十四小时监管着我的这个知识库的叠带,以及同步的去浏览现在最新的 ai。 啊,那至于他烧多少扑克,你其实也现在到现在也没烧多少,而不是说啊我是要云端好还是本地好呢? 你先跑起来,我觉得是最好的。呃,最后我想说的是在你做这个大龙虾的时候,结合你现在实际的目标去产生价值,这个我认为是你要想清楚的。然后第二步,那接下来就无外乎就是 看那些投产品呗,我投入了多少,然后他输出了多少,因为大龙虾他是可以根据你的过往记录去存储一些他工作的细节,他会一点一点增强他的技能,以及你把他当成一个伙伴搭子的这个适配性。希望对你有所保 好。关注我,阿叶能洗。

老师们,我问问啊,就是那个 oppo 可乐,如果说在本地部署的话,你别管是什么 mac mini 啊,还是 windows, 它能控制咱们电脑去点击浏览器,去登录账号,去操作整个电脑界面吗? 就是如果的话,我可能真的呃动心思说整一台单独的设备就直接部署了本地部署了,为什么?其实我是想把那个项目做下去的, 就是用 ai 助理我的云叔,让他每天去研究着发什么视频,我自己就不参与了啊,让他自己通过自己的形象啊,再通过咱们吉梦的那个 cds 二点零啊,自己去做视频,做完视频之后顺手再发出去。 我是挺懒的,但是我就想试试这个项目成立不成立啊,懂的,老师,咱们聊聊探讨一下,就是我们本地部署的能做到这种程度吗? 我在云服务器上我是整不明白了,登个浏览器啥的他就给我卡死啊,半天都不说话,再一说话他又不记得之前干嘛了, 还是说其实在哪怕是云上用浏览器他也能操作我,我用的云他,他没有个界面,没有个正儿八经的界面都我看不见,他那边到底是什么样子的吗? 嗯,我也不知道他到底有没有去浏览器里边去干活呀,是不是?但是我可以用 rpa 是 吧?机器人自动化,但是他自动化他没有智能,他不会思考呀, 对吧?我可以去做脚本啊,一步一步一步怎么做?但是我想要的那种效果,我还需要跟我的云叔天天聊天呢,对吧?

没想到啊,距离我制作 open klo 的 详细部署教程已经过去了一个多月,这玩意现在居然火成这个样子,甚至某鱼上都冒出了一堆远程部署的这个付费服务,动不动就收你们几百块钱。我在我那期视频发布之后呢,有的观众也在吐槽模型费用太贵了,那有什么办法能够不花这个模型钱呢? 有的兄弟们,有的本期视频的主题就手把手带你们部署一个属于你自己的大模型,并教会你如何在 open klo 中切换大模型的大模型啊! 不管你是使用像欧拉玛呀还是 l m studio 还是 v o i m 等,都能很方便的接入,从而实现完全离线免费无限制用的 open 可乐。好废话不多说啊,记得先点赞收藏加关注。我们现在开始 我整个教程会分成两大步啊,先搞定本地的大模型部署,再讲欧布可乐的对接配置。但如果你已经部署了本地的大模型,可以直接拖动进度条是吧?跳到对接部分即可。第一步,咱们先搞定本地大模型的部署啊,我这边推荐没有经验的同学优先使用欧拉玛,他几乎是目前全网最简单的本地大模型部署工具,没有之一 啊,支持一键部署市面上绝大多数的一些开源模型啊。然后这里插一水,如果你想要工业级大模型的推理框架 v l l m 的 教程,可以在弹幕当中扣个一人多的话,我后续考虑出个教程。 首先打开浏览器啊,输入欧拉玛的官方地址,我放评论区了,就直接复制在那些就可以。进来之后呢,你是什么系统就点对应的下载是吧? windows 点 windows 麦个点麦个, 下载完成之后呢,麦个就跟安装其他软件一样是吧?然后 windows 也是不断的下一步即可。 好,现在安装完欧拉玛后呢,最关键的一步就是下载并启动本地的大模型。这里要跟大家说清楚,要驱动 open close 这样的 a 卷的系统, 必须选指令遵循度强,上下文长度多的模型,简单来说就是听得懂指挥是吧?记得住你的命令的这种模型。而我这边测试了好几个模型,比较推荐用的就是这个 q 三点五,它有多个尺寸的版本,通常模型越大则性能越强,大家根据自己电脑的显存大小来选就可以了, 最好选不要超过你显存大小容量的模型,也就是 size。 这里我这为了快速演示,我这就使用这个零点八 b 这个小模型展示啊。如果你们有测试更好用的模型,也可以在评论区跟大家分享一下。 确定好模型之后呢,点进去之后,可以直接看到下载模型的指令,此时我们需要打开终端或者这个 power 键麦克打开终端, windows 打开 power 键,然后粘贴这串命令,然后按回车,它会自动下载模型并启动,全程不用你管。经过一段时间下载后呢,它会自动进入对话界面,你可以直接在这跟本地大模型对话,比如说问他,你好。 哎,到这里恭喜你,你已经成功完成了本地大模型的部署。接下来就是将其接入我们的 openclo 中了啊。这里先提一嘴,如果你的电脑还没安装 openclo, 可以 直接去我之前的其零基础啊部署教程,几分钟就能安装好。我这就不重复讲安装步骤了, 我们先讲刚装好的欧拉玛怎么对接。第一步,修改模型的上下文长度。因为欧拉玛本身为了极致的轻量化,如果你电脑显存不大的话,他默认模型的上下文就给你四 k, 你 就这样给 open color 使用的话,你说完这句话他就能忘了上一句。所以我建议把模型的这个上下文设置为至少六十四 k 以上吧。 我们打开这个欧拉玛的软件,然后点击设置,就在这里设置上下文,然后把这个拖到六十四 k 就 可以了。第二步,去 open clone 里做这个配置对接,还是在终端输入这个 open clone config, 进入 open clone 的 配置菜单,然后回车啊配置本地文件,选择 models。 这里呢是 opencolor 给你预设的一些云端模型配置,像什么啊, gpt 啊, jimmy 等等。我们要选择最下方的 custom provide 的 选项,这个呢是自定义模型选项,可以自定义 opencolor 从什么地址去调用模型的服务。而我们这里默认就是幺二七点零点零点幺,这个幺幺四三四端口的 我们不需要修改。然后这里的幺二七点零点零点幺呢,表示从你本地获取。然后这里的幺幺四三四呢,是欧拉玛的这个端口服务,然后再回车输入密钥,这个地方呢可以随便填,因为这是你本地的服务。 然后这里询问我们要接入什么标准的端点协议,我们也默认回车即可。最关键的来了这里,让输入模型的 id, 我 们在这里输入你刚刚下载的模型名称,然后这个样子就是教验,通过回车啊,后面的这些都不用,输入,回车即可。 然后最后选择最下方的这个 ctrl 钮,完成模型的切换。现在你可以回到 openclip 的 控制面板当中,点击代理,看到这个 primary model 是 不是你刚刚选择的模型了。至此,你已经成功在 openclip 当中揭露了本地的大模型。 如果你使用的是 l m studio 或者 v l m 等模型推理框架,步骤跟刚刚几乎没什么差别,只需要将这里的电路地址修改为你所对应架构开放出来的端口即可。比如说像这个 l m studio, 它默认的端口就是一二三四,你这里就写啊,幺二七点零点零点幺一二三四就可以了, 然后 vm 呢则是八千,然后你就把这个端口修改成八千即可。后面的步骤和欧拉玛一模一样是不是?嘎嘎简单?所以我们来 open call 聊天框简单的测试一下,就说帮我查一下北京明天的天气, 哎,如果你的任务比较简单,那是用本地大模型来驱动这个 open call 还是非常 nice 的。 最后本期视频用的所有命令和部署流程我都整理好了,放在这个评论区,大家点赞关注智取即可。 然后上期的这个部署教程和 open klo 的 这个 skill 制作教程我都会放到 open klo 的 合集里头,后续呢也还会更新 open klo 的 其他玩法,不想错过的朋友可以点个收藏和关注啊,咱们下期视频见!

我建议所有使用 cloud bot 的 朋友们不要在本地部署大模型。很多人都说 cloud bot 呢,让 ai 可以 去操作你的电脑,这个听起来是很好的,尤其是呢,那些很注重安全的公司,他们会想方设法的在自己电脑上去 部署一个本地的大模型,那么这个样子呢,就把所有的文件呀,他的权限呀,停留在你自己的手机和这个电脑之间了。这个事情看起来是很美好的,但是背后呢,有几个隐患,我一个一个带着你说。首先呢,就是成本层面,到今天为止, 我认为部署一个你自己看得上的一个模型,还是一个比较大的一个成本的。首先你一定要清楚在本地部署一个大模型,你到底需要什么样的电脑配置。我给你个简单的算数,你就可以去理解了。你看到任何的一个大远模型,他们的都说自己的参数是多少,他们通常会以 b 去结尾,比如呢,他会说我是一个三 b 的 模型,十七 b 的 模型,比如像 deepsea, 大家所熟知的是六百五十个 b, 六百五十 b 的 意思就是六千五百亿个参数,但是呢,你怎么去算?你需要什么样的电脑?你只需要把 b 前面这个数字乘以一个二, 那么呢,就基本上代表着你能够在你的电脑上跑一个完整满血版的大圆模型所需要的 显存。这句话有点绕啊,有两个点,第一个呢是显存,而不是内存,第二个呢是满血版。首先什么叫做满血版?你会在网上看到很多人在教你用欧拉玛呀, lm studio 这些的软件去使用本地模型没有任何的问题,但是他们在 带你去下载的时候,你一定要注意它到底是不是量化版或者叫阉割版的。因为随着它自己的所需要的内存越来越少,那么它的精度也越来越低, 精度越来越低,那么大约模型所生成文字的正确率也会越来越低。所以呢,你会看到有四比特量化版,八比特量化版,听起来你可以用一个很小的一个显存就可以用,但实际上你用的是阉割版而不是满血版,就是用你 b 前面这个数字,再乘以一个二,就是你的显存。 第二个我们所提到的重点就是它要的不是内存,而是显存。六百五十个 b 代表着大概一千三百 gb 的 显存。一千三百 g 的 显存是什么概念?我给你举一盘数字,一个 h 一 百大概是八十个 g 的 显存,那么一个八卡的 h 一 百的 cluster 也就六百四十个 亿的现存,那你需要两个八卡 h 一 百的 cluster 才能够给一个人在一个时间使用一个满血版的 deepsea, 这个就是对现存的要求,价钱是多少大家自己网上去查,我只能告诉你一定超过百万。所以呢,你是否需要 使用一个 deepsea 的 满血版,然后在你的本地去跑呢?相比下,你知道如果你用 deepsea 的 api, 那么你大概需要一个什么样的成本呢?我印象当中 deepsea 的 a p i 是 每一百万个 token 只需要大概十六人民币。什么概念?一百万人民币你就粗略咱们保守估计,大概三十万个文字,你出三十万个文字 只收你十六块钱,你自己去对比一下,你要用到百万级别,你要让它出多少个字,这个就是成本上一个非常大的差异,很多人忽略了这一点,用一个阉割版的小模型,你会发现能力差的不得了,更何况我们是希望 logbook 在 我的电脑上去操作的,操作是不能出错的,你让他出一行指令,本来是应该添加,本来是应该修改,他给你变成了删除,这个事可就大了去了。所以呢,我是不太建议在没有绝对相信你自己的电脑硬件实力的时候,就随便的在你本地部署一个大模型,这是第一点,在成本层面, 第二个层面,我觉得是很多大家忽略的就是风险系数,你总是觉得似乎我在我的电脑上用一个开源大模型是最保险的。 但是你要知道,如果你想真正的发挥 cloud bot 的 一个优势,你需要使用它的 skills, 也就是它自己所推出这个 cloud bot, 全世界各地的极客都会贡献他们已经写好的 skills, 摆在网上,你下载下来,原本你的这个 cloud bot 什么都不会,但是你用了别人写好的这个 skill, 你 看今天又能干这个,明天再加个能力,后天再加个能力,对不对?那每一个 skill 是 什么呢?每一个 skill 呢?其实就是一个 markdown 的 文档,下载下来,它会按照里面一步一步去执行,但是呢,在执行过程当中,你会不会仔 就去读这个 skills md? 如果你自己没有读 skills md 的 这个能力的话,那么我建议你谨慎使用。为什么?因为你不知道它在里面会植入什么?到现在为止,虽然我们还没有看到一些不好的例子, 但我相信有些 bad actors 一定会找到 skills 的 类动,在里面植入一些不想植入的东西。你下载下来直接让大元魔去使用的时候,它会做一些不好的事情。但是这个时候,如果你今天用的是一个 开元的本地模型,你自己是没有这个评判能力的。但是如果你今天用的是一个接入别人 a p i 的 能力,在他输出一些不好的东西的时候,很多的这些 大厂的模型会在前面已经给你啪加了一道网关了,告诉你我不能够输出这样的东西,说白了,他们已经在帮你输出之前加入一层安全的护栏了。所以我们切一定要记住 opencloud 这个东西,它虽然 skill 是 一个很伟大的一个发明,让你可以用到全世界所有的优秀的人写的 skill, 同时它也扩大了潜在的风险。 所以这两点是我觉得普通的用户们暂时先不要考虑在你的本地去部署大模型这件事情,尝试把它下载下来,接入到呢手机里,然后接一个便宜的 a p i, 无论是很好很好的模型,价格也非常的便宜,都是大厂, 很多人呢,都会高估了自己的文件的安全重要度,而低估了大厂对于安全的服务度。你要知道,今天如果你用阿里云,用腾讯,用华为云,你的文件都是存储在他们上面的, 那其他的大公司都没问题,怎么就你的电脑里这个文件就会单卷安全的问题呢?对不对?所以呢,千万不要低估了大厂的安全能力,而高估了自己的文件的安全重要程度。所以呢,赶紧先去接入用起来,找一个你喜欢的大厂的 a p i 用起来 感受一下未来的时代,这个才是重中之重。慢慢地,你在不断地添加 skills, 慢慢地在考虑你是否需要转移到本地大模型,这个才是一步一步迈入未来的正确方法。

兄弟们大家好,今天呢,我们来出期龙虾官方的部署教程,来看下左上角的地址,龙虾的官方域名地址是什么呢? 哎,就是这个 opencloud 点 ai。 想要部署 opencloud, 我 们先要安装两个软件,一个是 git, 一个是 node js, git 呢是这个地址点这儿下载。 note g s 呢是这个地址点这儿下载。下载完成之后呢,你就得到了这么两个东西了,哎,怎么安装呢?很简单,双击打开下一步,下一步,下一步,下一步,一直到安装完成就 ok 了。接下来你需要鼠标移动到左下角开始按钮,然后输入 power shell, 以管理员身份运行打开它。打开之后呢,你需要手动输入三个命令,来测试你刚刚装的 get 和 node js 是 不是安装成功了。那么第一个命令呢是 node 空格,杠杠 v e r s i o n 回车, 哎,第二个命令呢是 npm 空格,然后杠杠 v e r s i o n 回车,然后第三个命令呢就是 get。 接下来我们就要开始下载和安装了,那根据 opencloud 龙虾官方的部署教程,哎,第一步呢,我们就要执行这个命令进行下载和部署。 这里补充说明一下啊,当你执行这一个安装的命令的时候,你要确保你能够在电脑上访问 opencloud, 点 a n 对, 也就是访问 opencloud 这个官网,如果不能访问呢,你就得想想办法了,哎,搞搞魔法呀,搞搞科学呀, 对吧?那当你的 power shell 出现这个 open cloud 安全警告哎和提示的时候呢,就说明你的 open cloud 龙虾就已经安装成功了。然后呢,我们按键盘上的左右方向键,哎,来选择一个 yes, 然后第一个这个呢,是第一个,这个呢,我们选择最后一个,这个呢,我们选择第一个,这个呢也是第一个。 好,那么这个呢,我们就选择最后一个这个呢?我们也是同样的跳过, 为什么要跳过呢?因为跳过之后呢,可以在后面啊,去再去配置好,这里呢,他问你要不要去配置 skill, skill 什么呢?哎,就是配置技能,那我们就选择 no, 这里问我们要不要配置 hook 啊?就是配置自动化脚本,那我们这边呢,也是跟刚才一样也是跳过, 但不同的是呢,我们要按一下空格键,然后再按回车键。哎,跳过了这一步呢,跟你自己操作是有差异的,因为我现在已经安装了这 opencloud 了,所以他提示我是要重启还是要重新安装还是跳过, 那么为了我们演示呢,我们就现在重新安装一下啊。好,当我们的网关安装成功之后呢,就来到了我们 open cloud 触式化的最后一步,他这样问你的是第一个,你是用什么方式去启动你的机器人? 他说第一个是终端啊,第二个是 web ui, 那 我们选第二个啊。 哎,当你安装成功之后呢,它就会自动地跳转到你的 web ui 的 这个界面,那么当前这个界面呢,就是你的 opencloud 龙虾的操作界面了。