问你一个问题,你们用这些 cloud code 或者 open curl 这些编程工具或者智能体工具让他全自动化去运行的时候,你最怕什么?我不是怕他把我的库删了,我最怕的是运行一晚上之后,第二天信用卡欠费了,这是最怕的。 或者有一种情况就是我的 caller 或者 codex, 我 用 cloud 的 时候,我恨不得把我所有的问题任务一股脑的全部发给他,生怕这一次请求没有发挥到他的能力。 这就是现在托肯很贵,而且这些顶级的模型他的托肯更贵导致的原因。今天给大家分享这个项目,他号称可以减少百分之七十八的成本,而且效果还蛮不错。他这个有一个特别强的一句话,把每一个请求都路由到最便宜能处理的型号, 可以在一个钱包里面去聚合非常多的模型,然后它会把你的问题给它路由到最合适的一个模型,也是最便宜的模型里面。这个项目叫做 curl router, 它的 star 数也是达到了两千, 最近这个 open router 才稍微火起来,它的这个星星树长得还是非常恐怖啊。我们大概来看一下它有哪些功能。首先它是百分之百本地路由的,它的速度很快, 它是从你本地进行跑代码,然后来选择对应的模型的。这个一会给大家看一下,其实它对我最大的吸引力就是它是怎么样路由的。 ok, 它就说了一下有一些简单的,你可以用 deepsea 来做,有一些总结性的速,你需要速度快的,也可以用 gpt 的 四 o mini 来做,这样它价格又便宜,然后速度又快,又能解决问题。如果说要做一个非常强的内容,那么你就应该用 cloudsonet 来做。如果是其他的一些回答问题的,你又可以用 deepsea 的 r 一 这种模型来做, 比如说并行进行搜索了,你又可以用 kimi k 二点五来做,因为 kimi k 二点五它并行拆解任务和执行任务的能力现在是最强的,没有之一。 ok, 它其实整个逻辑是就是这样的啊。你如果说传统的,可能你就固定了一个模型,那么你就直接问,除非你想好我这个问题到底哪个模型更好,然后我先提前选好模型。这样的话其实我们不太符合我们正常的一个习惯,就说它自动化的给进行路由还是非常不错的,安装也很简单, 它其实就是在呃调用这个 api 的 时候做了一次中间处理,其实我最在意的就是它是怎么样路由,怎么样判断。我就看了一下它的一个 markdown 的 文件, 其实很简单,它就是去检测它里面有没有一些文本,比如说证明定力,逐步推进,就代表它的难度会更大。但是这个是英文的,如果是中文的话,我们可以去改一下它的 prom, 它里面有一些 prom, 它其实就是检测它的关键词。 如果是简单的话,他懂得得分,他就会特别低,那么他就会路由到稍微简单一点的模型里面。呃,所以说他这个速度也会很快。 但是这个东西呢?他路由起来并不是那么好哈,因为他路由起来,首先他速度是好的,但是他的准确度是不够高的,而且你不知道你这样弄的话,他肯定性能是没有得到足够的保障的,是没有量化的这种选择的。 我们之前也看见过上海交大他们发的一些文章,就是专门去做陆游的这种文章,因为他发现现在的模型他不是面面俱到的,就算是顶级的大模型,他都不是面面俱到的。比如说做视觉编码推理, 就是 gemini 三、最强,做一些简单的任务,直接新建一些应用的,新建的代码工具可能是 cloudsonet 是 最强的,而且性价比也是高的。然后如果是找一些问题,其实是 codex 这个模型最强, openai 的 模型最强。如果是做一些总结,那其实可以去调用 gemini flash 这个模型,它速度又快,而且又便宜,而且它总结的性能效果都还蛮不错的。比如说你要做一些并行的,那么现在最强的又是 kimi k 二、所以说每一个模型它的擅长点都不一样, 所以说这个项目他其实是去把所有的问题,他做了一个句类,把它句类了之后,看一下这个问题到底适合哪个方面的,他才去把它路由到这些模型里面。当新的问题进来的时候,当新的这些托肯进来的时候,他会把它向量化,向量化之后会把它进行这些类别的判断,判断了之后再放到这些模型里面。 最最重要的是它有一个特别好的点,它可以进行成本和性能的评估,或者权重你是可以调整的。比如说你想要成本最低,性能又达到,比如说 roald, 它的百分之八十,那么它的成本可能就降低百分之百分之八十多,延迟也会降低多少? 如果你想要达到可用的它的百分之九十以上,可能它的成本降的就没有那么多。而且还有一个点,它没有一个比较智能化的,因为我们现在是有很多这种免费的 api, 我 其实上传了之后,我肯定需要它去使用我免费的 api, 因为我们比如说薅一些羊毛,或者说英伟达的直接可以调用一些,它其实是完全免费的,我肯定希望它尽可能去用免费的,而不是用我需要收费的。这里的权重这些考虑它也是没有的,其实这个部分还可以去操作一下。 不过总结来讲,这个 curl rotter 也是非常不错,他这个思想还是很好的,而且他这个权重评分会很简单,他简单必然就带来他的速度会更快。如果使用向量化的,他会稍微慢一点,但是也慢不了多少,估计也是毫秒级的。但是这个的话就非常快了,他就相当于跑一个脚本就完事了。这个就是一个关键词检测的, 你可以自定义一些关键词,然后进行执行度检测。怎么说呢?他快而且简单,而且你自己可以控制, 但是它的准确度或者它的性能啊,你是很难调节的。比如说你按理来说你可以设一个这个按钮,哎,拉到多少?比如说 gpd 的 百分之八十, ok, 它成本大概是下降了百分之百分之六十或者怎么样?这样的话其实更加直观一点。
粉丝1.1万获赞12.8万

我们在前面安装这个 open 可露的时候,所使用的模型是智普的模型以及还有阿里百联的模型,但是这些模型的话都是属于在线的呃,它会需要很多个 talking, 那 这些 talking 呢,我们是需要花钱去买的, 那当然呢,也有人去反映这个在线的模型啊,它所消耗的 talkin 很多,所以说这个时候有人就想我们能不能使用本地的模型来部署 这个呢?当然是可以的,我们可以先到那个欧拉玛的网站上面去看一下啊,在他的首页这里面有一个 openclo, 我们点击进来啊,这里面没找着,没关系,我们往下拉一下,往下拉一下之后,因为这个 clubbot 已经改变为了这个 openclo 了,我们在这里面选择这个 openclo, 然后呢我们往下面拉,往下面拉的话,这里面的话呢,他就会有一些他所推荐我们所使用的这些模型。那么我们就建议呢,各位就是使用的时候就直接使用他所推荐的那些模型 啊,现在在我的环境这里面呢,我已经是把这些模型呢给它拉取下来了,那你使用其他的模型的话,可能还是会有一些问题的。 那下面的话呢,我们就开始去配置一下这个模型,点击这个 open clone, 然后呢我们点击这个 config, 点击 config 之后呢,继续找到这个 modus, 然后有一个 private, 然后这里面咱们就开始去添加一个模型 and you try, 那 这里面我给他一个名字叫欧拉玛好了, 这个名字你自己可以自己随便去取都可以。然后呢我们这个 api 的 这个位置呢,你可以选择这个是 compilation api key 的 话呢,这个可以随便去写 啊,因为我们的这个欧拉玛它不需要这个 k 去验证,这个你随便写什么都可以啊。 然后呢这里面我们选择 i p r k os header, 勾选上 bios ysl, 这里面的话,你就加上我们的这个欧拉玛的这个地址, 那么这里面的话,我现在的地址是端口是幺幺四三四,那这里面我们写的时候就是 h g d p 冒号本机,你你可以写任何的,你主机上的任何的一个地址都可以,零点零点幺, 这里面的话我们写上端口幺幺四三四,这里面一定一定要把这个 v e 给它加上去。 如果说你不加这个 v 一 的时候,那我们去访问的时候,他可能就是,对吧?你问他问题,然后呢他就回复的时候就是一个空的,什么都没有,所以说这里面一定要加上一个 v 一 才行。 然后呢我们继续往下拉,找到这个 modus, modus 的 话,然后呢我们选择这个 and, 选择 and 的 之后,然后在这里面 api 的 这个位置呢,我们也是选择 open i, 它的这个我们就选择 max talkings, 然后它的这个上下文的这个窗口呢,我们给它设置一个比较大的一个值就可以了,随便你去设值。 继续往下拉好,然后这里面有一个 id, id 的 话呢,就输入我们的这个啊模型的名字就可以了,比如说我这里面就直接使用 gptos 二十 d。 好, 那么然后呢我们继续往下拉,这里面有一个 and, 把它选择为这是一个 text 的, 然后这个 man talking 的 话呢,你也可以随便去写,我就直接写上一个四万就可以了。这个你随便去写, 然后给它起一个编名,我们就写成这是为一样的就可以了。这是我增加了一个模型。 那然后呢,我们你看啊,在它的官方网站上呢,给我们推荐了好几个模型,其中还有一个是 glm 四点七的,对于 glm 四点七,它这里面的话使用的是一种语音环境,我们这里面点击这个 mod 的 话,它不是让它是直接使用的,是在线的一个模型, 我们在这里面的话呢,也来给它加过来。在我的环境这里面的话,你看有一个 glm 四点七 club 的, 这里面的话,这里面呢,我也是给它拉取下来了。好,所以说我这里面再次增加一个新的模型,这几个我都给它加过来。 好,在这里面我们再次点击一下这个 and。 好, 然后呢,这里面我仍然选择的是 open i complexions。 然后呢这里面也选择 manage tokens。 窗口的话,我们在这里面你随便去写一个都可以 继续往下拉。然后这里面 id, 我 们把我们的这个镜像来给它加上去,就是 g, p, d, o, s s 的 这个 y 啊,这个是应该是选择的是 glm 四点七的,这个我们加第二个镜像。第二个模型 input 的 这个位置呢,咱们也选择 text 的, 这个位置的话,就随便去写一个比较大的值就行了。 这个名字的位置呢,我们也给它起一个命名,也叫的是 g m g r m 点 g cloud。 好, 第二个模型呢,我现在也是给它添加过来了。 那当然了,我们也可以再次去添加一个我们这里面添加的模型都是官方它所推荐的模型。 然后呢我现在再来添加一个其他的模型,这个呢,他并没有出现在官方推荐的这个文档这里面,咱们现在来看一下是否会有什么问题。我这里面选择枪顶三杠十四 b。 好, 这次去添加一个模型。好 and, 好的,现在这里面来给它收起来。好吧,这里面的话,我们仍然选的是它。好了之后,这里面选的 max tokens, 这个呢,我们就随便的去写一个比较大的值就可以了。 然后这里面 id, 我 们就把这个谦问三十四 b。 我 再说一次,谦问三十四 b, 这里面并没有出现在它的这个推荐模型这里面。 input, 这里面点击 text, 这个值呢?我们也直接输入一个比较大的值就行了。好,这样的话我现在添加了三个模型,点击 save, 咱们现在去看一下它的这个配置文件,点击打开 点击之后呢,这里面你看有一个 private 的,是百炼的,这个是我们在前面的时候已经添加过的奥拉玛。这里面的话呢,我增加了三个模型,一个是 gpt osss 二十 b, 还有一个是 grm 四点七克拉的,那还有一个是铅汞。三十四 b, 然后呢我们往下面拉,找到这个 agents, agents 的 话,这里面的话,这个模型的话咱们现在继续来给它添加过来,把这几个模型现在来给它加过来好了。好吧,呃,这里面的话,我就直接啊往后面去写, 这是一个这是一个,这是一个。 那这里面的话,我们直接选择的是维欧拉曼、 欧莱曼的这几个模型,咱们现在来手动的来给它加过来,然后 g p t o s s s 二十 b 二十 b, ok, 这个是添加过来了一个了,然后呢我们再把剩下的两个模型也来给它加过来。呃,还有一个叫做这是为 g r m 四点七 cloud 的 这个呢,我们现在也是把它的名字记 r m。 好, 那然后呢我们再次来给它增加一个,还有一个是千问三十四 b 的 铅汞三十四 b, 这个边名的话呢,我也给它起名叫做这是为铅汞三十四 b 就 可以了,那这里面的话,我现在额外的额外的增加了三个模型,那然后呢,我们现在使用其中的某一个模型,把它设置为是默认值, 比如说我这里面就是这是 default, 就是 设置的是它的默认值。 ok, 好, 我现在使用 g p o s s s 二十 b 的 这个模型保存一下,咱们现在开始去做测试,点击这个 chat, 好, new session, 打开一个新的脸际,新的绘画。 好了之后呢,咱们现在来跟他去沟通一下。你好,请问你是哪个模型? 它这里面的话,因为使用的是比例的模型,它这里面其实是会消耗比较多的这样的一个 gpu 的。 好,它这里面的话告诉我们说使用的是欧莱玛 gpt 二十 b 的 这样的一个模型。好,然后你可以随便的去交流就可以了。 好,请问是哪个模型? 好?这里面告诉我们说是欧拉玛 g p t o s s 二十 b 的 这样的一个模型了, 那当然呢,我们现在去换一下,我刚才讲咱们刚才看到的时候,它这里面实际上是会消耗比较多的 gpu, 那这个时候有的同志说我笔记本上面跑不起来,对吧?跑不起来,那么大的这个,呃,那么大的这个,呃这个模型,那没关系,我们可以直接使用什么呢?我们可以直接使用它的这个云端的这个模型, 也就是直接使用 g m 四点七 cloud cloud 的 话,它本地并没有去下载什么模型。 那这里面的话,你首先你得你要是想使用这个模型的话,首先的话你得要在欧拉玛的网站上自己去注册一个账号,记住了,你得要注册一个账号,注册一个账号之后呢?然后我们在命令行里面 去登录一下,在这里面有一个登录的这个名字。 好,欧莱玛,我们现在去登录一下,那这里面的话,你看我现在已经是登录了。那如果说你没有登录的话,比如说我举个例子来说,我现在把它给退出来,我不登录了, 不登录了之后呢,我重新去登录,你看他这里面的话是会给我一个链接,给我一个链接之后,我们在这里面把它切到我们的地址栏这里面来,他会问我们是否要去链接,当然了网站这里面你得要先去链接一下才可以, 这种方式就算是连接成功了,连接成功了之后我们才能够去使用这个云端的这个模型,我们可以试一下,好让 你好,我们来看一下他是否能够正常的去回复,你看此时是可以正常的去回复的, ok, 退出来就行了。那这里面的话,他啊我们这里面直接使用免费版的就可以了,你不用去花钱去购买什么,直接使用的是这一块免费版的,他也够我们去用的了。 那这里面的话呢,我们现在去换一下这个模型, glm 四点七 cloud 的 这个模型。好,我把它给换掉。换掉之后呢,然后我们现在重新的去跟它去做一个沟通,点击这个 new session。 好,我们现在开始跟他去交流。你好,他这里面的话就可以跟我们正常的回复了。请问你是哪个模型? 原来使用的是我们一开始刚刚所做的练习,使用的是这个 gpt osss 二十 b, 那 现在的话使用的是 grm 四点七 club 的。 那这里面你看它告诉我们说现在用的是什么?叫做是欧拉玛里面的 glm 四引擎 cloud 这样的一个模型。 那我们现在再次来给它换一个模型,我本地这里面,在我本地这里面有一个千米三十四 b 的 这个模型呢,实际上是可以正常去使用的,我们现在来打开看一下。 好,请给我写一篇两千字的作文。 那你看啊,我这里面使用的时候它是可以正常去使用的,看到了没,它消所消耗的 gpu 其实也是蛮多的,跑起来也是蛮快的,没有什么问题。我 ctrl c 终止了,对吧?你可以等一下也行。好,我们退出来吧。 好的,反正我现在就想说明的是什么呢?说明的就是我的这个千万三的这个我的千万三的这个模型啊,是 正常是可用的,对吧?然后呢,我们现在把它换到哪里面去呢?换到我们的这个 opencloud 里面来,我们看一下能否正常去使用。好,我选择这个千问三十四 b, 把它换成是默认的, 找到这个 agent 千元三十四币,那这个呢,就是我们的加载过来的这个模型呢,已经保存退出,然后这里面的话呢,我们现在再次去跟他去沟通 new session。 好,那这里面咱们现在来问一下你。好,他这个不稳定,我们也就是说使用千万三的这个模型的话,呃,他可能就不是很稳定,有的时候你看现在可能是正常的,但有的时候呢,他可能回复的时候就不是很正常。 好,你看这里面回复的时候,现在就已经是不正常了,也就是有问题了已经,对吧?那在我本地跑起来的话是正常的,但是呢,我们在 open clone 这里面去引用它的时候,运行起来的话,则可能还是会有问题的, 所以说我们在使用模型的时候就直接使用它所建议的这些模型就可以了。 那当然了,如果说你本地的这个啊机器配置的比较高,你可以直接使用千万三 q 的, 那如果说你所使用的这个配置不是很高的话,那这里面的话呢,我们就可以直接使用是 glm 四引擎的,这是属于是语音环境上的一个啊模型,那它这里面的话并没有什么限制, 对吧?你可以看一下,它这里面并没有告诉我们说可以免费使用多少 talking, 超过这个 talking 就 不能使用了,它这里面并没有这些要求,所以说我们直接使用在线的也是非常方便的。那如果说机器配置不高,那么我们就可以选择它机器配置比较高,对吧?你就完全使用本地运行的这个模型, ok, 你 就可以选择它。 这是我们如何让 open globe 使用欧拉玛所部署的模型?大家可以自己来尝试一下。

今天教你如何使用 opcode 切换两个大模型,一个是 glm 四点七,一个是国产的千万大模型, opcode 提供的模型供应商有这些,你可以选择你需要的大模型进行切换。首先打开终端,输入这行指令, 可以看到我当前的大模型是 glm 四点七。最下面是让你选择是本地部署还是远程部署,我这里选择本地部署。 紧接着就是让你选择配置的区域,这里选择模型配置。再接下来就是进入到了模型列表界面,这也提供了很多的模型供应商, 因为我已经配置了 g m 四点七,所以我这里选择千问来进行配置。每一个模型后面都有写是进行授权登录,还是说通过年提 api 进行登录。 我们选中千问后回车,然后确认一下,会弹出一个浏览器的网页,我们点击一下授权的确认按钮, 认证成功后就可以回到命令行界面进行下一步的操作。在这个模型列表一页,他默认其实已经把纤维模型给选中了,我们可以往下滑找到纤维模型,确认一下是不是选中状态,也可以直接按回车进行到下一步。我这里已经看到纤维模型已经被选中了,我直接回车进行到下一步。 这个时候千万模型其实已经配置好了,我们点击键盘上的 esc 退出界面,然后再重新输入刚才的命令,确认一下是不是当前模型变成了千万模型。 我们输入键盘的 esc 退出后输入这个命令,打开浏览器界面,我们点击右下角的按钮,创建一个新的绘画,然后输入一个问题,你是哪个大模型?他的回复是同意千万模型。到此,整个切换模型的步骤就完成了,接下来我要切回到 g l m 四点七, 然后演示一下如何黏贴 api k。 前面步骤和刚才的千万大模型都是一样的,只不过是模型授权的方式不一样, 刚才是通过浏览器登录授权,现在是需要去对应的模型官方获取 api k 之后粘贴进来,选择 glm 四,点击这个模型之后,回车之后它会提示我要去黏贴 api k, 一 般都是登录官网找到 api k 管理页面,然后黏贴一下 api k, 身后的步骤和刚才千万模型的配置一样,我们直接回车就配置完成了。输入这个命令之后,我们可以看到当前的模型已经变成了 g l m 四点七。入这个命令之后,我们打开浏览器网页,在绘画窗口输入你是哪个大模型, 这个时候已经切换到 g l m 四点七了,整个过程就是这样,有需要的小伙伴快去试一试吧,这里是 ai 共生格,我们下期见。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

cloud bot 一 夜爆火,这是一个运行在本地电脑的开源 ai 助理,短短几天内, github star 数量直线拉升,已经超过了十二万。本期视频我们带来一个 cloud bot 的 全面攻略,看看 cloud bot 比起其他的 ai agent 有 什么特色。 我准备了十几个案例的玩法大全,还会介绍一个接入飞书加国产模型的方案,让 cloud bot 在 国内网络也能顺畅使用。视频开始之前,先插入一个小插曲, 由于 cloud bot 受到 ansorepic 法务团队的压力, cloud bot 先是改名成了 motbot, 现在又改名成了 open cloud。 爬爬虾做视频的速度还赶不上它改名的速度,所以本期视频我们还是统一叫它最开始的名字 cloud bot。 cloud bot 功能跟 cloud code 和 open code 都有点像,都可以处理文件编码、调用 skills、 m c p 等等帮我们处理工作。 cloud bot 的 最大优势是可以接入各种聊天工具,也就是我们即使出门在外,手边没有电脑,只需要在聊天工具里面给 cloud bot 留个言, cloud bot 就 能自动干活,还能把屏幕截图、执行过程等信息实时同步过来,非常的方便。第二个优点是, cloud bot 自带了强大的定生物系统, 只需要用自然语言就能创建定身舞,比如可以创建一个临时的提醒,还可以定时检查收件箱通知等等,它可以智能地判断事情的紧急程度,选择是否用聊天工具跟用户进行沟通。比起传统的指令执行、指令执行这种固定的流程, cloud bot 就 具有了很强的主观能动性。 它的第三个优点是具有长期记忆,可以把记忆作为文件存储在本地,在日常的对话中能够搜索,并且把相关的记忆捞回上下文,随着日常使用,它还会主动去更新这些记忆文件,会有一种越用越聪明的感觉。好,我们先在本地把软件安装一下, 任意一个能运行 note g s 的 环境都可以部署 cloud bot。 我 最推荐就是使用 mac 或者 linux 系统的家庭服务器。 现在最火的部署方案是使用 mac mini, mac mini 的 最大好处是 mac 系统有不错的桌面环境,这样可以很方便地进行截图、操作、浏览器等等。第二点是功耗比较低, 七乘二十四小时运行,比较省电。第三个优点是 cloud bot 里面许多 skills 跟 mac 生态是绑定的,没有 mac 电脑的话,可以选择 linux 操作系统,或者在 windows 里面创建一个 linux 的 虚拟机。操作步骤跟接下来是一样的, 我选择的安装方式是 node js, 我 们来到 node js 官网,把第一个命令复制一下,然后打开终端执行一下,接着是第二个命令,第三个命令, 这样 node js 就 安装完成了。下一步我们来到 cloud bot 的 官网,在这里有一个一键安装命令,如果我们使用官网上的一键安装命令的话,注意要区分现在软件的名字,比如现在叫 open cloud, 后续所有操作的命令都应该是 open cloud 开头了,这里我选择 npm 的 安装方式, 我们看到 n p m 这里命令还是叫 cloud bot, 所以 后续我输入的命令都应该还是 cloud bot 开头了。这样我把这个命令复制一下,粘贴到命令行窗口执行一下。安装完成,我们输入命令 cloud onboard 来进行初步化。第一步,先配置 ai 模型,因为我有 open ai 的 plus 订阅,所以这里我选择 open ai, 当然下面也有很多不错的国产模型可以选择。视频的后半段,我们再来配置使用国产模型。选择 open ai 以后,再选择第二个 chad gpt 登录, 登录一下我的 chad gpt 账户,这样 ai 模型就配置完成。默认模型我选择的工具是 whatsapp 视频的后半段。我们再来看如何绑定国产的聊天工具。我们打开手机上的 whatsapp 右上角三个点已关联设备,关联新设备,扫一下屏幕上的二维码,这样就绑定完成。接下来选择预装的 skills, 按空格键打上对勾选中,这里可以按需进行选择安装下面的这些 api k 可以 全部选择跳过,然后 ai 会询问我们一些关于人设方面的问题,我们回答一下,这样就配置完成。我说你可以给我的聊天工具发一个消息,我们看到手机上收到了消息,这样就完全配置成功了。 我们先来介绍几个基础命令的使用。输入命令 cloud bot gateway, 这个是启动主程序,我们可以通过关闭控制台来停止 cloud bot 的 运行。在 cloud bot 后台运行的时候,我们可以新开一个窗口, 输入命令 cloud bot t u i 就 可以进入这个控制台的对话界面。输入命令 cloud bot dashboard, 可以 进入一个网页版的控制台,在这里可以进行基础的对话。上面还有很多配置,可以管理定身舞,管理 skills 等等。输入命令 cloud bot channel logout, 可以 退出 cloud bot 上面登录过的聊天软件,然 然后我们再输入命令 log in, 就 可以重新登录一下,因为有的聊天软件可能隔几天就会掉线,我们可以使用这个命令重新登录一下。我们来看 cloud bot 最有意思的一个功能就是它的定身物,定身物赋予了 cloud bot 的 一些主观能动性,让它变得更像一个智能的 ai 助手。 比如我输入这个命令,提醒我两分钟以后关煤气。 cloud bot 回复我,好的,已经设定成功了。我们可以在网页版的控制台 crown job, 也就是定身五这个选项卡可以看到 cloud bot 为我们设定的定身五,这里显示两分钟后执行。两分钟以后,他就把这个消息推送到了手机上,提醒我去关煤气。 cloud bot 具有操作浏览器的能力,我们需要先在 mac 里面下载一个 chrome 浏览器,我要求 cloud bot 去 m i t 公开课下载 python 课程的课件,放到我的桌面,我们看到 cloud bot 自动打开了 mac 里面的 chrome 浏览器,找到了 m i t 公开课的官网,并且搜索 python。 他 找到了几门 python 课程, 回复了我课程的编号,让我选择这里,我选择第一个。他又在浏览器里面通过课程编号找到了这门课,并且下载到了桌面,然后我要求他把它解压出来,他调用了麦克的命令行工具完成了解压,然后我要求他把第一节课的课件发给我 这里可乐豹成功找到了课件,并且完成了发送,效果不错。接下来我们来看一个把浏览器自动化跟定生物组合起来的案例。爬爬虾,作为一个科技软件类的博主,需要经常查看 github 的 热点, 这里我告诉 cloud bot, 让他查找一下 gitap 上面的热点,然后做个中文简报发送给我。 cloud bot 生成了中文简报,接下来我说每天早晨八点你都做这么一个简报发送给我。 接下来 cloud bot 生成了一个定身舞,每天早晨八点都执行这个工作。我们可以在 cloud bot 的 控制后台查找到这个定身舞,每天早晨八点都会自动执行这个工作流程,发送给我简报效果不错。除了操作浏览器, cloud bot 还有图像识别等 ai 视觉方面的能力。 这里打开 mac mini 的 设置隐私与安全设置录屏与系统录音,我们在这里搜索终端两个字,给命令行终端添加上录屏和录音的权限。接下来重启一下 cloud bot, 我 在手机里面说,请给现在的 mac 截一个图, mac 电脑当前的图片就发送到了我的手机上,可以实时的对状态进行监控。 目前为止我们依赖的是海外的聊天工具。接下来我们把 cloud bot 接入飞书,让他在国内的网络也可以顺畅使用。我们先来到飞书开放平台,点击创建企业应用,填写一个名字与描述。接下来点击左侧添加应用能力, 选择机器人。然后我们来到权限管理,点击添加权限,总共需要添加屏幕上这些所有的权限。 接下来来到版本管理与发布,填写一个版本号,点击发布。我们回到 mac 终端,输入第一个命令,安装飞书插件。第二个命令,配置 app id, app id 可以 在飞书开放平台凭证与基础信息里面找到, 把 id 粘贴到命令行里面执行一下,然后配置 app secret, 同样在凭证与基础信息里面找到同样的,把 secret 放到命令里面执行一下,下一个命令,开启飞书 channel。 最后第四个命令,把链接方式改成 web socket, 然后我们重启一下 cloud bot, 这里我总结了需要执行的几个命令,有需要的观众朋友们可以截图保存一下。回到飞书开放平台,在事件与回调这里选择长连接,点击这个铅笔,点击添加事件,然后勾选接收消息,最后点击顶部的创建版本, 我们再提交一个新的版本,这样飞书就配置完成了。在飞书的手机 app 里面,我们可以找到开发者助手,然后点击打开应用这里我打一个招呼,你好,飞书有一个非常可爱的机器人正在输入的表情,我问他现在几点了,这里给出了回答。然后我让他给麦克截一个屏, 告诉我需要先在控制台跟他对话一次,开通权限才可以截屏。这里我们来到麦克上面的控制台,跟他对话一次,允许截屏,这样截屏完成。我们看到飞书也同样可以传递文件传递截屏。我们把聊天方式换成了国内平台 ai 模型,同样也可以换成国内平台。 cloud bot 的 作者推荐使用 mini max, 这里我们来到 mini max 的 开放平台左侧,选到接口密钥,然后创建一个 apikey, 然后我们打开 mac 的 控制台,输入 cloud bot config 来配置一下模型,选择 mini max, 然后我们把刚才创建的 mini max api k 填写进来,一路回车就配置完成。来到 cloud bot 的 控制台,输入命令斜线 models, 然后我们可以选择 mini max 模型, 选择完模型以后,我们再重启一下 cloud bot, 这样模型就切换完成了。 cloud bot 的 强大之处在于它内置的 skills 可以把各种第三方的生态接入进来,比如这里的 g u g skills, 可以 把谷歌邮箱、日历文档等功能都接入 cloud bot。 我 们点击这个安装按钮,这里要提醒一下大家,安装的时候要把 mac 系统更新到最新版,否则有可能会失败,这样一键就安装完成。 来到谷歌 cloud, 我 们在左侧菜单找到 api 与服务,选到 o o 四权限请求页面,创建 o o 四客户端应用类型,选择桌面 app。 然后我们把生成的这个 json 文件保存下来,把文件拖拽进 cloud bot, 告诉他配置一下 g o g 的 认证,然后我们登录谷歌账号,并且授予权限,这样就完成了配置。接下来我让他看看我的邮箱里有什么邮件,让他总结一下。 这里 ai 提示我需要再开通一个 gmail api 的 权限,我按照它的提示把权限开通完成,它就可以读取到我的邮件了。接下来我让它把所有的邮件移动到垃圾箱,这里也成功完成了。我在手机上让 cloud bot 帮我发送一封邮件, 我们看到邮件可以成功发送,我让 cloud bot 设置两分钟一次的心跳检查,如果有发现新的邮件,就发消息通知我,我给这个机妙邮箱发送一个邮件来测试一下。这里 cloud bot 成功给到了通知,我让他总结一下邮件内容,他也完成了总结。 ai 助手对接其他生态,一个重要的渠道就是 m c p, 我 们可以在 skills 里面找到 m c p porter, 把这个 skills 安装一下。接下来我告诉 ai 用 m c p porter 来配置一个百度地图的 m c p, 我 把这个 m c p 的 说明文档贴给了他。 ai 提供了三种安装方案,我选择 streamable h d d p。 他同时要求我提供百度地图的 a p i k, 把这个 a p i k 复制一下粘贴给他,这样就完成了配置。他已经可以使用这个 m c p 查询到地理位置的坐标了,这样我们就配置完成了,我们也可以在手机里面使用,我让他查询一下从青岛太平角公园到崂山羊口景区怎么走, 这里成功给到了规划路线,效果不错。我们再来看一个 skills 的 使用,这里有一个 skills 叫做 coding agent, 它可以驱动本地的 codex, cloud code、 open code 等 ai 编程工具 直接进行编程。这里我们先把这个 skills 安装一下,我在 mac 电脑上登录了我的 codex, 接着我在手机上跟 ai 说调用 codex 创建一个贪吃蛇的游戏,我们看到程序就编写好了,这样我们就通过 cloud bot 驱动 codex 完成了一个程序的开发。

今天一个视频教会大家不花一分钱去安装和使用 open k 二的,然后而且是一百二十 b 的 云端模型,今天纯干货分享,按照我的操作步骤来,基本上一次就可以成功。然后如果你现在没有时间的话,可以点赞收藏加关注, 然后以后慢慢看。然后我现在这台 macbook pro 上演示,没有 mac 的 话也没有关系,只要是一台电脑就可以, windows 和 mac 都可以。然后因为 mac mini 比较省电,比较适合七乘二十四小时运行。然后我们开始第一步,首先你需要去解决自己的网络问题, 网络问题我没有办法去解决,解决完之后,你可以先打开这个网站,然后这个网站我会贴到视频的简介里面一个登录的,如果你是 windows, 它就会匹配 windows, 如果你是 mac, 它就会下载 macs 的 安装包。然后我刚下了一个,下载完成之后呢,把软件拖到 这里,因为我已经安装了,所以替换一下, ok, 我 已经其实已经有了,如果你是正常的话,现在就可以打开奥拉玛这个软件。然后你会看到这里可以选择各种各样的模型,这后面带云的这个就是云上模型,云端模型也可以用。然后我选的是这个 gpt 一百二十 g 的 云的模型,它会提示让你登录,然后你点这个登录, ok, 呃,我之前已经登录过了,如果你是一个登录界面的话,你可以选择你有的那个账号登录就可以了,很简单。然后现在已经登录了,我说一个你好, ok, 现在是可以用的。这是第一步,我们已经完成了。然后我们来到第二步,打开这个网址,这个网址我也会贴到下方,然后全是英文,看不懂没有关系,也不用翻译,有用的,其实就这几行,就这四行。然后我们首先第一步复制这个代码, copy 一下, 然后搜索终端,打开终端,这是我之前打开过的,打开终端之后粘进去,然后直接回车就行,然后他现在在慢慢安装,然后可以看到这个地方在加载,然后安装速度取决于你的电脑网速。 ok, 第一行代码已经执行完毕,现在我们打开浏览器 开始直进第二行,然后依然是直接回车,然后我们已经到这个页面了,然后现在在键盘的上下左右去切换,按左边选择 yes, 然后回车,然后有一个快速安装,我们点快速安装,就第一个不用选它,直接回车,然后这个这个页面比较重要, 他现在是让你选择是用哪一家的这个服务,然后我们不选,我们选最下面这个,然后我们选第一个,然后这里会有很多这个,然后还不用管,选这个 k 第一个。 ok, 这个地方是让你选用哪一家的聊天软件,因为你需要用聊天软件去跟他沟通,然后这个我们需要选一下,我们选第一个, 然后这里会让你输一个,呃, bot talking, 然后这时候我们先这个页面先放一边,千万不要关掉,然后我们打开我们的聊天软件,然后去搜索 bot father, 这个是之前我已经新建过的,如果你从来没有用过的话,这里应该是一片空白,然后点 start, 这里有很多选项,没有关系,点 new boot, 然后我可以这里是选名字,可以选择一个,好,我选这个名字, ok, 这里再输入你的自定义的,你可以随便自定义一个名字,他说这个不行, 那我们就随便起一个, ok, 这个名字可以,然后记得这一串,这有个 api, 把这一串字母复制一下,这就我们需要的那个 api, 然后直接粘到这个里面回车。 ok, 这里是问你需不需要技能,你可以选择是 然后第一个继续点回车这些技,这些下面就是技能,现在我们不安装,因为这些安装非常的浪费时间,我们直接回车,可以后面慢慢安装,没有关系,回车这个时候我们需要按下空格,然后再回车, 局部这些全,全是 no, 全是 no, 全是 no, ok, 全是 no, 这个也是直接跳过好,按空格再回车,好,到到这一步了可以直接启动,那这一步可以直接回车。好, 需要 u i 依然是回车。呃,如果你是 safari 浏览器的话,可能会失败,所以你要复制到那个 chrome 浏览器里面,然后现在我们就已经进入到了这个 colobot 的 这个后台里面,但是还有一个就是我们还没有给它配置大脑,现在这个页面我们关不关都可以,然后我们再新建一个终端页面, 新建一个窗口,打开我们刚刚那个浏览器,就用这个浏览器,然后翻到第三个,我们继继续复制,然后回车, 这个页面其实就在选择,就选择复制第四行, ok, 这里是让我们选择是用哪个模型,有 g p t, 一 百二十 b 的 模型,还有纤维三,也是四百八十 b 的 云端模型, 这个看你个人习惯,我现在就选这个 g b d, 好 吧,如果你选择的话可以点回车,回车点个叉就是回车,但是一次只能选一个。这个你可以后后面慢慢根据每个模型的不同属性去选,然后你选择,选择完之后,我现在选择一百二十 b 的 模型,选择之后摁 tab, 摁 tab 之后 ctrl 点回车, 这时候他问你是不是要启动这个东西,你现在摁 y 再摁 y 哦, ok, 我 们现在可以直接启动它了。 ok, 已经启动了,然后我们来到这个后台模型问一下。 ok, 已经可以启动了,进入我们刚刚新建的这个 bot 里面,点击 start, 它会发出一串神秘代码。没有关系,我们只需要这个复制这个出来,然后你把这串代码后面的换成你的,然后前面跟我一样就可以,然后复制 粘到,我们可以新建一个窗口,好,回车。好,这样就可以了。 ok, 我 们在这个页面问一下。你好, 出现这个报错的原因是因为刚才在安装过程中,我没有把安装终端给关闭,所以刚才在替换那个模型的时候没有替换成功,因为软件在运行当中,所以我在前面剪辑的时候增加了那个建议关闭的提醒,你把它关闭之后就可以不会出现这个报错。但是如果你出现这个报错之后,可以 把所有终端都关闭,然后新建一个终端,把第四行代码重新执行一下,重新选择一下模型就可以解决。 他能够解决一些比较棘手的问题,尤其是你不在电脑,你可以让他给你发文件啊,这种我觉得还比较实用的。 这个基本上就是可恶 boss 安装的全过程,然后是使用的本地的欧拉巴模型,但是云端的模型,然后如果你有任何不懂或者是有报错或者是没有解决的问题,可以私聊我,或者是在这个评论区下面留言都可以,如果看到的话会尽量帮你解决好,就这样。

各位家人们,这期视频我们来讲解 openclog 的 本地部署啊,然后呢,我们再接入一个飞书,然后我们通过飞书去操作我们的 openclog 啊,现在我们介绍一下 openclog 到底是个什么东西啊? open openclog 呢,它原名叫做 club boat 啊,大家听这个名字就知道了啊,就是一个机器人 啊,是一个机器人程序啊,听起来挺好听的 club boat, 但是为什么改名叫 openclog 呢?原因很简单,因为这个名字呢,跟 isobik 旗下的大模型 club 啊,冲出了人家是大公司嘛, 就他连夜给他这个作者发了律师函,律师函的啊,就他这个律师函说这个作者连夜给他改了个名字啊,中间,中间起了一个过渡名字叫 motobot, 然后后面呢最终定为 open club, 那 么 open club 其实这个项目的最终名字了,那这个呢?其实是一个个人项目呢?这是个什么东西呢?这是一个 agent, 这是一个智能体对话的智能体啊,那我们可以给他指令,然后呢他可以回答,还能主动去操作我们的系统,然后整理文件,甚至呢自动编辑代码去完成任务啊,总之功能是很强大的啊, 有人说这个 agent 其实已经出现过太多太多 agent 了,为什么这个东西能够爆火呢?主要就是功能比较强大,它是一个部署在本地的 这么一个项目,呃,可以充当个人助手啊,去,你替你去操作这个电脑,那现在我们就来部署一下这个项目啊,部署这个项目呢,比较简单哈,我们如果说你用的是 mac 或者 linux 电脑的话,直接执行这样的一个指令就可以了,这是一个一键安装的奖本, 那如果是 windows 呢,你就这个样子啊,那么 windows 呢,可能会出现一些意外啊,因为毕竟来讲啊,就是 windows, 它还是一个以图形化操作为主的这么一个操作系统啊,就是说指令,指令这一方面啊,其实大元模型对它的指令呢,语料不是很多,不是特别的熟练,所以呢,有时候会出现意外, 所以我们建议还是使用这个 linux linux 系统或者 macos 系统来来去跑这个项目啊。如果说没有这个 linux 系统啊,大家可以装个虚拟机啊,在个人电脑上面装个虚拟机,那我电脑上面就是装的就是一个虚拟机啊,然后所演示的过程呢,就是用虚拟机来给大家演示啊, 你装一个 oppo 网,然后在里面装一个 open 处就可以了。另外其实你用一个虚拟机跑的话,其实更安全一些啊,因为它要获得比较高的权限,所以呢,你一不小心可能会把你电脑上的文件给删除了啊,那可能麻烦就大了,对吧,所以建议还是用虚拟机,先把 这个玩熟了之后,然后再去个人电脑上面,个人电脑上面去跑啊,那我们只需要执行这样一行命令就可以来就可以去进行啊,可以去安装这个项目了啊,帮我把这个命令,那我们可以到官网上面去复制一下这个,复制一下这里面 copy, 把它粘贴到这里面来,我们回车一下啊,这个它需要比较长的时间啊,因为这里面做的事情还是蛮多的。比较长的时间啊,另外加上我这里面做的事情还是蛮多的时间啊,另外加上我这里面做的事情,就不演示这个过程了哈, 我把这个过程呢记录下来给大家看一下,就当你之前玩那那好整点之后啊,没过段时间就会出现这个安装的过程,这过程呢,主要就是三步啊,第一步它会装这个 node。 这第一步啊,因为我们的这个项目本质上呢,就是其实就是一个一个 一个一个 node 项目啊,就是一个 top grid 的 一个项目,所以需要有这个 node。 然后呢,我们需要按住 git, git 呢,就是通过它去拉取这个 有个服务器上面的代码。嗯,接下来就是按住这个 open 啊,按住这个呢,好,安装完之后呢,接下来就各种选择了,就很简单各种选择啊,那这里选意思是 no 啊,其实这个是要确认一下你到底要不要去装这个东西,为什么呢?因为它有一定的 a rescue, 有 一定的风险啊,因为它需要获得比较高的权限,会有一定的风险, 默认选择 no 啊,这里选择 yes, 不 然到这一步就结束了啊。而且接下来就是一个快速安装啊,按快速的这个配置啊, quick start 啊,那么首先第一步就是配置我们的模型,因为它是使用大模型来进行做 规划的,那模型的主要大部分,大部分模型其实都是国外的模型模仿也有 special 啊,有部分是国内的啊, me max 月之艾米亲吻制服 a 啊,这个随便你怎么选啊, 我这边自己选的是这款 ai, 因为我有它,因为我有它的这个 open, 有 它的 api key 啊,你,当然你有哪一方面的,就是你有 memax 或者 v 上面的 api key, 你 就选择对应的就可以了,对应大模型就可以了啊,那么选择对应大模型之后,就是说我们选择完之后啊, 那么紧接着它会有一个会,会说你去输入这个 api key, 当然你可以在跳过,因为到时候我们会回过头来再去配置也可以啊。好,那配置完这个 api, 配置完这个大模型之后,紧接着就是 配置这个 channel, 就是 配置这个频道,其实就是我们要跟他进行你要听的这么一个一个一个社交软件,那社交软件基本都是国外的,都是国外的,到时候我们可以装一个飞书的插件,通过飞书来指挥它那设置,你们可以去跳过 skip now, 对, 那是跳过的意思,当前跳过, ok, 咱们解决下来就是各种各样的配置了,这里面你就按自就这,这里面就是很接下来的配置很随意了啊,比如 skills, 就是 要不要配置 skills, 当然你可以选择要不要装这个 skills, 这个后面配置也可以啊,当然你可以全部选 no, 也没关系啊 啊,这个不需要任何 skills 啊, ok, 然后这里全部就可以都跳舞啊,都可以啊,这里面选跳舞,然后 no 啊,都可以,都没关系的啊, 这里也可以跳过,这是有 hux, 这是一些歌子啊,歌子就是用来记录一些消息的,记录一些信息,记录日日的啊,记录记录一些绘画的啊,当然你这里面可以勾选啊,勾选,怎么勾选呢?非常简单,你移移动这个上,你去移动我们的键盘上面的上下键啊,就可以在上面,这个可以在上面键切换了,然后呢切到哪里你就可以点这个,点这个 space 就是 空格键啊,点这个 space 空格键啊,然后就可以选选中对应的目录了,那么选择之后呢,你可以多选,选完之后的话回车就可以了。 ok, 那 么点完这个到这里基本上转完了啊,回车之后,接下来我们就会看到什么呢? 看到我们的,看到我们这个东西啊,就是看到我们的这个聊天界面啊,它会打开一个界面,这就是聊天界面,我们可以直接在这里面跟我们的 萝卜根根根根根根根根根根根根根根根根根 根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根根 碰飞书,点 c n 这个网站,然后接下来紧接着我们进入开发者获产,这个地方的获产进来之后呢,我们需要去创建企业资金应用,我这里已经创建好几个应用了,对吧?创建好几个了啊,我们再来创建一个,点进这里面创建就可以了,然后就企业描述,那你就企 业名,应用名称啊,你先写下应用名称,随便写一个,比如说叫 boom boom 啊,就是描述啊,吧啦吧啦,随便打一点啊,这里是应用的图标啊,点创建,创建,创建完之后,接下来我们去啊,我们去添加一些权限给大家。呃,看一些权限啊,看权限的话,我们这里面 是跟通讯相关的权限,我们点点这个权限的名称,这里面啊确认开通权限,然后就会,然后就会开通很多权限啊,开通权限之后呢,这里还有一个非常重要的东西,就是这个事件与回量啊,这里面定位方式,我们点保存啊,这里会出现一个应用未,等一下 点保存哈,就是我们使用常连接接收事件,你点保存的话,它会出现这么一个东西叫应用未建立常连接哈,应用未建立常连接什么意思?就是别没有人跟他连接哈, 这个时候怎么办呢?这个时候我们要回到我们的,回到我们的这个 linux 这里面来啊,就是我们这里面要去去配置一下,这里面就是我们要去跟跟我们的非输产生一个连接啊,那么这里面需要去装我们的插件啊,装我们的非输啊, open open close, 然后呢?把非输装这个插件,然后这个插件插件我就装好了,装好之后我就不再去装了哈。 啊? ok, 那 么你装好,那么这里面我给大家演示一下怎么去进行配置啊?非常简单哈,我们使用 open globe 这个指令 let's configure, 这个时候就是配置我们的模型和我们的 channels, 嗯,这里面需要等待一下啊,稍微稍微等待一下,需要一点时间啊,这个就是很慢哈,就是感觉就是非常慢,因为它是一个用 script 写的这个项目,其实很慢啊。好,我们选择这个 look on machine 本地机器啊,选择这个会变相好,这里面会有 配置啊,这个时候我们就可以配置什么呢?可以配置模型,模型可以配置一下,就是如果当时没有设置模型的话,或者说模型后面要改换模型,是吧?这里面可以继续设置个模型。 ok, 比如说我们,呃设置一下自己,因为我们已经设置自己本了,比如说你这里面选择 memax, 那么这个时候你可以选择模型啊,比如说我们这里面选择我们的 mini max m i d e 啊,回车一下。好,那么这个时候呢就会输入我们的 mini max api 啊,把复制粘贴在这里就可以了啊,然后我这里已经配置过了,我就不配置了。好吧,我们现在 大家演示一下,就是模型怎么去进行配置啊?这个时候我们再再重新走一遍,我们来配一下我们的 channel, 就是 比较它就比较慢啊,需要等,然后我们选择 local 本地的哈,好,这里面我们选选择 channels, 那其实不仅 channels, 它的这个什么 has has check, 健康检测啊, skin 啊,都都可以配置啊,所以你前面如果说没有配好的话,没关系啊,没有配好没关系,然后我们重新再指向 comfig 这个指令,就可以再来配置它。好,我们这里面选择 channels。 好, 可以,这里面 好,那么这里面我们选择什么呢?拆这里面大家看一下啊,嗯,它默这里面啊 channel, 它这里面选择说的是 channel stat status, 就是 啊,我们的频道的状态啊,然后这里面呢是飞书 con contacted 啊,就是我们飞书已经连上了哈 啊,飞书已经连上了,但如果说是第一次的话,它会出现啊,飞书的这个配置啊,要你去输入这个,哎,这个,这,这个东西啊,叫什么呢?叫 a p id 啊,和我们的 a p script, 所以 在这你到凭证去寻找到 a p id 和我们的 a p script 啊,去配置就可以了,这是我现在因为之前配置过来已经配好了,对吧?配好了,所以呢,我这里呢直接跳过这个了啊,然后呢回车一下,我们回书啊, 啊? ok, 那 么这个时候它就是可以修改这个配置啊,修改这个配置我们再来看一下啊,我们点 modify settings, 就是 修改这个配置。好,我们修改一下啊,我们点回车一下,修改一下啊,它说已经配置好了,它说飞书的这个已经配置好了,对吧? 啊?需不需要保持它啊?如果说我们选择 no 的 话,就不保持,对吧?就会重新配置,所以我们这里选择 yes, 就是 说已经配置过了,我就不配置了,好吧, ok 啊啊,所以说域名 open, 我 们选择这个 open 的, 这里面记得选 open 啊,选这个 open 呢,就是开放所有的这个群组啊,如果说你选择 overlist, 那 么它是就是像是设置一个白名单一样啊,到时候需要你去配置这个一些群组啊,那就比较麻烦啊,直接选 open 就 可以了。好,那么这个时候又回到这个 select channel, 让你选择这个东西,对吧?啊?因为刚才已经选过了,是吧?选过了,这个时候我们点 finish 啊,就完成 啊,然后我们再什么呢?他说配置 pos 呢?那我们现在 no 啊,因为配置过了就不不配置了,对吧?好,那么现在我们选择 continue 继续啊, ok, 好, 现在就已经整个领域就跑完了,对吧?啊?整个领域就跑完了, ok 啊,就是我们再回到这边来哈, 回到这边来,因为他必须这个全世界也回到这个地方。你只有,只有什么呢?只有刚才那个东西,那个连接了之后啊,你这里面才能什么才能这里面选择保存的时候才有用啊,然后再添加一个订阅事件就可以了啊,是这样子的, 好了,现在我们因为我这个一切都已经配置好了,我再给大家,现在我们来演示一下啊,就是我们在飞书,我们通过飞书的这个机器人怎么去操作它啊?现在我们这里边,因为我这边已经启动好了,启动好的话,我这里面把它的这个聊天界面再打开一下。啊,现在我们打开那个聊天界面啊,打开那个聊天界面呢?我们可以选择我们的 open log 啊,选择这个布置一下来啊,然后这里粘贴一下, 就打开了个聊天面板,我回这一下啊,所以需要稍微等待一下。好,现在已经现在就打开了, ok, 它这里有个提示打开了啊,好,我们点击一下这里面, 对吧?先打开了是吧?好,打开,现在其实我们就可以跟他进行沟通啊,比如说我们随便搜个,呃, what's your name 啊?因为我这个打不了中文。 what's your name 啊?他说他没有名字啊, still don't have a name 啊,现在是没有这个名字,是吧?啊哈, ok, 这个是我们在 加上自然,你要在界面和他进行沟通啊,但这不是我们啊,最常使用的工具,最常的工具应该是我们的飞书啊,好,现在我们打开飞书的客户端啊,大家需要装个飞书的客户端啊,我们来演示一下,好吧。啊,这个飞书客户端啊, 就是他,我们这边就是你装完这个,就是你装完那个机器人之后啊,他会这里有一个提示给你啊, 啊,你是可以打开这,他会有个开发者小助手在这里面,他会有一个提示给你,你直接打开这个应用就可以了啊,打开这个应用就可以了,然后这里面出现你的这个聊天窗口啊,好,那么现在我们在这里问问题,好吧,在这个飞书这里面,比如说啊,呃,我就不问你是谁了,好吧,我就问一个非常简单的问题啊,就, 呃,就是说帮我读取啊,读取这个 source list 下面的内容啊,这个是用来配置这个进校语言的,我们来问一下,我们要他帮我们去把这个内容复制给我们看一下,好吧, ok, 帮我读取到 source list 里面的内容,他会不会回复我啊?遇到了非说 a p r 权限问题,需要管理员读取联系人信息啊? 好, ok, 授权之后他给读了,他给我内容了,好吧,哎,这个是 social list 文件内容 啊,作为他说这个配置文件里面是 open two i 十二点四系统的软件员使用了阿里员的剑像。啊, 那你还可以干其他的事情啊,你还可以用它去做其他的事情,比如说打开这个浏览器,打开这个百度啊,都是可以做的啊,那如果说你给它装了这个 skill 之后,还可以做一些更专业的事情啊,都是可以做的。好,那么关于这期视频我们就到这里面啊,下期视频我们再见。

大家好,我是根谷,今天是 open core 第六堂课啊,本地模型配置的 lm studio 片和微软的这样一个开发了这个,呃,本地大模型管理的工具啊。首先祝大家二六年, 呃,新年快乐,明天就过年了,建议大家先去看欧拉玛篇,因为欧拉玛篇会的话,这篇就非常容易了。非常容易了,那首先给大家看一下我这个那个 bug 啊,就是这就是 open core 的 一个官网,我前天好像提了个 bug 啊,就在这个英雄里面给他开了个 bug, 我 看看 这个 bug 其实就是 l m 十丢丢的一个 bug, 就是 在它重启的时候,它会失去了这个通信链接,我待会怎么证明我是它是一个 bug 啊,我把各个的环境啊,还有我怎么操作的选择的模型啊,最后配置文件都截图都分享出来了,现在还没有人回复我, 好,我是怎么做的呢?就是首先你要打开 i m 四丢丢点 ai, 这是微软的一个官网,你去下载啊,你如果你是 windows 电脑,它自动的,就会自动的给你到 windows 的 电脑那个那个,呃,安装的这个软件啊,你把它下下就好了,下下来以后就会出现一个这样子的 i m 四丢丢啊,这个就是你的一个那个, 呃,就比欧拉玛复杂多了,因为这个他不是面向开发者的,但是我感觉,呃,用这个也是挺不错的,他有海量的这样一个模型,让你去下载,我这里面下了一个千万三的一个模型。千万三的一个模型,呃,正常的就是在这个地方,比如说 给我讲个笑话,那这个非常容易啊,就不需要去给大家演示,你直接下一个模型,它都是界面的管理,你在这里下一下就好了,点它下载它就能下载,下载了好了以后在这个地方就能够选模模型,选到了模型以后,在这里你就把它去装入这个模型了,就是去加载这个模型,这个模型在这里, 在这个地方千万三星,那就就这个,就在这个地方。然后呃,我说这这个这里,这是他开发文档,然后这个地方他有几个端点,就是他有几套的去对接 api 调用,你首先去这里设置里面把这个, 呃网络这个服务供应,这个服务网络中提供服务,把它打开之前是默认关闭的,你把它打开就好了,那这个端口也不要去改,就用它的一二三四,那这个比较好记一些,比较好记一些。 配置好了以后,配置好了以后就点一下它就关了。嗯,首先这个地方 state 需要,需要开启这个服务啊,需要开启这个服务,开启这个服务完以后就是输入这个啊,就是 ceo 啊,然后这个 我这样就跟它对接了,你看吧,我的,我的 h t t p local house, 一 二三四五,对吧?一二三四 api v e chat, 并且你还是可以用这个 open ai com compatible 这样一个呃 协议进行对接,那你 pos 的 请求就是唯一,呃,你,你是 boss, 它自动的会跟你拼接啊,那我这里就用这个客请求和它对接好了,剩下的就是我用客请求去把它塞到呃这个 open core 里面去。那怎么做呢? 也是在这里啊,就是我因为它这个网站啊,它这个网站不像欧拉玛,它自动的里面,呃,跟它做了 open open clone 这样一个对接啊,大家看到上海课就知道这里微软的 i m studio 并没有对这个小龙虾进行做对接,那没有做对接也是没问题的,我们就直接在这个这里去做配置啊。就是我首先是 open clone 是 吧? clone 有 一个叫 daisy board 的 啊,不是 daisy board 的 on board, on board 的 一个 insode 这样一个地方,我重新进行配置啊,重新进行配置的话是 yes 啊,然后 click start, 然后我要更新其中的一个字,这里选选第二或选第一都是可以的,我去更新它,对吧?到了这个地方 一定要选 custom pro i 的, 因为因为你这里没有没有那个 lm studio, 它都是模型在线的。我们是需要 http 请求,这个 http 请求就是呃, local house 的 一二七点一这里,这个地方就是一定是一二三四。 好,这个地方一定是写一二三四。我,我需要把这个呃日字给清掉,待会可以看一下我,我这个 open core 已经会怎么和它连通的哈。如果你这个地方假设我,我写错了,我这个地方假设有个什么 a a 啊,这是瞎写的,他就会报错啊。这个 api key 没关系,因为他我没开通那个,我没有去开健全这个地方我没有去开这个要求健全,所以说这个 api 你 写写不写 api key 都可以的。 这个时候就是 open ai controllable, 和这里是一模一样的,看到吧,哎,回车好, mod id 非常重要,你不能瞎写,这个 mod id 就 在这里,你看把它粘出来就好了。对 啊,他都告诉了你啊,就 local horse 的 一一一一 charnel 就 一二三四啊,这个它比那个小龙虾啊,不是比小龙虾,比那个欧拉玛要做的好啊的地方,就它各个地方都出来,哎,你看, 呃,其实它已经连通了,但是你这边唯一 a a a a, 它应该是唯一,你看到了吗? 所以说他就报错,报到错,对吧?然后这里有个端点 id, 这个端点 id 让他默认给就好了。啊,这个,这个这个名字啊,然后这就是错了,错了的话你就得重新填过,所以说他没有返回的机会,就是我,我现在 就是你只要按 esc 退出重新来过,所以说这里那我快速的演示一遍就是正确的应该怎么做。 yes, click start 第一个, 然后选这个 customwide 的, 哎,这个地方他又默认的,就就写一二三四就好了。呃呃。你说有些人为什么不加 api 呢?你看我这个地方为什么有 api? api 是 它的另外一套这个接口服务啊,是这个, 这里有一个 api 点微,但是一般来说是没有 api 的, 所以说这个就是没问题了,一定是这样子的,微一它后面会自动的跟你加陌陌的啊和那个例子 box 啊,然后这个就回车啊, 一定是要选择这个 openair compatible, 哎,然后这个 mod id 不 能瞎写啊。就是你,你这里,呃用的是什么 mod 就是 用什么 mod, 哎,你如果可以换的,就是在在在在这个地方换啊,就是在这个 my mod 里面,我这里只有一个,你可以选,你可以选 好,然后这个地方我,对了,以后你看,哎,这个地方他就补报错了,全绿了,看到没有,哎,这个地方全绿了,我给他全通了,全通了,那全通了就赶紧去启动一下,那就是 skip, 因为我之前都装了,也不要去装他的 skill 式,也也不需要装他 fuk 式啊, 直接就启动这个网关是吧?因此多领啊, get 位首位,然后让它浏览器打开,那这样就通了,其实它配置起来其实是比那个欧拉玛要简单,为什么呢?这微软还是做的可以的。但是呢,但是呢,这个 open core 竟然和它 内部的就是那个,我感觉它很多没有去做兼容到这一步就已经通了啊,你学会了吗?

给大家展示下我的大龙虾,首先介绍下本地的欧莱玛用的千问三,然后展示下欧莱玛本地速度, 然后展示下大龙虾十倍速。

克拉的 bot 这几天啊,火的是一塌糊涂,他火的热度不亚于去年这个时候的马斯,这是一条教朋友们零基础玩转克拉的 bot 的 保姆级教程。 这两天,腾讯云、阿里云相距已经上线了专门针对克拉的 bot 一 键部署的服务器啊,让两家大厂这么紧跟的 ai 产品 实啊,就足以说明问题了。那 cloud bot 到底是什么?它到底能干什么?有人说它是找了手的 cloud, 这个有些抽象啊。这么说吧,我们可以把它当做一个非常聪明,学习能力超强,那执行能力呢?也超强的一个团队,把它部署到我们自己的电脑上,那我们就可以通过飞书、 whatsapp、 slack 等主流的即时通讯工具给它 下指令。这个指令呢,可以是非常简单的,让他打开音乐播放器播放一首歌,也可以是很复杂的工作流逝的指令,无论是简单的还是复杂的,只要我们权限给足,表达清晰明了,他都会严格执行,并且给到我们满意的结果。 比如我给他说帮我打开 word 应用在桌面上呢,帮我创建一份命名为豆包商单口播稿的文档,需要让他打开浏览器搜索豆包的能力。 然后呢,按照抖音短视频口播稿的形式,写一份关于豆包能力介绍的口播稿,要求是口语化表达,视频长度呢,控制在八十到九十秒,看他开始了,我们能看到他的整个执行过程。等他执行结束后,我回到我的电脑桌面,我就可以看到他创建的这份文档了,打开看看哦。 部署,我们需要打开一个终端,我们执行第一条命令啊,确定一下我们系统中 note 和 npm 的 位置和版本,然后呢,执行第二条命令。那 我这里呢,执行的和让朋友们执行的不太一样,因为呢,我执行是因为我之前安装过了,为了演示我加了卸载,所以呢,朋友们执行这个短的就好了。等他执行结束后呢,我们执行第三条命令,确认 canada bot 的 安装位置和版本。看啊,这里他检测到了我 c l i 中的 codex 凭证。 那这个呢,我们不用管,现在我们执行第四条命令啊,来出场配置和工作区。现在界面已经出来了,接下来呢,我们要选填一些配置信息,这个是风险提示啊,我们点 yes 模式。这里呢,刚开始建议朋友们都选 quickstar 模型,选择呢,朋友们根据自己的需求也可以跳过后面再配置啊。它前面检测到了我的 codex 凭证,那我就先用 oppo r 这个。然后呢,下面是选择计时通讯工具, 我想先通过 imessage 使用,所以呢,我选 imessage。 这里呢,也可以跳过后面再配置。然后呢,这里我要提醒一下朋友们,我发现一个问题, 我们部署的电脑的 icloud 的 账号和发消息的 icloud 的 账号不能是同一个,不然呢,会有回声。如果朋友们没有两个 icloud 的 账号,那建议跳过,然后直接配 snake。 或者非说选择 imessage 后,如果没有安装过 i m, s, g 和 blue bubbles, 选 要先安装一下 imsg 和 blue bubbles 哦。如果不确定自己是否装过,可以运行这条命令检测一下,看我是没有安装过。那现在呢,输入这条命令,安装一下 imsg, 等它完成后,那我们再运行这条命令啊,安装 blue bubbles, 安装完成后呢,我们到控制台打开 blue bubbles 这里啊,打开呢,需要授权一次 点完成后呢,在设置的隐私于安全中要点击仍要打开,然后授权一下就好了。这里直接根据指引 next next 就 好了。看到这个界面啊, i m s g 就 配好了,现在我们回到主终端继续啊,那 skills 这里啊,我建议 yes, 这样呢,后面我们测试会好一些。安装 skills 啊,我们一定要选择 n p m 这里啊,朋友们根据需求选择,那我为了演示呢,我全选,然后呢,等它安装结束, hooks, 我 们这里三个全选到这里啊,主 程序部署就完成了,主程序呢,就已经运行在了幺八七八九端口,然后我们点击 config, 点击下面这个 role, 在 检测中啊,把这段代码加进去, 我这个用的呢是 deep secret, 如果用其他模型呢,朋友们修改一下就好了。现在我们在主程序 u r 中就可以执行任务了。那其实呢,我的 r message 也是配置好了,但是呢,因为手机阿可乐的账号不能退出,我无法测试啊,所以这里跳过 让他执行这样的一项任务看他开始执行了,他的每一个步骤我们都能看到。好,结束了,那现在我回到桌面看,这就是他创建的文件,打开看看效果啊,那朋友们觉得他写的怎么样?所以说卡拉的 boss 的 出现应该说是一个革命性的产物,只要我们愿意花时间去探索,配合 skills m c p 是 有无限的可能的。

你以为 cloud bot 是 免费的,那你就错了,虽然 cloud bot 安装在本地,但你还是要付它后面的大模型的 api 的 钱。国内最近又更新了几个开源的大模型, 在 cloud bot 上使用的话确实便宜些,但它们真的能打吗?下面我就给大家做一个实际的演示。最近金价大跌,所以我让它做一个关于金价的研究,还有对今后的预测。在这个实测中, kimi k 二点五还有 mini max m 二点一 a 阵在执行的过程中总是出错,而且会停下来,最终产生的报告确实图文并茂,但比较空泛,缺乏内容。而 cloud 四点五就像一个沉着的老手,下刀很准 又非常快,做内容很详细,细节也比较丰富。最后花费的成本, mini max 是 花两毛六, kimi 是 花了四毛四, cloud 是 花了一块二。它们生成的三篇报告都在我的豆币的首页上,豆币是我给大家做的国内小白零基础可以立马上手的 cloud bot 不需要投资硬件,不需要大模型的 api, cloud 大 模型直接可用,网址是逗比 dot now。 在 首页你就可以看到这三个大模型产生的金价预测的文章,你可以自己比较一下,告诉我,你是愿意用 cloud 呢,还是用国内的这些开源大模型。

外行人搞 ai, 今天继续搞 call 吧的,因为它依赖于本地文件的记忆系统,这种设计挺好 token 的, 今天来个穷人的骚操作,把它接入到自己私有化的模型,不用耗费 token。 经过了一个晚上,干干干干干 改了一大堆代码和 bug, 终于把它接入到 olam 的 千问模型上了,看看这个效果, 可惜我精心设计的看盘 agent skills 搞没了。工地佬白天扛得起水泥,晚上改得了 bug, 给自己点个赞。

大家好,我是根古,今天是 open core 的 第五堂课啊,这堂课分享一下本地的模型配置教程。那前几次课,呃,我们分享了一下这个 open core 的 两个大坑呃,然后一个环境搭建的一个视频啊,最后还给大家演示了一下如何控制浏览器的一个配置。 呃,这堂课给大家分享一下,如果你你的电脑配置本身是比较强大的,那你就没有必要去用那个消耗那个外部的那个一个收费的托管把本地部署这个模型啊,这篇是欧拉玛篇 啊,欧莱玛是一个管理本地的一个大模型的这样一个程序啊,这是一个程序,其实大家还可能用过其他的,就是微软那个 lm studio。 lm studio 其实也是可以的啊,因为欧莱玛这个和那个 open color 它的兼容性配置会比较好。我给大家演示一下我配置的效果啊,我这里输入一下,你是谁啊?你是用的哪个模型啊? 他用的是这个 gbtos 二十 b 的 这样一个模型啊,也就是我这里配置的欧拉玛的这样一个。这个这个啊,呃,首先我给大家介绍一下怎么样可配置啊,前提是你已经装好了 open clone, 如果大家不不知道如何去配置 open clone 的 话,可以看我前面的前两次的视频。那首先你要打开这个欧拉玛点 com 点那么空的话,你先当漏了这个,这里会有三个版本,那你你如果是 windows 和 os, 苹果 os 都可以选择啊,建议大家是用 windows 或者是用 mac os 都可以的。然后你把它下下来了以后 直接就装好了,装好了它会进入一个这样的页面,这个页面本身没有啥,就是他进来的时候这里是没有模型的,你需要选一下。这个就是我,我本地已经下载了两个模型,一个是千万三的八 b, 一个是这个 gbt 的 o s 的 二十 b, 如果你要下其他的,直接点下载这个,呃,参数越大的就是一百二十 b, 我 估计我的电脑也跑不了。建议大家一般选八 b 的 或者二十 b 的 就好了。嗯,然后你你点击下载它就会,它就会进入漫长的下载啊,这一段,呃,可能需要魔法上网。 你好啊,这样就已经通了是吧?这已经通了,通了以后,实际上,实际上他是把那个模型下到你本地啊,通过欧拉玛进行管理,实际上他就是一个面向开发者的一个管理啊。这里你看把它翻到下面呢,就是再回回,回过头来翻到下面呢,你看这里有一个,呃,超过四千四万个应用都能够对接,你看这个就有一个 open code 啊, 你看一把 open cologne, 已经对对接了,你打开这个,哎,他告诉了你前两个是你没装 open cologne 的, 这两两步已经是,呃,前两堂课已经装了,是吧?然后,然后假设你已经跑通了,但是呢,我用的是可能是紧密来模型,那我应该怎么配置呢? 其实也不难了,第一步,第一步不是要去启动这个,第一步是要你在这里去进行配置他,他这个欧拉玛 launch open color 就 相当于是 open color, 呃, start gateway 啊,启动网关。所以说如果你本身已经运行了 open color 了,用那个线上的,你应该把它这个关掉。这里我有一些这个教程啊,就是 把它先杀死掉啊,就是他抽风的时候把它杀死掉。这个 kill 这个所有的进程也可以啊,就是把它全杀了,我就给他演示一下, 打开一个新的命令行窗口,你把它 open call 杀掉,杀掉的话,他他其实,哎,他就访问不了了。看到了,访问不了了以后你就去呃,就是运运,运行这一行啊, 运行这一行,当然你现在还没有配置,所以说是不行的。第一步就是你应该先下载模型,下载模型以后,这里通了以后,说明本地的模型和欧拉玛已经呃他,他已经管理好了这个模型,管理好了模型就应该去呃去,这样做,这样做, 就这样子,你先把这个 open 呃欧拉玛这样一个服务骑起来,骑起来了以后,呃,就可以,幺二七点零点零幺二八,就这里就可以。呃, 在这网页这个窗口进行配置啊,就可以不用命令行,如果你对命令行很熟的话,其实可以用。呃,可以,可以用,我前堂课跟你分享的那个,就是 openclo 这样一个 on board 的 这个 excel, 这个是可以配置的,但是最好能够。哎,这个地方它有个配置选项,一个 config, 这个咖啡啊,咖啡里面你选到一个模型,这个 model 式, model 式, model 式里面有个 prologue 字, prologue 字的时候,这里面,哎,这里面你,你开始是空的,你这里随便取个名字都无所谓啊。这个这个欧莱玛你随便取的都可以。这里的话它是兼容 open ai 的 一个 compilers, 一定要选这个, 这个 ai key 你 不要去呃,随便选都可以啊,为什么呢?因为你这个欧莱玛这里是没有这个教验的,那就是这个欧莱玛这个 set 里面 来打开这个地方,就是欧拉玛一个三体里面,你可以,你是把它关掉了,就是这个,这个选项一一个是 pos, 欧拉玛 to like work, 需要把它打开啊,需要把它打开, 这个地方是不需要学 api key 交易的,因为你是本地模型了,你随便输都可以的啊。所以说这个地方把它打开,这个地方最关键的地方来了,呃,这个幺二七点一点一四三就可以随便选了, 其他地方可以随便选这个地方,呃,这个点 a p s 也也也需要这样,对,然后 max 头肯,其他的都我觉得无所谓,这个地方空着也行,你你把它设置一个很大的字也行。 呃,还有一个最最关键的,就这个 id, mod id, 这个 mod id 就是 一定是要在这里,我,我知道了,这个地方看,就是如果你找不到这个配置文件,应该从这里看,他有个 com figure 文件,也就是这个地方,这个地方,呃,这个 它有一个这个欧拉玛的配置选项,这个,呃,去配置这个登录像,它有个这个就是你,你下了,比如说我下了两个模型,然后你应该管理模型的时候,你应该哎这个啊, 然后把这个复制一下,欧拉玛 launch 是 吧?欧拉玛 launch, 这个,这个,这个很重要,因为你看这里面是我本地选择的,这个 x 就是 我默认的是,就是 jptos, 或者我这里下了这个,如果你下了其他的,他会在这里列出来。这里还有 glm 四点七 flash 是 吧?千万八币是吧?我选择的是这个,因为这个还是比较好用的,所以说选择了以后你就把这个复制出来, 复复制出来过就好了。好,然后这个地方把它复制出来,把它粘过来。如果你是选择别的模型,就是塞别的模型,这里有个小小的坑呢。他这个地方推荐的模型有这些千文山扣的 glm 四点七, gptos 二点零二二二十 b。 对, 如果你选的是别的模型,我试过他不知道为什么连不上啊,这就是他一个巨大的坑。这里这里有一个,你看这个是可以用的,然后还有一个千万三的扣的,这个也是可以用。这有个扣的三十 b 也是可以用的。还有一个清华紫光的。那他这里竟然没有啊。这里没有,这里没有, 所以说这这也是他一个做的不好的地方啊。就是就是,除了这几个,我想用别的,我不知道为什么会出出错啊。会出错,可能是他的一个 bug 吧。 然后配置好了以后,配置好了以后你再往下翻呢。这这个地方 test 的 和 emoji 一定要是选 test, 我 们这里没有 emoji 啊。那最后这个这个名字可以随便取啊,这念你也可以跟他取的 id 一 样的。那完了以后就 save, save 了以后刷新一下, 刷新一下就点 check, 然后再你又再再另一个筛选呢,你说你好随随便输入,他如果有反应呢?那就是配置成功了,当然这个地方你还需要重新启动一下,你看这个地方他需要重重启一下。呃,就配置完了以后这个地方需要重启,也就是这个地方你配置完了应该再给浪去一下。 我试试看浪去一下。哎,奇怪,这个复制一下, 那如果出现了这种卡死的情况啊。啊,这已经好了,对吧?嗨,这个我我帮助你,但你你会,请和我就是用中文,用中文,和我用中文与我沟通。您是谁 啊?他肯定是我是欧巴马,是吧?这样一个 gpt 啊,这是 open call 的 助手啊,您是用的这个 gpt? 看,我是用的欧巴马的这样一个 这个 gpt。 还有一种情况就是有 bug, 就是 你这个配置文件,我无论怎么改,改不动了,怎么办呢?然后呢?有办法,就是他的有一个配置文件,这个配置文件是这个玩意,这个配置文件的路径就是在这个呃,加目录下的点 open, 也就是他的路径,这里也也是一个坑啊。但是一般来说你是不需要走到这里的, 就这个这个路径是在你的加目录,比如说你 cd 加目录,加目录下的有一个点啊,点 open 这样一个,这是他所有的配置文件, 这里面的这一个玩意儿就是 open curl json 格式,那这些是它的备份,不用管,这个就是它的一个配置文件,你所有的配置文件都是想改这个 json, 那 你把它这个 打开来,用 v s code 打开来,你可以看到第一行就是 ajax, 这里就是之前讲的主力模型,你主力模型塞的是 jimi 二点五 flag, 那 就是主力模型,这个它自动的就能够连到这个这个外网,是吧? api 进行调用。如果你把它 改成这个欧拉玛,这个本地的,那就是本地的。如果你是微软的 lm studio, 微软 lm studio 它也可以。然后这里非常重要,非常重要,在这个地方它有一个叫模型管理,这个模型管理非常重要,你刚刚加一个这个欧拉玛,它就会出现一个这样一个, 呃,节省的这样一个很大的这样一个对象,你去改它这个地方非常重要,就是 http, 幺幺四三四零号,你,你这里就应该是改,你也可以改这个端口, 看这个端端口其他的就没有啥了,其他就没有啥了。那就如果这个幺幺四三四被占用了,你可以看这个这个端口是不是被占用了,也可以这么看,就你像占不占用,哎,他占用的,他占用的,他这里都是欧拉玛,也就是他是用的幺幺四三四,幺幺四三四,所以说你这个端口就是用幺幺四三四。 然后其实大家还是要经常去摸索的,因为这个里面,呃,他的配置像啊,和那个那个欧拉玛这个这个对接啊,这个流程并不是非常好用,因为他也没有哪里进行跟你先调试啊,就是只能在这个窗口进行调试,那最重要的就是这个配置像,如果大家配置像这里玩明白了, 也不需要去这里去改这个地方。呃,所以说这堂课就分享到这里,你学会了吗?

这个开源项目可以让你一键部署 openclaw, 彻底告别复杂的本地部署流程,支持 mac 和 windows 平台。点击打开部署前需要填写 api。 openclaw 支持大部分模型,因为官方首推 kimi 二点五,我就以这个为例子,申请 apikey。 首先打开 moonshot 开放平台,然后手机号码登录, 然后进入用户中心,在左侧菜单中点击 apikey 管理,然后点击右上角的新建 apikey, 然后随便输入一个好记的名称,点击确定 就会显示一个完整 key, 记得妥善保存,忘记了就只能重新申请了。然后把 api key 填入 set up, 向导开始使用 open clock 可以 做很多工作,比如常见的资讯汇总,我在手机上输入 汇总,本周 top 十科技事件可以看到,很快就会汇总好从电脑端发到了我手机上。再比如我对第八条资讯很感兴趣,告诉他就第八条新闻写一篇分析报告,他响应的时间很快,最后会将分析报告整理出来,效率简直逆天,感兴趣的朋友可以去试试了。

今天给大家安排最近很火的 cloud bot 最新的安装方法,接入千万免费的大模型。 第一步打开命令行终端,输入最新的下载命令,如果系统中没有相关依赖,例如 nojs, 脚本也会自动安装好,首次安装也会提示输入系统密码,基本是一路 yes 就 可以。我的是之前安装过一次,所以会跳出重新设置验证密钥。 安装完成后,我们继续在命令中输入配置命令。第一步是告知风险,因为 cloud bot 会操作本地电脑。 选择 yes 后继续,之后选择 quick start 来到模型配置选项,官方建议使用 cloud 效果最好,不过,对于国内用户可以选择 mini max, 千问 kimi, 建议大家选择千问,主要是免费,而且模型能力也比较强,选择后会调整到千问的网页,输入账号信息后完成授权。 下一步选择 keep current, 使用最新模型。下一步是配置频道,类似飞书,机器人可以通过 app 与 cloud bot 交互,我们可以选择 skip for now, 先跳过,后续可以在面板中配置。之后我们来到技能配置选项,我们依次选择 yes 配置技能 使用 npm 安装管理群,跳过依赖性安装技能配置完成后有几项目 api key 的 配置我们目前用不到全部,选择 no 不 用担心,我们跳过的配置选项之后都可以在面部中配置。 之后是后壳配置,我们选择 boot 键 md, 到这一步基本配置完成了,选择 restart 重启。最后就是机器人配置, 我们选择 hatch into y, 完成后正常情况会自动打开浏览器。至此我们已经完成了 cloud bot 的 安装了。

呃,今天来辟个谣,很多人说这个特别花头强,特特别花头,看我觉得他们要不就没用过,要不就是 我也不知道怎么说哈,我觉得还好,好吧,特别是它里面是,呃,可以支持那个千万的那个模型,好吧?千万那个模型 好像现在是免,好像我说了一下,他说是免费的,九十天免费,好吧?因为我因为我的心态也是拿过来玩一玩,其实不怎么花钱。好吧, 那我们来测试一下,刚才我建了一个文件夹,刚才让他建了一个这个文件夹,然后 t s t 文档了,然后现在让他建一个新的,好吧?然后我们这边艾特一下他就好了, 然后他就在在开始帮我们干活了,然后这个就他的后台嘛,然后我们可以来看一下, 你看已经好了,是吧?已经好了, 就是因为我们就是一开始肯定是不大可能说一开始就直接用来工作,肯定是先过来先试一下,如果 ok 的 话,后面比如说在上比较好的大冒险,好吧?然后本地的话, 本地的话我觉得也还好,好吧,你就你不用的时候就把它关掉呗,你你就不要一直开着它呗。 然后我觉得还好,反正反正你在本地你的体验会非常不一样。云端的话,因为我云端也布了一个云端的话就我感觉比较鸡肋,好吧? 因为他其实最大的好处就是说你给他权限多大,他可以操作你电脑,操作操作你文件,好吧?那如果就放在云端的话反而觉得有点鸡肋,好吧,除非说你那个云端的环境布的非常好。