欢迎来到无名实验室,现在教大家怎么把小龙虾和自己的飞书对接起来,通过飞书给小龙虾发送消息,小龙虾操控你的电脑来执行你的任务,非常适合你人不在电脑跟前或人在外地的这种场景, 让小龙虾真真正正的成为一个数字员工。下面我们进入操作步骤。首先我们要来到飞书的开放平台的后台,我这里建议大家创建一个自己的飞书组织,因为你发布应用是需要管理员进行审批的,如果你用的公司的组织就会很麻烦。 我们首先点应用创建,这里我起个名字教学,换个头像创建, 添加应用能力,机器人权限管理,导入配置。这里的话我们参考一下飞书官方的文档,这是官方给出的 jason 复制粘贴申请开通确认。来到我们的电脑上,打开命令行,输入这条命令,它可以调起聊天软件的触式化配置窗口 选择式,现在配置选择飞书这里的话,它提示下载安装飞书的插件儿,也就是 skill, 因为原版的小龙虾它是没有这项能力的,你必须装了这个 skill, 装了这个插件儿它才能实现。我们选择 onload yes, 然后回车输入我们的 a p p 信息凭证与信息,在这里查看一下,复制回车 a p p id, 复制一下 默认就可以,如果我们是大陆用户,就国内版的飞书就可以。这个选项是让你选择聊天机器人的回复策略,这些你们后面可以仔细研究。然后我这里建议就选第一个,只有在白名单的群里才会进行回复, 这样的话你的 token 也不会无缘无故地被烧灭。然后这里要输入一个群聊的 id, 打开飞书,创建一个群组教学, 这里 id 粘进来,回车,然后直接 finish 完成。 这也是一个权限的选项,问你机器人和谁可以进行私聊,是你创建的,尤其你还是组织的管理员,本身就是可以直接聊天的,所以你也不需要开放更多的权限,也不需要选 yes, 当然你如果需要的话,你们后面再研究。我们这里直接选 no, 这些选项也不是必须的,所以我们都选 no 就 可以了。这里问是否要绑定 agent, 我 们肯定要选式,然后我们选择绑定默认的 agent 就 可以了,这次就完成了。然后回到网页,事件已回调, 保存提示,我们还没有连接上,那我们先创建一个版本,创建后就可以连接了。零点零点一教学保存发布。 回到这里边,我们得把服务启一下,因为我们现在小龙虾都没有在运行,即便我们配置了飞书的 id 还有 app, 其实根本小龙虾没有连接。连接上之后呢,我们来到这个页面,时间已回调 好,可以看到,这样就完成了。然后我们再点添加事件,这里输入一个消息,我把跟消息相关的全部勾上,确认开通,再到着调配置, 添加回调卡片式回传,添加至此的话,应该所有的东西就已经完成了。这里小龙虾没回消息,发现我要更新一下版本,因为我是先发布的,然后应用了一些东西,没有更新第二个版本。 这个零点二版本更新了之后呢,我们第二个错误是你要给小龙虾下指令,你是需要艾特小龙虾的, 看到吗?这边已经在走任务了,然后它这里面有一个敲键盘的一个状态,只要敲键盘的状态在,就说明小龙虾正在执行你这个任务,当小龙虾执行完之后,你敲键盘的状态就不在了,至此我们所有东西就已经打通了。
粉丝1.1万获赞3.4万

有粉丝问模型该怎么更换,那么我们今天就来讲模型怎么选择以及更换。 那我们首先去了解一下这个模型什么是模型,以后不懂的东西都可以直接问豆包,我们直接就把目前市面上的所有能够支持龙虾的这个模型去进行一个比较,是豆包出的结果。 那么在这个表上你们就可以知道为什么你们的龙虾会反应这么慢,这里是有响应的,比如说这种三秒的。 好,那你看这里,他说这个是第一,那我们就今天就用这个来做一个例子,是如何去接入这个 p, 因为很多人他可能第一次上来,他就去接了 type c, 可能比较简单接入,接完之后就不知道怎么改,那今天教怎么改? 那我们得先去这个官网, 这个它是目前应该是全国第一的,豆包说了感应最快,但是价格不便宜, 那我们在这里找到这个 building plan, 进来的时候我们就会选一下套餐, 买了这个试一下,给你们解释一下这些是什么意思,比如说一百 rounds 五个小时,什么意思呢?就是五个小时之内你能够问他一百次,比如说现在从十点到下午的三点, 我只能问他一百次,如果一百次过后就更不了了,就他不会反应了,是这个意思,如果你,如果你觉得不够,那你就可以开这种一个小时可以三百次,还有这个两千次, 建议啊,普通人我觉得还是这个就够了。好吧,你们自己看,那我们怎么接入呢?首先在这里啊,有一个购买之后啊,它这里会有一个 e, 然后用了这个 key。 好,我们先讲本地的更换,我们在我的电脑一般的吸盘这里会有一个用户找到,你的用户在里面找到这个 open ai 的 登录, 然后在这里会有一个 opencloud 的 追神文件,这里一定要备份啊,特别是新手一定要备份,如果不备份的话,出了问题就很难搞。复制一下, 三月十三号好了,有了备份就不怕了,它它什么问题,我们大不了就把它这个删了,然后再来这里把这个回复就行了。 找一个好的编辑器啊,如果你用这个文档打开的话, 如果是这个打开的话 就不太好看了,可能编辑的时候会容易出问题。找个好编辑器, 这里好处是你可以这个括号都能对应,这样对的上。好了,不说那么多,怎么改呢?首先做了一个保存,保存之后这里是有备份的,就不用看了,我们来去找个 deep sync, 这样 deep sync 我 们从头到尾复制一下,比如说你的这个 改一下 mini mix 类型,这样子给它加上,这里也要加,相当于就是加一个模型吧,它是可以在那个 mini 画像龙虾这一款。首先先加一个手动画, 我们抄 dips, 这里注意啊,一定要用英文,就是英文字母的逗号,不要用中文的,用中文的不行。 这个叫什么呢?叫什么?那这样子不能怎么配置啊?找个包,找个包。那怎么接入吧, 试一下, 这个是名字,名字是随便啊。嗯,然后这个地址,这个请的地址可以切换成不能接 d c 的, 在这里不知道 v e 就 行了。 这是什么?这是默认,比如说你配置之后,你重启之后它用哪个模型,这里直接默认 d c 嘛?现在可以在这里加一个 这后面的名字,在这里你写啥就是啥, 哦,应该上面这个,上面这个,嗯,这个这个定了一个是 id, 然后写完之后要 ctrl 加 s 保存一下,一定要保存,不保存不生效,好,保存,我们试一下重启一下 旧版的这个是要后面有个 stop, 好 像新版的那个三点八的好像就直接就给了位就可以启动,这个呢?根据自己的实际情况启动一下。 刚才我们只是配置了,有没有发,如果聪明的小伙伴会发现我刚才是没有配置这个 key 的, 没关系啊,我们启动启动。哦,这个没改, 要改成,要改成这个, 这个系统保存再重启一下, 在吗? 哎,看到没有没有配置 key 的 时候,这里就会应该有很多同学会发生会遇到这种情况,不知道是 t 配不对还是什么,反正他就是一直没有回弹,对吧?就是因为没有配置 key。 那 我们再来到这个目录下, 找到这个 adns, 我 们可以先看一下这边的配置,没有电了,默认翻启动,这里没有,然后我们找到这个目录还是这个目录,然后这里有个 adns, 有 个 me, me 里面有个 adns, 在 这里找到这个 models, models, 然后打开 在这里就就是什么呢?在这里就是你之前配呃,所有的这个代理这个模型的这个 t, 这也是 d c 的, 然后 d c 直接叉。这里要讲一下这个跟这个是有区别的,我们去看一下它的官网, 那这个 d c 小 号也挺多,六千多万,然后看官网在这里 他这也说了啊,这其实是两种,一种是这个 duck, 一 种是 resident。 resident 的 话是什么?深度思考,也是说如果你要用来干活,应该是要 face, 如果你只想聊天,那就是这个。 我们选的话,应该是选,应该是选这个,那样去干也是我这边配置的,这样去干不好,不管这个是另外的是什么,来我们看它,我们之前在这里手动加了这个 excel, 然后你保存重启之后呢,我们才会自己在这个窗口去生成对应的 配置。啊,这是我们刚才配的,感觉我们配的错了,因为我们是想当年的,并不是它官网的一个标准的模型的 id, 这才是它生成的官网的标准浏览器。然后这个这个是什么呢?这个应该是它所谓的这个, 那我们刚才那个应该是这个,这个应该就叫应该是这个,那就是对应上了,那也就说我们自己写的这个错了,要换成他的这个,我们过去换一下,直接换一下, 我们这里抄的是这个。 好, ctrl s 保存一下,有些好像 ctrl s 保存它就能生效,试一下能不能生效,在吗?还是不在哦,那就是没生效, 那我们重启一下试一下。 哦,不好意思,忘了,没有生效是肯定的呀,因为 key 还没配,因为 key 还没配,知道吗?刚才我们去保存,其实它是生效的,你看我们之前制定的那个,它已经删掉了,已经没有了,那么理论上我们问它在吗?它肯定是不在的啊, 应该不在。那好,我们应该去配一个 key。 key 在 哪里配呢?在这里有个 model, 这个目录下有个 model, 之后还有一个这个,我们打开它,这里会有一堆配置,我看一下 哦,这个是我之前配过的。那为什么呢?不行, 搞了半天终于找到问题在哪里了,大家一定要注意啊,复制的时候一定要小心,再扫一个 h, 好 吧,再扫一个 h, 保存。 这边不管这边,可能这边这边不用管这边等下子我们重启一下,自己写起来,这里这里的 key, 它到时候也记得写,我们重启一下好了。你看这里这个文档它到时候也记得写,我们重启一下 好了。你看这里这个文档它到时候也记得写,我们重启一下好了。它会不会把那个改掉? 哎?这改过来了吗?它附它,也就是说这个文档跟这个文档都会,可能都会被外面那个实时写进来,重启就会写进来,我们先问一下,应该可以。 嗯,好了,我问一下你现在什么模型 好?检测一下当前所有模型的响应时间。好了,我们看一下, 现在就是可以检测出来当前的这个模型的时间。这个可能有问题 啊,这是第一种啊,就是改这个配置文件的另外一种,其实很简单,你直接就跟他说,跟他说就行了。你直接把那个这个复制下来, 复制这个啊,到这里,然后你就说帮我添加一下 mini man 的默契,然后再把这个这个给他回车,应该就行了。但是在这个操作之前啊,你一定千万千万,你还是得到这里来,先把这个备份一下,这样去搞,如果他搞错了,搞怎么样了?因为他搞错了,他会重启这个网关,重启之后, 如果它重启之后,它切换成默认的是那个 mini max, 万一它没配成功,没配好它就不会跟你兑换了,就像刚才一样,它就不会跟你兑换了,你问什么都不会反应了。这个一定要注意,你可以先先把这个保存了,保存好 出问题了你就把这个删除了,也删掉,然后你再把你刚才这个复制一份,再改成这个名字,再重启完关就恢复到你之前了,这个一定要注意一下。好,今天就讲到这里。

open club 整挺火,后台私信主要关注两个问题,一,小龙虾是什么?二,怎么安装?因为我和我的关注者都不是什么 ai 专家,大多可能是因为小龙虾很火比较好奇,我就言简意赅了,小龙虾不是什么新的 ai 模型, 他是一个利用 ai 的 工具。如果你不给小龙虾分配模型啊,他是连聊天都没法聊的。如果给了他模型,那就厉害了,他可以读写操作你电脑上的所有文件,甚至接入其他程序的接口,操作这些程序,帮助你工作好了。第二个问题, openclaw 怎么装呢?上个月底一个上海粉丝啊,花了五百块装 openclaw, 离谱。 其实官方是有脚本的,安装起来并不麻烦,但是网上的教程却存在不同的安装方式的 原声安装和类似于虚拟机的 wsl 安装。这里各位不要被这个说法迷惑了,好像虚拟机就不太专业,不太灵活。实际上呢, windows 的 原声安装受制于安全策略,装好之后的 opencll 权限仅限于一个指定的文件夹, 反而是 wsl, 你 可以理解成微软的官方虚拟机啊,它的权限是可以控制你整台电脑的,这样才可以真正帮助你工作。而且后面小龙虾玩够了,你只要把这个 wsl 卸载, 电脑还是干干净净的,不像原生的安装方式啊,需要手动清理很多垃圾。第二个不同呢,就是接入方式的不同。如果你已经在电脑上部署了 ai 模型,那就可以直接让小龙虾调用,完全免费。但是这个工作效率嘛, 受限于你的电脑配置,像我这台电脑,真实体验下来并不好。而第二种方式是使用像千问呢, deepsea 这些官方提供的 a p i, 就是 你坐在家里,让他们的云服务器给你跑 ai 模型,这个体验就太爽了,缺点就是需要付费。当然喽,每家都是有免费额度的, 你可以挨个注册嘛,嫖完了所有的免费额度,再决定要不要付费。所以呢,我这里的安装教程就是 windows wsl 安装加上云端模型的接入。安装步骤拢共分三步,第一步,环境安装。先安装 wsl 搜索框,输入 power shell, 右键管理员运行, 输入 wsl install 回车,等待安装完成重启。 重启之后进行 linux 的 安装,再次 power shell, 输入 wsl install 乌班图二十四点零四这个版本回车。 安装完成后会提示设置 linux 账号,可以直接回车,然后设置 linux 密码,这里它不会显示你输入的字母,你就自信地输入简单的密码,然后回车并再次确认输入密码。 再回车之后,会发现命令符变成绿色和蓝色了,说明我们已经进入 linux 虚拟机了。第一步我们的环境就配置好了。第二步就是 open color 主体了,直接在命令框输入回车,等待完成, 直到出现黄色字体,就表示这个炙手可热的 openclaw 已经完成安装了。紧接着最后一步,配置 openclaw, 控制方向键向左回车回车。到了选择 ai 模型这一步,我选择用千万来做示范,控制方向键向下找到千万并回车, 选中弹出的网页链接, ctrl 加 c 复制并粘贴到浏览器,登录千万账号。这一步的意思是告诉千万允许 open color 调用它的模型,如果没有账号呢,咱就注册一个。确定授权以后,回到 open share 的 界面,这里也同时得到了响应键盘回车 配置技能。这一步,选择下面的 skip 跳过,然后继续选择 skip 跳过,一路选 no。 到了这一步,把除了 skip 之外的四个选项用空格键全部选上,按回车确定。最后一步,选择第一个回车, openclaw 也部署完成了,我们已经可以和他交流了,教程也结束了,更多的高阶功能需要安装一些额外的 skill, 这个就靠你自己摸索了。当然了,你也可以直接问你的 openclaw。

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

来兄弟们啊,补录一下小龙虾使用教程,还不会安装的,看我之前视频。首先补好后呢,来到这个界面,先不要点这个登录,找到模型选择,我这里边选的是 mini max 二点五 这个模型呢,比较实惠,然后在这里添加 api, 点击这个测试链接,成功后呢,选择添加并起用,这样呢,我们打你。好,你是什么? 可以了。

如何免托肯本地装小龙虾?最近这个 openclock 非常火,我也在我的本地装了一个小龙虾,但是装小龙虾最难的一个地方就是他的托肯啊,非常好这个托肯,但是我装的这个版本的话,他是一个免托肯版本,他是一个。怎么逻辑呢?就是你不要去配这个 apikey 啊,你 配的是什么?配的就是他网页的这个接口啊,就是说你通过这个网页的接口来调用这个模型的能力啊,比如说你可以去配这个 智谱的模型啊, deepsea 的 模型啊,啊, kimi 的 模型,豆包的这些模型,只要你的网页能够访问去抓这个网页的接口, 你就把这个接口的这个模型的能力去给你的这个小龙虾用,这样的话你相当于就不用再去配 apis key 了,就相当于不用再花费自己的这个托肯了。我现在的话本地已经配好了,我就问他一下你是什么模型?因为我连的是这个 deepsea, 它相当于已经帮我连上这个 deepsea 了 啊,现在这个非常好用,就不需要再配这个托克了。这个的话就是我的这个 open cloud 他的一个配置的文件。给你们看一下他访问的这个接口啊,接口的 url 的 话就是 deepsea 的 官网模型的话, deepsea chat, 然后 deepsea 的 推理模型 就是这么配的,就说你不需要再去配那个 api key 的 那个接口了,直接去掉网页的接口来配你的这个本地的小龙虾,也是可以用的,如果你们感兴趣的话可以后台戳我。

这阵子全网刷屏的 ai 龙虾 openclaw 能写代码,做自动化,搭全流程工作流,堪称全能数字员工。但很多人想上手,要么本地装环境疯狂报错, docker、 node gs 折腾半天搞不定,要么电脑配置不够直接带不动,纯纯劝退, 今天就给你们保姆级教程,用火山引擎官方云服务一键部署 openclaw, 不 用挑一行代码十分钟就能搞定,成本还贼低。 第一步,打开火山引擎官网注册账号,完成实名认证,新用户还有专属福利额度。首页直接搜 open club, 找到官方预制的一键部署镜像运行环境依赖插件全给你配好了,根本不用自己瞎折腾。选官方推荐的入门配置,两核两 g 完全够用。 完成付款后,单机去控制台按钮, 前往实力列表页查看新创建的实力规格信息。第二步,开通方舟大模型服务,并获取配置登录开通管理页面,选择期望为 opencloud 提供推理服务的模型家族,这里我们选都包 c 的 一点八模型。 在左侧目录处选择系统管理 apikey, 管理创建并获取 apikey。 在左侧目录处选择智能广场是模型广场单机,您期望 open class 使用的具体模型进入其详情页。单机复制按钮,获取模型的 model id。 步骤三,创建飞书机器人并获取配置 创建企业自建应用,登录飞书开发者平台,单机创建企业自建应用按钮,添加机器人能力。 在左侧目录处选择开发配置。权限管理,单机批量导入祈导出权限按钮, 在弹窗中确认权限无误后,单机申请开通按钮, 单机配置按钮,设置权限可访问的数据范围。单机确定按钮,完成操作。在左侧目录处选择基础信息凭证与基础信息,在应用凭证模块中获取并记录 app id 与 app secret 信息。单机顶部的创建版本按钮, 点击页面底部的保存按钮,创建版本确认发布按钮,完成应用发布。第四步,配置 openclaw 飞书 ai 助手登录云服务器实历 执行命令、配置模型和飞书集成的参数。 到这里我们基本完成了配置。在登录飞书开发者平台,选择企业自建应用页签并单机您创建的飞书开放应用。在左侧目录处选择开发配置。 c 事件与回调,选择使用长连接接收事件 并单机保存按钮,在已添加事件区域单机添加事件按钮,在添加事件对话框中选择应用身份订阅页签搜索消息并勾选接收消息, 消息被 reaction, 即消息被取消 reaction 三个事件。单机确认添加按钮,你看不到十分钟直接部署完成。 公网 ip 点开就能用七乘二四小时在线不荡机,响应速度比本地快多了,还不用担心兼容和安全问题。教程都给你讲透了,赶紧去试试,觉得有用的别忘了点赞收藏!关注我,解锁更多 ai 干货!

如何本地部署 openclog? 无需付费,无需 api, 可调用多种大模型,适合想尝试但是分币不花的同学。今天嘴对嘴教会你,记得一键三连鼓励一下。第一步,环境准备,我们先来安装 get, 点击电脑开始菜单,这边输入 powershell, 然后右击以管理员身份打开,输入上面这一段代码,注意空格,然后按下确认键,等待安装即可。这边已经提示我们安装成功了。第二步,安装 elama, 进入欧拉玛官网,点击右上角的下载,这边有三个系统版本可供选择,大家根据自己的系统自行选择,然后复制上面这段代码,打开之前的 power shell, 把刚才的这段话复制进去,等待下载安装 已经提示安装成功了,我们点击开始菜单,找到刚才安装的欧拉玛,打开欧莱曼以后,我们发现这边有很多模型可供选择,我们也可以自行选择模型,比如我选择最近刚发布的千问三点五模型。第三步,安装模型, 大家根据自己的配置找到合适的参数进行下载,复制上面这一段代码,然后点击开始菜单,输入 cmd, 把刚才复制的代码复制进去,等待下载安装即可。 由于模型比较大,大家需要耐心等待,我这边直接跳过了,我们显示已经安装成功了,我这边输入你是谁,他会跳出思考过程,然后说我是通一千问系列最新的模型。接下来我们回到奥拉玛,点击左上角的设置菜单,打开 expose alama to the network 这个选项, 然后往下拉,找到 context list 这个选项,把上下文长度设置六十四 k 到一百二十八 k 之间,如果你显存高,可以调高。第四步,安装 openclaw, 我们进入 openclaw 官网复制上面这段代码,记得不要看错了,它有 mac os 版本的。然后重新打开 powershell, 把刚才复制的代码复制进去,跟之前一样等待安装即可。这边显示已经安装,我们点击允许我们输入 alama launch openclaw, 然后点击确认键。 接下来可以通过 tab 键来选择你想要的模型,因为之前我们下载了快三点五模型,所以我们直接选择这个。安装好以后,我们复制上面这个链接到浏览器打开即可。 看到这里就恭喜你成功安装了 openclaw, 下一期我会教大家如何链接 qq, 实现全自动工作,小伙伴们别忘记点波关注哦,咱们下期再见!

再分享一个 open cloud 的 小案例啊,就是我比较喜欢机器人,我设计一个我自己的这个宇宙,所以呢我就做了这么几个 agent, 有 一个呢是设计世界观的,有一个是专门设计机器人机甲的,一个是负责去编辑这个纹身图的 提示词,还有一个就是真正的去把这些提示词去送给这个 comfyui 去生成图的。然后在我知道他们 agent 呢可以互相协合作之后呢,我就试了一下,我就直接去跟那个世世界观的那个那个 agent 说,你能不能去跟其他人合作一下,因为你们是上下游的关系嘛,然后你根据我们现在的这个世界观,你 去设计一个机器人来,然后再把图发回给我,然后这个这个事情就真的做成了,然后就觉得很神奇,然后总之呢 这个第一版呢还可以,然后呢就天晚了,已经十一点多了,要睡觉了,我就说哎呀,这个我们感觉虽然这一版还可以,但是我们并没有去做足够多的探索,对吧?我就说那要不这样吧, 你们几个啊,每一个小时给我去做一轮设计探索,在这个六个小时之后呢,也是早上你给我做一个汇总的文档,然后呢我就去睡觉了,我说好,真的是第二天早上一醒来真的是震惊了,真的这是一个超长的一个一个一个文档,但是 真的是就是说他这个 open call 这个系统,他是怎么样去去帮你去做这些事情,只要你给他布置好作业就好,真的非常有意思。

三个工具,让你的小龙虾每天进化越来越强。第一个, self improvement 自我改进系统,你纠正它一次,它就永远记住踩过的坑不会再踩。第二遍,自动把经验固化成能力。第二个, evo map 协助进化市场,你的成功经验可以变成基因上传,全球的小龙虾都能学习。反过来你也能下载别人的智慧,一个人的进化变成全人类的进化。 第三个, memos 张亮记忆系统,给 ai 外挂一个永久记忆 cloud code cursor windsurfer, 共用一套记忆,它越来越懂你,越用越顺手。装上这三个,你的小龙虾就从听话干活变成主动进化,每天变强一点点,一周后你都不认识了。

上个视频已安装成功了 gcloud, 我 们现在开始配置大模型,这里将会是操作,请手动在终端运行,把这一段代码 拷贝,打开终端, windows 可能不是终端, windows 对 应的是 power c 脚本工具,粘贴好点确认,等待安装好,这里有风险提示,选确定这个选择快速可启动啊,这里选择模型,这里千万记得选千万,这快捷,之后 点确认登录,要登录你的账号或者新注册的账号,手机号码都可以。好,这里选择魔镜,这是选择 渠道,我们是先跳过,后续我们可以教大家来连接飞书,这个搜索也不用配置这些 skills 也先别配置,可以跳过这里,注意是空格,选中,然后回车确认,我这里记录过,所以我选的是瑞斯达。大家应该是打开 选择的模式,有外部以外,他就在我们的外部上启动的那个界面,大家就可以可以测试,可以试一试了,这就完成后续跟大家介绍那个飞书,飞书 啊,以后还有更多的技巧去分享,希望大家持续关注。

大家好,今天给大家介绍一下最近很火的 openclaw, 由于 openclaw 下载难度较大,我们给大家找了可以一键安装到电脑中的软件 autoclaw。 我 们先在 autoclaw 官网下载一下这个应用,下载完成后安装即可。我们下载完成后首次登录需要登录一下账号,之后就会进入首页, 首页如视频展示一样,如果使用 autoclaw 是 需要积分的,新用户的话会赠送五百积分或者充值二十九元,有五千积分可以使用。 接下来简单介绍一下它的配置模型,相当于 autoclaw 的 大脑,我们可以切换,如智普、 deepseek、 minimax、 kimi 等多家的大模型, 也帮我们下载了很多 skill 技能,如果自己部署的话,这些都是需要自己一个个再额外下载的。 接下来我们展示 autoclaw 的 功能。第一个可以设置定时任务,如每天给我们推送当天的 ai 新闻,并简单分析 autoclaw 会调用它的技能,告诉我们怎么实现, 如他告诉我们现在的回答只能在当前窗口,无法脱离当前窗口回答。询问我们是否要连接飞书。咱们暂时先不用飞书,先简单演示一下这个功能, 这样我们定时任务就已经创建好了,等到时间我们可以查看一下效果, 到时间了效果就出现了,这次我们简单使用页面来展示,下节课我们来将飞书接入,实现飞书给我们发消息。 接下来展示 auto cloud 的 第二个功能,本地电脑操作,通过对话实现对我们的本地电脑文件进行操作。如让 ai 帮我们寻找一下我们的文件内有多少个视频文件? 现在我们看到他已经帮我们把文件夹中的文件都整理好了,还可以再让他把我们把整理好的文件根据需求放入一个文件夹中, 这里可以看到他已经帮我们把文件整理好,放进一个文件夹里了。接下来来展示一下 ppt 制作功能,我们把想要生成的 ppt 主题发给他,等待片刻, 接下来就已经生成好了 ppt, 我 们来看一下效果。

问你一个问题啊,为什么别人的 open claw 那 么厉害,而我的 open claw 啊,傻的完全没有办法交流啊,背后的原因是啥?以及怎么样去解决这个问题呢?好,接下来一个视频啊,给你讲清楚。那么前面我们说了,龙虾呢,有三大核心组成部分,除了龙虾 本身之外呢,还有大模型以及技能。而在这三个核心里面啊,大模型它充当的是龙虾大脑的时候,那么大概率 一定是你的模型选错了,你模型用的不好,那么整个龙虾就不好用了。好,问题来了啊,那我想让我这个龙虾好用一点,那怎么办呢?那就是使用顶级的大模型啊。好,那问题来了,那我怎么样给我的龙虾去更换大模型呢?接下来一个视频啊,给你讲清楚。好,我们想要给我们的龙虾更换大模型的话, 我们需要知道三个东西啊,第一个 ok, 你 的 api k 啊,你在哪个平台?你的身份标识是啥? api k 就是 你的身份标识, 因为龙虾呢,使用这个模型是要去付费的。好,那么付费的话,我就需要有一个身份标识来标识,张三是张三,李四是李四,这样的话,我才能够成功地去计费嘛,所以我需要有一个 apik, 然后第二个呢,我需要有一个 base url 啊,因为不同的大模型,它的请求的地址是不一样的, 所以这个就是大模型的请求地址,这是大模型的请求密钥。而第三个是谁啊?大模型的名称,因为即使是一家公司的话,他的大模型也是非常多的,那你到底是调这家公司里面的哪个模型, 你要讲清楚的。好,那么接下来呢,给大家去讲一下,怎么样从零到一的给我的龙虾呢?去更换大模型。好,那么首先咱们需要去找到这三个地方啊,通常情况下,不管是哪家平台, 那么它一定是有说明文档的啊,那这时候呢,咱们可以去打开它的说明文档啊,比如说,比如说随便一个平台吧啊,咱们就可以找到了,它里面有啥呀? open ai 兼容模型的这个列表的请求地址 啊,那么这个地址啊, base u l 给大家来说一下,它通常是以 v e 结束的啊,通常是以 v e 结束的,所以, ok, 咱们去调用的时候, base u l 咱们就找到了啊,这个地址有了,那么地址有了之后,接下来呢就是去调用模型了,然后在他们官方里面也给咱们提供了一个接口,然后这个接口呢去访问,你可以得到所有的 模型名称啊,当然因为它们本身是一个集成站,所以在它里面呢,国内的模型和国外的模型都有,比如说 kimi 二点五呀啊, jama 三点一呀啊, gpt 五点四呀啊,包括豆包一点五呀等等等等,还有 cloud 四点六啊,它们家都能用,而且夸张的是啥呀? 它们有套餐,可以让你的成本可控啊,你可以订阅六块九的,你也可以订阅四百九十九的,根据自己的使用情况来选择相应的模型就 ok 了。好, ok, 那 这时候我就得到了贝斯 u l 了,以及 它的模型名称了,那么第三个是啥呀?第三个是我的 api k 啊,那这时候咱们就去访问后台,在后台里面有一个 api k 啊,这时候呢? ok, 我 可以新建一个 api k 啊,比如说这儿呢,我就新建一个 test 啊,然后点击创建。 ok, 那 这时候 api k 就 有了啊,这个时候咱们三个东西都有了情况下啊,当然所有平台都是一样的,所有平台你就去找这三个东西就行了。 找到这三个东西之后呢,接下来咱们就去对接一下最新的 gpt, 五点四。好, ok, 那 这时候啊,怎么样去对接呀?不管你是 windows 电脑还是 macos, 苹果电脑都是一样的,那么 windows 电脑呢?你就点击视窗键, 然后 cmd 啊,打开你的命令行提示符,如果你是苹果电脑的话,在应用里面去找到终端啊,都是黑色的窗体,然后点击它就行了,然后点击它之后呢? ok, 接下来输入一行这样的一个命令, open cloud configure, 然后输完之后敲回车啊,敲完回车之后呢,咱们选择当前本地的配置,然后确定, 然后在里面去选择 model, 因为接下来我要去更换我的模型嘛,所以点击 model, 然后在这个 model 里面呢? ok, 如果你直接是比如说,哎,我就去对接 kimi, 那 你就去选择 kimi 就 行了啊,但是如果我对接这个平台在这里面没有怎么办? ok, 它底下会有一个自定义模型, 所以你不管是哪个平台,你只要拿到刚才那三个东西,咱们都可以通过自定义的这种配置来进行设置了。好,那刚才那个平台它没有内置啊,那我这时候呢,我就选择自定义的厂商啊,因为它符合 open ai 协议的好。敲回车,然后 敲完回车之后,它要你干嘛?输入 base url, 然后 base url, 刚才咱们找到了呀,啊?它在哪啊?它在这儿,对吧?啊?这个 base url, 它是唯一结束的,大家注意啊,唯一结束了,所以咱们复制这个地址。 好,然后回到咱们这边把它原来带的这个东西呢地址呢?给它删除掉啊?粘贴是吧?好,敲回车,备注 u l 有 了,然后接下来输入啥呀? api k。 好, 输入 api k, api k 是 啥呀?刚才咱们登录到后台,这个 api k 复制啊,然后这时候呢给它粘贴,然后粘贴完了之后呢?哎,敲回车, 传回车之后呢? ok, 你 要去选择协议,那我的这个协议呢,就是 open ai 的 协议,所以我选择第一个 open ai 啊,敲回车,然后这时候他让你输入啥呀? model id, 然后 model id 的 话,刚才咱们从这儿哎得到了所有这个 model 啊,我千万三三点五 plus 啊,然后这些都能用的,那我使用啥呀?这一批题四 啊,我使用顶级的大模型,那它的能力一定是最强的。好,那这时候, ok, 咱们去选择啊,这时候不要胡输啊,一定是平台给你提供的这个 id, 不要自己去输入复制,然后粘贴啊,粘贴完之后呢?敲回车啊,敲完回车,这时候他就该干嘛了?去验证你这些信息到底是不是对的?好,验证完之后他告诉你, ok, 我 可以连接成功,到这,你已经成功百分之八十了啊。好,然后这时候呢,他让你去起一个名字啊,给他起个名字,那默认的这个就可以, 不需要去改的啊,这时候咱们去敲回车就可以了,敲完回车之后呢,它需要有一个别名,是吧?啊,那么这个别名呢?咱们就叫做啊有 club。 好, 完了,配置完了啊,配置完了之后呢,咱们继续啊,这时候咱们重启一下咱们的服务就 ok 了啊,配置完之后, ok, 使用 open club 然后 get 位啊,你如果之前你的服务是启动的,这块使用 restart, 如果你之前已经把它关了,所以我这呢 open club get 位就行了。好, 敲回车啊,敲完回车之后呢,咱们问一下大模型,测一下,看它是不是 gpt 五点四啊?好, ok, 那 我设置完了之后呢?哎,我来到网页那边打开我的 龙虾啊,当然龙虾我没有升级版本,现在版本又发布新版本了,那我就问他,我给你更换了新的大模型,告诉我你是什么大模型。好,然后完了之后呢?点击 send, 咱们来看一下它的回复啊。好,那么经过了一段时间之后呢,它告诉我了它是啥呀? gpt 五点四。好,那到这咱们的模型就更换成功了。 所以呢,最后咱们去总结一下,不管你是哪个平台,咱们只要能找到这三个地址之后,然后使用命令的方式,就可以在不改代码的情况下自己来更换大模型了。我是磊哥,每天分享一个干货内容。

小龙虾不回答,发现 a p i t 配错了,不想翻配置文件,就用这个命令。如果你在我的上条视频已经查到问题可能出在 a p i t。 的 配置不对,但你又不想自己去翻 system 文件,那先记一个更省事的方法, open core on board。 这个命令本来就是我本科的设置向导安装时会用,后面要重新改模型和认证配置,也可以再跑一次。像这些比较常见的问题, api t 填错了,想换一个模型来源,或者现在这个 api 不 想用了, 都可以先试着重新跑一遍 on board。 官方的 on board 文档里也明确写了 base url a p i t model id 用它就能改。所以如果你不想直接改配置文件, 最省事的记法就一句,配置可能填错了,先跑一遍 open core on board, 后面我再继续讲什么问题适合重跑 on board, 什么问题就不是它能解决的。

再来给大家分享一个本地部署的小模型,它的使用的小问题啊,我们可以看到现在本地已经部署了有两个小模型啊,我们使用这个九 b 参数的这个模型来做演示啊,显卡呢只有十六 g 的 显存,然后我们现在来运行这个模型 啊,我们随便先打个招呼, 然后呢我们在这边看,刚刚这个打一个招呼,显存占用呢达到了将近八个 g, 但是呢这里有一个上下文的设置,默认的在这里面运行的这个上下文窗口实际上是比较小的,千万三点五九 b 的 这个模型,它的理论上的上下文窗口可以达到二百五十六 k, 但实际上这么大的,嗯,多数情况下没有什么用,因为毕竟模型太小了, 虽然模型可以接受二百五十六 k, 但是呢在欧拉玛这里面运行的时候,实际上根本就没有使用那么大的这个上下文窗口,那我们可以看一下嗯,他的上下文窗口的设置,嗯,这里也是上下文窗口,这里呢由于只有十六 g 的 选存,那么我们只设置他理论上的一半啊,也就是十二万八千的这个 好了,我们已经设置好了啊,设置好了以后呢,我们可以通过这个参数这个指令来查看啊,我们已经设置好了,嗯,这个时候如果我再跟他打一个招呼,我们再次查看他的显存占用, 这已经达到了十三个 g, 那 如果想要设置他理论上的最大的窗口二百五十六 k 的 话,那么显存就已经超十六 g 了,那么他就会把内容 放到内存里面去了,这样的话会大幅降低他的这个运行速度。这个在呃我们部署小龙虾的时候也会遇到这个情况,我们小龙虾里面设置的呃 agent, 他 如果调用的模型是我们自己本地的这个模型,那么你也要设置他的这个合适的上下文窗口。那如果设置太大了,呃,就会导致刚才我说的一样的情况,他会把它放到内存里面,然后反应就会特别特别的迟钝。 像九 b 这样的模型,一百二十八 k 的 窗口已经足够大了,因为小模型它的注意力有限,你输入的内容太多,尤其是太多的提示词,我们,呃上个视频讲到的前置的工具的使用,这些都会占据大量的这个提示词,那么它会导致模型注意力稀释,然后没有办法准确的 把握你到底想干什么。所以想使用小模型的话一定要把嗯,工具尽可能的节省, skill 呢,也能省,也可以省,然后经常清理他的绘画,不要累积过多的这个绘画历史。嗯,小模型呢也是可以用一用的。

大家好,相信大家最近应该都被这一个 openclock 小 龙虾给刷屏了,不管是在刷朋友圈还是刷短视频上面,都应该有刷到过关于 openclock 小 龙虾的一个话题。 简单来说,它就是一个 ai 智能体工具,可以实现连接 ai 大 脑与终端设备,让 ai 真正拥有双手,从只会聊天提供建议的被动助手转变为能自主完成系统及任务的标准化数字员工。 截止目前,他在 github 上面已经登顶榜单第一,拿到了三十几万的一个 star, 这就足以证明他的一个火爆程度,很多人甚至已经开始接起了上门安装或者远程安装的一个服务。那么接下来我们就来给大家分享一下如何在本地 windows 电脑上面部位的进行安装。 我们首先来到 node js 的 官网下载对应系统的 node js, 注意版本需要在二十二以上,然后点击下载,打开文件进行安装,一度 next 即可。 安装完成以后,我们可以按键盘上的 windows 加 r 输入 cmd, 打开终端,在终端里面输入 node 杠 v 跟 n p m 杠 v, 如果有版本号的出现,那就证明已经安装成功。接下来我们安装 git 一 样到 git 的 官网这边点击下载, 下载完成之后我们打开文件安装,然后一路 next 即可。 安装完成之后,我们一样在终端这边输入 get 杠 b, 如果有版本号的出现,证明安装成功。接下来我们就可以开始安装小龙虾了,我们复制这行命令,然后打开 windows 自带的 power shell, 记得要用以管理员的身份进行运行,然后我们在 power shell 里面填入我们刚刚复制的那一串命令,出现这一个报错,不要慌,这是由于 power shell 的 执行策略默认禁止运行脚本, 我们只需要复制这一行命令,然后将它在 power 里面执行一下,然后重新执行上一条命令,这样他就开始下载了。如果他下载的很慢的话,可以改用国内镜像进行下载,会快一些。 安装完成以后,我们就可以输入这一行命令进行初次配置,然后他会弹出一个使用协议,需要你这边进行确认。值得注意的是,使用 open core 可能会存在一些安全风险,建议大家还是在云服务器、虚拟机或者备用机上面进行使用。然后我们这边选择 yes, 选择快速开始,然后这边是给你的模型配置对应的 api key, 我 们这边先跳过, 然后这边是配置聊天渠道,你可以选择 telegram、 whatsapp it's code 或者飞书来更方便的跟小龙虾进行对话。我们这里也先跳过,接下来是配置搜索服务,这边需要另外申请。 a b i q, 这里也先跳过, 接下来是给小龙虾安装 skills 技能包,给他配置各种各样的能力,比如操作浏览器等等。这边我们也先跳过,后面再按需进行安装。接下来是配置 hux, 这边可以全部选中,注意是空格,选中回车确认,然后他这边就会自动安装并启动 open curl 了, 然后他这边可能会弹出防火墙提示我们这边点击允许启动完成之后,他会问我们要在终端里面使用还是在网页浏览器当中使用,我们想要看的直观一些,当然是在网页浏览器当中使用了选择网页浏览器,然后他就会自己打开 open 可二的网页控制面板。 到这里你的 open curl 小 龙虾已经全部安装完成,但此时它还不能够进行对话,因为我们前面是没有进行配置这一个 api key 的, 接下来我们来配置一下,我们在 power shell 里面输入 open curl config, 打开配置页面, 选择本地 logo, 然后这边选择 model 模型,在这里可以选择你的 ai 大 模型,比如我这边用的是 mini max, 所以 我这边就选择 mini max, 因为我是使用的是国内的 api, 所以 这边要选择 cn, 然后复制 api key 粘贴进来,然后选择模型, 然后这边选择继续 continue, 他 这边就会自己进行重启。然后我们再回到网页浏览器这边就可以进行对话了, 然后因为他现在等于说是刚刚诞生,那么你就可以根据对话去一步步的引导他来设置他的身份、个性以及职责等个性化信息。 好,那么这期视频我们就先到这里,下一期视频我们再来给大家讲一下如何接入飞书 discord 以及 whatsapp telegram 等聊天渠道,谢大家再见!

今天跟大家讲一下这个在小龙虾里面,他这个的模型是怎么切换的,那我当前这个模型是 glm glm 五的模型,那如果说我要切换成呃 glm 四点六 v 的 这种模型,那该怎么切换呢?那切换里面我们有这么几种办法。 呃,先给大家说一下,一种我们先打开一个终端,在这个终端里面呢,我们输入这么一个命令,叫 openclock apple color, 然后呢 o d l 是 model 四,那设置 set j ai, 这是智普的那个前缀 j ai, 然后写杠 g l m 杠四点六 v, 那 这个就是切换成把把这个默认模型切换成 g m 四点六 v 的 版本,然后我们敲回车一下, 敲回车完之后呢,它这里呢会告诉我们模型已经设置成功了,然后呢我们给这个小龙虾呢的网关重启一下, 重启一下,这个可以重启一下, 那重启完之后呢,我们回到这边来,我们去刷新一下这个浏览器,你看它当前呢这一个会增加了,多增加了一个叫 g l m 四点六 v 的 这么一个呃默认模型, 那这个呢是我们切换模型的一种方法,当然大家这里看到的这是一种呃通过它这种内置的这种 p p n 的 一个命令, 呃可以设置的,那如果说呃这里面的那个模型默认的模型不在我们的小龙项链表里面,比如说像 deepsea 这这种模型,那要怎么设置呢?因为 deepsea 它是不能通过这种呃简单的命令去设置,它只能通过自定义的呃 模型去设置,那它这边呢有两种,一种两种命令,一种是直接通过什么通过这种呃非交互模式的这种条命令就可以执行,比如说像这个, 比如说像这种像这种一条式的命令,它这里是什么呢?它这条命令呢?它这个是什么?呃是像这个参数呢?是。呃 执行非交互模式,使用非交互模式。那第二个叫 modelcare 了,这一个呢?按本地模式配置网关,这个是按本地模式配置网关。那第三个是什么呢?第三个是使用自定义的 api t 接入,这个是使用指定 api t 接入的参数。那第四个参数呢?这个第四个就是给这个呢?呃提供商命名为叫 dbseek, 对 吧? 那第五个这个参数呢?这个是什么?这个说明让它兼容 openai 的 协议。那第六个呢?第六个是什么设置?呃, deepsafe 的 这个接口地址。那第七个是什么呢?第七个是,呃设置默认模行为 deepsafe chat。 那第八个这个呢?那就简单了。第八个这个就是填写我们在数据库上创建的这个 api t, 这个就是 api t 的 序号。那第九个这个是什么呢?确认接受非交互模式的风险提示,一定要加这句话,要不然如果说少了这个,它上面的这个就执行不成功,那我现在来给他执行看一下 啊,这里已经告诉我们。呃, justin 呢?已经备份了,然后呢?这里也执行完成了。那执行完成之后我们要记得什么?记得是,呃,我们要给它一个重启网关,网关重启一下。 网关重启完之后我们直接在这上面刷新一下就可以了啊,刷新一下它当前这个 deepsea 的 这个什么?呃,模型已经加载进来了,那我们可以直接什么跟这个呃, 我们直接问用 deepsea 看一下 它,这里会回复我们是由深度求索公司那一个研发的这个大模型, 那这个模式像这种方式呢?都是用一条的命令方式,那还有没有办法用?呃另外一种方法呢?就不用一条命令,我们用那种直接 on 使用的是什么? openclock on board 这条命令呢,就是类似于刚刚安装的时候我们去执行,那我接下来也给大家去演示一下这个呃,我们用这种命令,使用 openclock, 使用这样子的粗俗化的方式去呃配置我们的 deepseek 的 这个呃模型。那首先呢,我现在呢先给它做一个啊,先把这个呢做一下来还原。其实所有我们所有配置的这个 wincore 的 这些配置参数都在这个文件里面,我先把这个删掉, 删掉完之后复原这个文件, 我重命名一下,我复原这个文件之后呢,我们我在这里呢先给他什么,先把它网关 重启一下啊,重启完之后我们确认一下是不是恢复到我之前的呃初设设置,我刷新一下啊, 这已经呃复原到最早的之前的设置了。好了,我现在呢给大家去演示一下这个什么呃通过这个叫做 open, 通过这条命令怎么去呃配置我们的 deepcom 这个模型,那我们执行这条命令叫 opencloud on board 的 这个命令, 那这个执行完之后呢?他就是我们,就像我们第一次安装的时候会告诉我们这个呃一些风险信息吧。完了我们给他确认一下这个选择 yes 啊,这个还是继续选择 quickstar, 那 这里呢告诉我们什么配置,是否继承原来的值,那我们选择第一个就可以了。 use assign 就是 继承原来的值, 那关键就是这些位这个位置了,这个位置这里的模型驱动商呢?有这么多个,那我们要选择哪一个呢?我们选择的是这个叫做 custom, 因为这里没有 dsp 的 那个默认的夫商,所以说我们这里要选择的是自定义的 夫商,那我们选择这个回车,那回车完之后,关键这个位置的 api, 那 个 api base url, 这一个要改成什么?就是我们的模型的接口地址, 这里的接口地址呢?要改成我们的这个叫 deepsafe v 一 的这个默认模型,那我们啊路径改一下,黏贴进来,就一定要改成这什么 a p i deepsafe, 点 com 点 v e 这个 u r 的 地址呢?是兼容 openai 的 接口模式。那我们回车,那这里呢?我们是什么?呃,黏贴那个 api key 的 值,那我们把 api key 的 值黏贴进来, 然后呢这个位置这里有三个参数,是选哪一个呢?我们要选择的是什么?叫做呃,说明兼容和 ai 模式协议,然后我们这里选择第一个兼容 open ai 协议, 那这里呢? model id 又是什么呢? model id 呢?这里呢是设置默认模型,也就是这个提供了哪些的默认模型?然后我们选择呃,输入 d e e p s e k 默认模型,然后显示 a t, 其实就是这一个, 其实就是呃这个位置接口文件里面的这个,其实就是这个, 其实就是这个。这个 deepsafe 提供的这一个叫做什么?推理模型跟聊天模型,然后我现在先选择的是聊天模型,叫 deepsafe chat 的 这个模型。好了,那我们给它 model id 选择了 deepsafe chat, 那这里的是什么呢?那 point id 又是干什么的呢?那 point id 它其实是是模型的一个小名,那我们这里的小名呢?也可以叫让它默认叫 custom api, 这个默认的也行,那我们选择用默认值吧。 那第二个是这个是别名,那这里的别名呢?我们也可以不填,没关系,我们直接敲回车也不填。然后第三个,这什么使用的一些我们交互的方式吧,那这个我们直接跳过啊,这里呢也是直接跳过, 然后这个是配置技能,那技能像我们之前也配置过了,我们可以选择 low, 也可以选择 yes 或者点 yes, 在 这里面跳过也行。我们先跳过,那这后面都是跳过了啊,像谷歌的,国外的这些 a p i 我 们都跳过,目前都没有申请 好了,那这个是不可使的,这个也跳过,那现在最后步呢?这个是什么呢?我们再重启一下就可以了。重启网关, 重启完关之后我们选择的是什么?还是继续选择 open 的 web ui 的 这个方式,然后呢它这里呢?它这里呢?你看它这种方式也可以把这个 deepseek 的 这个模型给它配置进来,那这个就是我们呃默认的这种, 呃自定义的方式,把 deepseek 的 一些那个 a p i 呢?呃配置到小龙虾里面去好了。呃,这个今天呢,呃,跟大家讲的这个第三方的 a p i 呢?呃就到这里了。

上期视频教给大家本地部署 oppo pro, 本期视频让大家的小龙虾接入大门型并连接手机,让你随时随地二十四小时拥有赛博助手。首先大家要明白,一键安装此操作大部分都是云部署,没有权限调动自己电脑内的文件进行办公,大家要区分清楚本地部署和云端部署的区别,我们要的是本地部署,这样才能自 理由操作自己的电脑文件。配置 ai 模型,打开新的命令页面,输入 opencloud comfind, 选 loca 回车,找到 model 回车,这里就有小龙虾支持的 ai 接口了,我自己用的是大模型,以我自己为例,右上角找到控制台点 a p i k, 添加新的密钥,复制备用。回到命令行,把密钥粘贴进去, 选自己 ai g l m 杠四点五杠 a 二模型空格为选择回车确认选择配置部分,直接选择下面选项即可。此时你的小龙虾已经 接入大模型了,接下来重点来了,我选择的是接入福书,打开福书开放平台,找到开发者后台点企业自建应用,给机器人起个名字,这里大家自行发挥,然后去权限管理,批量导入权限,权限详情图记得截图保存。接下来我们回到终端,输入 opencloud chatmail, 我 们选择 yes, 然后找到福书确认安装,这时候需要配置福书的 app 密钥,在凭证页面找到 id 和密钥填进去, 此时就要连接配置了,选 webescape, 连接国内图书端口,继续选择 open, 下一步选择频道最下方选项,回车完成选项即可。最后三个选项都选 no, 不 用复杂配置。回到图书配置世界已回调 创建版本确认发布手机收到消息,点开应用终端,执行授权命令。命令在绘画栏你创建的应用内,你可以点击直接复制即可。现在你的手机就能随时随地召唤小龙虾了,发消息就能操控电脑不关机,还能二十四小时在线。后续我将更新小龙虾实用 skill, 让小龙虾拥有更多技能来帮助你!大家记得跟紧续载玩转 open club!

最近这个龙虾啊,真的是太火了,前几天腾讯楼下的工作人员免费给大家安装了龙虾,真是人山人海,有两三百人排队,甚至还有很多人没有排上号。所以今天我也来给大家讲讲如何安装部署,不用排队,自己在家就能安装了。当你一不小心突然想配置一个在国内可以用的中文版小龙虾 agent, 聪明的你呢,就打开了编程软件 tree, 非技术背景的你啊,直接可以在对话框里面和 tree 说帮我配置 no 环境, 几秒之后呢,按照小龙虾的前置条件就解决了。然后聪明你呢,这个时候就在 github 里面找到了这个中文版的小龙虾,确认这个版本的小龙虾是在国内也可以用的,而且还能够通过飞书对话给它下指令。于是你就直接在这个网站里找到这三段神秘的代码,先把第一行丢给 tree, 几秒钟之后呢,就搞定了。接着呢,你再回到刚才那个网址,把第二行代码复制后再丢给 tree。 这个时候就进入到了紧张的部署环节。第一个问题,问我们是否理解有风险?回答, yes。 第二个问题,选择引导模式,选快速引导模式。第三个问题,选择配置现有值。第四个问题,选择模型商,因为之前在 deepseek 充了 token 啊,所以我就直接选择了 deepseek。 然后第五个问题是让我们提供 api key, 聪明的你呢,这个时候打开了 deepseek 的 官网,点击开放平台,点击左侧的 api keys, 然后快速创建一个,并且把这个代码复制后丢给 tree。 第六个问题,我们默认模型就选保持当前。 第七个问题,跟我们使用什么与小龙虾沟通,我们选择飞书,然后选择使用本地插件,选飞书国内版。 这个时候聪明的你就搜索飞书开放平台,登录后点击右上角的开发者后台,点击创建企业自建应用,然后随意输入应用的名称和描述,然后就创建好了。 这个时候呢,点击左侧添加应用能力,选添加机器人,然后点击权限管理,再点击批量导入权限,获得对应的接入文档, 这个时候输入第三段神秘代码,然后就开通了所有需要的权限啦。接着呢,我们点击左上角的线上发布,随意输入内容后就完成了发布。那么接下来有毅力的你再坚持一下,把应用 id 的 秘钥呢,分别复制给翠,然后回答最后几个问题,分别选 yes, np 和暂时跳过钩子。好到这里恭喜你,小龙虾的部署完成了,有毅力的你呢,也决定再把最后一步飞书也配置好。 这时候聪明的你呢,就回到了刚刚的飞书应用页面,点击左侧的事件一个回调,选择订阅方式,添加一个长链条并保存,然后点击右下角的添加事件,搜索接收消息,然后点击确认, 这时候再次点击上方的创建新版本,仍然是随意填写内容后完成发布。好了,现在恭喜你,你已经可以在飞书里给小龙虾下指令了。

你有没有发现啊, open cloud 正在推动大模型呢,去重塑它的能力体系,养成龙虾以后啊,你就会发现,龙虾的任务呢,和普通的聊天任务完全是两回事, 龙虾呢更需要的是工具调用,只能遵循定时和持续的长任务等方面的能力。那就在这两天啊,智府发布了 gm turbo, 那我呢也第一时间呢把它配到了我的 openclaw 当中,让它呢去调度我的龙虾团队。那今天呢,我来分享一下我是怎么用 openclaw 来管理我的自媒体一人公司的,也看一下这样母特布的效果。首先呢,我还是想先说一下 openclaw 的 安装,虽然呢,我之前已经出过安装部署的视频, 但是还是有很多朋友搞不定,其实我也很能理解,所以呢,这一次啊,我就找了一个完全的零基础一键安装的版本澳龙,也就是啊, auto cloud, 这个呢是智普最新发布的龙虾的版本。 那安装的过程啊,这一次真的没有什么可说的了,完全的不用动脑。那完成以后呢,除了自动的装好 open cloud, 澳龙呢还会自带很多实用的 skill, 非常的方便啊。还有一点非常让我喜欢的呢,就是他会自动的去完成飞速的接入,那就是点一下,然后呢,他会自动的去打开一个网页,一步一步的去完成配置,那这个才是真正的吃自己的狗粮,自我的去驱动。 那接下来呢,我就来说一下啊,我的 openclaw 龙虾团队的情况。那作为一个自媒体的博主啊,那我的团队呢,会有一个总管,一个自媒体的助理,一个财务的助理和一个开发的助理,那每一个呢都是独立的 agent 那 但是啊,为什么要用多 agent 呢? 如果是简单使用的话,其实一个 agent 就 足够了,但是啊,如果是深度使用,当你将过多的内容啊放到一个 agent 当中,就会污染它的上下文,人设呢,也很难去调教记忆呢,也不容易啊,去产生有效的进化。 分开独立的 agent 以后呢,那每一个 agent 都有独立的 workspace 啊, agent 点 md 啊, skill 等等这些内容,从而呢就能够实现啊任务的专业化分工和并行的执行, 而且呢还可以节省 token。 后面的势力啊,我也会去介绍。那接下来呢,我也带你去走一下如何去配置这样的龙虾团队,那配置龙虾最好的方法呢,当然是让他自己去搞定。那首先呢,我先去见一个自媒体的助理,一开始呢需求啊,并没有想太细,我就直接呢让他去帮我做一下设计。 这里能看到啊,这两姆特布的表现呢很不错,他会基于现有的情况呢去设计出一个 agent 的 内容,他的理解和规划呢,我觉得在这里啊都是九十分以上的水平。除了这个以外呢,我还要再去创建一个财务的助理和一个开发的助理,那加上最主要的 manager 呢,就会有四个 agent 的 团队。 那团队准备好了以后啊,我们就来测试一下 gm turbo 的 指挥龙虾水平。首先呢我们先在财务助理这里去热一个身啊,我让他呢给我建一个多余表格来去记录发票,那后面我再发给他发票的时候啊,要用本地欧拉玛里运行的模型啊去做 ocr。 然后呢记录发票的内容,还要上传附件, 那表格呢,过一会就能搞好,我这里啊就发一张发票,其实呢,这个过程还是蛮复杂的,为了节省 token 呢,我还要求了用本地的工具去调用,还有飞书的操作。那最后呢,还有上传附件 opencloud 呢,会自己啊去把相关的信息做录入。 那在最后上传发票的这个过程当中啊,其实一开始呢,这昂姆特吧没有成功,但是呢他不断的去尝试不同的方法来解决这个问题。那这点呢,我觉得就非常不错啊,他没有像很多其他模型一样,要求我去完成授权,然后再去重新执行这个任务,而是呢自己啊一点一点的去把这个问题搞定。 那再来看一下自媒体的工作台啊,那我先让他呢去定时的采集一些信息,每小时啊抓取全网的资讯,并且总结五条发给我,再把内容呢写到飞出的文档里,那这个可以说是博主的必备品, 那同时呢要处理搜索文档工具,还有定时执行的情况,那这种情况下呢, gm 特步的表现是不错的,那这个是收集的结果,这里呢已经稳定的运行了一段时间,一直呢没有出现忘记之前操作的内容的情况。那除了资讯以外呢,还有一点必须要做的,就是收集各种视频的灵感, 那我需要每天早上收集 youtube 上五个 ai 方向的热门视频,并且呢去汇总信息。那之后呢,就是使用我自己的一个 skill 去把视频下载下来。 那这里呢,我想分享一个小 tips 啊,因为很多人呢都可能会卡在下载这个环节上,那怎么办呢?那我总是说啊, github 是 一个大宝藏,那咱们呢就去 github 上想想办法, 比如呢,我看到一个项目,他已经实现了视频获取的能力,而且呢我也亲测,还挺好用的,那我呢,就直接把这个项目的链接甩给 opencloud, 让他呢把这个项目作为工具,然后呢自己去分析一下项目应该怎么去使用。那这里可以看到啊, gm 特本呢,会有一个超长的一个尝试过程, 他会研究和测试项目,然后呢就真的一次性的完成了在本地的部署和使用,然后呢,我再让他把这个提炼成一个 skill, 那 以后呢,下载的问题啊,就可以解决了。 那最后呢,也不能漏掉开发的助理啊,那前面啊,我之前一直让 openclaw 去整理每天的日报,那我呢再让开发助理啊去做一个统一的一个门户网站,把每天的日报信息呢统一的做汇总的展示,这样呢就方便我来查看。 那在日报里面呢,我要求他每天去检查所有助理的情况,并且呢用本地运行的一个 gm 四点七的 flash 的 模型啊去做分析, 然后呢更新网站的内容,那这个就是 gm turbo 最终开发的一个成果,在开发方面啊,我觉得效果也是非常不错的,审美和功能啊也都很在线。 那这里还有一个小 tips 啊,就是关于前面说的省钱的。那在 opencloud 当中啊,其实对于一些精度要求不高的任务,是可以单独创建 a 帧的,来使用本地的模型去运行的,或者呢使用云上加本地的组合,那就像我的话呢,比如像 ocr 图像的简单理解,还有日制的分析整理 这些呢,我都专门会去派给本地的模型之行。那有机会的话呢,我都专门会去派给本地的模型之行,怎么样啊?我的龙虾小队各司其职的状态还不错吧。 那我呢也来汇总一下试用 gm turbo 的 一个感受。首先呢, openclaw 最大的场景呢就是工具的调用,其实呢,大部分的时候呢,都在处理各种不同的工具和 skill 的 调用。那这个过程当中啊,能够感受到 gm turbo 的 表现呢,是比较稳定的,比如像前面发票的上传过程当中啊,它会不断的去尝试, 直到能够成功为止。还有呢,像那个 getaham 项目的研究,这个过程呢真的非常的长,中间呢也没有出现过像丢失上下文和不知道应该如何处理的情况。所以呢,能够看出来啊,在适配 openclaw 的 场景方面呢,这样姆特布的效果是很好的。那另外一个我使用起来感受最明显的呢,就是速度快, 大家都知道啊, openclaw 发的 tokyo 呢会比较多,所以呢,在用很多模型的时候都会有卡顿的感觉。目前呢, jimmy turbo 在 使用的时候呢,我能明显的感觉到流畅度的提升,希望呢,这个速度啊,也可以一直保持住。那我觉得呢,在未来一段时间呢,针对龙虾模型的竞争啊,会越来越激烈, 那你觉得 jimmy turbo 在 龙虾当中的表现应该打几分呢?那好了,这里是 it 咖啡馆,我们下次再见。