小龙虾呢,已经成为当前最火热的 ai 代理工具之一,作为工程行业的数字化人,我呢对小龙虾有两个要求,一要安全,把小龙虾的权限呢要关在笼子里。二呢是要省钱,要能够使用本地的大模型。 大家好,我是营销思维,今天呢,我们将从 github 上的源代码开始,以刀刻的方式来部署安装自己的小龙虾, 因为刀客呢是与主机完全隔离的,它的安全性呢会更强。并且呢,我们会使用欧拉玛来通过配置本地的纤维模型来实现零成本的来运行小龙虾。 那么在系统安装之前呢,我们首先需要来检查一下系统当中是否安装了刀客和欧拉玛这样两个工具。那么以我这台五班图的这个系统为例哈,我们打开它的终端, ctrl alt 加 t, 那 么我们首先呢来检查一下啊 dawk 哈,我们输入呢 dawk ps, 这个命令回车, 如果你这里显示的是没有找到命令说明呢,你还没有安装 dawk, 那 么你呢,可以去查看我以前的视频,通过新华园来快速的安装一下 dawk。 如果你这里显示的是没有权限啊,被拒绝了,那么说明呢,你当前的用户 并没有直接操作刀客的权限,因为刀客默认呢是只有 root 用户才能够进行操作的。那么为了方便安装 openclock 这个小龙虾呢,那么我们需要将当前的用户呢加入到刀客的这个组当中来,我们使用下面这个命令, user mod 杠 a g, 大 写的 g。 然后呢是刀客当前用户 dollar user, 当然这个呢实际上就指的是我当前登录的这个用户,就是这个 are you ok? 那 我这里呢就直接用这个 dollar user 这个变量呢来直接来代替了直接回车 啊,他说是没有权限,因为呢我这里必须要用速度这个命令,速度 输入我们输入的密码。好,这个时候呢,我们就已经将这个当前用户加入到这个刀口里面去了,我们来看一下使用 groups 到了 user, 我 们来查看它,我们看到了当前的用户啊,也就是 are you ok, 那 么它已经在刀壳这里面了,那么要想让它生效呢,我们还需要再做一步操作,那就是使用 new g r p 啊刀刻,那么更新一下我们这个刀刻的这个啊所所有的用户,这个时候呢,我们再来输入刀刻。 ps, 我 们看到呢, 它已经能够来访问到我们的这个刀刻里面的进程了啊,只不过呢我们现在的电脑上呢,还没有装任,还没有运行任何的刀刻的容器,所以呢它只显示了一个标题。 那么第二步呢,由于我们要在本地呢,要用到这个 ai 的 大模型,我们还要检查一下本地是否安装了欧拉玛,那么我们可以直接使用欧拉玛 list 这个命令来查看 当前的系统当中已经是否安装了欧拉玛,并且呢可以查看到它已经采用的这个呃已经有的这些大模型的列表哈,那么我们在这个例子当中呢,我们会使用欧拉玛这个官方网站当中的这个 model 里边所提供的纤维模型, 我们看到这里有最新发布的千问的三点五,你可以根据自己的电脑的配置呢来下载不同的参数的模型,那么在这里呢,我们为了方便起见呢,我们就用这个零点八的这个 模型哈,零点八 b 这个参数的模型,也就是我们点击它进到这个模型的列表当中,我们只需要来复制这条命令, 那么我们回到终端当中来,我们将它直接粘贴在这里,那么它就会自动的来从欧拉玛的网站上来下载这个千问三点五零点八 b 的 这个模型,并且来说呢, 由于我这里呢已经是下载过了,所以呢直接就进入到这个运行状态了,我这里呢直接就退出呃,你还可以运行一下这个欧拉玛 sir 来启动一下它的这个 欧拉玛的这个啊服务哈,那我们可以看到呢这里呢我们已经启动这个服务,并且他的服务呢是运行在这个幺幺四三四这个端口上的, 如果你还没有安装欧拉玛的话呢,你可以来下载本教程附带的这个文件哈,也就在这里你挤压之后呢会得到这样的一个文件夹,在这里面呢,我们是附带了这个欧拉玛的这样的安装包,并且呢还自带了一个呃安装的脚本,你可以直接的 在终端当中来用这个呃切换到这个管理员的账户, 然后呢直接使用点杠啊 install s h 这个方式呢,只要你回车,它就会自动地将奥拉玛安装在你的啊系统当中,那我这里呢就不再进行操作了, 我们做完了准备工作之后呢,我们接下来呢就将开始我们的小龙虾的安装之旅,那么要使用刀刻的方式来安装小龙虾需要有四个步骤,第一步呢,我们需要从这个 gethelp 当中来拉取这些代码。第二步呢,我们要来编辑生成本地的刀刻镜像。第三步呢, 我们要来配置它的这个呃, open 可乐的这个 git 位啊,也就是将它的这个网关要把它配置好。第四步呢,我们还要再来配置它的这个本地的模型啊,有这么四步的这个内容, 那么我们为了拉取这个 git have 的 这个镜像,呃,这些源代码来更快呢,我们首先呢是需要来安装一个叫做 c n fast 的 这样的一个加速的工具哈, 那么怎么安装呢?我们其实只需要把在这个网站当中啊,我们把它复制下来,因为我这是个 linux 系统,因此我就复制这个 linux 这一部分。复制下来之后呢,我打开这个终端,那么我在终端当中呢,我先切换到 root 的 这个账户上面来,我直接 ctrl shift 加 v 将这个安装的命令粘贴在这里,那么它就会自动的来下载这个 c nfast, 那 我们可以看到它已经安装成功了。 那么接下来呢,我们就来拉取 github 上边的这个更新呢,其实是非常非常的快的,那么 这大概在一周前就已经更新到了这个三月十三号的这个版本哈,那么我们怎么来使用呢?我们在这个扣的当中,我们点击这个按钮,我们这里呢可以直接将这个地址呢将它复制下来。然后呢我们回到终端当中来 我们这里呢为了方便呢,我们退出我们当前的这个啊 root 的 账户哈,那么我们要想使用这个 c n fast 来加速的话,我们首先输入 c n fast, 然后空格,然后呢再用 git clone, 然后呢再粘贴上我们刚才的这个网址,直接回车。那么 c nfast 呢,是在问我们是用哪个代理,我们直接就按默认的就可以直接按回车。 那么由于我们已经啊采用了这个 c nfast 的 这样的一个加速的方式呢,因此呢它的下载速度呢比直接使用 git clone 的 话呢要快很多。 如果你感觉你选择的这个频道速度比较慢的话呢,你可以呃按照 ctrl 加 c 来取消当前的这个下载, 那么重新的用这个 c nfast 的 方式呢来下载这个换一个频道来下载,比如呢我这里将它切换成这个呃二号这个通道之后呢,它的下载速度呢就比之前要快很多了,我们等着它下载完成。 那么我们下载完成之后的文件在哪里呢?我们打开这个文件的管理器啊, 我们新建个窗口,那么在它的这个主文件里边,其实就会多出一个叫做 opencloud 的 这么一个呃文件夹,这里面呢就是我们从 githome 上面下载的所有的原码的文件啊,全部呢都已经把它下载到这里了, 那么其实在这个目录当中呢,它直接提供了一个叫做啊 docker setup 的 这么一个,我们搜一下吧, 对,它提供了一个叫做 docker setup 的 这么一个啊文件哈,实际上是说你只要直接运行它,它就可以自动的来帮你完成所有的后面的操作了 啊,但是呢受限于咱们国内的这个网络的原因哈,那么我们还是需要对他现有的这个文件进行一些改造,我们才能够更快的来完成我们的后面的工作, 我们还是要回到我们刚刚所说的我们所提供的这样的一个文件哈,在解压之后呢,我们除了这个欧拉玛之外,我们还有个叫做呃下划线 modify 的 这么一个文件夹,那么在这个目录下边呢,我们看到有个叫做 docker file 的 这么一个目录,那么在这里边你要 打开按 ctrl 加 h, 我 们打开这个隐藏文件的显示哈,那么在这里面呢,我们一共提供了这么三个啊文件哈,我们需要把这三个文件呢,将它复制到我们的这个 opencloud, 就是 刚刚下载的这个原文件当中来来使用。那么我们来看看这几个文件分别是什么啊?这个 docker file 呢,我们用文本编辑器来打开它, 那么这 dolphin file 呢,我们主要是改了几个地方,就第一个来讲呢,我们将它构建这个 dolphin 所使用的基础的镜像文件,将它全部改成了国内的这个镜像,因为我们直接去从它的原文件上去下载这个镜像的话呢,速度会非常的慢,这个版本呢,我们也是完全按照 它 github 上边官方给出来的这个版本来设置的。那么第二个来讲呢,就是我们在这里边配置了一个离线安装 burn 这么一个 工具啊,这个脚本呢,我们改成了离线安装,因为我之前做过测试啊,我们直接如果在线去下载这个 burn 安装包的话呢,估计得一个小时以上的这个时间,所以来讲呢,我将它改成了这个啊离线下载的这样的一个啊方式啊, 我们在这里呢还新增了一些这个华为的一些镜像员的一些替换哈,因为在后面在建立这个刀刻法,呃,刀刻镜像的时候呢,他要去下载像 下载一些啊文件,那么我们在这里呢,已经将他的对应的位置呢,也换成了华为云,这样来说呢,能够大大提高他的下载的这个速度啊,包括呢我们在这个啊,波恩 b u n 的 这个呢,那么我们也是将它作为了本地离线安装的这部分呢,做了一些修改, 包括呢在这个 stage three 里面,那么我们在这里呢也是新增了要替换为华为云的这样的一部分的镜像哈,那么来加快我们的这个镜像的速度 啊。其他的来讲呢,我们就没有做太多的其他的改动了,其他都是保持着和原始的 github 上的代码是完全一致的。那么我们将这些内容呢,我们将它复制过来啊,将它复制到我们的这个 opencloud 的 这个文件夹当中啊,我们将它呢全部都 替换掉。 那么接下来呢,我们就可以来开一个新的一个终端啊,在这个 open collab 这个目录下面,我们点击鼠标右键选择在中端当中打开,那么我们来开始呢,构建我们本地的刀刻镜像。 我们看到呢,我们启动的这个终端呢,它默认已经在 open collab 的 这个目录下面了, 那么我们可以 ls 一下我们星点啊 s h。 我 们看到呢,当前目录当中可执行的 s h 的 这个脚本呢,包括 dakar set up 点 s h 和 set up portman 点 s h, 那 么我们这里呢就直接就运行点斜杠 dakar set up 点 s h 就 可以了,我们直接回车, 那么我这边这个还是因为这个权限的问题啊,可能因为没有重启系统,所以说它没有还没有完全生效,我们看一下啊,啊,那我们要让它那个生效的话呢,还是用刚才那个叫 new 啊 g r p ducker, 然后这个时候呢,我们再来执行一下我们的表本, 那么看到呢,它就会去下载我们这些 对应的这个镜像的文件,那么由于呢我已经将它修改成了这个国内的镜像啊,所以呢下载速度呢还是非常快的。 我们看到呢,它已经开始创建了,完成了,我们 将要 onboard, 我 们要启航了,在启航之前呢,我们先向前看一看哈,啊, 我们看到呢,在这里呢,它是创建了一个叫做 open opencloud default 的 这么一个网络,并且呢它的控制器的名字呢叫做 opencloud opencloud get one, 这也已经开始启动了,那么 包括呢,它已经在运行里边的几个指令啊,开始运行了,我们看到呢,它这是一个交互式的一个 onboarding 的 这么一个啊。向导啊,我们可以看这这边它有它的 getaway 的 token 啊,是这一个啊, 并且呢我们看到它的 getaway 的 run time 呢,它是用的是这个 default, 是 lan 的 这样的方式啊,那么也就是说它是用这个任何一个局域网都可以来访问它的这样的方式,因为它是运行在 dork 当中的 啊,包括呢其他的它已经做了一些默认的设置,我们现在呢是需要将它这个 gitv token 将它复制一下作为 备份,虽然说我们在后面还是能够新建一个找到它,但是这里呢,我们先将它备份在这里, 好,这里呢就是 opencloud 的 二零二六三点一四,是吧?然后呢给了一个啊, 给了一个他自己的一个口号啊,这个口号呢,其实每次安装的时候他都会变化的哈,那么包括呢,这里开始出现他的这个啊,安全警告啊,包括他会告诉你啊,他是一个 权限比较大的这样的一个工具哈,那么这里呢问你是否要接受啊?当然要接受 yes, 然后这里我们第二项呢,我们选择 setup mode 呢,我们选择 manual 与手动的,来我们这里呢就将它 全部的 reset 掉,那么然后呢,我们说 reset scope 呢,我们就 full reset 全部给 reset 掉啊,那么然后呢,我们的 what do you want to set up? 我 们指 local gateway 哈,我们在本地要设置一个 bit away, 那 么本地的这个 workspace 呢?我们将它设置为默认值。注意这里面的所有的路径呢,都是指容器当中的这个路径哈,啊,我们又进到了这个模型的供应商这里,我们依然是选择一个叫做 openai 啊, openai 的 这样的一个模型,我们不要选择欧拉玛,因为选择欧拉玛的话呢,我们知道它会出错的。那么这里呢,用个 openai 的 k, 同样的给它一个随便一个 k 啊,一二三四。 那么接下来呢,就 keep current 啊,然后它这里面有一个叫做 git port, 那 么也就是它的这个对外的网,呃,网关的接口是幺八七八九回车。 那么这里要注意了,在这个 gateway band, 就是 我们要将这个网关绑定在什么地方,我们需要把它绑定到 line 上面来,那么其实这里如果你只绑定在这个呃 loopback 上面的话,那么只能在容器内部来访问它了, 所以呢,我们这里绑定到 line 上面讲的这一项啊, get 位的 off, 也就是它的这个认证方式呢,我们选择 token 啊,然后 tail scale export 就是 暴露的这个方式呢,我们选择 off, 那 么你如何 来做这个头坑呢?我们就让它自己来生成一个,那这就是它生成这个头坑,我们也把它再复制,再复制下来哈,看,这是个加 c 啊,其实它还是没有变哈,还是这个这个头坑。 然后呢?回车,那么这里呢,问你是否要这个 configure channel 或者 yes, 然后呢?啊, 这里随便选一个吧, finish 的。 然后呢?这里呢? skip for now, 然后接下来呢?呃, skill yes 然后呢?依然是选择 skip for now 按空格回车,然后后面全部选择 no 啊, 依然是 skip for now, 然后他继续来创建这个守护进程, 他问你是不是要让这个 shell 能够来直接来运行它?目前的是好,我们这个时候呢,我们输入一下多科 ps, 我 们看到呢, 当前它就已经正常启动了啊,我们还是不能直接使用那个啊,自动的那个配置哈,我们必须要用手工的这个配置的方式来,它才能够正常的来运行。 那么完成这一步之后呢,接下来呢,我们就需要来修改 opencloud 的 这个接收的这个文件了啊,在哪里呢?我们使用这个文件管理器啊,我们点进入到这个主文件夹当中来,我们打开它的 显示全部文件啊,显示隐藏文件这个选项哈,我们看到这个 open klo 呢,这是我们从 github 上下载的源代码,这里面呢还有个以点开头的 open klo 这个呢就是我们 open klo 在这个啊 doc 当中所生成的一个配置文件的一个地方,也就是说 doc 通过这个目录和我们的主机进行这个数据和文件交换,也就是我们说的这个叫做啊数据卷哈,它会配置在这里,那么我们将它 进入到这个点儿 openclaw 这个文件夹当中,那么我们看到在这边呢有一个叫做 openclaw 点 jason 的 这个文件,我们点击右键啊,选择它的打开方式,就用这个文文本本编辑器吧,将它打开啊,就在这里, 那么在这里呢,我们看到这个就是我们刚刚所生成的 opencloud 这样的配置文件,我们在这里呢需要对它进行一些修改啊,我们再找到我们 随我们的这个教程所匹配的这个视频啊,所匹配的这个文档哈,在这里 我们看在 modify 里面有个 json 这个文件,我们也打开它来,这个呢是我们给的一个已经配置好的一个样本的啊内容哈,我们可以对着它来做一些调整。调整哪里呢?我们看这个 open color json 当中, 那么我们首先呢把 else 这一段给删掉,从这个 else 开头一直到这个逗号这里,那我们可以将它删除,我们给他几个空格哈,来来做个标记。那么我们 在这个 open 我 们给的这个 open 扩展 t x t 这个文档当中呢,我们把 model 这一段呢给复制下来,也一直复制到这个逗号这里,我们按 ctrl c 啊,到这边呢,我们把它给 粘贴到这里啊,我们注意要修改的是这个位置啊,我们注意要修改的是这个位置,一个是我们要将它这个我们所我们欧拉玛的这个服务器所在的这个 ip 地址,我们要把它写好啊,我们当前的这个主机的,我们看一下啊,它的 ip 地址是多少呢? 我们输入 ip a d d r 数啊,在这里呢我们看到是它,那么也就是我们的地址呢是这个,也就是幺九二点幺六八点幺二二点幺二幺,我们将它呢复制过来, 回到这我们把它改掉哈,当然这个是我们的作为当前主机所直接运行的, 就是我们刀壳的那个宿主机,它的这个,呃,这个地址啊默认就是这样子来写的,我们改成这个十一的 ip 地址 啊。另外一点呢,我们将它的 id, 因为我这里原来呢是用的千问三,我们现在已经变成三千问三点五,改成千问三点五,而且是零点八 b, 如果是说不记得是多少了的话呢,我们可以在这里面呢去 啊欧拉吗历史他一下哈,我们看到这是千问三点五,冒号零点八 b, 那 么我们就按照这个来写, 那么这个也是前问三点五啊,零点八 b, 那 么这个里面有一个最大的 token 数,我们这里呢可以将它设置的稍微大一点,因为这个小龙虾呢是非常好这个 token 的, 这里设成六十四 k, 那 么我们把这个呢 复制一下,找到下边的这个位置,我们也将它改掉啊, 写成欧拉玛斜杠啊,也这样用同样的方式来写啊,其实下面这一段呢, model 下面这一段呢,我们是可以不要了的,我们直接就把它给删掉,免得节外生枝哈,我们来对照一下, 对,我们这里呢 ctrl r 加 s, 那 么回到我们的这个终端当中来,我们可以啊, docker restart, open curl 重新启动一下它, 我们等几秒钟 dot, ps, 我 们看一看啊,这里已经是在正常运行了,我们这个时候呢来输入我们的这个地址, 那我们看到呢,他已经能够正常的进来了,那么在这里头来讲呢,我们需要怎么办呢?我们需要用这个啊令牌,也就是我们刚刚所记录下来的这个啊,这个头肯字,我们把它给复制下来, ctrl 加 c, 在 这边呢,我们来 ctrl 加 v 连接啊,因为这里面呢还有一步要做,就是这里需要有一个 preparing, 那 么那这个时候怎么办呢? 我们就得来回到这个终端当中来,那注意呢,我当前现在是已经在这个啊,因为我们刚才是运行了 运行了这个命令哈,它现在它已经进入到这个容器当中来了,那么我们这这个时候呢,我们输入下面的这个啊命令哈, open claw device devices list, 那我们这里能看到什么呢?我们看到这里有两个等待需要这个啊,配对的认证,配对的这样的 id 号啊,有这么两个 id 号,那么我们首先呢把这个 id 号呢先给它复制下来 复制,那么接下来再用什么呢?用这个叫做啊 open claw devices 啊,我们直接先回个车哈,看看它的帮助文件,这里面有包括啊, approve 啊,我用这个 互喷可唠 devices a peru 粘贴到我们这个来回车,嗯,这样来讲呢,我们就已经将它配对成功了啊,已经显示这两个呢已经配对成功了,我们再来看一下 啊,我们要那个回到终端当中来看一下我们的这个。 好,我们看到这样呢,我们就已经进入到这个 open klo 的 界面当中来了,我们我们将它说一句话,那么看到呢,这个 open klo 现在就已经有了反应了, 那这个因为我是在本机的虚拟机当中运行的,所以它速度可能会相对慢一点,那么我们等待它反应就好了 啊,通过上面的一系列的操作呢,你已经学会了如何从源代码构建一个运行于刀壳中的小龙虾。其实呢,你还可以更简单的直接使用别人做好的镜像,从而呢降低这个 open klo 的 这个安装的难度。 但是呢,这个对于这个快速更迭的小龙虾来说呢,掌握从源代码来自行共建会更加的灵活和自由。那么现在呢,你已经多了一位可以二十四小时工作的零成本的数字化员工,你可以继续为它来配置更多的 skill, 开启你的养虾大法。 我还是要提醒一下哈,虽然我们已经把龙虾关到了刀客这个笼子里,但是由于它可配置的技能可以远程调用不同的程序,还是需要大家注意安全和网络的风险。 好了,以上就是本期影响思维说的全部内容,如果你觉得本期视频对你有用,请给我一个免费的赞,关注我,带你了解更多智能建造的底层技术,我们下期见。
粉丝611获赞3120

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

hello, 同学们,然后这一期呢,主要是教大家怎么装这个 gmar 四的模型和这个 code。 gmar 七 b 这个模型。然后呢,我是用 workbody 去装的,你用 qcll 去装也行,你用 opencll 去装也行,都可以的, 因为自己装的话是比较麻烦的,因为自己装的话可能要去这种开源网站先去下载,再去部署,还要用那个 c m d 权限去操作。这个反正我觉得比较麻烦,我直接就把这个 语句做好了,这个语句然后直接发给 workbody 或者 qq, 你 让他去执行就行了, 然后这边就可以让他去执行。我之前是做了这个,把这个投喂给他,然后 workerbody 就 会自己帮我部署这个欧拉玛这个开源模和开源模型这个东西。 然后呢,现在还没装好,不过现在这个欧拉玛已经可以用了,大家可以看一下,但是它是一个全中文的界面,不是全英文的界面, 所以呢,这个欧莱玛呢,还是要变成这个汉化版才行。这个欧莱玛我觉得还是挺可以,它它可以集成这个 open cloud cloud code code, open code 这些都可以去集成, 然后集成以后呢,你还得去下载,就是下载速度有点慢, 让他去集成这个 openclo, 集成这个 cloud code, 这样的话,然后一般都是用这个金面大模型。 e 四 b, 我 比较喜欢这个,这个其实都本地的,然后这边选择模型的时候,大家一定要切记要选这个本地的, 他本地是直接部署好的,你这个云端的是没法用的,云端的他是需要,应该是需要国外的账号才可以用,好像 我是先把它本地部署了,用 workbody 或者 qqlab 本地部署,然后他把本地的大模型都给下载下来,就直接调取本地的就行了,明白了吧?然后现在呢,就是说要去,他要去做这个结合,不过现在下载速度比较慢,大家可以看到等下载完之后就可以使用了。 然后这个 workbody 也在部署,相当于是让这些来通力合作。我现在就在研究哪个模型非常更好用吧,因为我做这个软件开发,需要大量的用这个 ai 来帮我做软件,做小程序。 然后这块呢,我比较喜欢看看是咱们中国国产的这个龙虾好用还是国外的龙虾好用, 比对一下国产的腾讯,反正这几天我用的是挺习惯的,它的交互了以及对中文的识别能力是相当强的。 这个欧莱玛它是一个国外的,应该是一个桌面,桌面的一个开源的系统, 可以调,可以相当于就是调取,相当于调取这个 open cloud, 调取 qcloud code, 调取这个 gmail 四模型,它应该是把所有的模型做成了一个桌面的扣端,让你可以去对话,是这么个意思。 ok, 今天这期就教就到这了,然后大家可以截图看一下我做的这个, 这个这个部署任务吧这个指令,然后大家可以根据这个指令也安装一下,自己尝试一下把这个自己的龙虾养的特别好,然后争取能提高工作效率,那以后你只要上班,你就往那一坐,就可以开始喝茶看报纸, 让龙虾帮你工作就可以了。 ok, 这期就做比较简单的,然后下一期我再教大家怎么用龙虾去开发小程序,开发软件, ok, 这期就到这,然后感谢大家的观看,记得给我点点关注, ok, 下期再见,拜拜。

谷歌最新开源的大模型 demo four 据说很强,在综合能力上甚至超越了二十倍规模的开源模型。 今天教大家如何快速部署在本地,以及分享一下在 mac mini 上的实际体验感受,具体感受什么样?大家看视频吧。首先打开欧拉玛官网,下载它的应用程序, 打开应用程序,我们看一下他目前支持的一些免费的开源模型,还没有 demo, 所以 我们需要去他的官网再去下载下载到本地。那么这里呢,有很多不同的型号 可以看一下,它有很多不同参数的型号,有满配的,还有一些轻量版的。那因为我这个是 mac mini m 四十六 g 版本,所以我们就选择它系统默认推荐的这个九点六 g 的 好,只需要复制这个指令,然后打开终端运行,它就会自动去下载 这里下载了。那么我们先测试一下, 测试一下他的回复速度,因为是第一次响应,所以速度会有点慢,然后我们打开活动监视器,看一下他占据内存的情况, 这个模型本身就有实际系统走内存差不多也跑满了,这里他已经有回应了,我继续再测试一条, 第二次响应速度要比第一次快很多, 我叫 jam 四,我是一个由谷歌 deepmind 开发的。 ok, 现在我们打开欧了吗?然后去加载一下,这里要重启一下这个程序,然后再看模型选择,里面 最下面就已经有了已经安装好的,现在我们把这个模型对接到本地的小龙虾,只需要复制这个指令,打开终端,在终端里面运行,它就自动会加载好, 这里有不同的模型选择,都是他支持的一些免费的大模型,我们选择 demo 让他去运行。 ok, 这里已经加载好了,测试一下他的响应速度。 这里我是放了八倍速了,说实话,因为实在是太慢了,他平均回复一个问题的速度差不多要两分钟, 非常非常慢。我本来想在这个小龙虾里面测试一下他的执行任务的能力,但是这个速度的话确实没有办法, 但是它有个好处啊,如果你有低血压的话,你就可以用它。我是动物城朱迪警官,你好吗?我过得还好,不错,谢谢。这里我甚至尝试开启快速模式, 但是实际的感受没什么变化,就还是那么慢, 所以只能放弃在这里面做测试了。那么我们还是回到欧乐玛,在这个软件里面测试一下这个模型本来的能力。这里给他放两张图,让他识别一下图先, 一个是标格,一个是周杰伦,看一下他能不能准确的识别。 这里我也是开了倍速的啊,但是这里的速度要比小龙虾里面快很多, 我给他给出的答案是,图二是陈坤,图一是一名中国艺人, 看来这个版本的模型识图能力还是有点差。接下来测试一道经典的陷阱题啊,这个对大模型来讲是一道陷阱题,很多大模型都倒在了这道题上面, 那么他给的建议是走路去,最后测试一下他的复杂推理能力, 这道题是我让 gbt 五点四给我出的一道推理题。 abc 三人中恰好有一人是骗子,永远说假话,另外两人永远说真话。他们各自说了一句话, a 说 b 是 骗子, b 说 c 是 骗子, c 说 a 和 b 至少有一个是骗子, 请问谁是骗子?给出答案,并且给出完整的推理过程。好,他给出的推理过程和答案我跟 gpt 五点四给的标准答案对比了一下,是一样的, 所以它的复杂推理能力还是可以的。 ok, 总结一下实际体验感受啊,你如果是 mac mini m 四十六 g 版本,虽然能运行,但是它会把你的内存拉满,就是你的电脑会一直处于满负荷的状态,而且响应速度也很慢,所以使用感受是很差的。 当然,如果你的电脑配置足够高的话,你是可以去尝试部署在本地的,因为它的响应速度肯定要比我这个要快很多。而且你还可以尝试去部署它的满配版,比如三十 e b 那 个版本, 能力应该是要比这个强不少。

八 g 显存的笔记本,跑 oppo 可乐,跑本地的奥拉玛,加上千万大模型,看他跑起来后我是怎么调优的,碰到了好多的坑啊,开始我选择的是啊,千万二点五七 b 的 模型,跑起来是没问题的,但是也是比较慢, 然后办显卡显存也跑的比较满,回答问题的时候也是相对较慢的,然后我就想尝试一下,我说这个啊,二点五,千万二点五是没有这种推理模式的,最近刚发布的这个千万的三点五, 三点五的九 b, 我 先跑的,然后进行了一些调优,调优以后,不管调优与不调优,反正就是占的显存比较多。 后来是因为是八 g 的 显存调到了,用到七点五 g, 用到七点五 g 我 觉得还凑合,但是就是推理过程特别的慢啊,特别的时长特别长, 然后在欧拉玛直接问的时候,跑的还是比较快的。回答问题还是说有这个逻辑啊,先思考完再回答这个逻辑,但是在这个 open club 以后,大小龙虾里边跑的就相对比较慢了,所以说我们就啊,我就把它继续又换回去,换到了一个千万的 二点五的一个七 b, 二点五七 b 以后就出现这些问题啊,就说跑起来总是把共享内存占一部分,怎么调优都把这共享内存占一部分。后来我看一下啊, 是对于这个调优参数进行了一系列的调整,调整以后二点五的七 b 暂时还是能用的,然后用起来以后发现共享内存这部分参数呢,全是因为低显存模式激活了,造成这系列的问题,所以说我们就把这个低显存的参数给调了一下,把对话的那个上下纹的长度调了一下, 但是你可能就牺牲了啊,比如说五轮对话以后啊,几轮对话以后就牺牲了这个他的一个记忆力啊,他就随机失去一些记忆了,所以这个也是不是很好的选择。但是没办法,因为上下文如果太大的话,然后在这个跑起来的话,这显存占有就相当大了。 然后还有一个问题,就是说在欧拉玛直接跑的时候呢,它不会去占用特别多的显存,比如说我就跑到七点五 g 就 完事了。但是你用 open 可乐小龙虾去跑的时候啊,它会额外加载这个其他的缓存啊,其他的 ktv 啊之类的一些问题,所以说造成了整个缓存一下就顶出了,顶到了这个共享显存里边, 所以说我们的这个共享显存的不就是内存吗?啊点到内存里边就相对特别特别慢了,然后呢咱们就只能给他这个调优,调到了大概一个四 g 左右的一个程度,这才够勉强。咱们现在跑的这个啊,七点五 g 左右就能跑起来,然后跑起来以后呢, 连上这个飞书啊,连飞书以后,你就发现一个问题,你跟飞书这个 man 这个智能体去说话的时候,让他建立的智能体啊,家里的子智能体,比如说建立个程序员啊,建立个产品经理啊之类这些呢,他是一个这个对应的不是呃,咱们这个想要的这个自主记忆啊,自主常记忆的智能体, 一个临时智能体啊,必须用这个 a、 d、 d 啊之类的这些参数去进行命令行切换键的智能体才是能够有强记忆的,所以大家要注意这方面的问题,否则的话一个对话绘画退出以后,这个智能体就没有了啊,所以说大家要注意这个环节 啊,这是我们在这个在笔记本八 g 显存加上欧拉玛加千问啊调优过程中遇到一些问题,调优参数呢?基本就是这样的一个参数,大家可以看一下,然后有更多的问题呢,我们也可以沟通一下。

安装前确保已经安装了 node js gate, doeslu boot to alama 和适合本地电脑的大模型在 doeslu boot to 中运行。 alama 在 alama 的 环境下开启 openclaw, 打开 web view 测试,安装成功。

哈喽哈喽,我是大海,很高兴又和大家见面了,昨天呢,大海给大家录制了一个教程,就是在我们本地的这个电脑上去安装我们本地的大模型欧拉玛啊,然后呢再去用我们的虚拟机安装一个 open close, 然后实现我们完全本地化养虾的一个全过程,对吧?不需要偷啃,也不需要花钱, 但是呢,很多朋友反映说这个安装过程还是比较复杂,尤其是安装虚拟机和后面半段,这个安装 open close 啊就云里雾里了,最后可能还是安装不好,那么今天呢,大海就给大家来一个更快速的方法,大海直接把自己的这个 ym 虚拟机昨天安装好的这一套打包成一个压缩包,大家下载下来一解压就能用了,对吧? 当然这个 openclo 这个本地大模型还是要需要大家自己去安装一下,根据自己的实际需求和你的电脑的配置,然后去安装一个属于自己的模型,那么下面这个 openclo 的 安装大家可以直接一步带过了,对吧?我们来看一下今天这个 教程啊,首先呢我们就要安装一个虚拟机,然后呢把这个大海的虚拟机压缩包打开,修改一点点内容,然后咱们直接就给他访问,非常的方便。那首先第一步我们来安装一个 vm 虚拟机啊,这一步如果说已经做了的朋友,你就跳过这一步,直接看第二步,对吧? 大海这里呢去安装一个啊,没有下载的同学呢,你就去这里下载一个,直接去安装这个 vm 虚拟机,它是向下兼容的,如果大家想使用我今天打包的这个程序,你必须版本至少要高于我昨天是十七点六点四,所以大家这个版本至少也是十七点六点四,不够的你就去升级到这个版本, 点击下一步接受下一步。这个地方呢,安装的时候我们自动安装这个对应的程序啊,以保证我们能使用。 然后呢什么什么我们下一步,对吧?其实就是一直下一步就行了,然后我们直接下一步,下一步 安装好,这里已经安装好了,我们点击完成。然后呢我们就开启我们的这个 v m v 二迅疾,开启了之后呢,大家这个地方不要新建,也不要这个打开,对吧?把大海打包的这个迅疾给它下载下来啊,我给大家提供了网盘链接,随便选一个进去下载好, 然后这个下载出来的安装包就是长这个样子,一个无邦图六十四位的 vip 压缩包。然后呢你就自己找自己的固态硬盘,比如说我,那这个盘是固态硬盘的吧?我我新建一个文件夹进去, 我这个压缩包呢,打包是两 g, 解压后是五 g, 所以 说大家最少最少你的那个固态硬盘上要留十 g 到二十 g, 对 吧?去给它用来运行,如果说你想很好的体验的话,至少也得五十 g 左右啊, 这个地方我们直接去给它放进去,放进去之后我们直接给它解压缩,全部解压缩就可以啊,好,解压缩好之后呢,我们就可以直接从我们的这个虚拟机里头去打开虚拟机,找到你刚才解压缩的这个文件夹, 然后呢里头会有一个六十四位文件,我们直接打开它,好,然后你就打开了这个虚拟机,点击虚拟机,然后给它设置,主要是看看大海设置这个四核八 g 你 能不能带动啊?你的电脑的硬件配置比四核八 g 低,你就 把它改的小一点啊,不然太大那个开启不了。接下来就是这个选项,这里呢,我们选到高级,看看他有没有起用这个侧通道缓解的禁用啊,一定要把这个地方勾上好,这个地方勾完成之后,我们就可以直接开启我们的迅疾啊,这个地方弹出了我已移动或者我已复制,你就随便选一个,我选择我已复制。 好,这里我们就已经登录了,对吧?登录名是无邦图,登录的密码是大海增援网,无邦图 密码是大海资源网啊,好,然后这就登录了,对吧?登录了之后呢,我们要去远程连接一下,不然这样操作太麻烦了,你点击上面的虚拟机 s s h, 我 们去连接到 用户名呢,我们还是无绑图。然后呢,我们直接选择连接,然后这里呢?连接的时候他问你 yes no, 你 就 yes, 对 吧? 然后呢, password, 就是 大海资源网,对吧?盲书就可以。好,我们就进入了我对应的这个地方啊,大家进来之后呢,就是如果你要去试用一下,那没问题,如果说你试用了之后感觉不错,你准备长期用的话,大家一定要把自己这个乌帮图系统的那个密码改一下, 这个改密码的命令就是这个搜索 password, 呃,乌帮图,这是改这个乌帮图登录用户 的这个,嗯,登录密码,然后你速度 password, 就是 后头不加用户,不加误绑图,那他改的是这个 root 权限的密码,然后这两个密码都应该改一下,因为这个大海的视频暴露在公网上的,你将来要长期使用你这个密码,别人能访问到啊,这,这不太好,大家还是要去改这个密码的哦,密码现在都是大海资源网。这原程连接了之后呢,咱们就可以把这个地方关掉了,把虚拟机关掉,我们 点击叉,然后让他在后台运行,因为这里我们远程连接了吗?就可以直接去操纵他,然后呢我们去输这个 ipaddr 啊,看一下他的本机地址是多少,右键粘贴进去,回车, 然后呢找到这个 e n s 三三,然后下面有一个 int, 对 吧?然后你看这个地址和昨天不一样了,昨天是呃, 幺六零幺二八,我今天变成了幺九二幺六八二四七幺二八,对吧?你要记住这个地方是二四七幺二八,把后半段记住,一会咱们会用到。好,知道这个之后呢,我们接下来就 s s h 转发小龙虾,对吧?我们直接在这里去给他搜索 powershell 啊,找到这个 powershell, 然后我们去打开,然后呢 powershell 里头就是用这条命令,对吧?把它复制一下这个地方,我们右键粘贴进去,然后呢把最后这个改一下,对吧?这是二四七点幺二八啊, 回车,然后输入一下你改好的登录密码,我这里还是大海资源网,对吧?回车,好,然后你就转发成功了,然后我们就可以直接通过这个下面这个幺八七八九这个带这个的去登录了啊,我们直接在这个浏览器就去 黏贴,然后他就访问了,对吧?访问了之后呢,我们就用我给你的这个登录 token 密码给他 连接好,就登录了,就和大海昨天就长的一模一样了,对吧?当然现在有一个很很大的问题,是什么呢?就是现在咱们这个连接是连接上了,对话不了,因为你这个电脑上还没有欧拉玛大模型,而且即使你有欧拉玛大模型,你这个连接这个地方也不对,对吧? 啊?我说你好,他开始一只猩猩转圈圈了,对吧?很多朋友都是这个问题,所以说呢,咱们还得给大家演示一下这个欧拉玛的问题啊。 那么今天呢,大海是给大家做一个快速演示,如果你想详细的了解欧拉玛的安装和具体如何去选择配置和模型,去看大海昨天的教程,非常的详细啊,非常详细,讲了大概十五分钟,欧拉玛 好,这个地方我们直接去安装,然后呢,如果说不会的朋友,你就去参考我昨天的这个文档教程啊,就是这一篇,这一篇开开篇就是安装欧拉玛啊,好,然后呢,弹出这个,我们直接 install 欧拉玛的这个下载地址,如果说大家下载慢的话,在昨天的这个文档里, 他有对应的这个网盘分流链接,大家去我的网盘里下载,速度会快一点啊,奥拉玛的官网呢?我们这里要访问一下,一会要下载一个模型,我今天呢就选一个小一点的模型,为了给大家演示嘛,对吧?咱们看千分三点五最小的模型是多大? 千分三点五最小的模型是零点八 b, 二 b, 四 b, 咱们就来个零点八 b 的, 对吧?最小的这个只要一 g 嘛。这个模型,然后呢这个复制上, 今天是为了演示,快啊你,你实际上零点八 b 在 电脑端根本没法用,零点八 b 这种模型是给手机准备的,是给移动端准备 各种小设备。安装好了之后呢,咱们先不管他,根据咱们昨天的教程,还要给他去配置一个全局的系统变量啊,我们直接在这个 windows 里这里搜索系统变量,然后呢编辑系统环境变量,打开这个窗口,点击环境变量,然后去下面系统变量里头点击新建,然后呢把咱们这个欧拉玛 host 给它复制进去, 然后呢变量值复制,我这个幺幺四三四啊,大家都是同样的粘贴,然后呢直接点击确定就行了。这个地方我们点击确定修改了这个环境变量之后呢,我们要重启一下欧拉玛啊,把这个欧拉玛在这里去啊,去给它退出, 然后呢我们再重新把这个安装的欧莱玛去给它打开好,然后接下来呢,我们是要找到这个 windows 真机 ip, 我 们从这里呢搜索一个 cmd, 在 这个界面下呢,我们去给它输入一个 ip config, 也是在这里复制就行了, 复制,然后在这里去粘贴,回车找到这个 vm。 net 八下的 ip 为四地址啊,今天你看我变了,变成幺九二幺六八二四七点一啊, 把这个 ip 地址给它复制出来,在浏览器里头黏贴,然后呢去给他后头加个英文的冒号,加上欧拉玛的端口。幺幺四三四, 回车允许啊,这个地方呢就可以看到我们访问对应的地址,幺幺四三四,欧拉玛 is running, 对 吧?能看到这个就说明行了。然后接下来呢,我们就是去给我们的 open close 把我们的欧拉玛弄上去,这个欧拉玛还没有安装咱们对应的这个大模型,对吧?咱们刚才复制的大模型 在这里啊,咱们把这个重新复制一下,然后呢在这个里头我们右键回车,然后让欧拉玛去拉取对应的前文三点五的镜像啊,整好了咱们可以在这个窗口里试一下啊,你好 好,前文三点五啊,这次不不错,虽然是零点八 b 啊,但是他还能回答,行,然后我们把这个地方关掉就行了, 这个欧拉玛已经安装好了,然后就是看我们的教程,对吧?现在我们这都已经搞定了,然后最后就来到了最后一步了,欧拉玛的模型也准备好了,我们就来到这把这个网关和模型重新配置一下啊,这里复制 啊,在这里呢,我们去右键粘贴进去,然后去回车,然后这里呢?首先我们是 yes, 对 吧?然后呢?呃,我们来,呃,这个快速开始, 然后呢我们去升级数据,就是选择第二个,然后这个地方我们的欧拉玛我们去,呃,选到欧拉玛回车,然后呢你看这个地方,这个地址就不对,对吧?这个地址我们要用哪个呢?幺九二点,幺六八点, 呃,二四七点,幺幺幺四三四,就是用这个地址啊,把这个复制一下, 这个地方右键粘贴进去,然后给他回车,这个地方他让你选是本地还是云端家本地,大家一定要选云端家本地,因为你一选本地,他就开始给你拉取那个超大的模型啊,这个肯定是不行的, 那么想要设置这个云端家本地,你欧拉玛就得登录云端账户才可以啊,没有欧拉玛账户的同学呢,你就在这里你去注册一个啊,大家最好是用啊,比如说 altlook 邮箱,就是微软的啊,比如说这里我就用一个 altlook 邮箱啊,然后呢它会让你创建密码,然后呢它就会给你的这个 邮箱里头去发一个验证码。好,然后呢还需要一个手机号,我这个地方呢用我国内的手机号啊,咱们国内手机号前头就是加八六,好也正常收到了, 这样我就注册好了欧拉玛的账户,然后就能登录了啊,你就拿你的这个欧拉玛,把欧拉玛界面打开,然后呢你会看到这里可以找到你刚安装好的模型,我这是千万三点五零点八币啊,刚安装好的,然后呢你点击左上角这个 呃 city, 然后呢点击这个登录,然后它会跳转到你的网站账户,你直接点击 connect 连接 好,这个时候你这个奥拉玛账户你就登录上,而且呢登录这个账户有一个好处,就是云端大模型能免费用啊,只不过它每个月每一天都有限额,那么具体限额的消消耗量什么的,大家去看昨天的视频啊,我们这里就可以选择了,在这里我们选择 云端加上本地的大模型,然后这里呢我们就可以找到我们本地的模型,比如说这里可以找到我们欧拉玛三点五零点八 b, 就是 咱们刚刚安装的,我们直接回正,然后呢剩下的这些内容咱们就不需要,对吧? 全部都是稍后再设置,这个地方设置我不需要,然后呢空格不需要 网关,咱不需要的网关咱们已经登录了,这个地方我们直接退出,然后呢也是等一会再设置好这个地方我们就搞定了,对吧?搞定了之后呢,我们把这里我们重新去给他刷新一下,然后模型这里呢我们就可以选择我们刚刚安装的千问三点五零点八 b, 对 吧? 好,然后我们来尝试的和他对话,你好,这个地方你会卡住对不对?那你当你这个地方卡住的时候,你就先切换一个其他模型,先给他刷新,对吧?先给他切换一个云端模型啊,这里,比如说我给他切换一个这个, 哎,啊,来了来了,稍微等待了一下,你好,我是你的 ai 助手,然后千分三点五零点八币,对吧?没问题,这个地方呢我们就已经完成了我们的快速配置,只要大家把这些包什么的安装包下载好,那么大家也能像大海一样在十几分钟的时间内呢,把我们这个大模型配置好,直接本地用起来, 好吧,那么大家注意使用的时候呢,要注意去修改自己各个地方配置的那个密码,不管是系统登录密码还是 open clone 登录密码相关的这些具体的设置呢,大家可以返回去看我昨天的视频,好吧,那么咱们今天视频就到这里结束,我们下期视频再见,拜拜。拜拜。

界面啊, open cologne, 来看一下咱们整个配置。这边呢是 cologne 的 get 位,他的网关,这边呢是本地的欧拉玛服务器 哎,这边已经好了,其实呢,走了一些弯路,我跟着豆包的思路啊,给我转圈转了一天。然后呢,我用 tiffany 呢,直接改了一个 jason 的 一个配置文件,直接跑通啊,就是这么。哎呀神奇,看一下, 我这边是跑的本地的欧拉玛,用的千问三点五九币的一个模型。你看这边啊,我已经开始给他对话了。这边想做什么啊?怎么称呼这边?你看下一步呢,继续折腾一下。

我只需要和我的龙虾小助理说一句话,他就立刻帮我打开 windows 注册表编辑器,并且定位到我需要修改的注册表的。像我只需要又跟龙虾小助理说一句话,他就会自动帮我打开 我的谷歌浏览器,并且直接打开我想访问的页面。太棒了,那我现在想打开我 windows 电脑的安全中心,那我只需要再跟他说一句话,他就可以快速的帮我打开我 windows 电脑的安全中心了,免去了我点击各种菜单的麻烦。 nice, 你 知道这是怎么实现的吗?那这个视频我就跟大家来分享一下。大家好,我已经在 windows 系统里安装好了 openclaw, 并且用它连接上了 windows 环境中的 elama, 使用的是 elama 云端免费的大语言模型作为 openclaw 的 大脑。安装完成之后, 我就来实际体验一下。今天这个视频就跟大家分享安装好之后该如何使用 open klo。 我 的频道主要分享 windows 使用技巧,所以这期也会重点跟大家讲如何用 open klo 在 windows 上执行各类操作。 我已经实际用了一段时间,整体体验下来还是挺好的,也确实很有意思。这个就是我在 windows 上安装的 open klo 的 web ui 的 管理端,通过浏览器来访问我。这个 open klo 的 网关也是安装在这个 windows 上的。 在我第一次使用小龙虾 agent 去执行 windows 命令之前,我需要把这个浏览器和这个网关进行一下配对。 那这个主要是出于安全的考虑,只有配对之后,这个小龙虾 agent 才能够去 调用 windows 系统自带的命令。我们先运行命令 openclaw devices list 运行这个命令,你看看它会显示出来有一个判定的区域,那这个判定的区域就代表有一个客户端需要跟这个网关进行配对, 那我们怎么配对?我们运行一下下面这个命令, openclaw devices approve 两个横线 latest, 那这个命令就把最后一个请求配对的这个客户端或者这个设备给它配对好了。这个时候我们再运行 openclaw 空格 devices 空格 list 回车,你看 安定的区域就消失了, care 的 区域显示我们这个配对成功了。那现在我们回到这个 openclaw 的 web ui 管理端,我们看一下它使用的大烟幕将是 default kimi k 二点五 cloud 欧拉玛就是我们在我的物理机上部署的一个欧拉玛本地模型,使用的是这个欧拉玛云端的提供的模型。我们点击左边这个聊天的菜单,打开这个聊天的页面,就可以跟这个 open cloud agent 进行聊天了。那我跟他说第一句话是,你现在的身份是电脑专家旺财,我是你的老板,对话中请统一称呼我为老板。 点击发送,那这个命令就发送出去了,现在他返回信息,说好的老板旺财已上线,有什么需要帮忙的吗?无论是技术问题,文件处理还是其他事情,请尽管吩咐他这个回答非常的人性化, 让人感觉的确是一个助理在给你回复。既然这个旺财小助理工作这么积极,那我们就给他分配一个任务,先试试他的 能力怎么样。打开 windows 设置里面的安全中心,点击发送,看他能打开吗? 说好的弹出一个权限请求的窗口,我们点击有漏,他果然打开了 windows 安全中心,这个任务执行的还是不错的。那我们大家看,在这个聊天界面右上角有两个图标,一个是跟一个大脑似的,一个是跟一个小扳手似的。这个图标显示的是你这个 open call 助理,他的思考的过程会在这显示出来,那这个图标显示的是 这个 open class 里调用工具会有哪些,它也会显示出来。你看这里边信息有很多,这个就是调用工具的这个信息,点击这个图标就显示出来了。那这些信息对 我们来讲其实有的时候是有用的,你可以了解一下这个处理的思考过程,以及他都调用哪些工具,如果出问题也方便你去调试,方便你去了解一下他调用的工具有什么问题。那如果你要先这个信息太多了,你就可以把这两个按钮全都关闭掉,那这样他只是显示最终给你呈现的信息。 那我们现在再给它发布一条命令,你帮我打开本地注册表,并且定位到这个注册表的,像我们点击发送,看看它能执行吗?要求权限给它权限,怎么没有结果?可能刚才我这个系统重启了一下,我们再粘贴这个命令,让它运行一下。啥情况 哦,又要求权限了?点击 allow 命令执行出错,不支持按的连接符,好在连接 allow, 它又使了另一种方法。 好,现在这个注册表编辑器的确已经打开了,而且他的确定位到了这一项没有问题。我们再看看这个浏览器里他说什么,说老板,注册表编辑器已经为您打开了,并且应该会自动定位到这一项了。 我们再给他一个任务,打开 google 浏览器,并且访问 opencloud 点 ai, 发送又请求权限。 hello, 打开 google 浏览器,的确打开了 opencloud 点 ai 很好,这三个任务他完成的都很棒。如果你也想让 ai 帮你实现某个 windows 操作,欢迎在评论区里告诉我。最后别忘了一键三连关注我。感谢您的观看,我们下一个视频,再见!

现在小龙虾里面配的就是墨尔模型,就是剑马寺以四 b 奥拉玛的,我问他你是什么模型,有哪些功能? 下方剑马寺,然后看一下他配置文件里面怎么配置的, 配置文件里面这个 provide 的 就是奥兰马的,然后类似幺二幺,是本地的幺二七的点,零点零点一模型,这里佳木斯下载了谷歌最新的佳木斯模型, 我一开始下载的是二十六 b 的, 发现我的机器带不动,输入一个信息让他回复,要等了半天,好,差不多一一分钟吐几个头坑吧,太满了,带不动。所以我后来下了这个四 b 的 一四 b, 这个大小是九点六 g, 九点六 g 之前那个二十六 b 的是十七个 g, 然后测试了一下新的速度,就差不多可以用他现在这个推移,差不多是这样子,你发中文,他反正推移的时候都是思考,都是用英文思考的,但是他回复的时候他都是中文给你翻译回来了, 然后他的数据截止日期是二五年,一月份的就一年多以前的,还是给你们测试一下,看看他的速度啊,这头壳输出 这个是没有加速的啊,你看看。 然后我的机器配置是这样的,是那个 l l 的 那个 n 五的芯片内存只有十六个 g, 所以 二十六 p 那 个带不动。

要做本地稀有化 ai 财务,我被 openklu 虐到崩溃,今天全是干货,谁免费谁付费,哪些是天坑,一次讲透,从部署开始就一路报错, anon model no api k 环境不兼容,命令行全红, 普通大模型聊聊天就行,但财务 ai 要做涨分路,税务,还得数据不上云,要求严十倍都不止, 十秒搞懂欧拉玛、 open klu 大 模型的关系。大模型是 ai 的 大脑,负责思考计算。欧拉玛是本地模型运行工具,专门在电脑上跑开元大模型, open klu, 也就是财务小龙虾, 它不是模型,是 ai 执行框架,相当于 ai 的 手脚。它们的关系是欧拉玛负责启动大脑, open klu 负责指挥干活,缺了谁都跑不起来, 再给你们上最干货的,免费付费,一眼分清,完全免费。可本地部署的有奥拉玛工具本身永久免费,还有拉玛 千万二点五 d p c 这些模型在奥拉玛里面跑全部免费,做账分录、报表分析都能用,零成本还不上云,但是对硬件有要求, 需要付费。云端调用的是火山引擎,豆包,财务推理快,企业级稳定按量计费,没有永久免费额度, 阿里云通、一点金金融垂直专用财报合规能力很强,新用户有免费额度,超量就会扣费。重点说 open klo 的 大坑框架本身是免费的,但只要调用云端模型就会产生 token 费用,最大的坑是自动循环调用,一不小心一天就能烧几百块。 最后总结三个避坑关键点,第一,欧拉玛本地跑真免费,但云端 api 全都要钱。第二, open core 一定要关自动循环,不然按地扣费。第三,财务专用模型环境复杂,小白很容易报错卡死。 想零成本就选欧拉玛加开元模型本地跑,但是配置要够,想稳定就选火山或者阿里云,一定要设好额度限制,想自动化就 open core, 必须谨慎使用。

我用了半个月时间,测试了二百多个龙虾 skill, 最后留下来的只有八个。今天我把这些技能全部免费分享给大家,让你的龙虾能够真正的解决你的痛点。第一个, agent bro, 想爬某个网页,直接说去这个网站,把这个列表给我抓下来, ai 就 能自动打开浏览器操作页面,数据结构化了,返回不需要配环境,也不需要处理,反爬不更不需要维护代码,一句话搞定。第二个, bb pro, 以前让龙虾去小红书发帖,你得先扫码登录,三审过期了还要重新扫。 这个技能能够直接调用你本地浏览器的登录状态,你已经登录过了, ai 直接用你的身份操作,再也不用扫码了。第三个, open c r i, 像 b 站、知乎、小红书、叉这些地方的评论,关注 这些手动操作,全部做成命令行,覆盖十八个平台,一句话就能调用,还能自我迭代,把新的网站做成 c r i, 说牛不牛逼。第四个, skill waiter 技能市场越来越丰富,但是风险也在增加。这个技能就是帮你在安装技能之前 做一遍安全教验,看一下有没有风险,先安检再安装,一定要养成这条习惯。第五个, cellphone agent, 它会自动记录你纠正过的错误,踩过的坑,反复提高的工作习惯,然后整理成知识卡片。在后续任务中,主动就要有不会复盘的龙虾,养多久都是新手。第六个,劳斯莱斯 club, ai 最大的痛点就是失忆,这个技能能把你的对话全部打包成持久化的数据,并且在后台把旧对话打包成树状摘药,控制逃开消耗,龙虾再也不会失忆了。第七个, ctrl 森特儿, 你养了七八个龙虾,每个都失联了,你不知道他们死没死?这个面板解决了,看每个任务消耗了多少通坎,每个龙虾健不健康,有没有被卡住?查看他们的记忆人设任务档案,养龙虾必备。第八个, oppo 可乐班卡, 定时备份整个龙虾的配置文件和记忆库,即使不小心龙虾咬崩了,也能一键回档,配置、记忆、历史对话全都恢复。这个我强烈建议你现在就装上。 工具的价值不在于功能有多,全在于它解决了你的什么痛点。上述所有的技能可以直接发给龙虾,让他直接帮你安装并指导你使用即可。感谢观看,下期见!拜拜!

hello, 同学们,大家好,今天我给大家讲的这期呢非常重要,大家一定要用心听, 因为我是想做什么事呢?是用这个 workbody, 现在不是要消耗积分呀,大家可以看到这里是消耗积分的,那么我想的是它调用本地模型,其实是可以避免消耗积分的,就是用本地的算力 去来跑咱们的 ai, 因为这个现在是这个沃克巴里用的是这些模型内置的模型,而这些云模型呢,都是需要消耗积分的,因为他们算力都在云端嘛,所以我想要是本地部署的话,咱们就可以免费来用这个 ai 了。 我之前是用这个呃, gm 四的这个本地模型,我部署了一套是让他自己去做安这个欧拉玛,然后通过欧拉玛调用欧拉玛的接口,然后来部署这个 gm 四的这个模型,是已经可以用这个模型了,在 workbody 这个这个程序里面, 但是又发现一个问题,这个 g m 四模型它是一个大语言模型,相当于跟豆包一样,它只能跟你对话,它并不能完成一些复杂的这种任务,它只能比方说对话的话, 比方说我做软件开发,我跟他对话只能说让他帮我生成代码,而不能让他直接帮我生成这个可以部署的这个部署包,您明白吧?大家都明白吧,他只能说完成对话,所以我现在就是想 通过跟 workbody 对 话,然后让他自己帮我部署可以免费的, 就是可以免费不消耗积分的,并且可以帮我完成软件开发任务的这么一一个模型。然后我首先呢,我会问 这个我如果用本地模型是不是就不会消耗 workbody 的 积分了?然后 workbody 他 给我回答的是确认使用本地模型是不会消耗积分的。那么我接下来的话就是说 我告诉他一个这个问题,我现在需要用你来写代码生成部署文档研究学术生成学术文档用国内哪个模型比较好? 这这这时候呢?为什么我说用国内模型呢?因为国内没有模型,他相对于理解咱们国内的这种软件开发呀,这种他会结合的比较好,外国的开发方式以及逻辑的话可能会有一些区别,导致我们后期的话, 呃,进行这个软件开发,我再进行这个功能迭代版本升级的话可能会有一些不兼容,所以我想的是还是用国内模型比较好。 然后之后呢?他回答的我的是代码生成与工程实现是要用这个 deepsea 系列是比较好的,包括通易千问这些都是国内做开软件开发的一个主流的框架。然后之后呢我就想说,那么 看这边这边我就问了个问题,我现在需求是这样,我是需要去做任务,有两条线,一个是用学术专家模型去研究这个论文文档,一个是用产品经理模型和专家级开发工程师 u i c c 的 模型去做软件开发项目生成部署包。 然后我我又咨询了一下这个顶级模型能力,让我直接本地部署好,就不需要消耗积分了,这样能不能做到? 然后沃克巴蒂他就直接跟我交底了,他说顶级模型的能力是需要相当大的显存的,也就是咱们说的 gpu, 英伟达的显卡, 那我以我现在的电脑的话,我们只能说跟让他推荐我们做哪些比较好?然后我就后面给他说了我我的电脑的配置,我是华硕的这个 rog 笔记本处理器, i 七的 十二代,然后显卡是六 g 的 三零六零的读写,硬盘是一点五 t 内存,十六 g 用哪种比较合适?他就给我推荐了, 他说这个是有瓶颈的,有显存瓶颈的,所以说他推荐的是千万的二点五这个模型代码专用推理,然后这个 divx 模型,然后以及这个 这个是我认为比较好的方案,他给我已经推荐了这个本地部署的组合了,然后现在呢我就是 他询问我是不是立刻帮我部署这两项,这两个应该是这个千问二点五的十四 b 是 专门是负责推理的,就是相当于是大脑,这个千问的这个 code 七笔是专门负责帮我做软件开发的,写代码的相当于是最强的工程师。 现在是我需要他,他就帮我立刻从本地部署这个东西,这是一个部署过程,然后部署完成后,基本上就可以实现用本地部署的这个算力 去本地去执行你的,完成你的你交给龙虾的这个工作了。然后这个大家可以研究一下,然后这个部署时间比较长,在这我就给大家多说了, 然后后面我会出一些视频,用我本地部署的这些东西来做这个软件开发。然后大家如果你们有比方说你们的行业也需要软件,也可以把想法告诉我,我帮你们可以快速开发出一套你们想要的东西,或者你们对哪些业务 想做什么小程序的软件啊,都可以找我,我帮你们来做。好今天的内容就是这样,然后大家可以自己自己研究。 我目前是觉得这个 gm 四这个大模型虽然是好,但是它太吃配置了,那个电脑配置低的这些咱们的龙虾训练师还是建议不要用了, 而且它只有对话能力,并没有这个实际的代码能力。也就说它 gm 四强大的地方在于它可以告诉你怎么做,但是它不能帮你做事情。大家明白这个道理吧?其实就是 gm 四跟豆包一样, 就是他能告诉你,他能把你帮你整理思想,帮你整理思路。比方说你想做个软件 软件项目,他能,他能帮你,想帮告诉你怎么,并且他能给你输出代码,但是也仅限于文本对话对话式的这么一个交流,他没办法帮你,直接帮你生成任务,就生成这个文件包了, 直接帮你开发,他做不到这点,只能说现在还是在这个 gmail, 还是在对话的地方,你如果想真正的让你,让他帮你开发,帮你部署,那么可能是需要 cloud code 这样的一个模型去做, 不同的模型针对的这个应用场景不一样。我觉得以后的这个 ai 的 发展呢,肯定会是 各个 ai 的 角色做各个的事情。我这个专业的大脑模型就专门负责推理,然后我的动手能力强的模型,我专门负责去动手,去操作,去执行这个电脑端的任务,他会有这么一个分流, 当然他可能也会有总的总的这个流程,但是他肯定这个俗话说的好吗?鱼和熊掌不得不可兼得吗? 因为这个还是需要去大脑和肢体去配合,相当于 clioq 的是你的手脚可以去做事情, g y 四是你的大脑去去去构想,去想这件事怎么做。 然后我现在呢,还是偏向于咱们可以用国内的这种大模型,因为国内大模型更能理解你的语言,更能理解咱们的自然语言,能更好的执行任务。 好,本期视频就到这里,然后大家有什么想了解的啊,想知道的都可以发到评论区,然后记得给我点个关注就行了,我都会一一解答的。嗯,而且都是免费分享给大家的。好,这期节目就这样,大家再见。拜拜。

今天教大家便携小龙虾如何配置,连接到我们电脑,直接打开,开启你的龙虾,开始配置,选择你想要的模型。我选的是 deepsea 模型,后台获取 api, 今天微信出了 copy 插件,我们也更新上了,直接确认配置就能开启我们的龙虾了,走到哪里用到哪里,不用本地部署,安全性更强,赶紧让你的龙虾帮你工作吧!拔出即卸载数据保存在里面,不用担心安全问题。

哈喽,我是严总,这期视频给大家分享一下这个 mac studio 超大内存的版本,我们去跑本地大模型,现在目前比较热门的这三款挂载大模型的工具,我们要如何选呢?首先如果你是 windows 用户的话,你可以划走了,我们这期视频主要讲 mac 端。首先第一个我比较推荐的就是这个 i m studio 这款产品的话,它的它的优势就是图形界面,我们可以看到挂载的各种模型,然后以及选择各种模型都比较便利。第二个就是这个奥拉玛,奥拉玛这个它是属于 g g u f 的 一个模型,它其实并不太适用于 m l x 啊,但是这一个它是目前用的比较多的,因为它比较轻,量化比较简单,配置也比较轻松,如果你只是简单入门的话,这个可以尝试一下。 然后最近比较火热的就是这个 o m l x 这个这个我非常不建议使用 open club 的 用户用它,它存在内存卸六以及这模型加载上去智力真的是非常低,基本上只能玩一玩。我看虽然说很多人说它速度快啊, 但是我们真正用这个 open club 不 在于就是它速度快,而在于它真正能解决问题。那我用了最多的这个 l m 四六六的话,我就给大家仔细讲一下,到底它这个模型怎么选。 我们在选模型的时候有很多点必须是我们要考虑的啊,首先我我举个例子啊,比如说我们现在看到了这个千问三点五二十七币,他就是一个非 m o e 模型,我们要玩本地大模型,现在肯定是主流的要玩 m o e, 什么叫 m o e 模型呢?就是二十七币,我们选出几个专家对你的内容进行分析和解锁,这样的话你的内存压力就不会那么大。比如以我这台机器为例子, 可以看一下我目前的这个内存情况是二百五十六 gb, 然后我现在挂在了这个 mini max 的 大概占用了,我就是算算系统,我大概占用了一百九十三,其实压力是挺大的,但是你要知道像这个 mini max, 我 如果是不是 mo 一 的话,我这个二百五十六 gb 基本上都挂载不了。 所以说我们在选模型的时候不要选这种直接版本,加上二十七 b 啊,或者是三十 b 啊,一百二十 b 的 一定要选择 mo 一。 那么怎么看是否 mo 一 呢?我们在下载的时候,一般他会后面带一个什么 a 三 b 啊,什么什么这样的模型 啊,比如说像这个看到没,千万三点五,一百二十二 b a 十 b a 十 b 代表有就是呃十 b 的 参数,供你及时调用,那实际你这个模型是一百二十二 b 的, 这样的模型性价比就特别高。还有这个三十五 b a 三 b 啊,这种就是选这两个模型,但也不要选这个模型,除非你的内存贷款非常大,因为哪有机器。但是你苹果八百 g 每秒的这个 m 三 ro 配置的话,优先还是选择这样一种类似于 mo 一 的, 像我们常见的比如说像纤维上扣的 gim 啊,还有迷你 max, 这都是 m o e, 所以 说我也只下了 m o e 模型。 那么还有个很重要的参数就是你的量化啊,你的量化标准,比如说像我们纤维三点五的这个量化是,呃,六位量化,还有八位量化,还有 q 四量化。我建议啊,所有玩这个 open color 的 话,你下模型你就关注一个点,就是 q 四 k m, 就 用这个模型就行了。 然后还有个问题要看一下,你看这个模型里面有 g g u f 和 m i x, 但是 m x 目前对 oppo klo 的 体验以及这个 max 六六的使用是有问题的,它的这个整个反应出来的智力水平以及它的缓存的这个优化是存在问题的。所以说哪怕是苹果的,你都不要用苹果原生的 m i x, 呃,至少现在阶段它这个对 oppo klo 的 体验是非常差的,所以我建议用 g g u f, 然后在这个 g g u f 下面我们又有很多配置啊,比如 说你的病房,比如说你的手机和你电脑同时在给这个本地大模型发消息,呃,可能会涉及到看两个绘画, 所以说我们在新建这个模型的时候,这有一个这个参数,我们要把这个病病房按照自己的要求去设置。比如说你手机和电脑可能同时发消息,以及你用两个员工同时可能对你的模型进行沟通的话,那你这个地方就调成二。 如果你想更高速让他不要去占据你病发的这个效率的话,你可以调成一啊,比如你四个员工同时用,那调成四, 我建议调成二就够了。还有这个参数,如果你是 m 三凹球的话,你可以把它调高一点,比如说四零九六,那他的这个思考的这个速度会明显快很多 啊,这就是一个小细节啊。当然这个关于 im 十六六你可以配置的选项是非常多的啊,后期我也会出教程去讲了。这些参数我们具体怎么调啊?比如说模型的这个温度 啊?我们到底,比如说根据我如果是审核合同的话,我希望他足够严谨,不要胡思乱想的。呃,可能会犯的错误的情况,那我把温度调低一点。哎,如果我是写文章,像比如说做新媒体,我希望文章创意十足,非常有特点的话,那我给它调高一点 啊,这至于调多少,这个要根据自己的实际情况来去优化。那默认情况是这个是不要乱调,就是零点六就可以了。 ok, 这是大概的一个本地部署大模型的一个思路。那后期的话我会更新更多关于这个本地大模型各种软件以及 oppo 的 配置相关的一些教程。

前两天不是在北京的线下做活动,分享关于我是怎么用小龙虾的一些经验分享,有同学就会问我怎么用小龙虾去调用扣子, 把那个扣子的技能包放到屏幕上了吧,有很多同学可能是也没有解锁到,我这里再给大家列一下这个技能包的名字, 你就可以直接让小龙虾去 github 上解锁这个技能包的名字,让他自己下载好跟大家讲一下如何使用这个技能包。你直接让龙虾带本地新建两个 bug 上文件,一个文件是专门存放你扣字工作流的工作流 id, 还有一些你的备注信息,这条工作流 是干什么的?你要跟他讲清楚。这个工作流备注的时候,要有一些输入参数是什么行的变量型,然后返回的类型, 最终的结果是什么样的变量型。另外一个 bug, 它文件是你要存放的一个密钥,调用扣子 api 的 时候,有一个服务访问令牌的 api, 这个时候你要存放在你的本地上, 这样的话,龙虾的对话入口不论是非说还是说微信,就可以直接这样对话的进行方式,让他去给我运行工作流,把我想要的信息给我返回出来,这样就是能够达到一些比较稳定的一个输出结果。 亦或者说给大家举例一个应用场景,我在用龙虾去调用 hold 公流的时候,我会让他进行一个工作流接力,比如说我让他运行完第一个工作流的结果,再交给第二个工作流,让他继续运行, 变成一个集群,或者说就是一个接力功能,然后最终想要的结果,他就会 通过某些渠道都给我发出来了。这就是像我 ppt 中写到的使用无序的龙虾产出有序的结果。龙虾其实对于我们很容易比较使用混乱的,还是让它产出一些有序的结果,我认为是比较重要的。 前一阵子我写到一篇文章讲要小心使用 ai 龙虾的一个上升问题,这篇文章也在我的朋友圈, 欢迎大家去阅读一下。我经常会在北京线下出席活动,如果说有我做分享的时候,我会在朋友圈里面发的,那大家可以随时关注一下,或者关注我的公众号也可以。好,这里是微论局,我们下期再见。拜拜。

不会还在有人花钱买 tokyo 养龙虾吧?嗯,看我如何实现本地免费的算力查询一下杭州今明两天的天气, 可以看到现在龙虾已经开始调研工具了。那我是怎么实现的呢?就是本地这台可以跑满血 mini max 二点五的 大模型推理服务器,现在这里已经开始发热了,那么其实并不需要英伟达八张 h 一 百显卡。那么给大家看一下我们这台机器的配置, 我们用的是 k transformer 架构,把所有大模型放在内存里,而实际上只用了一张四零九零显卡就可以实现哦。那么这台本地大模型推理服务器你想拥有吗?

想玩爆火 openclock, 却被部署难住? github 下载配置隔离套餐全是坑代,部署费高达四位数,普通用户根本玩不转,更怕的是开源 q 来源杂暗藏木马,数据安全没保障, ai 变风险源!联想百音纳可直接破解所有部署痛点。 windows 环境下,三分钟快速本地部署, 全程界面化操作,狂点默认就能完成配置,真正实现小白零门槛上手。它并非单一软件或硬件,而是软件加硬件加服务,三合一的 ai 终端。原声深度适配 open call, 不 用看教程,不用懂代码,开箱即用,安全防护更是拉满。采用本地运行模式,搭配物理隔离技术,所有数据均存储在自己的设备中,不 上传云端,即便拔掉网线也能安心使用,打造专属私密 ai 大 脑。同时,百应仅提供官方严格验证的 skill, 经过专业安全加固,团队持续监测并修复各类漏洞,从源头杜绝数据泄露、恶意攻击等风险。远程办公场景下同样省心。 手机连接飞书即可唤醒设备、查文件、洗数据、生成文档等操作一键搞定。设备七成二十四小时待命,即便出差在外也不会耽误工作进度。它还能长期记忆用户使用习惯,不断适配需求,越用越懂你,真正成为专属数字员工, 别再花冤枉钱冒!安全又好用,普通人也能轻松拥有私人 ai 生产线工具。

哈喽哈喽,我是大海,很高兴和大家见面了,今天咱们来讲一个 open 可乐小龙虾的替代方案,它呢比小龙虾安装更简单,使用更方便,而且很有可能在你本地配置不高的情况下,速度还更快, 程序员朋友肯定一眼就认出来了,咱们使用的是 vs code 的 客户端,搭配了一个 clean 的 插件,然后咱们大模型呢,使用的是咱们本地的欧拉玛跑的大模型,而且今天大海将给大家介绍一个新的一个模型啊, 为什么说这套方案它能够替代小龙虾呢?小龙虾之所以厉害呢,主要是取决于两个,一个是它的长上下纹,带有记忆功能,还有就是它能够对工具进行一个调用, 但是呢龙虾它安装起来是比较复杂的,而且如果说咱们本地的这个电脑配置一般的情况下,你开启这个龙虾就要有一个 linux 的 环境,不管是用虚拟机的方案还是 wsl 的 方案,它都会去占用咱们系统的一部分性能。 那么如果说本地电脑配置不高的情况下,我们还要跑本地大模型,那么龙虾他对话起来就会非常的卡顿了。那今天给大家介绍的这种方案 vs code 呢,本身他是程序员去敲代码的这样一个工具,但是只要你给他加装了一个 clean 这种能够调用工具的 插件上去的话,那你也可以直接实现和自己的这个编程工具进行对话,不管是日常我们的文档管理啊,你和他对话,让他帮你完成一些事情啊,联网搜索呀, 还有包括我们的一些 i m c p 的 工具啊,使用浏览器啊,甚至说拿这个工具帮我们制作一些自己本地的软件,或者说帮我们进行一些网站开发,它都可能能力比那个 openclo 还更强,因为它日常是我们程序员朋友去使用的一个工具,相信程序员给自己设计的这个东西一定是差不了的。 这个本地模型呢,依旧是千万三点五的一个量化版本,但是这个量化版本呢,它强就强在它是用这个 cloud 四点六 opus 去蒸馏过的,所以它在逻辑推理方面以及这个工具调用方面都是比较强的, 而且在奥拉玛的官方可以下载各种量化版本。我这里呢今天使用的是一个四 b, 你 可以看到它总大小只有五点三 g, 我 可以轻松的把它装进我的显卡当中,哎,这样跑的速度也是可以的,可以接受的。 我们直接来让他帮我们执行一个任务,执行完任务之后,我们再给大家详细的讲如何的安装我们的软件插件,以及如何配置我们的模型接口。好吧,我这里直接给他一个开发软件的小人物,相信这个难度呢,对于咱们本地模型来说还是有点的。 帮我生成一个桌面小软件,点击开启一个秒表计时器,鼠标的左键呢,开始计时,右键啊,这个时间暂停。我们把这个命令呢发送给他, 可以看到他的第一个动作就是去连接我们本地的那个欧拉玛,我们可以看到他开始分析了,用户需要一个桌面秒表应用功能,包括左键开始计时,右键暂停。我将使用 python 的 什么库来创建一个图形界面应用,你会看到他会有任务分解这样的过程,对吧? 创建 python 秒表应用,实现左键开始计时功能,实现右键暂停功能,显示计时时间,添加重置功能,测试应用。然后接下来呢,他将创建一个基于他的应用好,他开始了,然后呢, 它会自动去安装需要的一些插件和环境,这个就是这个 cleen 的 强大之处,它和小龙虾其实是 差不多相同的,但是你会看到它是基于 vs code 的 这样一个编程的 id 工具来实现功能的,所以它在安全方面做的是很好的。同时呢, 他在系统级的去调用一些工具的时候,也是比小龙虾可能更得心应手。比如说去创建文件,去修改文件,可以看到他这里的对应的文件的代码已经生成了,但是他需要我们去批准,他的一个动作就是批准他要创建一个新文件,可以看到这就是我们这个 ms code 加上 clean, 它对于安全的一个管控,一些关键性的,比如说关于文件增加修改这些东西,它都会来询问我们的意见,那我们什么都不用做,只需要点击,哎,是不是要保存,是不是要去执行就行了?点击保存 好,你会发现他这里说这个 u v 已经安装了,但必须重启 vs code, 他 才能实现。他的这个功能可令他自己想到了一个对策,就是说,呃,不需要说是去安装 python 环境了,他给咱们创建一个这个 html 的 界面,一个网页端的桌面程序,也能实现对应的功能,那我们看他接下来要怎么操作啊? 好,他又来让我们创建一个新文件,这时候我们点击保存,其实我已经能在桌面上看到这个文件了啊, stopwatch 啊,就是秒表啊,他说文件已经创建成功,现在用浏览器打开测试,然后呢,他说是这个需要我去批准浏览器的权限,我批准,如果说你不想点这么多的这个批准的话,你可以展开这个 批准这管理这里。哎,把他想要的权限去给他勾上,他就不会每次都让你来批准,比如说我这里把使用浏览器以及编辑项目文件都给他勾上,大家要注意,这里的读取所有文件和编辑所有文件是不能随便去勾的啊,有可能对你其他的文件造成问题,但是去编辑和读取项目文件是没有问题的。 好,这里我们也不等他自己去测试了,我们来手动测试一下,我直接去开启这个对应的秒表,按照咱们的这个规则是左键开始, 然后右键暂停,没问题,然后还能重置。这个整体的功能是实现了,而且样式大海也非常的喜欢,而且大海也正需要这样一个应用,但是呢,我还是想要一个桌面级的应用,所以这里呢,我给他关闭,我跟他说 python 已经安装好了,请帮我生成桌面用的程序, 你看他要制定了新的计划。针对我这个安排,他说用户 python 已经安装好了,让我重新生成桌面程序,我需要一检查 tony 的 这个 keep 是 否可用,然后呢?来安装一个依赖,然后再运行秒表程序。好,所有的任务终于已经跑完了,我们来看一下它这个实际的效果怎么样啊?桌面上出现了很多文件,我们就点最后这个启动秒表啊,确实是出来了啊,然后左键点击 右键暂停功能也没问题,当然我觉得这个界面也太丑了,对吧,不如这个 html 写出来的还是比较难的啊,不过幸好是两个都能用, 那么相信看到这里呢,大家已经能体会到这套工具加上本地大模型的强大之处,那么接下来大家就跟上大海的脚步,我们一起来安装这套方案。首先呢是去 vs code 的 官网下载它的安装包,我们这里直接点击 download for windows。 好, 这个速度也是非常快,下载好了之后呢,我们直接打开文件, 同意此协议。下一步,那这个地方可以自由的选择你安装的位置,下一步,下一步,那这里可以自由的选择是否把这个 code 添加到上下文菜单啊?我这里不添加,我点击下一步, 然后接下来我们点击安装,然后这样呢我们就完成了 vs code 的 安装,我们点击完成在打开的这个界面呢,他默认是一个英文的界面,如果说你习惯用中文的话,点击左面的插件市场,我们在这里搜索一个中文,那这里我们可以看到一个中文简体的语言包,我们去给他安装 啊,然后他右下角就会弹出来,改变成中文,然后重启,我们点击好,这时候我们打开整个界面,就变成一个中文界面,接下来咱们依旧点击左侧的这个扩展, 然后呢我们在里头搜索咱们今天要用的卡拉 ok, 他 会给我们非常多的版本啊,如果说你是习惯看英文界面的话,你就安装这个原版,下载量是最最大的,如果说你喜欢中文的话呢,咱们下载量还挺大的。卡拉 ok, 我 们安装 信任发布者和安装好,很快他就安装好了,然后呢我们可以把这个窗口往右拖一拖,对吧?啊,这个地方点击标记已完成,这里呢我们可以选择前按模型,也可以选择自带 api 的 密钥。如果说你是用的云端大模型啊,你有比如说 到的四点五或者 g p t 五等,你就继续,对吧?这里我们使用自己安装的大模型,我们就自带 api 密钥继续。然后 api 的 提供商呢,我们这里选择 open ai 的 啊,也就是兼容 open ai 格式的啊,接下来呢就输入基础 u i l 和兼容的 api 密钥,我们就可以继续开始使用了。 如果你还不知道如何去安装这些软件啊,不花一分钱在咱们的本地安装大模型来调用的朋友呢,去看大海之前的这些视频补一下课啊,相信呢,你也能学会如何的去安装。那么接下来呢,我就先从奥拉玛开始,首先打开本地的奥拉玛,然后这里呢,我去选择一个本地已经安装好的模型,打开了之后我们可以先在这尝试 和他对话啊,看正不正常,可以看到他这个对话方式,他是有一个思考过程的,对吧?然后接下来呢,我们是去设置一下对应的这个欧拉玛,这里我们去把他的上下文长度给他加到一百二十八 k。 然后接下来呢,我们去浏览器访问一下欧拉玛的本地的服务, local host 单口号呢是幺四三四,哎,可以看到我老马一直装,你没问题。好,接下来呢,咱们再给他后头加个斜杠 v 一, 然后继续斜杠啊 models, 哎,这个时候我们就可以得到对应的这个 id 啊,这个是一会我们要填的。好,接下来呢我们就把这个 到 v 一 这里啊,不要加 models 复制起来,然后到我们刚才的这个位置啊,基础输入的 url 啊,这个 v 一, 然后呢 a p i 这里我们可以随便输,比如说我这里输一二三模型的 id 呢,就是咱们这里已经打印出来 复制粘贴,然后这时候我们点击继续啊,把这个地方擦掉,然后呢我们来试一下和他打个招呼。嗨,你好,那奥拉玛这里呢,我们可以关掉这个窗口,只要他在后台运行就可以了。 好,只要他正确的回复了你的要求。你好,在的,我有什么可以帮助你?我可以帮你干嘛干嘛干嘛。那么咱们这个设置呢就已经好了,你可以开始和他对话了。 那么咱们今天视频到这里就结束了,相信大家也能通过自己本地的 vs code 加上 client 这个很好用的插件来实现我们本地大模型的调用,去帮助我们真正的解决一些实际的生产问题。好吧,那咱们下期节目再见,拜拜。拜拜。