粉丝3556获赞1.3万


一个视频教会你用免费的 cloud code 写代码。第一步,打开欧拉玛,下载自己操作系统的欧拉玛客户端,安装完成后,打开欧拉玛客户端,选择列表中的开源模型并下载。如果你的电脑配置足够好,推荐你使用大残数量的开源模型,如千万三 q 的 这个有三百亿个参数的模型。 第二步,回到欧拉玛官网,点击 cloud code 这个链接,根据该文档内容安装对应操作系统的 cloud code, 安装完成后,在终端执行该条命令来验证是否安装成功。确认安装成功后,在终端执行这条命令,重新配置 cloud code, 大家可以直接复制粘贴当前屏幕中的配置内容。第三步,我们在终端执行欧拉玛 launch cloud 回车, 继续回车。此时我们就可以看到成功进入 cloud code, 并且使用本地配置的模型进行编码或创作。下面我们来测试一下, 我们可以看到模型成功响应了我们的请求,模型响应的时间取决于我们本地电脑的配置。大家可以看到整套方案完全免费,并且可以确保所有的代码和数据都只在你本地电脑进行处理,再也不用担心泄露项目的隐私,安全感直接拉满。 如果需要配置命令的,可以在评论区扣一。关注我,后期我会分享更多有意思的内容,让你在工作和生活中学会用 ai 提效。

我们先给大家展示一下我们 cloudboard 的 一个部署的一个结果,我们看一下左侧,我们在左侧进行远程的 app 端进行一个发送问题, 然后我们看一下电脑端的一个结果,我们使用的是本地的欧拉玛运行千问三三十 b 的 一个模型,对于这个模型来说,它一定是不知道 cloudboard, 所以 说我们展示的是它的一个网络调用的 skill 的 能力, 然后接着我们看一下它作为一个 disco 的 远程调用的展示,然后我们来到这个 codeboard 的 主界面看一下,这是我们的一个聊天框,我们本地部署完之后,这就是它的一个最终的一个交互界面,然后我们进行提问, 我本地使用的是欧拉玛运行的千万三十币,使用的是两张显卡,我们看一下后台的一个信息, 我们可以看到一张显卡的话大概是十 g 显存,我们提问一个内容是 codeboard 是 可以做哪些工作?我们看一下 这个是它的一个后台,我们看一下,然后这是它的一个规划。来到我们的思维导图,我们首先看一下 可唠叨报的是什么,它是一个开源的可托管的本地的 ai 智能体,可以二十四小时进行一个服务,可以部署在我们的云端,或者说把顺利部署到我们电脑上,使用一个 f r p 进行一个内网穿透,作为一个工具的调用,这样的话可以进行解决本地部署的一个私密性的问题。 我们本次视频演示的是使用欧拉玛本地部署,当然 vrm 也是可以的,然后接着我们演示一下网络调用的 skills, 然后远程调用 disco 的 进行展示,现在来到我们的 get up 的 仓库, 这里是我们的视频配到的一个 bug down, 我 们首先进行一个演示如何在本地运行欧拉玛或者说 vrm, 我 们首先把这个已经运行好的终端给结束掉, 不般炉系统的话,我们直接打开终端,如果说是温系统的话,我们可以在这个路径下面输入 cmd, 然后一起一样的, 然后我们继续首先克隆一下这个本地的一个库,我们可以看一下这是他们的一个演示的一个案例。 然后我们接着开始进行一个快速的部署,在我录视频的这个版本内,他是不支持欧拉玛的,所以说我们这里的话会有一些代码的一个修改,当然的话是比较少的。然后我们接着 看一下我们的仓库,这里的话要求的是 note 需要二十二,我们进行安装,打开终端,然后进行一个个的部署调用。第一个是安装它的一个环境, 由于我已经安装完了,所以说这个是比较快的,然后接下来加载一下, 然后是安装, 然后是验证一下这是我们一个基础的环境,必须是。然后我们克隆一下他的一个仓库, 然后在对应的位置下,他会下载,我们看一下这个文件夹内,然后我们进行下一步 切换到这个路径下面,然后进行一个安装,依赖输入我们的命令, 我们看一下现在它的安装已经结束,我们进行下一步,我们构建一下外部 ui, 然后是构建我们的项目,按照这个顺序执行就好了, 然后接着我们运行一下它的一个出式化的向导,然后我们运行这个命令, codeboard on both, 我们把这放在中间,我们看一下, 我们现在进入了这个 cloudboard 的 一个终端,我们看一下是这个样子的,然后接下来我们需要同意一下这个风险, 我们点击方向键选择 yes, 然后是一个快速的一个开始,我们可以看到这个我们已经进行了一个运行,现在的话是这个界面,然后我们更换一下, 重新设置。首先我们进行测试一个像咱们国内的一个 api, 我 们使用智谱, 我们选择智普的 api, 在 此的话,我们先测试一下这个程序是否能够跑通。然后我们现在找一下智普的一个 api, 我 们复制一下这个 api 在 big model 里面,然后进行粘贴, 然后我们选择使用的模型,这里的话咱们使用一个最新的四点七。 这里的话由于我刚才已经部署了 disco, 我 们现在先暂时不设置,选择下 skip for now, 我 们点击跳过, 然后点 no no, 这里是可以使用 nano banana pro, 或者说这些,咱们在此测试,先暂时不要这些, 我们现在已经服务启动,然后我们待会运行一下,看一下, 我们选择 later, 然后现在已经启动, 我们在运行这个启动的过程中,它其实已经启动了,然后我们使用这个命令进行检查一下,然后我们看一下它的一个前端,我们进行提问一下, 这是一个调用 api 的 一个速度, 我们以欧拉玛为例,比如说像 linux, 我 们直接运行这个命令就可以了,然后无问题等的话需要访问下载安装包,然后我们看一下我本地运行的是 千万三三十二笔,我们看一下左面是它的一个显存的一个消耗,然后右侧的话是它的一个加载模型呢?我们看一下现在运行成功,然后我们进行下一步, 我们进行最重要的这个本地部署的一个设置,就是如何让本地运行这个 cloud port。 然后我们看一下在我录视频的这个时间段里,这个模型是不支持欧拉玛的,然后我们只能通过手动的更改一下它的 pr ai 的 库, 进行一个注册的模型。我们看一下,首先说这里是一个我们已经部署的一个 skills, 咱们可以直接把这个放给 ai, 然后进行一步一步查询。我这里的话,以 linux 为例,我们看一下,先来到我们安装的这个路径下,每天查找 源代码部署的这个路径下面,然后进行查询这个命令, 这个就是 cloudboard 的 里面的一个注册的信息,然后我们查询一下, 复制在里面,查询到这里面,然后修改一下, 我们对比看一下在 p i a i d s 的 model g s 是 这个文件。我们看一下 这是一个完整的注册表单,也就是我们在开始的引导的时候,它显示的模型,比如说我们选择任何一个,比如说像这个 osdrop, 它会显示这几个模型,这是已经它注册没举好的,所以说这里是没有拉玛,因此我们可以进行手动的一个 支持。我们找到我的 skills, 然后看到这里,由于我本地使用的是拉玛,所以说我们的配置是这样子的, 复制这个我们可以参考下这个配置,如果说我们使用本地的千万二点五的话,按照这个改一下,一二三,其他的东西不动,这个 api 的 请求格式是不动的,然后接下来我们进行 看一下,我们进行加入这里的话,我加入了两个,一个是千万三十比,另一个是最新出的 g i l 是 不变的,然后 这个 api 的 请求它是不变的,其他东西我们随着自己的模型,然后更改一下,我们保存,然后我们进行下一个修改, 这个是我们的一个完整的文件结构,看一下, 然后接着我们进行打开一下它的这个文件,这个是 cloudboard 的 一个运行的文件,我们看一下这里以乌班图系统为例,然后我们打开一下, 看见这里就是我们之前的一个配置,我们选择的是智普的四点七,因此在里面的话是我们的一个设置,这就是一开始我们快速启动的一个引导项,我们需要把这个改为我们的欧拉玛, 我们看一下这是我们的一个视力看一下, 我们按照这个视例进行填入就可以了。然后修改完之后,我们还有一个拉玛的一个环境变量的映设。这里的话我们以 linux 为例, 我们首先看一下原始的一个位置看一下,然后接着我们需要进行用 set 替换一下它的一个拉玛, 然后由于我已经替换了,我们在这里验证一下,看一下我们这里是成功的,在这个文件里进行一个手动的映,是我们修改后的,然后我们进行一个重新的构建, 然后成功之后我们进行一个运行,这个命令我们看一下, 也就是总结一下,我们一共修改一个注册文件,还有一个配置文件,还有一个我们的一个环境变量的欧, 一个环境变量的欧拉玛的 k, 我 们看一下他正在运行,上面已经显示了我们使用欧拉玛的一个三十 b, 看一下现在已经运行成功。然后我们打开这个网址,我们进行一个提问,没有使用 api 的 情况下提问一下,看他是否知道,然后我们看一下右侧的一个现存的调研,本地有拉玛的, 当然的话如果说我们使用 vrm 的 话,我们可以把刚才的三个进行一个设置一下,也是可以的,我们可以看到它进行一个调映,它是没有这个 open i 的 api 的。 然后接下来我们进行一个 网络调用的 skill 的 一个部署,我们首先打开我的这个 skills, 我 们首先到这个原始的目录里面,然后进行一个激活,然后进行运行它的一个官方的命令, 然后找到我们刚才的一个 api, 我 们在这里选择 local, 选择 yes, 我 们这里输入这个 api, 然后点击 yes, 然后结束关于这个 disco 的, 然后我们按照这个配置一个一个点一下就可以了,然后最后的话它会出现一个这个界面获取授权,然后我们就可以进行测试,在此省略了一下, 然后我们我们使用这个命令进行连接一下,我们先关闭在这里的话,使用这个官方的命令进行连接下这个 disco, 然后使用我们刚才获取的那个密钥放入就可以了,带大家走一下, 当然的话这对我们最重要的是,比如说我们可以部署在服务器,然后进行这样运行, 这个就是我们一个完整的一个流程。

大家好,我是知了这期视频,我们来看一下如何本地部署 ai。 之所以要讲这个,是因为我们在之后我们的 vba 输入法打开设置在 ai 助手这里,我们会添加 ai 补全功能,它使用的就是本地的 ai 模型, 这个功能过几天就会上线,目前还在内测。我们先来看第一步就是如何部署本地的 ai 模型。首先我们需要下载欧拉玛这个软件, 我们直接去它的官网点击这里,或者是直接在网页里边输入欧拉玛点 com, 然后就能打开。打开之后我们在右上角这里选择 download, 然后在这儿我们选择 windows 版本,然后再点击下载就可以了。注意这里必须是 win 十以上的系统啊, 我已经下载完了,所以我跳过了刚才下载的过程。下载完之后这就是软件的安装包,大家如果刚才官网打不开的话,我也提供了一个网盘链接,可以在我的公众号知了微微里回复欧拉玛就可以收到下载链接。 下载完之后我们先别着急的安装,因为直接双击安装的话,它的安装路径是在 c 盘,我们可以看一眼 现在我的 c 盘已经快满了,对吧?所以我们需要把它安装到其他盘里边,比如说我要安装到 d 盘,如果你的 c 盘空间很大,你也可以选择直接安装到默认的 c 盘里边。 我这里演示一下如何安装到其他盘里。我们先在 d 盘创建两个文件夹,一个是欧拉玛,一个是欧拉玛 models 这两个, 这两个文件夹待会我来介绍一下它有什么作用。我们先把安装包放到刚才欧拉玛这个文件夹里边,然后打开之后我们把鼠标放到文件路径这里,然后输入 cmd, 再按回车, 这个时候它就是在当前的文件路径里边运行了 cmd, 现在我们在运行这个软件,我们就可以输入就是这个名字哈,我们可以直接把它复制下来, 把它复制下来,然后粘贴进来,按空格,再输入一个斜杠,然后再输入大写的 d i r 等于,然后我们再把刚才的这个文件的路径放过来,也就是 d 盘冒号反斜杠,然后是 olama, 就是这个样子,它的意思就是我们要运行这个软件,把它装到现在这个文件里边,注意这个文件名最好大家要使用英文的,并且这个路径当中不要有空格。输入完之后,我们现在按回车, 然后它就会进入到安装的步骤,我们点击 install, 现在大家可以看到它安装的路径,就是在我们 d 盘设置的这个文件夹里边,然后我们就静静地等待它安装就可以了。 好,安装完以后,现在欧拉玛它自带了一个 ui 界面,这个界面我们先不管它,我们先把后边这个把它关掉,然后现在我们在这这有一个侧边栏,把它展开,展开之后这有一个设置, 选择设置这个时候它下边有一个 module location, 也就是模型的文件夹,它有一个默认的文件夹啊,默认的好像也是在 c 盘,所以我们需要修改一下, 这里我们就选择刚才我们在 d 盘创建的这个文件,我们就把所有的模型放到这里就行了,然后我们再打开这个界面, 再选择刚才的文件,它在 d 盘选择这个文件夹,点击确定 它会自动保存,这样在之后我们下载的 ai 模型它就会放到 d 盘,因为这个模型本身也挺大的, 所以我们放到其他的盘比较好一些。接下来我们再来说一下如何下载模型,我们先打开欧拉玛的官网,然后在这里点开之后,这里就有所有的模型都是可以下载的, 我们这次主要用到的是千问二点五,可以搜一下 千问二点五, 然后找到千问二点五 code, 点击在这里我们可以看到它有零点五 b, 一 点五 b, 还有三 b、 七 b 等等。 模型的参数越大,它的文件当然也是越大的,肯定也是越智能的,但是我们现在就使用这个一点五 b 的 就够用了,它一共有九百多兆,我们点击这里 点开之后,这儿有一个这个字母串,我们把它复制下来,点击复制,然后现在我们再运行 win 加 r, 打开运行窗口,然后我们输入 cmd 按回车, 现在我们再把刚才复制的这个字幕串,把它粘贴进来,然后再按回车,这个时候它就会下载模型,把这个模型下载到我们刚才的文件夹里边,这个过程大家等一下就行,速度还是比较快的 好,下载完之后它就自动进入了这个对话的模式,所以你可以直接在这里问它,你好,它就会马上的回复你,或者是我们可以在它的 ui 界面里边 打开之后,我们在这儿选择刚才已经下载过的模型,这儿已经有了切换到这个模型,在这里也是可以对话的, 到这一步说明大家已经部署完成了。然后在后边我们在 vba 输入法接入 ai 模型的时候, 你就可以把服务器地址写到这里,因为我们的模型是部署在自己电脑上的,所以这个地址固定的就是这个。 然后下边的模型根据大家的选择,如果你下载的是一点五 b 的, 就输入这个,如果你下载的是三 b 或者是七 b 的, 把这里改一改就可以,然后保存就可以使用了。关于 ai 代码补全这个用法,我们会在后边的视频给大家介绍, 然后我们再来介绍一下欧拉玛它的其它用法。我们先打开 cmd, 按 win 加 r, 在 运行窗口输入 cmd, 打开之后,我们可以直接输入欧拉玛,按回车,它就会把它的所有 命令给列出来,对吧?然后这里我们比较常用的第一个 run, 这个命令它可以下载模型,并且直接运行,其实这个 pull 它也可以直接下载,但是它只是下载,然而它不会运行。然后在下边比较常用的有一个 list, 可以列出我们所有的模型,还有一个是瑞幕 r m, 就是 移除模型,我现在来演示一下,比如说我们先来演示这个 pool, 我 们在这里搜索一个 deep seek, 然后按回车,我们找到 deep seek r 一, 在这儿比如说我们要下载一点五 b 的 deepsafe r e, 我 们点击它,这不是有这个命令吗?我们不使用这个命令,比如说我现在先把这部分复制下来,然后在这儿我输入 欧拉玛库,也就是说我们只下载一点五 b 的 deepsea 二一,然后我们按回车,这个时候它就会把这个模型下载下来。 好,下载完之后你看它和刚才就不一样了,它没有直接进入对话的模式,因为我们没有运行这个模型。然后我们可以通过 list 来获取所有的模型列表。 输入 olama list, 按回车,它就会把我们当前的所有模型都列出来。假如说我不想要这个模型了,我们删除的时候就可以直接输入 olama, 然后 remove r m 空格,再把这个名称复制下来,它就会删除。删除完之后,我们再看一眼这个列表,它就只剩一个了。这就是欧拉玛的简单的使用方法。 然后是最后一个问题,假如说大家不知道自己的电脑能否运行欧拉玛,并且是不是支持一点五 b 的 模型,甚至是其他的模型,你可以随便打开一个 ai 豆包也好,或者是 deepsea 也好,你把自己的电脑配置发送给他,然后他会告诉你你的电脑是不是可以运行。现在一点五 b 其实算是比较小的模型了,大多数电脑都是支持的 好的。以上就是本期视频的全部内容, vba 输入法,现在大家可以下载体验所有的功能,下载方式可以在我的公众号资料 vba 里回复输入法就可以收到下单链接, ai 助手的代码补全这个功能我也会尽快的退出。目前已经到了内测的阶段了,感谢大家的观看,我们下期视频再见。