hello, 大家好,我是 ken, 今天早上刚刚打开手机,我就兴奋的睡不着了。 google 刚刚发布了伽马四,一个可以本地部署的大模型,我的第一个念头是省钱了, 如果把它接入 openclaw, 从此在本地生产 token, 那 是不是就可以不用再被云端 ipi 一 点一点计废了呢?然后我花了一整天的时间来验证这个想法,结论有点出乎意料。先听我说完, 我在本地部署的是二十六 b 混合专家模型,二十六 b 代表着他拥有二百六十亿的参数。 混合专家模型的意思是,他不会一次性把所有的参数都用上,而是根据你的指令调动一小部分的专家来进行回答。这样的好处是推理的成本更低,回答的速度也更快。 这个版本在二十六 g 内存的 m 五芯片 macbook 上刚好能跑。这里 jam 四的几个版本呢?我也简单的跟大家分享一下。最轻量的是 e 二 b, 一个二十亿参数的模型,它在市面上大部分的设备上都可以运行。 那么 e 四 b 呢,是一个四十亿模型,运行它呢至少需要有十六 gb 的 内存。蓝血版是三十一 b, 拥有三百一十亿的参数能力最强,但是目前我手头的设备呢,都没有办法运行。目测 如果说要跑三十一 b 的 模型的话,至少需要三十六 g 的 内存。以我这一个月以来把所有的大模型接入到 openclaw 的 体感来看呢,二十六 b 版本我再应用下来,我认为它称日常工作是完全没有问题的。 截止到这里,一切都让我很兴奋。在 macbook 本地上跑通以后,我迫不及待的把它接入了 openclaw。 和我之前用其他大模型接入的体验不同, jam 四在接入以后没有那个互相了解定义角色的初识化环节,不过正常对话是没有问题的。那么问题来了,他能做些什么?说实话,就是个聊天机器人, 连在桌面创建一个 word 文档都做不到,更别谈生产力了。如果只把它看作是一个聊天机器人的话,那么在欧莱玛中直接运行反而比嵌入到 open cloud 中要更快,所以呢,还不如不用。 然后我掏出了我二零一七年的 windows 老本,这台机器呢,有十六 g 内存,按照 ai 的 建议,分别部署了 e 二 b 和 e 四 b 两个版本的模型。单独跑模型的话, e 四 b 这个四十亿参数的版本呢,每个回答要等待时间在十秒以上。那么 e 二 b 这个二十亿参数的小轻量级版本呢?如果是处理简单问题,基本上可以做到秒问秒答。 但当我把他们接入到 openclaw 之后呢,连收到两个字都没有办法回复,不管哪个版本,通通卡死。所以结论很明确,内存不够的设备不要尝试把 jam 四接入到 openclaw, 硬件是硬门槛,绕不过去。 总结一下今天的折腾,二十六 g 内存的 macbook 可以 本地运行,二十六 b 混合专家模型接入 openclaw 也能正常对话,但完全没有超出聊天机器人的额外生产力。 十六 g 内存的 windows 老本呢,接入 openclaw 可以 说是失败的,那么如果在本地运行呢?一二 b 和一四 b 两个版本都可以作为聊天问答机器人来进行本地使用。 我的判断是,如果内存能够达到三十六 g 以上,能够完整的跑下来二十六 b 混合专家模型,那么也许真的可以变为生产力。但是限阶段大多数人的设备都没有达到这个门槛。 本地部署不是不值得探索,但是要先看看自己的硬件设备有没有达到那个门槛,再决定要不要去折腾,不然的话结果可能会很打消你的积极性。 我是 ken, 专注用 ai 做可持续相关工作流的自动化。如果你对 ai 工具和自然语言编程感兴趣,请关注我,我们下期见。
粉丝215获赞310

哈喽哈喽,我是大海,很高兴又和大家见面了,昨天呢,大海给大家录制了一个教程,就是在我们本地的这个电脑上去安装我们本地的大模型欧拉玛啊,然后呢再去用我们的虚拟机安装一个 open close, 然后实现我们完全本地化养虾的一个全过程,对吧?不需要偷啃,也不需要花钱, 但是呢,很多朋友反映说这个安装过程还是比较复杂,尤其是安装虚拟机和后面半段,这个安装 open close 啊就云里雾里了,最后可能还是安装不好,那么今天呢,大海就给大家来一个更快速的方法,大海直接把自己的这个 ym 虚拟机昨天安装好的这一套打包成一个压缩包,大家下载下来一解压就能用了,对吧? 当然这个 openclo 这个本地大模型还是要需要大家自己去安装一下,根据自己的实际需求和你的电脑的配置,然后去安装一个属于自己的模型,那么下面这个 openclo 的 安装大家可以直接一步带过了,对吧?我们来看一下今天这个 教程啊,首先呢我们就要安装一个虚拟机,然后呢把这个大海的虚拟机压缩包打开,修改一点点内容,然后咱们直接就给他访问,非常的方便。那首先第一步我们来安装一个 vm 虚拟机啊,这一步如果说已经做了的朋友,你就跳过这一步,直接看第二步,对吧? 大海这里呢去安装一个啊,没有下载的同学呢,你就去这里下载一个,直接去安装这个 vm 虚拟机,它是向下兼容的,如果大家想使用我今天打包的这个程序,你必须版本至少要高于我昨天是十七点六点四,所以大家这个版本至少也是十七点六点四,不够的你就去升级到这个版本, 点击下一步接受下一步。这个地方呢,安装的时候我们自动安装这个对应的程序啊,以保证我们能使用。 然后呢什么什么我们下一步,对吧?其实就是一直下一步就行了,然后我们直接下一步,下一步 安装好,这里已经安装好了,我们点击完成。然后呢我们就开启我们的这个 v m v 二迅疾,开启了之后呢,大家这个地方不要新建,也不要这个打开,对吧?把大海打包的这个迅疾给它下载下来啊,我给大家提供了网盘链接,随便选一个进去下载好, 然后这个下载出来的安装包就是长这个样子,一个无邦图六十四位的 vip 压缩包。然后呢你就自己找自己的固态硬盘,比如说我,那这个盘是固态硬盘的吧?我我新建一个文件夹进去, 我这个压缩包呢,打包是两 g, 解压后是五 g, 所以 说大家最少最少你的那个固态硬盘上要留十 g 到二十 g, 对 吧?去给它用来运行,如果说你想很好的体验的话,至少也得五十 g 左右啊, 这个地方我们直接去给它放进去,放进去之后我们直接给它解压缩,全部解压缩就可以啊,好,解压缩好之后呢,我们就可以直接从我们的这个虚拟机里头去打开虚拟机,找到你刚才解压缩的这个文件夹, 然后呢里头会有一个六十四位文件,我们直接打开它,好,然后你就打开了这个虚拟机,点击虚拟机,然后给它设置,主要是看看大海设置这个四核八 g 你 能不能带动啊?你的电脑的硬件配置比四核八 g 低,你就 把它改的小一点啊,不然太大那个开启不了。接下来就是这个选项,这里呢,我们选到高级,看看他有没有起用这个侧通道缓解的禁用啊,一定要把这个地方勾上好,这个地方勾完成之后,我们就可以直接开启我们的迅疾啊,这个地方弹出了我已移动或者我已复制,你就随便选一个,我选择我已复制。 好,这里我们就已经登录了,对吧?登录名是无邦图,登录的密码是大海增援网,无邦图 密码是大海资源网啊,好,然后这就登录了,对吧?登录了之后呢,我们要去远程连接一下,不然这样操作太麻烦了,你点击上面的虚拟机 s s h, 我 们去连接到 用户名呢,我们还是无绑图。然后呢,我们直接选择连接,然后这里呢?连接的时候他问你 yes no, 你 就 yes, 对 吧? 然后呢, password, 就是 大海资源网,对吧?盲书就可以。好,我们就进入了我对应的这个地方啊,大家进来之后呢,就是如果你要去试用一下,那没问题,如果说你试用了之后感觉不错,你准备长期用的话,大家一定要把自己这个乌帮图系统的那个密码改一下, 这个改密码的命令就是这个搜索 password, 呃,乌帮图,这是改这个乌帮图登录用户 的这个,嗯,登录密码,然后你速度 password, 就是 后头不加用户,不加误绑图,那他改的是这个 root 权限的密码,然后这两个密码都应该改一下,因为这个大海的视频暴露在公网上的,你将来要长期使用你这个密码,别人能访问到啊,这,这不太好,大家还是要去改这个密码的哦,密码现在都是大海资源网。这原程连接了之后呢,咱们就可以把这个地方关掉了,把虚拟机关掉,我们 点击叉,然后让他在后台运行,因为这里我们远程连接了吗?就可以直接去操纵他,然后呢我们去输这个 ipaddr 啊,看一下他的本机地址是多少,右键粘贴进去,回车, 然后呢找到这个 e n s 三三,然后下面有一个 int, 对 吧?然后你看这个地址和昨天不一样了,昨天是呃, 幺六零幺二八,我今天变成了幺九二幺六八二四七幺二八,对吧?你要记住这个地方是二四七幺二八,把后半段记住,一会咱们会用到。好,知道这个之后呢,我们接下来就 s s h 转发小龙虾,对吧?我们直接在这里去给他搜索 powershell 啊,找到这个 powershell, 然后我们去打开,然后呢 powershell 里头就是用这条命令,对吧?把它复制一下这个地方,我们右键粘贴进去,然后呢把最后这个改一下,对吧?这是二四七点幺二八啊, 回车,然后输入一下你改好的登录密码,我这里还是大海资源网,对吧?回车,好,然后你就转发成功了,然后我们就可以直接通过这个下面这个幺八七八九这个带这个的去登录了啊,我们直接在这个浏览器就去 黏贴,然后他就访问了,对吧?访问了之后呢,我们就用我给你的这个登录 token 密码给他 连接好,就登录了,就和大海昨天就长的一模一样了,对吧?当然现在有一个很很大的问题,是什么呢?就是现在咱们这个连接是连接上了,对话不了,因为你这个电脑上还没有欧拉玛大模型,而且即使你有欧拉玛大模型,你这个连接这个地方也不对,对吧? 啊?我说你好,他开始一只猩猩转圈圈了,对吧?很多朋友都是这个问题,所以说呢,咱们还得给大家演示一下这个欧拉玛的问题啊。 那么今天呢,大海是给大家做一个快速演示,如果你想详细的了解欧拉玛的安装和具体如何去选择配置和模型,去看大海昨天的教程,非常的详细啊,非常详细,讲了大概十五分钟,欧拉玛 好,这个地方我们直接去安装,然后呢,如果说不会的朋友,你就去参考我昨天的这个文档教程啊,就是这一篇,这一篇开开篇就是安装欧拉玛啊,好,然后呢,弹出这个,我们直接 install 欧拉玛的这个下载地址,如果说大家下载慢的话,在昨天的这个文档里, 他有对应的这个网盘分流链接,大家去我的网盘里下载,速度会快一点啊,奥拉玛的官网呢?我们这里要访问一下,一会要下载一个模型,我今天呢就选一个小一点的模型,为了给大家演示嘛,对吧?咱们看千分三点五最小的模型是多大? 千分三点五最小的模型是零点八 b, 二 b, 四 b, 咱们就来个零点八 b 的, 对吧?最小的这个只要一 g 嘛。这个模型,然后呢这个复制上, 今天是为了演示,快啊你,你实际上零点八 b 在 电脑端根本没法用,零点八 b 这种模型是给手机准备的,是给移动端准备 各种小设备。安装好了之后呢,咱们先不管他,根据咱们昨天的教程,还要给他去配置一个全局的系统变量啊,我们直接在这个 windows 里这里搜索系统变量,然后呢编辑系统环境变量,打开这个窗口,点击环境变量,然后去下面系统变量里头点击新建,然后呢把咱们这个欧拉玛 host 给它复制进去, 然后呢变量值复制,我这个幺幺四三四啊,大家都是同样的粘贴,然后呢直接点击确定就行了。这个地方我们点击确定修改了这个环境变量之后呢,我们要重启一下欧拉玛啊,把这个欧拉玛在这里去啊,去给它退出, 然后呢我们再重新把这个安装的欧莱玛去给它打开好,然后接下来呢,我们是要找到这个 windows 真机 ip, 我 们从这里呢搜索一个 cmd, 在 这个界面下呢,我们去给它输入一个 ip config, 也是在这里复制就行了, 复制,然后在这里去粘贴,回车找到这个 vm。 net 八下的 ip 为四地址啊,今天你看我变了,变成幺九二幺六八二四七点一啊, 把这个 ip 地址给它复制出来,在浏览器里头黏贴,然后呢去给他后头加个英文的冒号,加上欧拉玛的端口。幺幺四三四, 回车允许啊,这个地方呢就可以看到我们访问对应的地址,幺幺四三四,欧拉玛 is running, 对 吧?能看到这个就说明行了。然后接下来呢,我们就是去给我们的 open close 把我们的欧拉玛弄上去,这个欧拉玛还没有安装咱们对应的这个大模型,对吧?咱们刚才复制的大模型 在这里啊,咱们把这个重新复制一下,然后呢在这个里头我们右键回车,然后让欧拉玛去拉取对应的前文三点五的镜像啊,整好了咱们可以在这个窗口里试一下啊,你好 好,前文三点五啊,这次不不错,虽然是零点八 b 啊,但是他还能回答,行,然后我们把这个地方关掉就行了, 这个欧拉玛已经安装好了,然后就是看我们的教程,对吧?现在我们这都已经搞定了,然后最后就来到了最后一步了,欧拉玛的模型也准备好了,我们就来到这把这个网关和模型重新配置一下啊,这里复制 啊,在这里呢,我们去右键粘贴进去,然后去回车,然后这里呢?首先我们是 yes, 对 吧?然后呢?呃,我们来,呃,这个快速开始, 然后呢我们去升级数据,就是选择第二个,然后这个地方我们的欧拉玛我们去,呃,选到欧拉玛回车,然后呢你看这个地方,这个地址就不对,对吧?这个地址我们要用哪个呢?幺九二点,幺六八点, 呃,二四七点,幺幺幺四三四,就是用这个地址啊,把这个复制一下, 这个地方右键粘贴进去,然后给他回车,这个地方他让你选是本地还是云端家本地,大家一定要选云端家本地,因为你一选本地,他就开始给你拉取那个超大的模型啊,这个肯定是不行的, 那么想要设置这个云端家本地,你欧拉玛就得登录云端账户才可以啊,没有欧拉玛账户的同学呢,你就在这里你去注册一个啊,大家最好是用啊,比如说 altlook 邮箱,就是微软的啊,比如说这里我就用一个 altlook 邮箱啊,然后呢它会让你创建密码,然后呢它就会给你的这个 邮箱里头去发一个验证码。好,然后呢还需要一个手机号,我这个地方呢用我国内的手机号啊,咱们国内手机号前头就是加八六,好也正常收到了, 这样我就注册好了欧拉玛的账户,然后就能登录了啊,你就拿你的这个欧拉玛,把欧拉玛界面打开,然后呢你会看到这里可以找到你刚安装好的模型,我这是千万三点五零点八币啊,刚安装好的,然后呢你点击左上角这个 呃 city, 然后呢点击这个登录,然后它会跳转到你的网站账户,你直接点击 connect 连接 好,这个时候你这个奥拉玛账户你就登录上,而且呢登录这个账户有一个好处,就是云端大模型能免费用啊,只不过它每个月每一天都有限额,那么具体限额的消消耗量什么的,大家去看昨天的视频啊,我们这里就可以选择了,在这里我们选择 云端加上本地的大模型,然后这里呢我们就可以找到我们本地的模型,比如说这里可以找到我们欧拉玛三点五零点八 b, 就是 咱们刚刚安装的,我们直接回正,然后呢剩下的这些内容咱们就不需要,对吧? 全部都是稍后再设置,这个地方设置我不需要,然后呢空格不需要 网关,咱不需要的网关咱们已经登录了,这个地方我们直接退出,然后呢也是等一会再设置好这个地方我们就搞定了,对吧?搞定了之后呢,我们把这里我们重新去给他刷新一下,然后模型这里呢我们就可以选择我们刚刚安装的千问三点五零点八 b, 对 吧? 好,然后我们来尝试的和他对话,你好,这个地方你会卡住对不对?那你当你这个地方卡住的时候,你就先切换一个其他模型,先给他刷新,对吧?先给他切换一个云端模型啊,这里,比如说我给他切换一个这个, 哎,啊,来了来了,稍微等待了一下,你好,我是你的 ai 助手,然后千分三点五零点八币,对吧?没问题,这个地方呢我们就已经完成了我们的快速配置,只要大家把这些包什么的安装包下载好,那么大家也能像大海一样在十几分钟的时间内呢,把我们这个大模型配置好,直接本地用起来, 好吧,那么大家注意使用的时候呢,要注意去修改自己各个地方配置的那个密码,不管是系统登录密码还是 open clone 登录密码相关的这些具体的设置呢,大家可以返回去看我昨天的视频,好吧,那么咱们今天视频就到这里结束,我们下期视频再见,拜拜。拜拜。

如何免托肯本地装小龙虾?最近这个 openclock 非常火,我也在我的本地装了一个小龙虾,但是装小龙虾最难的一个地方就是他的托肯啊,非常好这个托肯,但是我装的这个版本的话,他是一个免托肯版本,他是一个。怎么逻辑呢?就是你不要去配这个 apikey 啊,你 配的是什么?配的就是他网页的这个接口啊,就是说你通过这个网页的接口来调用这个模型的能力啊,比如说你可以去配这个 智谱的模型啊, deepsea 的 模型啊,啊, kimi 的 模型,豆包的这些模型,只要你的网页能够访问去抓这个网页的接口, 你就把这个接口的这个模型的能力去给你的这个小龙虾用,这样的话你相当于就不用再去配 apis key 了,就相当于不用再花费自己的这个托肯了。我现在的话本地已经配好了,我就问他一下你是什么模型?因为我连的是这个 deepsea, 它相当于已经帮我连上这个 deepsea 了 啊,现在这个非常好用,就不需要再配这个托克了。这个的话就是我的这个 open cloud 他的一个配置的文件。给你们看一下他访问的这个接口啊,接口的 url 的 话就是 deepsea 的 官网模型的话, deepsea chat, 然后 deepsea 的 推理模型 就是这么配的,就说你不需要再去配那个 api key 的 那个接口了,直接去掉网页的接口来配你的这个本地的小龙虾,也是可以用的,如果你们感兴趣的话可以后台戳我。

赶紧薅羊毛,英伟达免费送无线头肯免费用缤米 k 二点五, mini max m 二点五,流量无上限。一个视频教会你怎么免费注册领取,怎么接入锅锅捞小龙虾,使用干货两分钟,先收藏后观看,总共分为三步,第一步,我们先访问英伟达的官网,接受 我们的 qq 音箱 autolok 邮箱,点击下一步, 点击进去,点输入我们的密码,选择我们的验证模糊,点击创建。去邮箱,接受我们的验证码,粘贴验证码,点击确定,点击下一步, 这里随便取个名称,点击创建账号。第二步,获取免费 ipikey, 这里需要认证过后拿到我们的 ipkey, 这里点击 wordify, 这里就需要我们填写我们的手机号,加八六,一定要加上八六点深扣子, 输入我们的短信验证码,点击 word。 好, 这下我们就成功注册,接下来我们去得到 a p i t 我 们选择我们需要的模型, 这里选择 mini max 二点五,选择右上角的 vioq, 点击 jerry 的 api key, 生成我们一个秘钥,我们需要保存 api key model 备用。第三步,接入我们的小龙虾,我们打开 opencloud, 点击 ai 与代理,点击 model, 点击添加 entry。 划到最后,我们看你这个名字,取一个名称, 选择 open api competition, 输入我们的 api key, 打开我们开关,输入 base url, 然后添加, 选择我们的 open api complete id, 名称就是我们的模型名称,点击添加,这里要选择 text 好, 名称选择好,点击保存,这儿点击 open, 打开我们的接收文件。我们可以搜索 primary, 在 models 中添加和我一样的内容,然后再更改 primary 为我们的新节点名称, ctrl s 保存关闭,重启我们的 get, 选择我们新加的模型,询问它。 如果这个视频帮助了大家,请点赞收藏,关注我,多一个程序员男朋友点赞收藏。

大家好,今天给大家演示一下菲林的泊泊的。嗯,配置方法。嗯,这个,嗯,菲林的泊泊安装挺简单,就是在应用中心中。嗯,点安装就行了。我这个已经提前安装好了,它这个安装的时候会提示安装两个插件先。嗯,然后再安装。 然后我这个菲林是刚装的系统,里面也没什么数据,用的是惠普那个 t 四三零的那个小主机,能用菲林装主要是因为这个安装门槛非常低。 嗯,咱们下面打开这个 windows, 然后,嗯,再打开外部页面,大家可以看见这很轻松的就打开了,不像像其他的那个安装方式,还需要配置一下才能打开这个。嗯,外部窗口,这都是飞牛都提前配置好的。嗯,我们来使用就可以了。 所以说安装的口很低嘛。这个飞牛的配置主要就两项,这个模型配置跟消息渠道。咱们先配置一下模型,咱们这是选择自定义, 然后这个选择模型名称,咱们可使用的是。呃,轨迹流动的那个服务,需要大家先注册一下。呃,这个有两千万的那个免费 token, 而且模型广场中就是目前的主流模型都有,大家可以随便选择使用,我们选择这个 mini max。 二点五来演示,复制一下它的名称,粘贴到这下面,这里是添加那个。嗯,轨迹流动的服务地址,咱们到这个轨迹流动这去复制一下, 然后回来,然后粘贴。嗯,然后再往下这个地方就是需要配置它的认证密钥,就是 api 密钥。嗯,咱们也复制一下,然后再返回来粘贴。 哎,怎么不能确定?哦,上面这块是啊,上面这块要点击添加,然后再点保存,这样模型就添加成功了。嗯,然后下面需要去配置一下。呃,消息渠道,这个需要等它刷新一下,它这个默认是已经安装了飞书, 我们这次是,呃安装一下微信,这里直接点装安装微信就可以,这里需要大约等个两三分钟吧。嗯,他安装好了,我们就,嗯添加一下,扫一个二维码就可以使用了。 这个安装微信,有的小伙伴们可能会呃提示安装错误,呃,安装好几遍都是提示错误,这个时候大家可以刷新一下状态,它有可能已经装上去了,但是吧,呃,你扫码进入微信之后,呃说话,嗯,这个 openclaw 没有反应, 这个时候大家需要去把那个,呃,嗯,就是微信中那个插件里有一行这个微信机器人的代码,复制给外边端的那个聊天窗口,让龙虾自己去安装一下。啊,这样你就可以在微信跟龙虾进行对话了, 然后提示安装完成。啊,我需要重启一下才能使用。嗯,咱们先点那个添加渠道,嗯,渠道类型选择微信,然后生成二维码, 然后拿手机来扫一下这二维码,然后添加一下那个微信机型就完成了。好,我打开。

大家好,今天给大家做了一个在飞牛下啊刀口安装部署 oppo klo 的 那个龙虾安装教程。 嗯,准备工作,就三个网站,一个是秀秀开放平台,一个是 oppo klo 的 中文网站,还有汇集流动,就是服务提供商,嗯,这个汇集流动大约提供了两千个免费的图纸的。嗯,大家可以注册领取一下。嗯, 注册后进行实名认证,嗯,嗯,实名认证后会领取一个十六元的代金券,它可以进行一些费用的抵扣。汇集流动的模型广场提供了嗯,很多的那个模型供大家选择, 下面我们来演示一下在非牛下安装嗯,龙虾的过程。首先先在文件管理一下的我的文件中创建一个嗯 dork 的 文件夹,然后在 dork 文件夹下再创建一个 open cologne 的 那个文件夹,用于嗯,存存放那个部署文件。 创建好以后,打开嗯, docker, 然后选择了 composer, 嗯,然后右边的新增项目,这里可以上传 docker 跟 composer 文件,也可以手动。嗯,创建 docker 文件。 下面我们打开荷兰 club 的 中文网站,嗯,里面有一个安装方式,然后 docker 部署。 嗯,这里面这一段的那个,嗯,网址就是下载地址,大家可以通过嗯,迅雷可以下载下来,然后再上传到飞牛中,也可以进行嗯,手手动创建,这里面它有一段那个配置,配置文件, 我呢图省事,还是选择上传文件的那个方式,先输入项目名称和文档路径,选择我们创建的文件夹,然后上传。嗯,我们提前下载好的那个,嗯, dolphin composer 的 文件, 这里需要把这个改成国内的。嗯,下载地址如果不改的话,这个部署时间实在是太长了。嗯,漫长的等待。这个把前面这段去掉就行。 这个后面这个它是个最新版,嗯,它会随着最新版的发布进行更新。咱们可以改成这个稳定版,那就是拉 test, 然后把后面这一块改成拉 test, 后面这块就没什么了。然后把这个创建项目后,嗯,立即启动给勾上,然后点击确认就开始。嗯,构建,后面就需要等待,它构建完成就可以了。 嗯,跳过等待过程,现在就是。嗯,部署构建完成了,下面我们点容器,然后点右边的那个三个点,选择终端,打开终端第一个的 bin bash 的 连接,然后就连接上终端了。 下面我们进行粗实化,然后选择在终端输入 opencloud on board, 杠杠 in stop 杠,呃, d a e m o n 进行粗实化,然后回车,这块就需要等一小会就行。这块等的时间不是特别长, 这里用方向键选 yes, 回车,快速开始回车,这里选重置, 然后再选择仅重置配置,这里是选择那个服务提供商的。嗯,但是这里面没有归机流动。嗯, linux 版本好像是有的,这个 dk 版本里没有,所以咱们选择自定义。嗯,服务商,哦,会撤。 然后这块把这个地址去掉,换成那个轨迹流动的那个地址,然后咱们到笔记中去复制一下,就是这个 a b i s u, r, l 复制,然后过来粘贴, 然后回车。是输入密钥,这个是到轨迹流动中去找 好,打开汇集流动网站左边这个 api 密钥,然后新建密钥。嗯,随便出一个,然后新建就可以了。嗯,我这个已经建好了,我就用这个, 然后过来粘贴,然后再回车,然后这个就选择 open ai 回车,然后这个是选择模型的 id, 也是在汇集流动中去复制一下就行。 好,打开过去流动,然后选择左边的模型广场,然后这里面有很多模型,大家可以选择一下,然后就选择第一个吧, 点那两个方块复制,然后再回来粘贴,再回车,这里需要等一会。嗯, 显示啊 socket board 就 表示成功了,然后再回车一下就行,然后这个再回车默认就可以了。 然后这这个就是选择接入的那个。嗯,方式是飞书啊还是球球啊之类的,我们是要接入球球,所以这里吧就有暂时跳过, 到这就说实话配置完成了。嗯,下面就需要对接一下 qq, 下面就是打开 qq 开放平台,然后手机 qq 扫一下码登录, 登录成功之后,然后创建机器人, 然后下面这块就有一个接入流程,我们只需要一步一步,嗯,复制到那个刀客的那个容器终端去,呃,粘贴运行一下就可以了。 然后复制第一个啊,回来进行连接终端,然后粘贴,然后运行,然后这需要。嗯,等一小会,安装插件需要一个过程, 然后再回来复制。嗯,第二步,然后再回去粘贴回车, 这也需要等一小会,这个时间很很快,但有时候会卡住这一块,但只需要断开一下,然后然后再重新连接,连接中断好, 然后看看这个粘贴没反应就可能是卡住了,然后点那个断开,然后再点连接就可以了,然后再粘贴,然后重启一下服务,这样的话就接入成功了, 到这就不说完了,关掉就可以了。然后再点三个点,打开系统日期、运行日期,然后我们打开机器人助手,机器人然后说,嗯,您好, 看后台设置有反应啊,这块显示个你好,这就说明接入成功了,然后再说你能做什么好?回车 他这个,呃,答复的时间没有那么快,需要等一小会儿。嗯, 用龙虾的话说就是,呃,他需要思考一下,看看这个就是他答复的。好,今天的分享就到这了,大家可以自己部署一下。

哈喽,大家好,我是吴亦纶,最近大家应该都被这个叫做小龙虾的东西给刷屏了吧,各大官方都在进推,连央妈都被他震惊到,甚至一度将 mac mini 都炒到了新的价格线高度, 那普通大众也想去体验一下,他需要很高的成本。别着急,轮子找到了一个量化版的本地部署方式,让你我不想投入太多成本的人也可以感受一下这道小龙虾的味道。 ok, 话不多说,跟着轮子看 操作。首先打开这个网站 one club, 在这里咱们可以选择是 mac 还是 windows 系统,点击下载保存,打开咱们下载微键,直接点击运行。 好,这就是我咱们一个安装完成的一个页面,点击下一步这块需要咱们去配置服务商,这块咱们选择自定义,咱们选择 zai, 打开这个 big model 智谱的 ai 开放平台,在大模型语言模型里选择咱们的四点七 flash, 这个模型目前使用它的 api 调用头肯是免费的, 点击 apikey, 在 这里咱们创建一个新的 apikey, 给它随意起个名字就叫龙虾吧。好,创建成功,咱们复制 apikey, 回到刚才的页面, 在这里输入咱们 apikey 模型,选择四点七 flash, 验证 好了,这就是咱们现在目前一个配置完成的样子,点击启动好了,这就是咱们配置完成的一个完整的效果。咱们新建一个对话,跟他对话一下 这块他的名字是因为之前我已经配置过,所以给他起过名字了,我们最开始进来的时候,他会需要咱们给他起一个称呼,然后还有呃他的一个身份,包括你想要的一个习惯,咱们再做一个测试, 然后他制作完成了,咱们去看一下这个游戏的效果啊,在这里 整体效果看起来还是可以的。 那下期呢?轮子会带大家解锁更多的玩法,包括它的完整配置、 scale 使用之类的,那么这期就到这里,大家下期见。

兄弟们,今天给大家分享一个超实用的开源项目, openclock zero token, 无需消耗 api token 就 能在电脑上流畅使用。 openclock 该项目利用浏览器自动化技术,获取你在各大 ai 平台的登录凭证,直接调用这些平台的网页版 ai, 从而实现完全免费的 ai 模型访问。不仅零成本无限次调用模型, 还有效避免了 a p i 密钥泄露的风险。支持调用市面上几乎所有主流 ai 平台,如 deepseek、 chat、 gpt、 gemini 等兼容的模型均可使用。同时它也支持电脑端本地工具及平台自带的原声工具, 模型性能不会受到任何影响。如果不知道如何使用,可以直接把这个项目交给 openclaw 来部署,感兴趣的朋友赶紧收藏起来试试吧!

浏览器搜索 qcloud, 或者直接登录网址,网址在评论置顶下载腾讯封装的龙虾安装包,支持苹果和 windows。 苹果注意选择自己的芯片版本, 下载完成进行安装。可以选择你需要的安装目录, 安装完成 直接用微信登录, 这样就安装好了。赠送的有 token, 可以 免费试用。这里可以选择关联自己的模型,推荐用 coding 图案,不用担心超出使用 token。 这里我在确认模型配置是否正确。这个还可以扫码直接绑定微信机器人,点击左下角,然后就可以用微信控制电脑了。

上节课我们在本地部署了千万三点五 ai 大 模型,这节课我们继续部署 open core, 并让 open core 对 接上本地 ai 大 模型,彻底告别头肯焦虑,让大家零成本养龙虾。现在看 open core 官网,里面有很多种安装方式, 我们这里啊,使用 n p m 方式,一键安装,运行之前需要先有 node js 环境才能使用 n p m 命令。 node js 安装好后,打开终端运行 n p m i 杠 g 二分 q, 安装完成,运行命令,开始配置,复制过来粘贴。 先问我们啊,是否继续,当然要继续了,用键盘左右方向键选择 yes, 接着选啊,快速开始。这里问要对接什么模型, 这些选项啊,大部分都是对接云端 ai 模型的,因为我们要对接本地 ai 模型,所以要选择自定义。接着问模型的 api 地址,这个地址啊,在 o m x 的 仪表盘里,大家看这里, 复制一下,将这个删掉粘贴我们这里啊,要填的是幺二七点零点零点一,冒号八千斜杠 v 一。 继续啊问模型的 api k, api k 在 管理面板的设置权限设置里, 默认的 key 是 默认一二三一二三,我们不做修改,就填这个,先按回车粘贴过来,兼容性选择 open ai。 接着问模型 id, 模型 id 啊,在管理面板的模型管理器里面,将名字直接复制了,粘贴过来,确定 end point id, 保持默认就行,这个是模型的别名,可以不填,直接下一步。接着问啊,要对接什么聊天工具列表里啊,默认只有飞书。我这里出现的 open code 微信是我后面装的,大家初次安装并没有这个关于微信的对接,我们下节课再来讲, 这里直接选跳过接着问搜索服务现在没有,也先跳过,继续出来。技能的选择,直接按回车。 出来的技能选择,这里推荐只选 clonehub, 按空格,选中按回车键安装,其他的先不要选,可以避免网络有问题一直卡住。其他的有需要啊,后面可以再来安装。我这里列表中没有看到 clonehub, 是 因为我之前已经安装过了,所以看不到,我就直接选跳过。 后面的几个 api 啊,也都是收费的啊,暂时都没有,全都选 no no no no 还是 no 霍克时啊,也选跳过先按空格再回车。到了最后一步了,问我们运行方式,推荐的是在终端中运行,选择后,现在就可以和他直接发消息了。好,我们发个消息, 它会直接在动态中进行回复,当然也可以使用 word 界面进行访问,大家打开幺二七点零点零点一冒号幺八七八九,在这里也可以一样聊天,还可以做各种设置。总结下,安装 open core 需要 load 机制环境,在装好 load 机制后,使用 n p m 命令,可以一键安装 open core, 安装好后,运行命令开始配置文字版,内容请看课程讲英文档, iphone 可乐,现在出来聊天还可以操控你的电脑了,在下节课的对接微信里,我继续演示给你看。

效果展示,通过飞书发送命令给 open call, open call 接收到飞书发来的命令,开始执行, 此时可以看到 open call 已经将程序编辑完成,并用 vs code 进行展示,同时 open call 将已完成消息同步到飞书任务结束。让我们再来 check 一下桌面是否有程序文件,文件存在,任务执行正确。开始安装配置, 打开浏览器搜索奥拉玛,进入奥拉玛官网, 官网右上角有下载按钮,点击下载,用该命令安装奥拉玛。我本地已安装好奥拉玛,查看一下版本, 我安装的欧拉玛版本是零点一八,下一步再打开欧拉玛官网,寻找一个免费的大语言模型,这里我选择的是千问三点五四 b 模型,将模型名称拷贝下来, 通过欧拉玛 poquin 三点五冒号四 b 命令把模型下载到本地。 模型已下载完成。通过 alama list 查看我们本地已安装的模型, 使用 alama run 模型名称的方式将大语言模型运行起来。大语言模型已运行起来,这里可以随意进行文字交流, 最后通过浏览器确认 alama 状态是否正常。开始在 mac 上安装 open call。 先安装 node js, 利用 n p m 安装 open call。 我 本地已安装 open call, 这里就不展示安装过程了。查询一下已安装的 open call 版本,我本地安装的版本是二零二六年三月十三日。 下面进行 open call 的 配置,按照我的操作一路选择下去就好。 配置好后会自动弹出控制面板,这里就可以与 open call 对 话了。下面是与飞书的对接过程,飞书文档写得很详细,照着配置就好了。 一切都做好后,现在要进行 open call 的 参数配置,打开配置文件,把对应参数值填写完成即可。

如果你什么都不懂,能不能靠自己安装龙虾,安装 cloud code, 安装 kodaks, 这个是可以的,我发现这个是一个天大的冷知识,其实你只要下载这一个软件,这个就字节的国产编程软件,然后你跟他说帮我安装 open claw cloud code 或者是 kodaks, 他 就会酷酷的帮你运行,你啥也不用管。关键这一个国产的 tree 编程软件是免费的,不说你 talking 的, 你可以一直使用,只不过说是有的时候需要排队而已。假如说你已经有了 cloud code, 也可以指挥到安装 codex 或者是 open core, 或者你已经有了 open core, 也可以指挥 open core 安装 cloud code 或者 codex。 总之你有了一个编程软件,你就拥有了整个世界,整片森林,其他所有东西都可以一次性的让它帮你搞定, api 也可以让它帮你接好,所以我发现很多人都不懂这一个。

open klo 现在也能免费部署安装了,我们一起来看一下。直接就在我们的小邦邦集成的软件里,就直接有一键部署的按键,这回再也不用花钱求人去安装了。我们直接来到联想支付的首页啊,就可以看到这个小邦邦,它里边就集成了 open klo 的 一键部署的工具。点进去以后呢,就可以直接下载小邦邦, 下载完以后我们直接把安装包解压出来安装就可以了。我们把解压出来的安装包双击点击安装啊,一直点下一步,其他都不用管。 打开小猫猫之后啊,左边第三个就是咱一键部署 opencloud 的 界面,但这里啊需要咱登录一下咱的联想账号,没有的话可以注册一个,点击立即部署之后它是没有任何门槛的,我给大家演示一遍。 到这一步我们可以选择模型提供商,就是选择我们使用哪家的大模型。如果你对这个没有了解的话,我建议大家使用千问,千问呢它部署起来是比较简单的,千问模型能够自动部署, 而且它每天也有免费的额度可以供咱试用。咱可以先用一下它好不好使,再决定要不要去找一些付费的大模型套餐。 这里直接选择千万,哎,后续的设置一直按回车就好了。 我们选择这个自动部署以后,它就会跳转到我们千万的登录界面,我们需要在这里 注册一个千万的账号,当我们注册完账号以后,它提示我们可以返回到命令行界面继续使用。如果你是没有技术背景的小白,这一步看到的所有的选项你都可以选择默认的第一个直接按回车跳过就可以了。 这里我们回到小魔方啊,就能看到它一键启动的界面了,点击一键启动按钮,稍后呢就会弹出一个浏览器。 没错,我们小龙虾的最基本的使用方式就是通过浏览器来进行的,它会自动弹出浏览器,我们可以在上面和它沟通,我们直接在浏览器上操作它,给它发一个你好,就能看到它已经正常加载我们的千万模型,开始给我们有所回应了,这时候它就能可以控制我们的电脑啊。 配置好了之后呢,我们可以在代理这里看到咱现在用的是千万的模型,这个模型呢它有个好处,就是每天都会给一些免费的额度,咱可以借这个免费的额度先轻度试用一下, 如果用的感觉哎体验不错,咱可以跟他询问怎么去更换一个其他的大模型,更换一个付费的 a p i, 比如说千万他们自己家的,他会手把手的带着我们自己去做。如果你想要进一步去连接其他的聊天软件呢?我们可以回到小帮帮里, 这里有比较丰富的教程,包括怎么去连接钉钉啊,飞书啊,这也是有完整的教程呢,也有一键打通的插件。 如果你想要去更进一步的去使用这种通用的 agent, 咱可以去了解下 skill, 这可以让我们小龙虾去自主学习,去学习一些更高级的能力。 当然我们都要小龙虾了,就算真的有些配置我们不知道怎么去安装,我们可以直接去问他,比如我们直接就让小龙虾你来帮我配置飞书,一步一步的跟着提示去做就好了,这就是小龙虾给我们最大的帮助了。

不需要科学上网,也不需要花五千块买 mac mini, 甚至不用担心 token, 直接就能在微信里养龙虾了。只不过这次不是 open curl, 而是腾讯刚推出的 q curl, 从下载到使用只需要两步,真正做到了傻瓜式操作,专业级体验下载电脑端 q curl 用微信扫码绑定,从这一刻开始,你的微信就变成了 q curl 的 远程遥控器。 它的核心思路其实很简单,微信直连本地部署,你不用再在不同应用之间来回切换,也不用学习复杂指令,只需要在微信里说一句话, ai 就 可以帮你完成对应的操作,无论是处理文档、操作电脑,还是执行某个具体任务,就像和朋友聊天一样简单。对比起 open curl, 在 不用科学上网的环境下, q curl 相对的更安全, 被木马攻击和危险 skill 自动运行的概率也会大大降低,目前还在灰度内测地址我放在评论区,有没有资格就看各位的运气了。 据说下周会开放邀请码,并且腾讯的软件肯定会有免费的版本,所有 token 费用都由官方承担。同时支持 mac 和 windows 双系统,没有门槛,也没有隐藏成本,下载扫码开用,基本就是一个真正意义上的零门槛开箱即用的本地 ai 助手。

今天我们来聊一下 openclaw 的 安装路径,其实现在我们把那个 openclaw 安装完了以后,大部分人可能都不知道是安装到什么地方,那么我们可以看一下它是安装到什么地方。好,我们打开那个命令,行, 好,我们通过命令威尔查看一下威尔 openclaw。 好, 我们看到它的那个路径是安装在那个就是 npm 的 下面,那么我们看一下是在哪个地方,我们点开我的电脑, 在 c 盘里面,好,点到用户下面找到自己登录的那个用户,我这里是 admin structure, 打开后我们是没有找到那个就是那个 app date 的, 那么它是一个隐藏文件,我们把它显示出来,我们看一下这里的话,显示一下隐藏文件。 好,我们再往下面拉。好,我们找到这个 app data, 好, 我们进来这个里面。好,我们找到那个 npm, 好, 进到这里来。好,我们再找到那个 modulux 里面,那么我们的 open class 安装到这里来,我们看一下是占了多少空间, 好,我们看到这里是占了五六百兆,那么这个的话如果对于 c 盘比较紧张的话,就是一个大问题,我们在安装的时候是可以指定那个安装路径的,那么我们来试一下。首先的话我们先把这个给它卸载掉,那么卸载之前的话,如果需要备份的话,我们可以备份一下,具体的方法的话可以看一下前面,那么我们先把它卸载掉。 openclaw uninstall, 杠杠 o, 杠杠, yes, 杠杠, non inter active, 这样来卸载的话,就是我们不用参与任何的卸载过程,就是一键就可以卸载了。好,敲回车, 好,这里的话我把核心还有配置那部分已经卸载完成了,接下来我们来卸载一下那个 c l i 的 那个命令,行 n p m i install 杠 g, 然后这里的话我们是全级安装的,所以我们卸载的话也是全级来卸载。好,车回车, 好,已经卸载完成了,那么我们看一下,就是那个他默认安装在这个目录下面,已经没有那个 open cl 了,那么现在我们把它安装到我们需要的那个目录上面,这里的话我是放在那个 f 盘,然后我创建一个文件夹, 文件夹的名字就叫 openclo。 好, 这里实际在用的时候就是可以根据自己的需要来就是配置那个路径,我这里的话是 f 盘,你们可以放到其他盘,好多人看到这个演示的话,就是说是自己没有 f 盘,这个盘的话就随意的就根据你自己的那个实际情况,哪个 盘上面的那个空间大的话,就选择哪个盘就可以了。好,这里的话我是在这个 f 盘的那个 openclaw 下面,那么接下来的话我们就可以来安装那个就是呃 openclaw 了,安装的话我们通过那个官方的命令来安装就行了,如果不会的话可以看一下前面的视频。 npm install 杠 g, 那 么这里的话我们要指定一下版本,因为新的这几个版本就是是有问题的。好,我们指定一下版本,我就安装那个二零二六三点二八的这个版本, 然后我们来指定一下路径,杠杠, pre flex 就是 指定路径。好,我们安装到 f 盘的 openclaw 下面,好,敲回车,那么这里的话我们就设定了版本,指定了路径。好,敲回车。 好, openclaw 安装完成了,那么我们看一下那个它是不是安装到我们指定的那个文件夹里面了?首先的话,我们通过 we are 命令来看一下, 这里的话,他报了一个错,那么暂时我们不管他,我们先看一下,就是那个文件夹里面的内容是不是过来了?好,我们看一下,那么内容是过来了。好,我们这里先打开那个,看一下他的那个大小有多少? 好,他是五百多兆,那么我们来试一下他那个运行正不正常。好,先把它关闭掉。好,我们来试一下他那个配置那些正不正常。 onboard。 好, 敲回车。现在我们要来进行配置的时候,就发现了一个提示找不到 openclaw, 但是我们的 openclaw 已经安装了,为什么会找不到?那我们点开那个文件夹看一下。 好,我们进来看一下,那它安装完了以后,其实它在这里有一个是可以执行的,但是我们的路径是找不到的,那么我把这个路径加一下就可以了。好,把路径复制过来。好,点开我的电脑。 好,我们点击高级系统设置,然后点击那个环境变量,然后我们找到 pass 这一项。好,这一项好,编辑, 然后点一下新建,然后把这个路径给它加进来。好,确定好,再确定好,再确定好,我们来试一下,可以找到了没有? open claw。 好,杠微。好,它还是提示找不到,我们迎来的那个命令好像是不会默认加载那个环境变量的,我们把它关闭掉,我们再重新打开一下。好,点击打开。好,我们再来试一下 openclo, 杠微到这里的话,我们已经看到那个 openclo 的 版本号了,那么我们来看一下它的安装路径对不对? where openclo, 好,我们看到了那个路径了,就是我们把路径已经设置进来了,接下来的话我们来配置一下 openclo, 看一下功能是否正常。 openclo 按 bird, 好, 敲回车。好,这里的话我们选择是。好,这里的话选择 quick start, 然后模型,这里的话我选择那个 deep sec, 关于 deep sec api key 的 申请的话,可以看一下前面的视频,这里的话我只是过一下功能看是否正常,这里的话我用自己申请过的就可以了。好,点,鼠标右键好,敲回车。好,这里的话用默认的这个模型就行了。 好,这里的话我们跳过。好,这里的话也是跳过,这里的话不配置。好,这里的话就是跳过就是敲空格,然后敲回车,然后已经在安装那个网关了。 好,网关已经配置完成了,那我返回这个界面来,那么我这里的话就通过那个网页访问一下就可以了。我先把这一串地址拷贝过来。好,我们打开浏览器 到这里的话, powerpoint 就 已经安装完成,同时能那个正常打开了,那就说明我们的那个路径更改是正确的了,那么我们实际在使用的时候就是注意一下,就是如果是 想把那个路径改到其他盘,就是不占用 c 盘的话,我们就通过刚刚我们说的这一个命令来进行更改就可以了,就在后面加上一个杠杠 prefix, 加上那个路径就可以了。

兄弟们,今天是个福利局呃,我将手把手教大家领取到一千万的免费 token, 并部署到我们的小龙虾, 呃,首先我们进入这个呃超算互联网的网站,右上角点击登录注册,然后在这个地方点击注册, 我们所需要的信息呢,只需要这么多就可以了,那么具体注册过程呢?大家自己去注册好就可以,注册成功过后它会自动登录,然后我们点击右上角的控制台, 在控制台里面我们在这个地方选出模型 a p i。 好, 这个之后在这个地方我们先领取一下免费额度,先领取到每一个一百万的,然后在这个地方点击领取, 然后在这个地方领取大模型 api 模型,我们选择 minmax。 二五,好,我再看一眼, 好,这个地方我们可以看到我已经领取到我们的 toolchain 了,总共是一千一百万。下一步我们进入到我们乌班图虚拟机的文件目录去, 进入无斑图形以及目录,然后 home, 然后进入我们的用户目录,然后 opencloud, 然后将我们的 opencloud 点 json 这个文件先复制一份,以防万一,然后点编辑。在这个地方 我们重点需要修改的地方就这两个,就是关于模型的配置,这两个地方,好,我们回到这个位置啊,接口文档 open c, 将我们将这个位置复制下来, ctrl 加 c 复制,然后放到这个位置, 然后直接粘贴,粘贴过后将它对齐, ctrl 加 c 保存一下,然后还有一个地方我们需要修改,就是这个关于模型的配置,这个位置 ctrl 加 c 复制,然后我们粘贴到这个位置, ctrl 加 v 粘贴,哎,这个删除掉, 然后我们再进入我们的控制台页面,将 api key 复制下来, 在这个地方放入我们的 api key, ctrl 加 c 复制好了,下一步我们就是要进入我们的 open cool 来重启我们的网关, 现在打开我们的飞书测试一下, 我们直接给它发送消息, 你现在用的是什么模型? 等他回答, 你看他这就回答,我现在用的是 minimax m 二点五模型。好,我们回到我们这个页面,去超算中心的页面,然后我们点那个用量信息, 嗯,这个地方还没有统计,过了一会儿时间啊,我们的统计结果出来了,你看这个地方我们就用了这么多的 token, 然后呢我们就是这样子的,我们这种模型就直接接入到我们这个免费的 token 使用里面去了。 最后给大家说一下,我们还它这里还有免费的 open caller 的 可以部署的。那我们进入控制台过后, 我们直接点取这个 open caller, 然后点取这一个一键部署你的 open caller 点立即开始,过后呢我们就可以与它的进行对话了。

本期视频介绍一款自带免费无限偷看的小龙虾版本,这是由硕泽大佬开发的 openkala 中文分支版,该版本可无限免费使用 deepseek 和千万的 web 版模型, 其中包含联网、识图、编程、深度思考等多种模型,从此养虾再也不怕削偷啃了。同时该项目不但对官方版本进行了汉化,还对逻辑思考、认知能力、纠错能力进行了深度的升级。那么接下来就让我们尝试在 windows 系统内进行安装。 首先需要安装两个系统所需的依赖程序 node 和 get, 执行安装程序无脑,下一步即可。两个程序的安装包我已经放到了网盘里,大家可以去视频简介或者评论区找一找网盘链接 好的。那么基础的依赖安装好之后,我们可以去到一个空的文件夹内,点击鼠标右键,然后选择在终端中打开。 那我们来输入两个命令,验证 node 和 get 是 否安装成功了。如果命令行返回了版本号,那就说明安装成功。 但是如果跳出了一些红字,那么你就需要选中这些红字,再点击鼠标右键,然后去豆包直接粘贴错误信息,问问看怎么解决。正常情况下,我们都可以顺利走到这一步。网盘里我还会提供新版的命令行工具,以及我一直在用的科学上网工具。 那么接下来就到了正式安装小龙虾的时间了,为了方便大家使用,我已经提前下载好了硕泽大佬的项目文件包, 大家可以直接将压缩包解压到你的地盘跟目录,当然你想解压到其他位置也都可以。如果你懂得如何使用 get clone 命令拉取项目文件,那么你也可以考虑不用我提供的项目包,自己手动在命令行中拉取最新的项目文件也是可以的。 当然,在网盘中我也会持续更新一段时间。好了,解压完成后,我们可以删除压缩包,并对项目目录进行改名。 使用命令行操作的同学可以复制这段改名的命令。正常解压缩的同学可以直接手动修改文件夹名称。其实修改名称这一步不是必须的,我这么做纯粹是想文件夹名称简单点。 解压完成后,打开文件夹看看是不是看到了项目文件。接下来是很重要的一步,让我们在项目文件夹内的空白处点击鼠标右键,然后选择在终端内打开。此时你应该能看到命令行目录就是你的项目目录,然后复制这句命令,让电脑自动安装项目依赖。 我这里视频加个数。安装完成之后,只要没有吓人的大段红字错误信息,那我们就可以接着复制这句命令进行项目翻译。我这里视频继续加个数。 翻译好之后,我们就已经将小龙虾安装完成了,你可以试试输入这个命令,看有没有出现小龙虾的版本号。 目前项目版本是三点一版。 ok, 接下来需要对 openclaw 做出驶化配置,输入这段命令,你将会看到中文版的配置说明。 对于首个安全提示问题,我们点按键盘的左键选择 yes, 再按回车键确认选择。 第二个问题,我们直接按回车键选择快速启动。第三个问题需要我们选择小龙虾的核心模型,这里我们点按键盘的上键或者下键,选择 deepsea browser 并按回车键确认。 确认之后,小龙虾需要我们进行一次网页登录,这里我们直接按回车键,选择 ultimate login 之后,小龙虾会自动启动浏览器并打开 deep seek 首页,我们输入登录账号后,浏览器会自动关闭。接着你会看到小龙虾已经识别到了多个 deep seek 模型。我们可以按上下键选择一个小龙虾的主力模型,或者你也可以选择作者推荐的当前模型, 这里你看到的模型都是可以免费无限使用的。按回车键确认选择到了这一步是选择手机上接入的聊天工具,我们可以选择暂时跳过。 接着关于技能的配置,我们按右方向键选择 no, 再按回车键确认,因为暂时不用去管这些技能。 到了后口设置环节,我们可以按下方向键,再按空格键,依次的把这几项都勾选上,然后按回车键确认。到此,小龙虾的出场设置就结束了。我们选择瑞斯达,按回车键确认。 稍等片刻就可以看到小龙虾的页面了。如果你的页面显示失败,那你需要回到命令行窗口,输入这句命令启动小龙虾服务。要注意,当服务启动之后,这个命令行窗口就不可以关掉了,否则小龙虾的服务会停止。 如果你不小心还是关掉了这个窗口也没关系,只要打开新的命令行窗口,去到小龙虾的目录,然后执行这个服务,启动命令即可。服务启动后,我们再回到浏览器刷新页面 就可以看到小龙虾的对话窗口了,到这里我们就已经完成了小龙虾的安装,并且拥有了无线 token 的 deepsea 模型, 因为硕泽大佬除了 d p c 模型,还提供了千万模型。植入千万模型的方法也很简单,只要回到命令行窗口,按 ctrl 加 c 停止运行当前服务,然后再粘贴出使化命令,按回车重新走一遍出使化设置,在模型选择环节去选择千万模型即可。 后面的流程与选择 d p c k 模型的流程一样,小龙虾打开浏览器,你来登录,选择一堆设置项,然后再次去命令行启动服务,这时我们的小龙虾就同时拥有了 d p c 模型和千万模型。 接下来你就可以开始无压力的养虾了,那么本期视频也就到这里了,视频录制的比较仓促,如果对你有所帮助,还请一键三连,您的鼓励是我最大的动力,如果您有什么疑问,可以留言或者加入交流群讨论,好了,我们下期视频再见!

open core 的 token 太贵?用福尔 i 实现零 token 体验福尔 i 是 open core 的 一个 skill, 它的作用就是从 open core 里面查找免费的大模型,然后设置到 open core 的 配置文件中, 这样没有 to 肯时就能自动切换使用新的免费的大模型。首先安装 skill 可能会安装失败等几秒,多安装几次。打开 open 路特官网注册登录后,点击 get api key, 这里点击 create 来创建 key, 弹出的对话框,名字随便填,然后点右下方的 create, 保存好, 设置环境变量,这样系统每次都能找到这个 key。 在 python 官网下载安装 python, 在 free for 的 文件夹下面敲 piping star 号,入 acquire 安装 fori 这个程序,然后敲 python main 拍 autopilot 启动 fori 这个程序, 它会修改你的配置文件。重启 open core, 可以 看到配置文件里已经设置了免费的大模型,以后每次运行运行 fori 都可以更新配置文件。