大家是不是以为这么小的机器用龙虾只能调用云端模型来处理?不一定哦,我手上这巴掌大的工作站联想 p g 叉不仅能跑龙虾,连大模型都能一起部署在本地。 话又说回来了,你们知道在不同模型下的 oppo core 在 日常使用中是什么样的状态吗?今天就给大家用联想 p g 叉测一测哪个小脑最好用。 大模型已部署,那我来给龙虾下指令。第一个任务,整理文件, 我们可以看到不同模型下的龙虾已经开始嘎嘎干活了。咱们的 g o m 模型明显是速度比较快的,先问经常干一半就停机,要叫他继续操作拉马干脆就罢工, 不帮你操作。最后我们跑出来的结果是 g l m 比较顺利完成任务。别看联想 p g 叉小小一只,它能够流畅运行两百 b 参数的深沉式 ai 模型,那么我们接下来用一段深沉式指令,看看各个模型配合下的龙虾表现怎么样。 大家看看千万的输出字数最多最详细,那么可能是因为对中文的支持比较差的原因,输出的是英文 字数少,而且也没有保存成文档。 g o m 的 比较精炼,而且也保存成了文档。综合来看,龙虾使用千问模型输出文档更详细更专业, 单码模型就还是给外国人去用吧,这搭载了英伟达 g b 幺零超级芯片的联想 p g 叉单台能够提供一千 tops 的 算力。那我们看看 低部署的模型给我们做网站的话又是如何的?说实话,我对写网站是一窍不通的,但我有龙虾呀,你们看千问和 g o m 都可以正常完成制作网页的任务,拉满生成的网页是一片空白,没有任何内容。 从样式看, g o m 最丰富,动画效果最华丽。千问就还是比较中规中矩吧,还想了解什么任务?评论区告诉我需要了解更多服务器和工作站养虾技能的欢迎交流。
粉丝707获赞1.2万

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

今天这个视频不是一个教程,只是一个建议啊,我相信肯定也有朋友跟我一样,自从这个 open club 火了以后,就经常刷到其他人晒出来自己养了一只如何好用的龙虾,给自己解决了什么问题,他自动化工作流有多香之类的视频,然后会因为自己还没用上就感到焦虑 啊,我就是想说啊,咱们也别光焦虑,自己动手部署一个丸,现在网上教程这么多,跟着教程的话,半个小时也差不多就能搞定了。 然后呢,也别担心什么电脑配置不够用啊,也没必要去买一台类似 mac mini 的 这种设备专门来养龙虾。那我给你们看一下我这台电脑的配置,幺四零零 f 四根八 gb 的 二手内存,一个二手的幺零七零显卡,然后固态还是两块拼好盘,这个应该算不上是高配吧。 那么龙虾部署完了之后呢,就可以去找一些试用额度的 token 来玩一玩,它运行的时候就根本不会吃你本地的一个配置。然后就现在很多新东西,我觉得光靠听光靠看是没有用的,还是得自己边学边用,然后在这个过程中找到自己的需求。 我是觉得养龙虾这个养字它其实很生动啊,因为我觉得在我们调教龙虾的过程中,也是在主动梳理自己的一个工作流程,就思考的过程,就比埋头苦干高明多了,对吧?

哈喽哈喽,我是大海,很高兴又和大家见面了,昨天呢,大海给大家录制了一个教程,就是在我们本地的这个电脑上去安装我们本地的大模型欧拉玛啊,然后呢再去用我们的虚拟机安装一个 open close, 然后实现我们完全本地化养虾的一个全过程,对吧?不需要偷啃,也不需要花钱, 但是呢,很多朋友反映说这个安装过程还是比较复杂,尤其是安装虚拟机和后面半段,这个安装 open close 啊就云里雾里了,最后可能还是安装不好,那么今天呢,大海就给大家来一个更快速的方法,大海直接把自己的这个 ym 虚拟机昨天安装好的这一套打包成一个压缩包,大家下载下来一解压就能用了,对吧? 当然这个 openclo 这个本地大模型还是要需要大家自己去安装一下,根据自己的实际需求和你的电脑的配置,然后去安装一个属于自己的模型,那么下面这个 openclo 的 安装大家可以直接一步带过了,对吧?我们来看一下今天这个 教程啊,首先呢我们就要安装一个虚拟机,然后呢把这个大海的虚拟机压缩包打开,修改一点点内容,然后咱们直接就给他访问,非常的方便。那首先第一步我们来安装一个 vm 虚拟机啊,这一步如果说已经做了的朋友,你就跳过这一步,直接看第二步,对吧? 大海这里呢去安装一个啊,没有下载的同学呢,你就去这里下载一个,直接去安装这个 vm 虚拟机,它是向下兼容的,如果大家想使用我今天打包的这个程序,你必须版本至少要高于我昨天是十七点六点四,所以大家这个版本至少也是十七点六点四,不够的你就去升级到这个版本, 点击下一步接受下一步。这个地方呢,安装的时候我们自动安装这个对应的程序啊,以保证我们能使用。 然后呢什么什么我们下一步,对吧?其实就是一直下一步就行了,然后我们直接下一步,下一步 安装好,这里已经安装好了,我们点击完成。然后呢我们就开启我们的这个 v m v 二迅疾,开启了之后呢,大家这个地方不要新建,也不要这个打开,对吧?把大海打包的这个迅疾给它下载下来啊,我给大家提供了网盘链接,随便选一个进去下载好, 然后这个下载出来的安装包就是长这个样子,一个无邦图六十四位的 vip 压缩包。然后呢你就自己找自己的固态硬盘,比如说我,那这个盘是固态硬盘的吧?我我新建一个文件夹进去, 我这个压缩包呢,打包是两 g, 解压后是五 g, 所以 说大家最少最少你的那个固态硬盘上要留十 g 到二十 g, 对 吧?去给它用来运行,如果说你想很好的体验的话,至少也得五十 g 左右啊, 这个地方我们直接去给它放进去,放进去之后我们直接给它解压缩,全部解压缩就可以啊,好,解压缩好之后呢,我们就可以直接从我们的这个虚拟机里头去打开虚拟机,找到你刚才解压缩的这个文件夹, 然后呢里头会有一个六十四位文件,我们直接打开它,好,然后你就打开了这个虚拟机,点击虚拟机,然后给它设置,主要是看看大海设置这个四核八 g 你 能不能带动啊?你的电脑的硬件配置比四核八 g 低,你就 把它改的小一点啊,不然太大那个开启不了。接下来就是这个选项,这里呢,我们选到高级,看看他有没有起用这个侧通道缓解的禁用啊,一定要把这个地方勾上好,这个地方勾完成之后,我们就可以直接开启我们的迅疾啊,这个地方弹出了我已移动或者我已复制,你就随便选一个,我选择我已复制。 好,这里我们就已经登录了,对吧?登录名是无邦图,登录的密码是大海增援网,无邦图 密码是大海资源网啊,好,然后这就登录了,对吧?登录了之后呢,我们要去远程连接一下,不然这样操作太麻烦了,你点击上面的虚拟机 s s h, 我 们去连接到 用户名呢,我们还是无绑图。然后呢,我们直接选择连接,然后这里呢?连接的时候他问你 yes no, 你 就 yes, 对 吧? 然后呢, password, 就是 大海资源网,对吧?盲书就可以。好,我们就进入了我对应的这个地方啊,大家进来之后呢,就是如果你要去试用一下,那没问题,如果说你试用了之后感觉不错,你准备长期用的话,大家一定要把自己这个乌帮图系统的那个密码改一下, 这个改密码的命令就是这个搜索 password, 呃,乌帮图,这是改这个乌帮图登录用户 的这个,嗯,登录密码,然后你速度 password, 就是 后头不加用户,不加误绑图,那他改的是这个 root 权限的密码,然后这两个密码都应该改一下,因为这个大海的视频暴露在公网上的,你将来要长期使用你这个密码,别人能访问到啊,这,这不太好,大家还是要去改这个密码的哦,密码现在都是大海资源网。这原程连接了之后呢,咱们就可以把这个地方关掉了,把虚拟机关掉,我们 点击叉,然后让他在后台运行,因为这里我们远程连接了吗?就可以直接去操纵他,然后呢我们去输这个 ipaddr 啊,看一下他的本机地址是多少,右键粘贴进去,回车, 然后呢找到这个 e n s 三三,然后下面有一个 int, 对 吧?然后你看这个地址和昨天不一样了,昨天是呃, 幺六零幺二八,我今天变成了幺九二幺六八二四七幺二八,对吧?你要记住这个地方是二四七幺二八,把后半段记住,一会咱们会用到。好,知道这个之后呢,我们接下来就 s s h 转发小龙虾,对吧?我们直接在这里去给他搜索 powershell 啊,找到这个 powershell, 然后我们去打开,然后呢 powershell 里头就是用这条命令,对吧?把它复制一下这个地方,我们右键粘贴进去,然后呢把最后这个改一下,对吧?这是二四七点幺二八啊, 回车,然后输入一下你改好的登录密码,我这里还是大海资源网,对吧?回车,好,然后你就转发成功了,然后我们就可以直接通过这个下面这个幺八七八九这个带这个的去登录了啊,我们直接在这个浏览器就去 黏贴,然后他就访问了,对吧?访问了之后呢,我们就用我给你的这个登录 token 密码给他 连接好,就登录了,就和大海昨天就长的一模一样了,对吧?当然现在有一个很很大的问题,是什么呢?就是现在咱们这个连接是连接上了,对话不了,因为你这个电脑上还没有欧拉玛大模型,而且即使你有欧拉玛大模型,你这个连接这个地方也不对,对吧? 啊?我说你好,他开始一只猩猩转圈圈了,对吧?很多朋友都是这个问题,所以说呢,咱们还得给大家演示一下这个欧拉玛的问题啊。 那么今天呢,大海是给大家做一个快速演示,如果你想详细的了解欧拉玛的安装和具体如何去选择配置和模型,去看大海昨天的教程,非常的详细啊,非常详细,讲了大概十五分钟,欧拉玛 好,这个地方我们直接去安装,然后呢,如果说不会的朋友,你就去参考我昨天的这个文档教程啊,就是这一篇,这一篇开开篇就是安装欧拉玛啊,好,然后呢,弹出这个,我们直接 install 欧拉玛的这个下载地址,如果说大家下载慢的话,在昨天的这个文档里, 他有对应的这个网盘分流链接,大家去我的网盘里下载,速度会快一点啊,奥拉玛的官网呢?我们这里要访问一下,一会要下载一个模型,我今天呢就选一个小一点的模型,为了给大家演示嘛,对吧?咱们看千分三点五最小的模型是多大? 千分三点五最小的模型是零点八 b, 二 b, 四 b, 咱们就来个零点八 b 的, 对吧?最小的这个只要一 g 嘛。这个模型,然后呢这个复制上, 今天是为了演示,快啊你,你实际上零点八 b 在 电脑端根本没法用,零点八 b 这种模型是给手机准备的,是给移动端准备 各种小设备。安装好了之后呢,咱们先不管他,根据咱们昨天的教程,还要给他去配置一个全局的系统变量啊,我们直接在这个 windows 里这里搜索系统变量,然后呢编辑系统环境变量,打开这个窗口,点击环境变量,然后去下面系统变量里头点击新建,然后呢把咱们这个欧拉玛 host 给它复制进去, 然后呢变量值复制,我这个幺幺四三四啊,大家都是同样的粘贴,然后呢直接点击确定就行了。这个地方我们点击确定修改了这个环境变量之后呢,我们要重启一下欧拉玛啊,把这个欧拉玛在这里去啊,去给它退出, 然后呢我们再重新把这个安装的欧莱玛去给它打开好,然后接下来呢,我们是要找到这个 windows 真机 ip, 我 们从这里呢搜索一个 cmd, 在 这个界面下呢,我们去给它输入一个 ip config, 也是在这里复制就行了, 复制,然后在这里去粘贴,回车找到这个 vm。 net 八下的 ip 为四地址啊,今天你看我变了,变成幺九二幺六八二四七点一啊, 把这个 ip 地址给它复制出来,在浏览器里头黏贴,然后呢去给他后头加个英文的冒号,加上欧拉玛的端口。幺幺四三四, 回车允许啊,这个地方呢就可以看到我们访问对应的地址,幺幺四三四,欧拉玛 is running, 对 吧?能看到这个就说明行了。然后接下来呢,我们就是去给我们的 open close 把我们的欧拉玛弄上去,这个欧拉玛还没有安装咱们对应的这个大模型,对吧?咱们刚才复制的大模型 在这里啊,咱们把这个重新复制一下,然后呢在这个里头我们右键回车,然后让欧拉玛去拉取对应的前文三点五的镜像啊,整好了咱们可以在这个窗口里试一下啊,你好 好,前文三点五啊,这次不不错,虽然是零点八 b 啊,但是他还能回答,行,然后我们把这个地方关掉就行了, 这个欧拉玛已经安装好了,然后就是看我们的教程,对吧?现在我们这都已经搞定了,然后最后就来到了最后一步了,欧拉玛的模型也准备好了,我们就来到这把这个网关和模型重新配置一下啊,这里复制 啊,在这里呢,我们去右键粘贴进去,然后去回车,然后这里呢?首先我们是 yes, 对 吧?然后呢?呃,我们来,呃,这个快速开始, 然后呢我们去升级数据,就是选择第二个,然后这个地方我们的欧拉玛我们去,呃,选到欧拉玛回车,然后呢你看这个地方,这个地址就不对,对吧?这个地址我们要用哪个呢?幺九二点,幺六八点, 呃,二四七点,幺幺幺四三四,就是用这个地址啊,把这个复制一下, 这个地方右键粘贴进去,然后给他回车,这个地方他让你选是本地还是云端家本地,大家一定要选云端家本地,因为你一选本地,他就开始给你拉取那个超大的模型啊,这个肯定是不行的, 那么想要设置这个云端家本地,你欧拉玛就得登录云端账户才可以啊,没有欧拉玛账户的同学呢,你就在这里你去注册一个啊,大家最好是用啊,比如说 altlook 邮箱,就是微软的啊,比如说这里我就用一个 altlook 邮箱啊,然后呢它会让你创建密码,然后呢它就会给你的这个 邮箱里头去发一个验证码。好,然后呢还需要一个手机号,我这个地方呢用我国内的手机号啊,咱们国内手机号前头就是加八六,好也正常收到了, 这样我就注册好了欧拉玛的账户,然后就能登录了啊,你就拿你的这个欧拉玛,把欧拉玛界面打开,然后呢你会看到这里可以找到你刚安装好的模型,我这是千万三点五零点八币啊,刚安装好的,然后呢你点击左上角这个 呃 city, 然后呢点击这个登录,然后它会跳转到你的网站账户,你直接点击 connect 连接 好,这个时候你这个奥拉玛账户你就登录上,而且呢登录这个账户有一个好处,就是云端大模型能免费用啊,只不过它每个月每一天都有限额,那么具体限额的消消耗量什么的,大家去看昨天的视频啊,我们这里就可以选择了,在这里我们选择 云端加上本地的大模型,然后这里呢我们就可以找到我们本地的模型,比如说这里可以找到我们欧拉玛三点五零点八 b, 就是 咱们刚刚安装的,我们直接回正,然后呢剩下的这些内容咱们就不需要,对吧? 全部都是稍后再设置,这个地方设置我不需要,然后呢空格不需要 网关,咱不需要的网关咱们已经登录了,这个地方我们直接退出,然后呢也是等一会再设置好这个地方我们就搞定了,对吧?搞定了之后呢,我们把这里我们重新去给他刷新一下,然后模型这里呢我们就可以选择我们刚刚安装的千问三点五零点八 b, 对 吧? 好,然后我们来尝试的和他对话,你好,这个地方你会卡住对不对?那你当你这个地方卡住的时候,你就先切换一个其他模型,先给他刷新,对吧?先给他切换一个云端模型啊,这里,比如说我给他切换一个这个, 哎,啊,来了来了,稍微等待了一下,你好,我是你的 ai 助手,然后千分三点五零点八币,对吧?没问题,这个地方呢我们就已经完成了我们的快速配置,只要大家把这些包什么的安装包下载好,那么大家也能像大海一样在十几分钟的时间内呢,把我们这个大模型配置好,直接本地用起来, 好吧,那么大家注意使用的时候呢,要注意去修改自己各个地方配置的那个密码,不管是系统登录密码还是 open clone 登录密码相关的这些具体的设置呢,大家可以返回去看我昨天的视频,好吧,那么咱们今天视频就到这里结束,我们下期视频再见,拜拜。拜拜。

大家好,我是涛哥,欢迎来到 openclaw 的 第三课,本节课我们来看一看国内的这些本地可以直接部署的 openclaw 都有哪些。 第一个 workbody, 这个是腾讯版的 ai 办公助手,这是它的操作界面。这个呢,是每天登录之后啊,能给我们一些免费的积分,功能也比较强大。首先从模式,这有多种模式可以供选择, 同时还可以选择自定义模型啊,选择我们已经购买的哪个品牌的套餐,都可以去使用,这也是他的一个显著的优势,而且有非常丰富的插件供我们安装。 所以呢,基本上我是主推大家去使用这款产品,如果想在手机上控制呢?点击 claw, 设置各个常用的 i m 啊,配置还是相当丰富的。那这是第一款,第二款 q claw, 它是腾讯的第二款龙虾产品,这个和微信可以深度绑定,直接扫码就可以在微信上 让你的龙虾干活了。他,你看,直接就是连接微信,那他能不能连其他的呀?远程通道也有很多啊,也这里也可以去选择。 现在这些产品都在疯狂的迭代啊,那每日会有四千万的 talk, 那 这是目前的一个状况啊,可能你用的时候已经不是这样一个额度了,也有丰富的办公场景。 那他和刚才的那款和这款呢使用对比起来啊,这款应该说是更强大,他有日常办公和代码开发,而这个 qq 呢,更偏向于我们小白办公使用。这是第二款, 好看。第三款,这个是阿里的一款产品,它有什么特点?这款产品界面看的挺清爽。呃,它和其他的区别不大啊,但是它有一个非常强大的功能,叫浏览器控制, 也就是说我们把这个插件打开之后啊,打开标签呀,点击鼠标都可以很方便的去操控我们的网页,那这个也在更新当中, 这还可以连接微软的 office, 这是它的一大特点。但是它有一点不好的地方呢,首先你不能自定义大模型,第二,它这个购买的时候,哎,必须使用美元形式的结算, 而且这款的额度也比较少啊,如果对浏览器有特殊要求的,可以选择这款本地龙虾。 好,再往后看,这个是有道龙虾,他有什么特点啊?他不像别的都需要登录才能使用,这个不需要登录就能使用,完全配置自己的模型。你看这个是我用来一个本地的,你可以用任何一个其他的第三方, 而且这款产品是开源,也就是你能修改它的源代码,再进行部署和安装,它也支持多款 i m 通信软件来控制啊。好,这是有道龙虾。再往后一个 阶月,这款我们打开看一下啊,设置 这款软件,它本身在没有 opencloud 之前呀,它就是一个桌面助手。有了龙虾之后啊,它在这里增加了一个模块,可以去下载安装使用。 他的使用也是很小白,但是有一个缺点呢,也就是我们在执行任务的时候,哎,我不知道该去选择呃,他自己的呢,还是选择我的龙虾产品啊,这个需要购买积分呃,也就是只能使用他自己的模型,不能切换, 这是另一款。好,再往后元气 ai, 这款和街院类似啊,也是一个桌面的 ai 应用,但是这款已经封装为完全看不出小龙虾的影子了,虽然说它也是有技能,也是互通的啊, 这样一款产品,这个也同样是需要登录去使用,并且只能购买他们的积分,不能够使用自定义大模型。还有一款呢是叫 easyclock, 这款呢也是在连接性啊,技能上都非常的丰富, 那缺点呢,就是也是需要他自己的账号才行啊。好,咱们对比一下啊,这是我个人经验给大家总结的一个表格,可以根据你自己的需求来选择,如果你想使用小龙虾更原生一点的呢,可以选择这款, 如果我想更小白呢,就可以选择它啊,介于中间的我们选择 workbody, 那 这是本节课我们介绍了这几款产品,那后面我会挑一两款产品,着重深入的往下面介绍。好,本节课就讲到这里,感谢聆听。

由于小龙虾消耗托肯太贵,我要零成本运行,一块四零九零,显卡带不起来。由于 deepsea 模型太大,现在对电脑改装公司电脑装了一只龙虾,这个龙虾只能运行三十 b 的 deepsea 模型,七十 b 的 时候运行特别特别缓慢,我从医院偷偷跑出来了, 换上正常的衣服,对我的电脑进行改装。大家看一下电脑本身,这台电脑是一个 i 九十二代的,一个 cpu 和一个四零九零的显卡,但是七四 b 的 模型运行不动, 把这个三零九零和这个四零九零准备放在一起去运行,这个电源是两千瓦的电源,应该可以带动吧。然后由于这是原来插了一个采集卡,把这个口给占了,那只能用一个延长线 延长出来,但是这个机箱又小了,再换机箱也麻烦,我就到了电焊铺,搞了一只三角铁,还有奇奇怪怪的配件,我看能不能把它给装一下。我的初步想法是这样, 就初步想法往上一放,哎,这头我一固定,这头一固定,我这样一插,理论来讲应该是正常的, 但是这也有个危险性,这个铁渣子一旦掉到主板上,一通电就直接短路了,就说这是个,这是个风险性极高的货,哎呦哎,借的东西不行,装不进去炖了 哦,现在有个问题,这个还转不了,对啊,这个转的时候铁渣子都掉显卡里面了,现在遇到难题了,因为你看到这个铁渣子一旦掉到这个主板里面,就会,就会短路,所以现在必须把它退掉。 开始讲戏了啊,只有他固定下来,只有这个固定下来才能把这个固定下来。如果,如果说从这个孔转,你看 如果从这个孔钻钻进去,会导致这个显卡必须下移,如果显卡下移的话,这个线,这个线是插不进去的,你从这穿他一个孔, 他撑不住啊?他要往下压的呀?你看他一个孔,你现在穿这,他往下压的,他变成这样了,我看对不对?

今天用龙虾搭建了一个本地知识库,这是一个某域电商运营规则的文档,有十几页,是我之前手机截屏了二十七张图发给龙虾识图后形成的文字版资料。 比如我想知道某域规则里面召回这个词是什么意思,龙虾就会只根据这个文档里的内容, 帮我把关于召回这个词的所有知识点汇总给我。因为龙虾只在本地知识库里面搜索这些信息,所以反馈的信息是精准的、正确的,不会像在搜索引擎里面搜索出很多其他乱七八糟的不对的信息。 我们还可以用龙虾向芝士库提问题,龙虾只会依据本地芝士库里面的信息来回答你这个问题,并且回答的非常好。比如我问龙虾怎么高效设置商品标题,龙虾就根据芝士库里面的文档里的信息回答我这个问题。 太棒了!这种本地知识库对于平时需要大量查询资料的朋友帮助很大,效率非常高,比如对于学生、教师、医生、律师、工程师、电商运营、作家、编剧等都非常有用。 如果你也想拥有一个这样的本地知识库来找我,关注我,获取更多龙虾实际应用的知识。

你是否也为养龙虾而烦恼啊?我刚才试了一下,咱们这个龙虾线上 toking 太贵啊,根本养不起。但是要想用本地模型啊,你的本地模型小龙虾是不是傻傻的呆呆的?那是因为你本地步数太小了,四 b 八 b, 那, 那龙虾简直就跟啊幼儿园的小学生一样,想要部署本地大模型啊,首选枪神九 plus 超净版啊!我刚试了一下,部署三十 b 以上的本地大模型啊,六十四 g 两 t 加五零九零显卡 绰绰有余啊!还有一款就是咱们的幻 x 啊,幻 x 的 一百二十八 g。 我 刚看了一下啊,一百二十八 g 内存,如果你又放到台式机上,光内存的价格就已经 将近一万二三的价格。但是咱们现在换 x 的 笔记本啊,显存又高,内存又大,一百二十八 g 版本还可以同时叠加补贴的价格,现在两个 w 都不到,而且还有学生优惠啊,又方便携带, 轻轻松松啊!本地部署大模型龙虾啊,让你的龙虾啊比别人又聪明又快,而且还不用耗耗,耗费大量的 tucker 啊,不用耗费资金就能帮你办事啊,这样的下属谁不爱?想要预知详情,赶紧点我主页!

最近养龙虾特别火,今天我带大家在国产系统环境里养虾,我正好手里边有一台笔记本啊,笔记本安装的是银河麒麟操作系统 v 十的二五零三版本,在开放麒麟社区我看到了他们制作的龙虾的安装包, 我直接下载的叉八六版本到本地。下载完以后,第一步我先要对这个安装包去付全,也就是给他一个可执行权限,需要在命令行里边去操作。 命令已经打在弹幕上了,输入的时候需要注意输入空格, ok, 直接双击启动,允直接运行, 始终允许。 第一步我们先需要配置模型厂商,我们可以选择智普 默认 api 密钥,需要大家去单独注册,我提前注册了一下, 将 apik 复制, 然后保存配置,开始安装, 安装配置成功, 安装成功以后会弹出一个安装成功的对话框,打开网页,我们可以复制把这段,把这段地址打开网页,我们复制这段地址 可以用火狐浏览器,也可以用三六零安全浏览器。打开之后我们输入一段命令试试, 耐心等待一下, 把动态汇总了下,速度上也还可以。以上就是龙虾部署的详细步骤,部署起来很简单,感兴趣的朋友可以去体验一下。

大家好,现在有很多人说在电脑上安装 openclaw 养龙虾不安全,还有很多人说安装和卸载 openclaw 小 龙虾都非常费劲,那本期视频就分享一下如何用虚拟机来安全地养龙虾。将来凡是有自由度过高的 ai 软件,你都可以用这个方法一劳永逸。 你现在看到的这个窗口里运行的虚拟机 macos 系统。 我在这个虚拟系统里安装了 openclaw 小 龙虾,并且能够通过手机上的 app 和他对话,让他帮我整理文件,筛选邮件。当然,这个虚拟机系统的窗口也可以全屏幕的哦,这样左滑右滑,就可以在你本机真的 macs 系统 和虚拟 macos 系统之间丝滑切换。那么 perilous desktop 往后边就简称 p d 虚拟机,那用它部署 openclaw 小 龙虾有什么好处呢?虚拟机就好像是一个黑盒子,对里边的任何软件包括 openclaw 来说,是完全独立于你真正的 macos 系统的。 通过 p d 虚拟机的软件设置,把与真正的 macos 系统唯一的共享开关关掉之后,它就是一个完全隔离的系统。 这样的 openclaw 就 好像被关进了笼子,你即使给他最大的权限,他也只能在笼子里玩,只能在这个虚拟机里转悠。对于虚拟机外边的这个 macos 系统根本就没有感知,他不会知道还有一个系统在外边,不会伤害到你电脑的本身系统可以随时关停,随时删除, 随时在克隆,任你操作。那有人一定会问,在 p d 虚拟机里可以一键安装 macos 虚拟机, 有内置安装入口,你所要做的就是点下鼠标,稍等片刻,它就能下载安装完成。对于喜欢折腾的人来说,比如说 ai 爱好者或者是技术人员, p d 虚拟机软件已经不只是能让你在 mac 上运行 windows 了,它现在变得更有用了。你可以在上面安装各种 linux、 windows 和 macos。 比如你可以安装部署一个基于五班图 linux 的 open cloud, 同时还可以部署一个 macos 或者 windows 版的 open cloud。 每个虚拟机系统都是独立运行的,像真正的电脑一样,局域网内的其他电脑和手机都可以访问到这些虚拟机系统, 包括使用上面 open cloud 服务。如果你哪天不想要某一个了,在 p d 虚拟机控制台里就可以一键删除 open cloud 所在的虚拟机即可,里边的 open cloud 也会随之彻底销毁,没有残留。 当然,有的时候我们可能因为误操作,把配置好的 open cloud 搞崩溃了,所以我通常在虚拟机里边把 open cloud 运行环境配置好之后,直接把这个虚拟机文件复制一下,进行一个备份,这样随时可以一键恢复到之前的样子。 实际上,你用 p d 虚拟机软件安装的各种虚拟系统,所有的数据都会在一个大文件里边,你可以把它们复制到移动硬盘或者 n s 上进行备份,需要时可以把文件随时拷配回原来的位置,就可以完美恢复了。 另外,如果你的 mac 空间不足,你可以把虚拟机复制到这种固态硬盘上来直接运行。实际上我就是这么做的,你直接双击固态硬盘上的虚拟机软件,加载它,启动这个虚拟机。 我现在这个虚拟机 macos 里已经配置好 openclaw, 在 这台 mac studio 真实的系统里,我安装好了千万三点五三十倍的大模型本地运行,通过手机 app 就 可以让虚拟机里的 openclaw 帮我做事, 可以读写操作我虚拟机 macos 里的文件,帮我看邮件。如果你本地电脑配置有限,不能本地运行 ai 大 模型,那这种方法也可以通过虚拟机直接让小龙虾使用线上的 ai 大 模型没有问题。 所以这种方式可以让 opencloud 和你的真正 macos 系统完全隔离,这就是使用 pd 虚拟机本地部署 opencloud 的 最大优势。而且工信部目前发布的关于防范 opencloud 的 安全建议也是建议无论企业还是个人用户,都优先在虚拟机或者沙箱中运行。 唯一需要注意的是,虚拟机一麦克 s 系统,它本身需要至少八 gb 的 运行内存,所以建议使用十六 g 或者更多内存的苹果电脑。 ok, 这就是本期视频,如果对你有帮助,别忘了点赞关注我们,下个视频见,拜拜!

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

u core 虾盘是一款创新性的产品,它将 ai 助手完整环境直接预装到 u 盘之中。一托强大的 open core 开源框架,精心把 nova j s open core 及其所有依赖项完美打包进小小的 u 盘里。 下面为你详细介绍它的核心优势。即插即用,即为便捷,只需轻松双击脚本 就能快速启动,全程无需安装,仅仅三分钟你就能开启使用之旅。全中文界面,操作友好,无论是 c l i 控制台还是配置向导,全部实现了中文显示,让你告别语言障碍,操作更加得心应手。 便携使用不受限制,所有配置都保存在 u 盘里,当你更换电脑时也能无缝继续使用, 真正做到随时随地畅用。离线安装省心省力,在安装过程中完全不需要联网下载依赖, 即使在没有网络的环境下也能顺利完成安装。支持二十多种聊天平台,像 qq、 飞书、钉钉、企业、微信、 instagram 等,满足你不同的沟通需求。 丰富技能,功能多样,预装了五十二个实用技能,包含编程、搜索、翻译、文件管理等多个方面,为你的工作和生活提供全方位的支持。

ai 龙虾养了没?为啥有些电脑跑 ai 却能够卡成 ppt? 别急哈,可能是你还没搞清楚 ai 需要什么硬件,那今天三分钟把 ai 的 需求分析和硬件的配置一次性讲透,看完你应该就知道你需求什么样的配件。想拍 ai 电脑,我们还是先别看硬件, 先搞清楚我们用 ai 来干什么,我把场景跟硬件直接对应,一句话让您听明白。第一, ai 绘图本地画画 table user, 你 中宁像这些显存至少都要八 g 起步, 十二 g 以上更稳, n 卡的话作为首选,因为 ai 工具几乎都是基于库达,预算够的话直接可以上到十六 g 的 显存,跑 ai 模型不爆显存。 第二,本地大模型, ai 聊天像 deepsafe 或者是通用千万本地部署大模型,模型会先加载到内存里,十六 g 勉强能够跑小模型,三十二 g 起步,六十四 g 以上可以跑到十四 b 以上的大模型。 第三,像剪映 ai 跟科帕冷,主要看就是 cpu 加内存,显卡够用就行, cpu 打开切换多任务的运行时候, cpu 决定的是响应的速度, 所以核心越多是越好的,像 i 五啊,或者是锐龙五是底线, i 七或锐龙七会更稳。第四,训练模型跟练单显卡都全部都要拉满的。 那记住一句话,画图看显卡,跑模型看内存,日常流畅看 cpu, 先定需求再配硬件,不花冤枉钱。那我在这里推荐一套本地部署的 ai 配置,供大家来做一个参考。 cpu 用到的是我们的锐龙七八七零零 g, 它内置的是瑞迪恩的一个七八零 m 机险,支持手动分配十六 g 的 一个显存,跑大模型时,它可以用极险来做一个分担,主板用的是 g 加 b 八五零 a o reis pro wifi 七电竞标 十二加二加二的一个供电箱啊,支持 ddr 最高八六零零的一个高频内存, ai d 五黑科技二点零可以一键超频。 内存用到的是金士顿六十四 g 的 一个套条,跑十四 b 的 大模型都不卡,显卡用到的是 g r t x 五零六零魔音卡,八 g b 的 显存, ai 绘图够用。如果主要跑大模型,可以先用八七零 g 的 一个极显点一点 硬盘,用一 t 硬盘就可以。这套配置目前能够支持绝大部分的一个本地 ai 部署了,如果您的预算有限,也可以根据如下的一个需求来做略微调整,也帮大家列出来的,你可以做一个参考,那配置到位了,部署其实也有简单的方法, 给你一个国内可以直接用的方案。有道龙虾,它跟国外的 open cross 类似哈,但完全是针对国内的用户来做优化的。内置技能商店,它是自带文档处理、数据分析、 ppt 制作等十六种的一个核心技能,数据百分百本地存储, 所有的聊天记录、配置文件都在你自己的电脑里,您可以配合沙箱做一个隔离运行,不用担心隐私泄露。那你的职业 ai 是 否能够对您起到一个帮助呢?评论区我们可以聊一聊,我们下期见。

hello, 大家好,今天呢,我们就讲讲 open curl 不 同的部署方案的一些比对啊,我们比对完以后啊,大家可以根据自己的需要去选择适合自己的部署方案啊, 然后以及我们三个部署方案当中,今天先讲一个 q curl 的 一个安装啊,这个是最简单的,然后其他后期呢,我们也会呃,我也会出那个 其他的方案的一个部署教程来给到大家。好,我们先来看一下 open core 它的呃部署方案的一些优劣势对比吧。那其实我们知道 open core 它的优势是很明显的对吧?啊,当然它的劣势也很明显,总结起来呢,就是高风险高权限 啊,当然他的风险也是可以在我们选择不同的配置方案的时候去有所区分的。呃,常见的部署方案呢?有这几个啊,比如说 q pro 最近也是比较火嘛啊,他呢是腾讯,他打包了以后呢,我们可以进行本地的一个安装, 优势就是他零门槛,一键安装几分钟就可以做好了。当然劣势也很明显啊,因为是毕竟你是大厂,是打包过后的嘛,他的安全沙箱限制深度权限也会是比较约束 好。那另外的几种方案,比如说 open crawl 手动本地布置啊,那他的优势就是完全可控,也支持深度定制开发 啊。当然难度呢,就是他的劣势啊,属于技术门槛会相对较高啊,当然还有我们云端的一个部署啊,我们这左边的这两个都是属于本地部署。那还有云端部署 啊,比如说以这个阿里 oppo pro 为例啊,他也是支持一键安装的,那优势就是呃,他的安装相比手动去进行本地布置,他也是相对会比较简单, 并且他是可以支持啊,全天运转的。我们本地部署,他就需要你的电脑保持开机他才能用,如果你关机的话呢,他自然也就停止了, 当然本地他也有这个数据隐私,他会相对较好的一个优势。那云端的话呢,他的优势就在于他可以全天运转,类似就是他的数据啊,云端储存私密性会相对较弱。 那总结的来说, q curl 呢,它适合我们去追求便捷的人群, open curl 它适合追求掌控的人群。 然后呢?呃,我们这个云端一键部署,它适合追求稳定啊。当然了,除了这三种,呃,龙虾的部署还有很多,因为也有很多大厂的龙虾也是在做。呃,不同需求的,我今天就主要讲这三个, 因为还有一个呢,是渠道比较不一样的,就是本地,本地手机其实也是可以部署的啊,当然手机这边啊,权限就更高了啊,风险也更高,所以我们有机会再给大家去讲讲。我们还是先讲这三种啊。 好,那这三种安装方式它有一个费用的一些比对,给大家有一个基本的概念。那 q curl 呢?前期投入是免费的。 open curl 手的部署啊,因为我们都知道它开源的嘛,它也是免费的。 那你如果是用阿里的这个打包,那它是需要付费的,因为主要是因为要租买它的云服务器啊。 好,那在后期的一个成本当中呢, qq 它基础功能是永久免费,高级定制功能可能会收费。 qq 的 话呢,因为软件本身是免费的嘛,那就看看你有没有购买这个付费模型,如果你不买的是这个付费模型的话,它的这个 api 可能会产生费用。 那呃,云端的这个它是呃需要持续付费的,呃,一般是按月或者按年去计算嘛?啊,你可以,然后模型这边你可以选择套餐,也可以选择计量啊。 好,那在下面的话呢,我们模型的一个费用啊,单独拎出来可以看看 qq pro 前期的,目前的模型它是有免费额度的,超量以后,呃它会在计费啊。还有一些付费模型是单独呃计费的。 呃, open core, 呃,就是我前面所说的,你可以选择免费的开源模型啊,也可以选择付费的。然后的话呢,呃,我们阿里云的一个 我们阿里龙虾的一个部署呢,然后模型这边就是它可以选择套餐,也可以选择计量啊。 总的来说, qq pro 呢,它是有免费版块也有付费版块。然后 open core 的 话呢,如果你想呃零成本也是可以的,因为软件本身不收钱,你如果选择开源模型也可以不花钱, 你也可以主配软件是免费的吗?因为是开源的。然后呢,你自己再买付费的啊,云端模型也是可以的。好,总之 oppo pro 它可以实现完全零成本,就主要是在于你硬件这一边,看看要不要配置好一点的啊。 好,那云端的一键部署的话,他长期使用是需要持续投入的。好,那这是这三种方式的一个费用比对。 接下来我们再来看一下试用的场景以及选型建议。像 q pro 的 话呢,会比较推荐新手去使用,因为它真的很容易去安装。当然长期的来说的话呢啊,你如果追求深度啊,你可以选择其他的方式啊,进门入手啊,新人入手可以使用它, 那像我们如果企业用户他追求本地的一些深度定制,要拥有极大的一个自由度啊,你想自己做一些深入的自定义,那我建议你是选择本地部署手动安装啊。 好,如果是追求云端的一个稳定啊,就是全天可以运转啊,那这个也是比较适合团队写作和企业用户的 啊,因为的话他不受本地设备的一个约束呢,是可以长期自动化运转的。所以的话呢,这一类人群你可以选择就是租云服务器,然后呢,呃,也购买云模型啊,那这一类用户呢,就可以选择啊,一键云安装啊。 好,那这就是我们三种嗯,常见部部署方式它的一个区分和选型建议。接下来我们就来看一下新手用户,嗯,比较推荐的啊,就是你用的完试一试啊,你 因为它这个也是腾讯做的嘛,然后的话呢,微信 qq 扫码哦,它的安装会很简单的啊,所以我们先来讲一讲 qq 的 安装好,你直接输入这个网址啊, h t t p s。 嗯,外号巴拉巴拉啊, qq 点 qq 点 com 就 进到这个页面,目前的话呢,它已经全面开放,不需要邀请码了,然后在这里你选择适合自己的, 呃,看 windows 的 还是?呃,这个 iphone 芯片的,你就自己看着适合自己的,然后点击安装啊,点击,应该说是点击下载,点击下载他就下载完了,下载完了以后呢,呃,你就点击一键安装,然后呢再扫码绑定微信就可以了, 在这里我直接就是用官方的这个教程来跟大家说了,因为我的电脑已经装了其他的龙虾, 一台电脑如果你装多个龙虾,其实它还是会有一些冲突的,所以本地的话最好还是不要养太多,只因为本身你的个人,如果对于个人而言,你的配备 也是比较有限的,你装多只他们啊,总归是会有些冲突啊,所以这里的话呢,我就用官方他这里来弄啊,他真的很简单,你会装 app 你 就会,你就会装这个 qq, 它真的没什么门槛 啊,然后你呃,下载安装完成以后呢,你就扫码绑定微信,然后就可以关联了,然后就可以通过微信窗口呃来去 指挥你的龙虾了啊,好,那这些都是真实场景的,嗯,一些使用就是当然需要你,你要用这只龙虾的时候呢,你电脑是需要开机的啊,你电脑需要开机,如果你关机的话, 他也是会关掉的啊,然后你就比如说你出去在外面啊,你可以通过你的手机远程让你的龙虾去帮你呃,操控你的电脑 桌面去做一些事情啊。好,今天呢,我们就讲这么多,大家如果感兴趣,欢迎在评论区当中进行评论。

如果你想使用小龙虾更原生一点的呢,可以选择这款,如果我想更小白呢,就可以选择它啊,介于中间的我们选择 workbody, 那 这是本节课我们介绍的这几款产品,那后面我会挑一两款产品,着重深入的往下面介绍。大家好,我是涛哥, 欢迎来到 openclaw 的 第三课,本节课我们来看看国内的这些本地可以直接部署的 openclaw 都有哪些。 第一个 workbody, 这个是腾讯版的 ai 办公助手,这是它的操作界面。这个呢,是每天登录之后啊,能给我们一些免费的积分,功能也比较强大。首先从模式,这有多种模式可以供选择, 同时还可以选择自定义模型啊,选择我们已经购买的哪个品牌的套餐,都可以去使用,这是它的一个显著的优势,而且有非常丰富的插件供我们安装。 所以呢,基本上我是主推大家去使用这款产品,如果想在手机上控制呢?点击 cloud 设置,各个常用的 i m 啊,配置还是相当丰富的。那这是第一款,第二款 qcloud, 它是腾讯的第二款龙虾产品,这个和微信可以深度绑定,直接扫码就可以在微信上让你的龙虾干活了。它你看直接就是连接微信,那它能不能连其他的呀?远程通道也有很多啊,也这里也可以去选择。 现在这些产品都在疯狂的迭代啊,那每日会有四千万的 token, 那 这是目前的一个状况啊,可能你用的时候已经不是这样一个额度了,也有丰富的办公场景。那它和刚才的那款和这款呢?使用对比起来啊,这款应该说是更强大,它有日常办公和代码开发,而这个 q pro 呢, 更偏向于我们小白办公使用。这是第二款好看。第三款,这个是阿里的一款产品,它有什么特点?这款产品界面看的挺清爽。呃,它和其他的区别不大啊,但是它有一个非常强大的功能叫浏览器控制, 也就是说我们把这个插件打开之后啊,打开标签呀,点击鼠标都可以很方便的去操控我们的网页,那这个也在更新当中, 这还可以连接微软的 office, 这是它的一大特点。但是它有一点不好的地方呢,首先你不能自定义大模型。第二,它这个购买的时候,呃,必须使用美元形式的结算,而且这款的额度也比较少啊,如果对浏览器有特殊要求的,可以选择这款本地龙虾。 好,再往后看,这个是有道龙虾,它有什么特点啊?它不像别的都需要登录才能使用,这个不需要登录就能使用,完全配置自己的模型。你看,这个是我用来一个本地的,你可以用任何一个其他的第三方,而且这款产品是开源,也就是你能修改它的源代码,再进行部署和安装, 它也支持多款 im 通讯软件来控制啊。好,这是有道龙虾。再往后一个阶月,这款我们打开看一下啊,设置 这款软件,它本身在没有 opencloud 之前呀,它就是一个桌面助手。有了龙虾之后啊,它在这里增加了一个模块,可以去下载安装使用。 它的使用也是很小白,但是有一个缺点呢,也就是我们在执行任务的时候,哎,我不知道该去选择呃它自己的呢还是选择我的龙虾产品呢?这个需要购买积分呃,也就是只能使用它自己的模型,不能切换, 这是另一款。好,再往后元气 ai, 这款和今日类似啊,也是一个桌面的 ai 应用,但是这款已经封装为完全看不出小龙虾的影子了,虽然说它也是有技能,也是互通的啊。 这样一款产品,这个也同样是需要登录去使用,并且只能购买他们的积分,不能够使用自定义大模型。还有一款呢是叫 easycool, 这款呢也是在连接性啊,技能上都非常的丰富。那缺点呢,就是也是需要它自己的账号才行啊。好,咱们对比一下啊。

大家好,接着上个视频的内容,本期将具体讲解一下 iphone pro 该怎么配置。上节课我们就到了这个配置的页面,然后选择本地,用上下箭头为测试确认。第一个是工作空间,默认的是这个地址,我们不用进行什么调整。第二个是模型,这个是最关键的, 虽然有一些免费模型,但是咱们用 openclaw 的 话,要发挥它的效果,最好是用一些付费比较高端的模型。我这里以 deepsea 来进行演示,选中 deepsea 之后,这里需要输入它的 deepsea api key, 这个时候我们在网页里面直接搜索 deepsea, 到这个页面我们可以选择 a p i 开放平台,我这个是已经注册过了,大家可以自己再注册一下。我这充了十块钱,就是用来试用的,如果不充值的话,它接口可能会报错。然后我们选择 a p i t, 这里可以创建 名正,可以随便写。我这边演示完之后,我就把它这个 key 注销掉,所以展展现出来也无所谓,大家建好之后就可以复制,然后回到这个页面,把它粘贴进去, 然后这里可以选择具体的是使用哪个模型,这里的选择是你选中哪个模型的时候,后面就会出现这个模型的具体信息,我们就选第一个 chat 就 可以,当你选择了多个之后,你想把它取消掉,你就再点一下空格,就可以取消,然后再回车 twop 这一块,我们就选择是这边有几个,这边有几个网页查询的提供商,嗯,这个 tiktok go 是 一个免费的,可以用这个,其他的几个可能是付费的, 然后这里选择 yes getaway 这一块我们其实没什么需要选择的,就按他默认的来就可以,这个就按他默认第一个来就行,就全部按他的默认来就可以,这个其实都不用怎么选, 我们为了让它尽快的开始,可以把这些先跳过 skills 也可以跳过,这个是选择渠道,我们后面再来配置,这里再选择感听力,这样就配置好了。我们已经将 deepsea 的 大模型配置到了 offclock 上面,我们再启动一下 offclock 这个命令就是启动 openclaw 的 网关,可以看到这里有一个 agent model, 这里显示的就是我们刚才配置的 deep seek 的 模型,这样就是成功的。然后我们可以再打开一个 over shift, 这有些命令大家用多了就比较熟悉了。首先我们得先启动 wsl, 我们现在虽然已经配置好了大模型,但是没有地方跟它交流,其实 openclaw 还有一个默认的渠道可以跟它进行交流,就是一个网页版的 openclaw 的 地址,要开启那个页面是有一个命令,就是 openclaw, 然后 dashboard, 然后回车,这个命令运行之后它会给你一段地址和 token, 我 们可以把它复制,然后在网页里面打开, 因为我之前有自己用这个账号测试过这个视频就暂时讲到这,在四月十六号之前可以免费的查看完整视频,感谢大家收看。

新手养龙虾云平台怎么选模型?用哪个最稳最便宜?今天一次性给你讲!全八加云平台加二大王牌模型,闭眼抄作业云部署平台二十四小时在线新手友好阿里云最稳教程多新人六十八元年 腾讯云微信生态无敌新人九十九元年优克德龙虾专属镜像九十九元年火山引擎飞书适配墙八十八元年华为云安全稳定七十八元年 百度智能云首月零点零一元尝鲜神器京东云简单好上手七十九元年试拓云,按秒计费,临时跑任务,超划算龙虾最强大脑官方推荐 top 二,必加 minimax 海螺 m 二点五 官方测评,全球第二,成功率九十三点六,速度快,性价比炸裂月耗一千零三十元,适合电脑操作,自动化多任务 kimi 月之暗面 k 二点五官方测评,全球第三成功率九十三点四 超长文本理解超强月耗一千零五十元,适合读文件,整理表格,复杂指令新手最佳组合直接照抄云平台腾讯云阿里云六千八百九十九元年大脑模型, mini max 或 kimi, 一 年总成本不到两百元 ai 助理二十四小时帮你自动干活,香到爆 木板适合打在屏幕上国内龙虾云部署八家平台,阿里云六八腾讯云九九优克德九十九火山八十八华为七十八百度零点零一首月京东七九试拓暗秒龙虾两大王牌大脑, minimax 海螺快吻便宜 kimi 月之暗面长文本理解强新手套餐云平台加 minimax kimi 一 年约等于两百元二十四小时 ai 打工需要我把这段再压缩成三条十五秒短视频脚本吗?

哈喽,大家好,我是老李,最近龙虾特别火,但是本地安装它非常的复杂,所以我们封装了一个本地的安装包, 可以一键部署免安装,我们来看一下,首先我们先把文件删下来, windows 选这个 ex 一 的,选这个 z i p 的 包,下载完成以后双击这个程序,然后就可以看到它是要选择工作目录,你可以自定义选择你想要放的文件夹,选好这个之后可以看到这个界面了, 安装这样就完成了。这个时候需要设置到模型,我们点设置找到模型配置,添加模型需要输入 a p i 地址跟 a p i key, 我 们找到阿里百面有个 coding play, 我 们购买了它套餐之后,把 它这个地址以及它的 api key 复制插入到这里,点保存就可以了,这样我们就可以跟大魔仙对话了,这个是我跟他的一些对话记录。如果我们要接入飞书,同样的点开这个高级有个频道集成,我们需要输入这个 app id 跟 app secret, 同样的我们打开飞书的开放平台,新建一个应用,这边 需要去添加权限以及事件回调。创建完成以后,我们把它这两个参数复制过来之后,贴入到这里点保存点测试,这样你也完成了,我们就可以在飞书里面跟他进行对话了,是我跟他的一些对话记录,那我们最后来看一看用它来抓取小红书笔记的操作, 我们来看一下它自动抓取数据,包含标题、作者、时间、点赞以及一些亮点,而我没让它导出表,这里面它也总结了热门的搜索。

这个是温州周先生去定的一套 max studio m 二 ultra 的 六十四 g 的 版本,那么他想做什么呢?他想做的其实有一点,就是把 nars 里面的电影他想去下载, 那么他只需要跟小龙虾去说啊,我想下载电影,比如说我想看钢铁侠,那么说了之后,小龙虾会自己去下载,下载到 nars 里面,然后并进行分类,因为他之前也是买了 nars 啊,所以这个是非常方便的。那么你他如果一旦出现什么问题,比如说不能下载啊,或者其他原因,你直接去跟他说,你帮我解决这个问题就 ok 了 啊,这个是非常非常方便的,那么你不需要自己做任何操作,也不需要去问任何的人,因为小龙虾他就已经足够聪明了,那么他就想做的一点,还有呢,就是他需要去拉他的一些流水,然后去给小龙虾,然后小龙虾帮他去分析他这个月的流水到底怎么样啊,然后哪一些有各种的问题什么的都会跟他说,然后提出一些建议,这也是很重要的。 再其次呢,就是帮他省一些合同啊,然后合同的,因为合同有的合同非常长,几十页上百页,那么你丢小龙虾之后,他可以自己去看,看完之后给你一个这个合同里面一个呃比较合理的一些建议,哪些需要改动啊,哪些是还不错的,然后哪些是啊 对我们有可能有一些不好的地方什么的,他全部都会分析清楚。那么如果你家里或者工作上也需要一个这种非常的事的话,那么其实这样一套是非常不错的。