有粉丝问模型该怎么更换,那么我们今天就来讲模型怎么选择以及更换。 那我们首先去了解一下这个模型什么是模型,以后不懂的东西都可以直接问豆包,我们直接就把目前市面上的所有能够支持龙虾的这个模型去进行一个比较,是豆包出的结果。 那么在这个表上你们就可以知道为什么你们的龙虾会反应这么慢,这里是有响应的,比如说这种三秒的。 好,那你看这里,他说这个是第一,那我们就今天就用这个来做一个例子,是如何去接入这个 p, 因为很多人他可能第一次上来,他就去接了 type c, 可能比较简单接入,接完之后就不知道怎么改,那今天教怎么改? 那我们得先去这个官网, 这个它是目前应该是全国第一的,豆包说了感应最快,但是价格不便宜, 那我们在这里找到这个 building plan, 进来的时候我们就会选一下套餐, 买了这个试一下,给你们解释一下这些是什么意思,比如说一百 rounds 五个小时,什么意思呢?就是五个小时之内你能够问他一百次,比如说现在从十点到下午的三点, 我只能问他一百次,如果一百次过后就更不了了,就他不会反应了,是这个意思,如果你,如果你觉得不够,那你就可以开这种一个小时可以三百次,还有这个两千次, 建议啊,普通人我觉得还是这个就够了。好吧,你们自己看,那我们怎么接入呢?首先在这里啊,有一个购买之后啊,它这里会有一个 e, 然后用了这个 key。 好,我们先讲本地的更换,我们在我的电脑一般的吸盘这里会有一个用户找到,你的用户在里面找到这个 open ai 的 登录, 然后在这里会有一个 opencloud 的 追神文件,这里一定要备份啊,特别是新手一定要备份,如果不备份的话,出了问题就很难搞。复制一下, 三月十三号好了,有了备份就不怕了,它它什么问题,我们大不了就把它这个删了,然后再来这里把这个回复就行了。 找一个好的编辑器啊,如果你用这个文档打开的话, 如果是这个打开的话 就不太好看了,可能编辑的时候会容易出问题。找个好编辑器, 这里好处是你可以这个括号都能对应,这样对的上。好了,不说那么多,怎么改呢?首先做了一个保存,保存之后这里是有备份的,就不用看了,我们来去找个 deep sync, 这样 deep sync 我 们从头到尾复制一下,比如说你的这个 改一下 mini mix 类型,这样子给它加上,这里也要加,相当于就是加一个模型吧,它是可以在那个 mini 画像龙虾这一款。首先先加一个手动画, 我们抄 dips, 这里注意啊,一定要用英文,就是英文字母的逗号,不要用中文的,用中文的不行。 这个叫什么呢?叫什么?那这样子不能怎么配置啊?找个包,找个包。那怎么接入吧, 试一下, 这个是名字,名字是随便啊。嗯,然后这个地址,这个请的地址可以切换成不能接 d c 的, 在这里不知道 v e 就 行了。 这是什么?这是默认,比如说你配置之后,你重启之后它用哪个模型,这里直接默认 d c 嘛?现在可以在这里加一个 这后面的名字,在这里你写啥就是啥, 哦,应该上面这个,上面这个,嗯,这个这个定了一个是 id, 然后写完之后要 ctrl 加 s 保存一下,一定要保存,不保存不生效,好,保存,我们试一下重启一下 旧版的这个是要后面有个 stop, 好 像新版的那个三点八的好像就直接就给了位就可以启动,这个呢?根据自己的实际情况启动一下。 刚才我们只是配置了,有没有发,如果聪明的小伙伴会发现我刚才是没有配置这个 key 的, 没关系啊,我们启动启动。哦,这个没改, 要改成,要改成这个, 这个系统保存再重启一下, 在吗? 哎,看到没有没有配置 key 的 时候,这里就会应该有很多同学会发生会遇到这种情况,不知道是 t 配不对还是什么,反正他就是一直没有回弹,对吧?就是因为没有配置 key。 那 我们再来到这个目录下, 找到这个 adns, 我 们可以先看一下这边的配置,没有电了,默认翻启动,这里没有,然后我们找到这个目录还是这个目录,然后这里有个 adns, 有 个 me, me 里面有个 adns, 在 这里找到这个 models, models, 然后打开 在这里就就是什么呢?在这里就是你之前配呃,所有的这个代理这个模型的这个 t, 这也是 d c 的, 然后 d c 直接叉。这里要讲一下这个跟这个是有区别的,我们去看一下它的官网, 那这个 d c 小 号也挺多,六千多万,然后看官网在这里 他这也说了啊,这其实是两种,一种是这个 duck, 一 种是 resident。 resident 的 话是什么?深度思考,也是说如果你要用来干活,应该是要 face, 如果你只想聊天,那就是这个。 我们选的话,应该是选,应该是选这个,那样去干也是我这边配置的,这样去干不好,不管这个是另外的是什么,来我们看它,我们之前在这里手动加了这个 excel, 然后你保存重启之后呢,我们才会自己在这个窗口去生成对应的 配置。啊,这是我们刚才配的,感觉我们配的错了,因为我们是想当年的,并不是它官网的一个标准的模型的 id, 这才是它生成的官网的标准浏览器。然后这个这个是什么呢?这个应该是它所谓的这个, 那我们刚才那个应该是这个,这个应该就叫应该是这个,那就是对应上了,那也就说我们自己写的这个错了,要换成他的这个,我们过去换一下,直接换一下, 我们这里抄的是这个。 好, ctrl s 保存一下,有些好像 ctrl s 保存它就能生效,试一下能不能生效,在吗?还是不在哦,那就是没生效, 那我们重启一下试一下。 哦,不好意思,忘了,没有生效是肯定的呀,因为 key 还没配,因为 key 还没配,知道吗?刚才我们去保存,其实它是生效的,你看我们之前制定的那个,它已经删掉了,已经没有了,那么理论上我们问它在吗?它肯定是不在的啊, 应该不在。那好,我们应该去配一个 key。 key 在 哪里配呢?在这里有个 model, 这个目录下有个 model, 之后还有一个这个,我们打开它,这里会有一堆配置,我看一下 哦,这个是我之前配过的。那为什么呢?不行, 搞了半天终于找到问题在哪里了,大家一定要注意啊,复制的时候一定要小心,再扫一个 h, 好 吧,再扫一个 h, 保存。 这边不管这边,可能这边这边不用管这边等下子我们重启一下,自己写起来,这里这里的 key, 它到时候也记得写,我们重启一下好了。你看这里这个文档它到时候也记得写,我们重启一下 好了。你看这里这个文档它到时候也记得写,我们重启一下好了。它会不会把那个改掉? 哎?这改过来了吗?它附它,也就是说这个文档跟这个文档都会,可能都会被外面那个实时写进来,重启就会写进来,我们先问一下,应该可以。 嗯,好了,我问一下你现在什么模型 好?检测一下当前所有模型的响应时间。好了,我们看一下, 现在就是可以检测出来当前的这个模型的时间。这个可能有问题 啊,这是第一种啊,就是改这个配置文件的另外一种,其实很简单,你直接就跟他说,跟他说就行了。你直接把那个这个复制下来, 复制这个啊,到这里,然后你就说帮我添加一下 mini man 的默契,然后再把这个这个给他回车,应该就行了。但是在这个操作之前啊,你一定千万千万,你还是得到这里来,先把这个备份一下,这样去搞,如果他搞错了,搞怎么样了?因为他搞错了,他会重启这个网关,重启之后, 如果它重启之后,它切换成默认的是那个 mini max, 万一它没配成功,没配好它就不会跟你兑换了,就像刚才一样,它就不会跟你兑换了,你问什么都不会反应了。这个一定要注意,你可以先先把这个保存了,保存好 出问题了你就把这个删除了,也删掉,然后你再把你刚才这个复制一份,再改成这个名字,再重启完关就恢复到你之前了,这个一定要注意一下。好,今天就讲到这里。
粉丝390获赞2100

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

三千元到十万元大模型家用 pc 硬件方案全解析?上一期社长介绍了纹身视频模型的硬件方案,里边讲了企业或专业工作室的纹身视频模型硬件应该配到什么程度。有不少朋友在评论区留言说,希望社长能够出一期大模型的家用消费级硬件专题, 那么这一期就满足大家专门讲一讲大模型家用消费级的硬件方案。最近 oppo colo 很 火,那什么样的配置能够畅玩 oppo colo 呢?在这一期也有答案。既然是家用消费级方案,也就是个人 pc 方案, 那么 e 五神轿、特斯拉、 v 一 百为代表的老旧服务器显卡就不在今天这一期的讨论范围内了。 ar max、 三九五、 mac mini 的 整机方案由于纹身视频能力弱,也暂时排除在本期之外, 因为毕竟作为家用消费级主机,必然是要兼顾多种需求的,跑跑大模型和智能体,生成一下 ai 视频,做做生产力工作,没事还能打打游戏,甚至新出的三 a 游戏也能尝尝咸淡,这就是本期硬件选型的基本要求。 所以我会尽量选择个人 pc 的 消费级硬件来给大家搭配方案,最低花费三千元,最高花费十万,大家可以根据自己的预算和实际需求,综合考虑自己的硬件配置。 在开始之前呢,先给大家预告一下,在三月十五号,我们会开一期 ar 大 模型私有化部署的小白培训,具体的培训内容在这一期结尾会有展开说明,有兴趣的朋友一定要看到最后。 我们知道,现在的大模型在日常应用上已经分成了上下文推理模型、纹身图或纹身视频模型,这两类不同的模型对于硬件的要求是不一样的,对硬件适应性最广的是上下文推理模型, 它对扩大的要求最低,只要显存达到一定规模,哪怕是好几年前的老旧显卡也仍然可以胜任,这就给了我们家用消费级配置很大的选配空间。 这里要注意的就是如何判断某一推理模型能不能部署,主要是看显卡的显存能不能大于模型的参数,比如三十 b 硬特八的模型对应的就是三百亿参数。按硬特八量化规则,加载到显卡里所需要的显存大约是三十七点五 g, 加上要预留 k v 缓存激活值缓冲区, 因此要运行这个大模型,我们一般是按照模型量化后显存占用的一点二倍计算。那三十币 ink 八模型就需要至少四十五 g 显存的显卡,但众所周知,内存是可以分担显卡的上下文推理模型的加载任务的,比如上面讲到的三十币 ink 八的大模型, 需要四十五 g 的 显存来流畅运行,如果显卡只有十二 g, 剩下的三十三 g 可以 加载到内存中去运行。 当然,因为内存的贷宽远远小于显存的贷宽,如果大部分都让内存来跑的话, tokins 的 速度会大打折扣,所以显存尽量还是要大一些。但对于个人来说,对于效率的要求并没有企业这么高,我相信大多数人是可以接受的,毕竟在性能和成本方面总要找到一个平衡。 纹身视频模型的门槛就要高的多了,他没办法像上下文推理模型那样,显存不够内存来凑,模型必须要全部加载到显卡里。所以如果朋友们想尝试纹身视频模型的话,就要至少满足两条硬杠杠,一是显卡要有 touchcore 支持,二是显卡显存要至少达到十二 g。 为什么呢?我们以 y 二点二为例, y 二点二 t r v 五 b 轻量版模型是一款小型可部署的开源纹身视频模型, 十二 g 以下的显存加载不了这个模型,十二 g 正好能加载,而且能够跑起来。因此呢,显存越大,扩大核心越多,显存待宽越高,视频生成的清晰度、速度、时长就相对更有优势。 于是,基于上面社长针对这两个模型的分析,我们就得出了个人 pc 如果想要同时玩转这两种模型的话,显存要大于等于十二 g。 为保证能够运行纹身视频模型,支持 touchco 的 可选型号为英伟达 rtx 架构的二零系、三零系、四零系、五零系显卡。这样我们就可以定义以下五档家用消费级 pc 的 预算方案了。 第一档,三千元。这一档的核心定位是新手尝鲜,可以进行基础大模型体验加轻度办公加普通网游。具体的配置如下,这套配置的大模型能力是这样的。 第二档,一万元,这一档的核心定位是家用主流,支持中型大模型流畅运行加高效生产地加中高画质三 a。 具体的配置如下, 这里社长推荐了四款显卡,从这一档开始, open club 就 可以畅玩了。下面就贴出这四款显卡结合 open club 加千万最新模型的畅玩区间,供朋友们参考。在这个表格里可以看到,三零九零二十四 g 显卡的性价比相对较高,畅玩范围相对更广。 这四款显卡都能支持纹身视频模型, rtx 五零六零 ti 十六 g 可以 输出七二零 p 二十到三十秒视频片段。 rtx 三零九零二十四 g 可以 输出一零八零 p 六十秒视频片段, rtx 二零八零 ti 二十二 g 和 rtx 三零八零二十 g 可以 输出七二零 p 到一零八零 p 四十到五十秒的视频片段。 第三档,两万元。这一档的核心定位是高阶家用加轻度专业,支持中大型大模型流畅运行,加多模型同时运行,加四 k 游戏加四 k 剪辑、 3 d 渲染。核心配置如下, 这套配置拥有较高的实用性,几乎可以胜任绝大多数主流需求。他的大模型能力是这样的, 第三档说完,接下来的第四档和第五档就进入高端玩家档了,如果只是纯打游戏的话,完全用不到这么高的配置。社长建议大家压抑住所谓一步到位的冲动,先在中低配置上玩熟了,确实有需要了,再上高端配置也不迟。 第四档,五万元。这一档的核心定位是旗舰家用加准专业,支持大型大模型流畅运行,加模型微调加四 k 游戏加专业级生产力。核心配置如下,这套配置的大模型能力是这样的, 第五档,十万元,这一档的核心定位是顶级家用加专业级。社长在这一档破个例直接给他上了英伟达 pro 六千九十六 g 工作站显卡,让他可以支持全类型大模型加大型模型完整训练加四 k 或八 k, 游戏加专业创作,核心配置如下, 这套配置的大模型能力是这样的好,说到这里,五档家用消费级大模型硬件配置推荐就结束了。 最后说说小白模型部署培训的事。最近有不少粉丝朋友跟社长说想要部署大模型,但又不知道怎么开始学起,所以我们打算在三月十五号开一期培训来手把手教小白,零基础上手, 核心内容包含四个板块,一是大模型基础原理与适用场景。二是不同大模型的硬件精准选型。三是本地知识库问答、自动化办公等实用智能体搭建。四是欧门可乐安装配置与私有化部署,有需要的朋友可以联系我哈!

相信大家已经安装好了自己的 openclare, 但是你有没有想过你每一次的 openclare 的 使用都会消耗你的 tokyo, 这个 tokyo 的 话就是需要大家去花钱去买, 那有没有办法能够免费的使用 opencloud? 如果说你也想要免费使用 opencloud 安装 olemma 模型,那一定要点个关注,点个收藏,不然的话你下次就刷不到了。那我们进入正题,我们直接啊百度搜索一下 olemma, 然后在这个右上角位置点击下载, 这边的话选择自己电脑系统,然后点击一下,直接点下载就可以了。 ok, 下载好了之后,我们直接正常安装啊,就会进入到这个页面,然后右下角我们要选择一个模型,正常来说一般是选择这个 gpt 二十 b, 也可以选择千问,三点五千问。 ok, 我 们在这个位置选择好了之后,你发一个消息,你比如说我选一个,我没下载的,我发个一,你发一个消息之后,他就会开始自动下载这个模型。 好,我们直接进行下一步。欧莱玛下载好之后,我们直接通过这个运行安装向导重新把 openclock 跑一遍, 因为之前你们装过 deepseek 的 模型,然后这个配置处理的话,选择更新值, 在这个模型认证供应商这里选择 olemma, 本地本地本地,然后它会有一个模型 id, 例如 deepsea 杠 r 一 比八币,我们再打开你的 olemma, 看一下你的右下角, 就是把这个名字输入进去, 我们用的是这个二十币, 这个的话直接回车就可以了。 这个聊天通道的问题,因为之前已经跟大家讲过了,我们就直接挑过了, 我们把网关打开,等这个 opencloud 的 正常运行。 ok 啊,大家在运用这个 oemma 本地模型的时候,它是不需要花钱的,但是它是基于你电脑来去做的本地模型,那是什么意思呢?就是说它直接消耗的是你电脑的性能, 比如说我们在这个内存 gpu 直接消耗你的电脑性能,比如说你的电脑越好,那它运算速度就会越快,大家这么说能理解吗? 还有就是这个欧莱玛上面的模型,它对应的有一些,比如说它这个二十 b 的 模型,它是 比较推荐八到十六 g 的 这个显存的显卡,然后才去使用,然后有一些是呃,一百 二十币的支持二十四 g 或者三十六 g 的 显存的显卡才能去使用的,也就是说他直接消耗的是你电脑本身的性能。 ok, 如果说大家感兴趣的话,可以自己去装一下试试。

大家用小龙虾用 open curl 的 时候,有没有发现一个问题,它没有办法进行桌面 ui 的 操作,只能在这种浏览器界面进行操作或者收集信息。但是在国内跟国外不一样,比如说各个平台,它的操作都是非常闭塞的,比如说微信,你是没有办法进行操作或者执行的,但是我们的很多工作或者生活都是在微信上面, 你要做的话就完全没办法能够实用下来。所以说今天给大家分享两个项目,一个项目是这个 torx, 也是昨天我已经分享过的,今天给大家实测一下,它这个速度会比较慢啊,直接进行 u u i 操作, 我们直接让它,比如说之前我已经执行过一次,我直接再让它执行一次,它这个速度会非常的慢,因为它是 u i 界面操作的,后面我可能也会做一个开源的项目,看能不能解决这个问题, 把它有些固化的东西,能不能把它做成 r p a 的 方式,它的速度就会快很多。进行录屏操作,然后加 r p a, 加这种 ui agent 的 方式来解决这个问题。 今天就给大家演示一下怎么样能做这样一个,呃,能做 ui 界面操作就行了。再就是还有一个 agent, 我是 用的这个 agent s 啊,它是第三个版本,它在这种 ui 界面操作上面, os word 这个排行榜单,它是定义的水平,所以说我直接用的这个框架来使用的,我刚才用的就是这个框架,因为这个没办法支持这个 windows 的 操作,它是默认使用的这个 mac mac os 的 电脑, 所以说我没有用这个,这个跟这个是没有本质区别的,甚至这个它的商业或者说齐全度会更高,但是它会非常的轻便哈,它就是一个 c o i 的 方式,你可以让 cloud code 把它扒下来,然后写一个脚本,让它能正常执行。然后你再告诉 open curl 五,或者你直接让 open curl 五去先测试一下这个项目能跑通了之后,你再让 open curl 五把这个项目给它打包成一个 skills。 但是它有一些问题,就是我是用的这个 kimi k 二和这个通信千问三点五, 它这个东西还有点 bug, 就是 kimi k 二它是零到一的,这个做了缩放的一个定位,比如说它这个幺零八零乘幺九二这个呃幺九二零的像素,但是它输出的不是具体的像素点,而是一个压缩了的,所以说这里还是有一些坑,大家可以稍微微改一下, 会更加准确啊。这个用 open curl 或者说 cloud code 改可能会更加好一点,然后 给大家看一下,然后你让它打包成 skills, 加载到你的 open curl 里面就可以了。 ok, 我 们来看一下它执行的过程。 ok, 它已经点到这了,还正在输入了已经。它的速度确实是很慢,因为它要有非常多操作,首先它要 去截图了之后点哪一个他也去,点了之后又要截图,又要上传,上传了之后又要看一下是否下一步应该做什么操作。而且他的这个框架或者这两个框架他都是两个模型,一个规划模型,一个执行模型,所以说他速度会慢到离谱。而且我们这个是云端的模型, 一个这样的截图下来大概是一兆多,所以说你上传云端也需要时间,他理解又需要时间,所以说就非常的久。 但是我想了一个这个解决方案啊,用的 r p a 的 方式,后面如果成功的话给大家做开源,大家也可以关注一下。可以关注一下我啊,可以看到他已经发出去了,下面应该他会有回复了,等一会他应该就可以回复了。 其实本质上就是你先把这个骑起来,可以跑了,这个脚本可以跑了之后你就把它放在这个 open curl 里面,然后你让 open curl 去配一下就行了。 那你用 cloud code 去配 open curl 也好,还是用这个 open curl 去配 open curl 也好,两个都是可以的,但是最好有两个把它分开,一个坏了,你还能用另外一个去修复一下。所以说这个东西还是有点问题,可以看到结果已经执行完成,约二点五分钟就发了一个, 呃,给我女朋友发了一个,爱你哦,呵呵,就大概是这样的操作,其实他的这个能力还是非常强哈,他 kimi k 二的这个能力都非常强。在 osword, 他 kimi k 二是拿到了 soata 的 水平的,我们可以看一下他这个评测的能力,他用这个基准 是能达到人类的平均水平的。七十二,如果用现在更好的模型的话,应该是比七十二差不多吧,应该还要少一点,因为他这个是多次实验的,他是另外一个版本,但是是要高于这些其他的一些版本模型的。 但是它是用了两个模型啊,一个是呃规划模型,一个是执行模型。但是像现在 kimi k 二它的性能非常好的情况下,你可以让 cloud code 给你改一下,把它改成统一用一个模型,它就没有办,没有必要去两个模型再错切换了。 还有就是它那个模小的执行模型,它默认使用的本地模型,你统一让它用一个模型就可以了。 ok, 这个就是今天的一个分享。

问你一个问题啊,为什么别人的 open claw 那 么厉害,而我的 open claw 啊,傻的完全没有办法交流啊,背后的原因是啥?以及怎么样去解决这个问题呢?好,接下来一个视频啊,给你讲清楚。那么前面我们说了,龙虾呢,有三大核心组成部分,除了龙虾 本身之外呢,还有大模型以及技能。而在这三个核心里面啊,大模型它充当的是龙虾大脑的时候,那么大概率 一定是你的模型选错了,你模型用的不好,那么整个龙虾就不好用了。好,问题来了啊,那我想让我这个龙虾好用一点,那怎么办呢?那就是使用顶级的大模型啊。好,那问题来了,那我怎么样给我的龙虾去更换大模型呢?接下来一个视频啊,给你讲清楚。好,我们想要给我们的龙虾更换大模型的话, 我们需要知道三个东西啊,第一个 ok, 你 的 api k 啊,你在哪个平台?你的身份标识是啥? api k 就是 你的身份标识, 因为龙虾呢,使用这个模型是要去付费的。好,那么付费的话,我就需要有一个身份标识来标识,张三是张三,李四是李四,这样的话,我才能够成功地去计费嘛,所以我需要有一个 apik, 然后第二个呢,我需要有一个 base url 啊,因为不同的大模型,它的请求的地址是不一样的, 所以这个就是大模型的请求地址,这是大模型的请求密钥。而第三个是谁啊?大模型的名称,因为即使是一家公司的话,他的大模型也是非常多的,那你到底是调这家公司里面的哪个模型, 你要讲清楚的。好,那么接下来呢,给大家去讲一下,怎么样从零到一的给我的龙虾呢?去更换大模型。好,那么首先咱们需要去找到这三个地方啊,通常情况下,不管是哪家平台, 那么它一定是有说明文档的啊,那这时候呢,咱们可以去打开它的说明文档啊,比如说,比如说随便一个平台吧啊,咱们就可以找到了,它里面有啥呀? open ai 兼容模型的这个列表的请求地址 啊,那么这个地址啊, base u l 给大家来说一下,它通常是以 v e 结束的啊,通常是以 v e 结束的,所以, ok, 咱们去调用的时候, base u l 咱们就找到了啊,这个地址有了,那么地址有了之后,接下来呢就是去调用模型了,然后在他们官方里面也给咱们提供了一个接口,然后这个接口呢去访问,你可以得到所有的 模型名称啊,当然因为它们本身是一个集成站,所以在它里面呢,国内的模型和国外的模型都有,比如说 kimi 二点五呀啊, jama 三点一呀啊, gpt 五点四呀啊,包括豆包一点五呀等等等等,还有 cloud 四点六啊,它们家都能用,而且夸张的是啥呀? 它们有套餐,可以让你的成本可控啊,你可以订阅六块九的,你也可以订阅四百九十九的,根据自己的使用情况来选择相应的模型就 ok 了。好, ok, 那 这时候我就得到了贝斯 u l 了,以及 它的模型名称了,那么第三个是啥呀?第三个是我的 api k 啊,那这时候咱们就去访问后台,在后台里面有一个 api k 啊,这时候呢? ok, 我 可以新建一个 api k 啊,比如说这儿呢,我就新建一个 test 啊,然后点击创建。 ok, 那 这时候 api k 就 有了啊,这个时候咱们三个东西都有了情况下啊,当然所有平台都是一样的,所有平台你就去找这三个东西就行了。 找到这三个东西之后呢,接下来咱们就去对接一下最新的 gpt, 五点四。好, ok, 那 这时候啊,怎么样去对接呀?不管你是 windows 电脑还是 macos, 苹果电脑都是一样的,那么 windows 电脑呢?你就点击视窗键, 然后 cmd 啊,打开你的命令行提示符,如果你是苹果电脑的话,在应用里面去找到终端啊,都是黑色的窗体,然后点击它就行了,然后点击它之后呢? ok, 接下来输入一行这样的一个命令, open cloud configure, 然后输完之后敲回车啊,敲完回车之后呢,咱们选择当前本地的配置,然后确定, 然后在里面去选择 model, 因为接下来我要去更换我的模型嘛,所以点击 model, 然后在这个 model 里面呢? ok, 如果你直接是比如说,哎,我就去对接 kimi, 那 你就去选择 kimi 就 行了啊,但是如果我对接这个平台在这里面没有怎么办? ok, 它底下会有一个自定义模型, 所以你不管是哪个平台,你只要拿到刚才那三个东西,咱们都可以通过自定义的这种配置来进行设置了。好,那刚才那个平台它没有内置啊,那我这时候呢,我就选择自定义的厂商啊,因为它符合 open ai 协议的好。敲回车,然后 敲完回车之后,它要你干嘛?输入 base url, 然后 base url, 刚才咱们找到了呀,啊?它在哪啊?它在这儿,对吧?啊?这个 base url, 它是唯一结束的,大家注意啊,唯一结束了,所以咱们复制这个地址。 好,然后回到咱们这边把它原来带的这个东西呢地址呢?给它删除掉啊?粘贴是吧?好,敲回车,备注 u l 有 了,然后接下来输入啥呀? api k。 好, 输入 api k, api k 是 啥呀?刚才咱们登录到后台,这个 api k 复制啊,然后这时候呢给它粘贴,然后粘贴完了之后呢?哎,敲回车, 传回车之后呢? ok, 你 要去选择协议,那我的这个协议呢,就是 open ai 的 协议,所以我选择第一个 open ai 啊,敲回车,然后这时候他让你输入啥呀? model id, 然后 model id 的 话,刚才咱们从这儿哎得到了所有这个 model 啊,我千万三三点五 plus 啊,然后这些都能用的,那我使用啥呀?这一批题四 啊,我使用顶级的大模型,那它的能力一定是最强的。好,那这时候, ok, 咱们去选择啊,这时候不要胡输啊,一定是平台给你提供的这个 id, 不要自己去输入复制,然后粘贴啊,粘贴完之后呢?敲回车啊,敲完回车,这时候他就该干嘛了?去验证你这些信息到底是不是对的?好,验证完之后他告诉你, ok, 我 可以连接成功,到这,你已经成功百分之八十了啊。好,然后这时候呢,他让你去起一个名字啊,给他起个名字,那默认的这个就可以, 不需要去改的啊,这时候咱们去敲回车就可以了,敲完回车之后呢,它需要有一个别名,是吧?啊,那么这个别名呢?咱们就叫做啊有 club。 好, 完了,配置完了啊,配置完了之后呢,咱们继续啊,这时候咱们重启一下咱们的服务就 ok 了啊,配置完之后, ok, 使用 open club 然后 get 位啊,你如果之前你的服务是启动的,这块使用 restart, 如果你之前已经把它关了,所以我这呢 open club get 位就行了。好, 敲回车啊,敲完回车之后呢,咱们问一下大模型,测一下,看它是不是 gpt 五点四啊?好, ok, 那 我设置完了之后呢?哎,我来到网页那边打开我的 龙虾啊,当然龙虾我没有升级版本,现在版本又发布新版本了,那我就问他,我给你更换了新的大模型,告诉我你是什么大模型。好,然后完了之后呢?点击 send, 咱们来看一下它的回复啊。好,那么经过了一段时间之后呢,它告诉我了它是啥呀? gpt 五点四。好,那到这咱们的模型就更换成功了。 所以呢,最后咱们去总结一下,不管你是哪个平台,咱们只要能找到这三个地址之后,然后使用命令的方式,就可以在不改代码的情况下自己来更换大模型了。我是磊哥,每天分享一个干货内容。

家人们,我最近在电脑上配了一个本地的大模型,只需要三个命令,一个是下载, 下载了之后,然后看有没有下成功,下成功了之后就能看见它的版本号,然后绕一下就行了。然后我发现我现在是用的千万三,然后千万二,然后我发二点五, 然后我发现它这个响应速度特别快,我给大家看一下啊,我让它背一下唐诗三百,唐诗三百首 你看没?它这个速度一点都不比那个联网的那个需要用 tok 的 那些。呃, 大模型慢,他非常快,非常快,我觉得有点不可思议了,大家可以去尝试一下不属本地的这个大模型,大家可以玩一下。

哎,好的好的,大家好,我们今天手动来带大家从零到一部署在自己电脑上面部署一下最近火爆全网的这个 cloud bot 啊,现在已经改名叫 opencloud, 我 们从零开始,首先我们去 opencloud ai 这个官网,然后往下滑,它有一个 one liner 的 这个 quick start, 非常简单,你只要在复制这个代码,然后开一个命令行,然后把它黏贴进去, 它就会自动去安装这个 opencall, 它会去检测联盟装着 homebrew, nojs 和 git 啊,如果没有的话呢,它会帮你去安装,我这边已经有了,所以它自动开始在安装这个 opencall。 好 的,安装完毕,安装完毕的话,它会自动会进入这个 onboarding 的 这么一个流程啊,它也是非常人性化。首先让你先来先签个协议啊,说这个很 powerful, 但也很 risky 啊。我知道了, onboarding mode, 我 们选 quick start。 然后第一步呢,是我们要接一个模型啊,在后端的模型,它虽然就 open call, 它只是一个中间层吧,你后端的模型还是需要用自己的 a p i 的。 之前呢是我我尝试使用这个 cloud code 的 订阅,可以接入这个 open call, 但是前段时间 cloud code 把它给封了,所以现在就必须只能调用 a p i, 所以美国的模型 api 太贵了,所以我们这里选择支持一下国产。我们使用 kimi 的 模型啊, moonshot ai, 然后 kimi 最近也是浪潮了,自己的这个 kimi k two 呃,二点五的这么一个模型啊,能力上据说是跟 opps 四点五非常相像啊,也是很厉害,然后价格可能只有十分之一,所以我们来体验一下,所以我们这里选 moonshot ai, 月色暗面, 然后把我们之前复制好的一个 api key 给复制进去, create a api key, 然后我们选择一个模型,我们就选 kimi k 二点五。然后呢,我们在这里选的是 在第二步呢,是选这个 channel, 就是 call bot, 呃, open call, 它是可以让你用过用你的这个即时聊天软件,然后来调用它的啊,这里就会去配置一下这个即时聊天软件。我在这里选的是,呃, whatsapp, 然后我们来看一下 whatsapp 怎么 link 啊,它会给你二维码,然后我们要拿 whatsapp 扫一下二维码。 好,我们拿这个 whatsapp 刚刚扫了一下这上面的二维码,然后,呃,现在是可以去继续去设置一下详细的配置。 whatsapp, 它里面有一些 phone, 呃,这个是 phone setup 啊, separate phone just for open call。 我 选择用一个单独的电话号码在 whatsapp 里面,然后这里使用,选择 recommended power mode allow form。 说实话不是很知道是干嘛了。嗯,选择 default 好 了,然后下一步呢,是 configure 这个一些技能啊,这里我先不 configure, 但是我们看一下, 呃,这个 open call 它有哪些技能啊?这些技能本质上来说就是它到底能做哪些事情,你可以看它这里有非常多的集成的这个 integration, 就 你的密钥,密钥管理系统 word 是 可以用来发这个 twitter 的, 然后 bear nose 是 可以用来这个记笔记的一些东西,然后有非常非常多的这个,还有什么 g u g 这种 就是 gmail 啊什么的,非常非常多 open ai 啊什么的很多啊,我们这里今天先不配置了,然后回过头也可以再配置,到时候会问你一些问题,要不要这些 a p i key 有 多选? no no, 如果到时候需要的话呢,可以再单独回过头来配置 好。然后最后一步呢,是这个 hook 啊,自动的这个操作,然后它可以在某些特定的环境下面被触发,然后帮你操作。比如说它这里有一个 session memory 的 这个 hook, 就是说它可以在每个赛季结束的时候呢,自动把赛季的这个你们聊天对话记录呢,保存到他们的这个长期的这个 memory 当中。这里我觉得还是开一下比较好,因为 open call 它是自带这种长期 memory 的 功能的,然后如果每每每一次跟他对话,它会更新长期 memory 的 话,你会发现这个 open call 越用越聪明。 好,然后这些都是系统自带的,我就都开了,然后都开了,然后去设置 gateway, gateway 就是 说是呃呃,如如何去开这个?开个关口,然后让可以让这个你在 whatsapp 里面发送的消息被传递到这个电脑上的 open call 里面。这里我之前已经装过了,所以我们在这里的话就是 reinstall 一下。 好,我们这里的 git 已经装好了,我们现在有有有方法去 hack。 我 的 bug 就是 初设啊,初设的话我们可以推荐是走这个 t u i, 也就是它自己会开一个网页,然后这有一个链接好,然后可以尝试发个消息 啊,很可惜啊,消息没有发成功,我要来 debug 一下。哎,好的,刚刚发现是因为自己的那个 kimi 账号没有充钱啊,现在充了钱就变强了啊,我们现在已经可以 跟他对话了,然后我们在终端呢,可以输入这个 open opencloud dashboard, 然后呢我们来重新进进入这个网页的 ui 啊,然后这里呢我跟他说了个嗨,然后他现在会介绍一下自己可以干哪些事情啊?怎么怎么样,怎么怎么样都是英文啊,太,太烦了,我看他看中文那里边啊, 好,他现在等于说一开始的对话呢,他会让你去呃设置一下他的名字是什么,然后怎么称呼我,然后他是干嘛的?嗯,然后同时呢我们我来就展示一下这个我们这个 whatsapp 的 这个能力啊,就你看我们这边, 嗯,其实 whatsapp 上面是可以给大家直接发消息的,然后在这里的所有的信息呢,我们也都可以在 whatsapp 里面跟他呃聊天,然后他就只要你的这个网关是上线的,他就是可以呃去跑的。 那么今天视频就到这里呢,我们就简单的装一下 cloud bot, 未来的话我们也会在这里继续更新一下 cloud bot 到底能在呃能对我的工作流程带来多大的影响啊?期待可以创造更好的内容给大家,谢谢。

最近 oppo pro 爆火,很多人想用 a p i, 但又不想花钱买套餐,分享一个英伟达免费 a p i, 零成本就能用。首先打开官网, b o l d, 点 amazia 点 com, 没有账号的用邮箱注册一下,英伟达的网站很卡,实际注册没有这么流畅, 每一步都要等好久。这里选不选都可以,接着随便填个称呼提交,接着点右上角印证手机一个号只能绑一次。接着在首页找到更多模型,进去选择 epi 分 类,再筛选你想要的大模型。这个网站加载有点慢,耐心等一下就行。找到合适的模型,点进去, 点击右上角查看代码,把这三个关键信息复制出来。 base 模型 id 生成的 a p i t, 点击这里生成 a p i t, 然后复制下来。有了这三组数据,直接填进 open call, 就 能免费用上英伟达大模型了。想试水不想花钱的赶紧去试试!

哈喽,大家好,其实我们都知道 openclaw 这个项目的话,它确实已经火到非常离谱的一个程度,你可以在这个 gamehouse 上面看到 openclaw 这个项目 star 是 已经飙升到两百九十八 k 的 一个恐怖数值, 所以这期视频想带大家去了解一下,就是 openclaw 的 一个安装,这里这期视频的话,我 嗯采用的是腾讯云服务器的一个安装方式,后续的话我也会出一期关于 linux 系统或者是 windows 系统下的一个 open core 的 安装的一个教程。 这里首先的话如果需要使用 open core 的 话,其实也非常方便,我们可以进到这个腾讯云的一个关于官网, 他这边的话是有对应的 oppo 云端一键秒级部署的一个一个这边是已经给你搭建了一个秒级部署一个接口,然后你在这边点击部署,他这边需要你购买一个新料级的应用服务器, 如果是新用户可以在下面购买他的一些。就这边腾讯云的话,他下面他也有一些像比较便宜的一些 gpu 的, 像一些比较便宜的服务器, 比如说像这里经常点用服务器四 g 四合的一个 sim 活动价是三十八块钱,大家可能需要自己去手动抢这样子, 然后买好服务器之后的话,然后就可以直接进入到服务器这里话我先遮住一下,然后点击右上角,这里话可以重装系统,然后再重装系统,可以直接点击使用应用模板这里, 然后我们可以看到这个应用模板,他这边的话已经啊有自带这个 open call 一个龙虾的一个应用的一个现象,所以就像我们直接通过对应的一个密码,这里话, 嗯,我们就随便输一个,然后输好密码之后,我们可以直接点击直接重装, 如果是新系统的话,呃,不需要重装,直接呃安装,点击对应的应用模板,然后安装 open call 的 就可以,然后点击确定,然后这边扫码,然后这边等待一下,等待一下他的一个重装,重装成功之后的话,我们可以去访问一下我们的一个 open call 的 一个服务器, 我们可以登录一下。好,我们回到刚刚这个界面这里,然后点击这里管理实力,然后可以在这里应用管理这里,然后可以看到这边的话有一些通道。像这个腾讯云的话,它的一个 open call 的 话,它是支持 qq、 结微信、叮叮、飞书 等等,但是像结微信或者是飞书叮叮的话,它需要你有一个管理员的一个权限的一个账号,所以这里话 你可以先配置他对应的一个 a p i, 这里话我用的是他的一个我定的是自己火山眼前的方舟 call 订单的一个计划, 所以话这里话直接到对应的一个方舟平台上去输入对应的一个,获取他的一个 a p i。 ok, 然后我们可以点击快速录制,查看一下这边添加变应用, ok, 然后模型切换成配置成功,然后这边的话我们可以在这个通道这边我们可以给他配置一个钉钉,钉钉应用这里话同样的我们也可以进入到钉钉的一个管理员的一个后台 应用开发, ok, 然后点击创建应用,点击创建应用,比如说 vlog 助手, openlog, 腾讯云助手可以保存,然后选择对最后一个机器人,然后机器人配置 openlog 的 一个图标, 腾讯云 opencloud 的 助手随便给他一个图片吧,然后我们可以将它发布,然后 ok, 然后回到我们刚刚页面,点击这上面,然后我们可以看到对应的一个凭证信息, i n n d 跟 i n screen 的, 我们把这边复制到我们前面的一个这边去,然后添加并应用好, ok, 然后这边的话我们已经把 a t i 词对那个 channel 渠道我们就已经添加完成了。之后呢我们要使用的话,可以直接在这边 在钉钉上搜索对应的一个机器人,就可以直接使用,然后的话这边的话可以直接在钉钉上上面的最上面的一个搜索框,搜索你对应的一个机器人那个名称,比如说像我们刚刚定义的这个 机器人的一个名称是叫做 cloud cloud 的 助手,然后你就搜索对应的一个 cloud 助手,然后就可以找到你的机器人,然后你就可以直接跟他对话,然后出场的过程中需要给他取一个名字,然后并且定他的一个个性,还有你需要 定义让他帮你做什么事情,然后本期视频的话就到此结束,欢迎大家如果有疑问的话可以在评论区留言。

今天我要做的是在腾讯云上把 oppo pro 接入企业微信的一个视频,虽然网上 oppo pro 的 安装教程已经很多,但是我还是希望以一个零基础普通人的角度介绍一下安装过程, 相信看完后你也一定可以轻松搞定。先看下准备工作,主要有两块,一块是企业微信机器人的配置,一块是大模型的接入,这两块后期配置 oppo pro 都要用到,需要提前准备好。 来到企业微信官邸,首先要完成以企业身份或者团体身份的企业微信注册,这里不过多赘述。注册完成后,点击安全与管理下的管理工具,点击最上面的智能机器人,依次选择创建机器人,手工创建,右侧拉到最下面,点击 e p i 模式创建, 随便给机器人起个名,添加可见范围。选管理员 api 配置,选择长连接方式,这里可以看到 bot id 和点击获取后的 secret, 记住这两串字母。 这次我用的大模型是千万大模型,注册阿里源百炼后,如果是国内用就选择北京,然后选择左侧最下面的密钥管理,然后点击创建 e p i p, 打开 open core ui 的 控制台,选择左侧的配置,然后选择 models, 选择 raw, 将 model 和 agent 部分选中后删除, 替换成这段代码,记得将其中的 api key 替换成刚刚生成的亲吻大模型的,然后点击 save 保存,回到左侧,点聊天给 open core 发句话,如果他回复了,说明已经跟大模型接通。 下面回到腾讯云平台,先执行命令,更新企业微信的插件的最新版本,安装成功后重启 open call, 然后执行命令添加渠道,这里选择企业微信,然后按照指导依次输入刚才创建的企业 a 信, but id 和 secret, 这里选择 finished 配对方式,选择 parent, 然后选择默认,最后可以看到渠道配置成功并重启 open call, 回到企业微信,添加智能机器人跟他对话,他会回复一条信息,复制最下面一条命令,回到腾讯云平台,直接粘贴 配对完成。至此,恭喜你的企业 a 信龙虾机器人正式上线。 我已经把操作过程整理成文档,像我一样没有开发基础又想体验 open call 的 朋友,欢迎可以加我获取。

近期 openclub 很 火,那么今天给大家分享一期 openclub 本地一键部署,无需繁琐的导出文件,查找资料,所有流程简单易上手,下面直接开始教程。首先我们需要下载一下工具,准备一个汽油加速器,在右上角图标打开口令,输入绿泡泡, 先白嫖一波免费时长,然后搜索 openclub 进行加速,加速完成后点击这个一键部署。 首先我们将这两个路径分别找个自己好找的位置,新建文件夹,文件夹名称不要带有中文,避免报错哈。选择好存放位置后,勾选协议,点击一键部署这里我们需要等待一会, 然后到了这个配置界面,我们需要授权千问的模型,我们点击这里开始极速配置,进入后选择免费授权,然后进入千问授权页,选择注册,使用邮箱注册一个千问账号, 然后我们在邮箱中进行验证一下,验证完成后返回网页,点击重试就授权成功了。授权成功后我们返回其由部署工具, 我们刷新一下,等待本地状态恢复健康后,点击开始对话就可以了。整个流程相对简单易懂,如果需要卸载的话,找到最初建立的两个新文件夹删除就可以了。视频到这也就结束了,有帮助的话记得点赞支持一下。

大家好,今天分享一下另一个 open cloud 的 安装方法,也是官方的,如果你之前那个视频安装没有成功,那你可以试一下这个方法,它的安装流程不一样啊,但是殊途同归,最后都是安装 open cloud。 还有一个注意的就是你不要在你的生产力电脑 上面去安这个东西啊,找一台没有用的闲置的电脑。其实 open cloud 这个东西本身要求机器配置并不高,随便一台苹果电脑, windows 电脑都可以装,它占内存才占了不到四百兆,占内存很小。然后对电脑的配置要求没有什么,几乎可以说没什么要求, 随便一台电脑都能装,要求配置高的是那个大模型,就是本地安装大模型,那个要求配置高。那你如果是学习目的,你完全可以用线上的先去试用一下, 知道这个东西是怎么回事,就是满足一下自己对 ai 的 一个探索好奇心。那在这个 openclaw 官网上, quickstarter 你 可以发现其实有好几个按钮啊。第一个是我们之前介绍的安装,如果你头一个遇到问题, 你可以试一下这个,这两个的安装方式是不一样的,那这个视频就分享一下这个。第二个是怎么安装的。另外后边还有一个 macos, 这个这个下载下来是一个 macos 的 安装包啊,但是它并不是这个 openclaw 小 龙虾本身它 它是一个,你可以看到它上面介绍,它是一个 menu bar, 就是 一个有图形界面的一个管理工具,可以显示小龙虾的状态,可以连接多个龙虾。你安装好这个小龙虾之后呢,你可以按一下这个下载一下,用 bing 搜索 note j s 中文网, 然后点这个新版下载页。这里要注意一下,这是选择 note g s 的 安装包版本啊,我尝试成功的是二十二点二,二点一 l t s 这个版本啊,选好之后往下拉,底下有一个麦克 s 安装程序,点 p k g, 这就是安装包,你下载它就可以了, 然后双击安装包,就是一个常规的安装程序啊。点同意继续下一步就可以了,中间会弹出一个让你输麦克 s 登录密码, ok, 就 很容易就安完了。 要验证有没有按成功啊,直接用终端直接敲 note 空格杠杠 word, 然后会显示版本号,显示版本号就说明按成功了。然后来到 open call 官网,点这个 npm 标签页,把这条命令复制一下, 接着在麦克 s 终端里粘贴一下,前面加上 s u d o, 他 让你输密码,就是麦克 s 的 当前用户登录密码,输密码的时候不会有任何输入反馈,输完回车就可以接下来就安装了。这个方法的好处就是不用在线下载那个 homebrew 和 node js 啊。 之前那个方法很多人就是卡在了在线下载 homebrew 和 node js 这两个上边,这里的 node js 也是,之前你在 node js 官网把那个安装包下载下来,已经是安装好了的,所以 安 openclaw 的 时候,它不会再去下载这些东西。服务器都在国外,所以要尽量少下东西,这样成功率会高一些。但是 openclaw 本身依然还要在线下载安装啊,所以呢,依然需要等待,要耐心等待。我大概用国内的网络, 呃,安了有二十分钟左右吧,二十分钟他就下载好了。安装完之后他会有提示让你去更新 n p m 的 版本。啊,这个不用理他。 然后你用 which openclaw 这个命令,可以查看 openclaw 实际安装的位置。重点来了,你输入 openclaw onboard, 然后你就会看见之前我们那个视频的配置向导。 ok, 那 你现在看这个界面是不是很眼熟?这就是之前那个视频的那个配置向导。你现在去看之前那个视频就可以了。 ok, 这就是今天的视频,我们下个视频见。拜拜。

大家好,我是炎陵,对于群里很多朋友私信我关于 open clone 模型配置的问题,我这边做了一个完整的配置教程,解决他家配置上的烦恼。先介绍一下我们大格力用到的几个大模型,第一个是 mini max 二点五, 智普的 gm 五跟 kimi 二点五,还有最新出的前文三点五。关于 open core 的 一个模型选择,主要就是看它一个视觉推理能力,还有思考能力,以及它的一个长文本处理能力,这些模型的所有数据都可以在这边看到。 这里我们以轨迹流动为例,演示第一种配置方式,让我们切到沃邦图 openclo 页面,然后输入 openclo config, 进入配置页面回车确认,然后再确认,然后选择第二个模型设置, 然后方向键下拉到倒数第二个自定义 api 设置, 然后打开我们的文档,把这一串网址复制进去,回车再回车,然后输入我们轨迹流动新建的 api 密钥, 选择 open ai 接口,再输入我们要使用的模型 哦,回车确认,然后这边它需要一个验证的时间,可以看到这里验证成功。在这边输入我们选择模型的名字,然后回车确认,然后选择 content, 我 们再输入 open curl config, 你 就可以看到我们选择的模型在这边会显示了,然后我们测试一下, ok, 这样就配置成功了。轨迹流动这个平台它有很多模型可供你选择,也有很多羊毛可以薅的,比如它的认证会送你代金券,还有其他的一些送代金券的活动。 刚刚说的是平台配置模型的一个方式,我们再说一下模型本身网站的一个 api 的 配置方式,这里以智普 ai 演示一下,登录我们智普的网页,然后在这边添加一个新的 api 命令,复制一下, 然后跟之前一样输入 open clone com 格,进入配置页面选择模型,在这边跟之前不同的是, open clone 里面本身有设置字谱的,然后你只要选择 cd n, 然后输入 api 密钥就行了。 还有最后一种配置,关于阿里百联的配置方式,打开 open curl, 执行这串命令,执行文档,后面的操作就 ok 了,所有的模型链接地址我都放进了我的文档和它们的配置方式,你在里面都可以轻松的找到, 希望可以帮助到大家,也希望大家可以一键上联支持一下博主。好了,那我们下期再见。

看好了朋友们,爆火拳王的 open club 开源 ai 大 模型官方正版,直到现在呢,还有很多人不知道怎么去下载,接下来我给大家出一个教程,苹果安卓都是可以的哈。首先点击我视频下方分享复制链接,然后打开手机自带商城,搜索这个软件,下载后打开它, 点击允许粘贴,这里会自动跳出一个口令,咱们点击立即查看,或者说在输入框打字,输入万事吉祥,然后点上方搜全网在万事吉祥里的软件资源,我们找到 openclock, 点击进去,在下方保存下载安装就好啦。

今天是 opencode 的 第十二堂课,本地的模型配置嫌太复杂, api 调用的模型嫌太贵,今天我给大家分享免费调用的多款顶级的模型,这个就是英伟达这个官网提供的这样一个 免费的服务啊,大家可以去薅羊毛。首先要进入这个恩伟达的官网,就 build 点恩伟达点 com 点这个首页的模型, 你可以看到这里面有很多个顶级的模型,比如说精华指望的 g l m 五,还有这个 mini max, 大家第一步先要去进行这个登录啊,这个登录其实也就是正常的注册啊,没啥可掩饰的,注册完了以后,大家右上角有个 api key, 点了以后,你要生成一个 apikey 啊,比如说这个根股啊,就是随随便选一个,他就生成了一个这个 apikey, 然后你把它复制出来,复制出来我,我这里已经有了一个啊,这有,有了这个,呃,然后呢?再把它回回到前面的这个模型, 选一个你想要的模型啊,这里推荐是用迷你麦克斯,你也可以用千问的,然后点击它,点击这个模型, 点击这个模型以后,呃,你要去配置文件进行修改啊,这个就是,呃,这个我也是扣的啊,你需要打开这样一个,在你的加目录里面有一个这个这样一个文件啊,就是叫这个 open 点 open 扣的一个一个目录给大家看一下, 比如说我 cd 加目录点 open core, 哎,它这里面有一个叫 open core 点 jason 的 一个,你把它打开,把这一段把它粘过去那个 base url 和这个 api key, api key 就 刚刚你你你那个 这里的刚刚右上角这个啊,现在很卡,现在很卡,然后它好处是第一个它不需要魔法上网,第二个的话这里暂时是无限免费的,这个就是它的贝斯 u l, 可以 看一下,把它敲出来。贝斯 u l 第二个就是 api key a p i k 就是 这个 mini max, 这个然后弄好了以后,其实你可以重启路由了,重启路由了以后你可以试试看啊,可以试试看,我刚刚已经重启路由了,重启路由了以后,呃,我刚刚让它切换了这样一个 mini max 啊,这没问题的,大家,那大家配置这个, 呃, config 的 这个文件的时候,大家一定要在这个地方,也就是在 a 键词里面要把它加进去,就是这个地方 mod 是 一定要加入这个白名单,如果不加的话,这行它默认的是没有的,默认的是没有的,你如果不加的话,它就一定切换不过来,那不要以为在这个地方配置好了就是, 呃,就高枕无忧了。嗯,所以说这个地方是一个坑啊,这个地方是一个坑。嗯,然后切换了以后,你就可以用那个英伟达的这样一个 mini max 进行无限制用了它,它,我感觉它还是很卡, 可能是因为免费的东西也就这样了吧。对,然后大家切换到 mini max 以后就可以去尝试使用啊,这块是不需要钱的,因为因为打战时这个所有的模型都是免费的,那大家可以把它切切过去玩一玩啊,这么多模型啊,这个,这个也是不错的,还有这个叶子暗面二点五也非常好啊,所以说大家还是尽可能去薅他的羊毛。

装这个 open crawl 我 整整花了一天时间,其实这个大龙虾刚刚出的时候我就已经了解到了,但是我觉得它的权限给的太高了,我有点害怕,所以我就没有去装,但前段时间它又突然爆火,于是我就买了这个 mac mini。 其实它还是给我比较大的一个震撼, 因为传统的 ai, 像豆包这些都是我和他对话,然后他我给他,他返回给我,只是一些文字或者是图片上面的载体, 但这一次的话是完全不一样的,当你搭建了他之后,你给他输入一些命令,他可以帮你操作整个电脑,但是前提是需要花很多的 talking 去训练他。最开始的时候他是不能说话的,然后我给他发发消息,我跟他说我想 想听到你说给我播报天气预报,现在我只要一个命令,他就可以给我播报我当地的天气情况,我觉得这个是一个非常不可思议的事情, 虽然你你们可能会觉得很简单,但是他一开始是没有这个功能的,他是通过我说的语言,然后他去自己去寻找解决方案, 最终完成了这个功能。所以我觉得还是挺震惊的。比如说我今天还想让他外置一个摄像头监看我整个办公室, 他说他好像是可以办到的,但是我暂时还没有去尝试。所以就是只要你的想法够多,然后你长期的去训练他的话,他真正的可以变成 你的 ai 助理,就是关于电脑方面,还有你手机方面的一个 ai 助理,但是这个配置起来确实需要花很多的。 tokin, 就是 tokin 对 我来说的话就是说 你去驱动这个 ai, 驱动这个龙虾,你就必须要有 tokin, 而怎么来的呢?花钱来的,你就需要去去买大模型,就譬如我现在用的是 mini max, 然后加上飞书去接入的, 我现在只要每一次在飞书和他说啊,我想怎么样,我想做什么,他都会花头肯,然后自己去寻找解决方案。 虽然现在我才刚刚打点,他非常的不智能,有的时候他会说错话,他也不能及时的去查找一些资料,但是经过我多次的长时间的一个训练,他确实变得越来越聪明了, 但这个前提是需要花时间和 talking。 其实现在有很多人都很着急,他没有去部署龙虾,他看到了这个新闻,这个消息他很着急,他觉得没有赶上这一波风口。其实我想说的是,你不用这么着急,因为我们现在刚出来这个 open crop, 这个龙虾它非常的难以配置, 等一段时间吧,可能一周或者现在就已经可以了,你直接一个软件,他就可以帮你自动配置了。但其实中间的安全漏洞是非常多的,你既然给他那么多权限的话,如果你一不小心说错一句话,他可能把你的文件就删掉了,或者是把你的电脑怎么样,都是非常有可能的。所以我才会 单独买个 mac mini 去配置整个环境。像现在我已经搭建成功了,但是这是我第五次,它是第五次重生了,因为中途我有输错过命令,我想改一些配置,最后改不回来,然后整个它就无法连接了。所以其实 对于我来说它是需要一个摸索的过程,像这个 open core 到后期我觉得它一定会替代很多的工作, 因为它现在是可以通过 ai 去完成现实世界的交互了。是,我觉得是一件非常可怕又非常让人兴奋的事情,如果你也对 opencloud 小 龙虾感兴趣的话,可以关注我。