展示一下,就是我在我这台 macbook 部署了本地龙虾,并且在这一个 lm studio 的 这一个框架里面去运行大模型,随便运行的一个本地的模型,就是一个 英伟达的 nano 四 b 的 模型,非常的有意思,因为它很小,在我电脑上面运行的话没有太大的负担。 这个 lm studio 开了本地模式,应该是这里看设置这个位置,开发者开了这一个 llm 服务,就是已经对接好了,我电脑也装了龙虾了,就是 openclore 已经部署好了, 在这里面也可以跟龙虾交流。我想展示的是在这哎,已经也不输在苹果端的微信了,就是已经绑定了微信的 clawbot, 你 来一段自我介绍好吗? 就直接发给他,之后就直接在这里面可以看到他运行的过程,是可以显示的,就这个位置,就这里他就在跑, 只不过回复的有点慢,可以看到发了这么久,哎,现在来了。那就说作为 opencloud 的 平台什么助手。那你帮我拼一下百度吧,看看能不能拼通。 很明显这个识别不准,对方正在输入, 太慢了,还是得对接那种 a p i 接口才会快, 那样可能也和我这个电脑是有关系,百度点 com 看看他会不会。其实部署本地话也只是拿来玩一下,毕竟硬件的水平有限, 体验比较差,只是玩一下就是这样子。这是可以回复,但是可能是这个模型太差了,只有四 b 的 这个模型 运行的话都不怎么烫。我之前运行的是阿里的三点五九 b 的 模型,也可以用它大概有六 g 多就聪明多了,但是非常的发烫,就这个位置, 现在呢,我就运行了这一个比较简单的四 b 的 模型,它占用的内存不高,但是呢它的能力也有限, 回复的非常的慢,有兴趣的话可以去大件,就是基于 lm studio 来部署本地模型。然后呢,又部署龙虾,如果能用 macdong, macdong 它是统一内存版本的,它可以内存可以当显出来用,正常的话 用 mac, 我 觉得优化是比较好的,比 windows 运行这些模型的话,比 windows 体验真的好很多,而且也比较省心一点,比较容易就可以达到一个比较理想的效果。好了,那本期视频就到这里了,我们下期再见, see you guys。
粉丝3823获赞5.3万

哈喽,我是小豆子,今天是我的 open club 踩坑系列的第八节,这节主要是给大家分享我在小龙虾看图的这个点上踩过的各种坑,以及我当前相对稳定的一个解决方案。首先还是给大家简单科普一下我们日常听到的模型,大部分其实是以文本模型为主, 就是说这一类模型它本身其实只能够去理解文本类的输入,除非是像专门的视觉模型或者说多模态模型,它自身才能够直接去理解图片或者说视频。 那我们平时在用豆包或者说切的 gpt, 可以 直接发图给 ai, 更多的时候是这些产品的供应商,他在出厂的时候就通过工程化的方式给模型内置了像图片理解,还有搜索的这些额外的能力。那像小龙虾的话,它只是一个工具, 所以它是有很多的能力是需要我们后续去配置的,所以第一种方式就是你直接去配一个视觉模型。但是因为小龙虾它其实目前只能支持配置一个主模型,而主模型我们又需要它足够的聪明,有足够的推理判断能力,那一般的视觉模型是达不到我们的要求的,所以我们往往是 配一个聪明的主模型,再去用其他方式来实现他的视觉理解能力。我在一开始的时候是配置了一个能力比较强的主模型,然后又额外接了轨迹流动的 api key, 让小龙虾去配置了一个视觉模型。这条通路其实是可以通的, 但是在使用的过程中我就发现很不稳定,经常是今天能用,明天就不能用了,那这样子的情况下,特别是当我遇到了一些故障有问题的时候,我经常是需要截图发给 ai 去诊断的, 他直接说他看不到还好,关键是他有的时候会自己去脑补,绕说八道一通,这一点就非常的可恨。总的来说,我在过去的一个多月里面并没有找到一个非常好的方式去解决这个问题,获得一个稳定的理想的图片理解能力。刚好我最近我之前的那个 cookie plan 套餐到期了,于是我就 更换成了 mini max 他 们家的这个。这里边主要是大家可以看到,除了常规的这种模型次数的调用之外,他还专门提到了支持图像理解和联网搜索。 mcp 官方的话也提供了一个说明,就说它的 mcp 里面有这个 web search 搜索的能力,还有这个图片理解的能力。那 web search 我 们上一节讲过,你要么就是自己去配置一个呃额外的搜索的 api king, 如果是你现在买了 mini max 的 套餐的话,你就可以不用你之前的那个路径了,你就可以直接调它的 mcp 的 这个能力。 但是我照着官方的这个操作说明配置下来其实并没有生效。那我最后实际上是让小龙虾自己写了一个脚本,通过 api 直接连接 minimax, 它的这个 a r m 就是 视觉能力的接口去实现图片理解的这个目的的。 这是我们整个路径走通之后,我让小龙虾写的一个总结,我们可以看到它的整体链路就是用户发送图片,然后 open globe 接收之后,他会先存到一个临时的路径,这个时候我们会去调用图片理解的脚本,然后通过这个脚本把图片转换成对应的格式, 反正就是一种编码,接着拼接成他的这个 mini max 视觉服务接口要求的接收的格式,对应着的再把图片发送过去。这个时候他的这个视觉理解的服务就会去看我们的图片,并且深层对应的文字描述。 这里其实少了一步,应该是主模型也会去经过一轮的处理,最后再返回给用户,这里就会涉及到我们需要去写一个脚本,那其实我自己也是不会写代码的,所以这个步骤大家尽量把这个原理理解清楚,或者大家直接可以截这个图发给你们的小龙虾,让他照着这个逻辑去实现就好了。 这个脚本大概是长这个样子的,那其中这里面我们是需要去填 mini max 他的 api key, 填了这个 key 之后,他才能够正常的去调用他的视觉能理解的这个服务。 还有一个脚本写完之后,我们还要去小龙虾他的 opencljason 的 这个核心的配置文件里面要告诉他,也就是说他收到这个图片之后,这里有一个模型,那你这个模型我们实际上是不是说真的让他去调模型,而是让他去调用我们脚本里面指定的这个服务,这个也是需要去改的, 最后全部改完之后要重启,这个时候我们再去试一下就可以了。大家配置好之后就可以随手发一张图片,然后问小龙虾上面有什么,当然这是第一种办法,大家还可以主动的去确认一下他当前的图片理解路径是什么?看看跟我们的预期是否符合, 如果确认之后,你还可以再多说一句,让小龙虾总结这次经验,并且更新他的 memory 的 记忆,这样子他以后再接收到图片之后,就要主动的去按照我们指定的路径去理解图片,也是可以防止他后面反复发电的一个有效的途径。好了,以上就是我今天的分享,我们下期再见,拜拜。

部署本地的 openclaw 已经可以剪视频了,大家都知道了吧, 这个让硅谷大佬每日一封的 openclaw 阿月,我呢也是拉到本地试了几天,现在就带大家把本地部署和接入飞书每一步都走明白。为了防止偶然性啊,我呢也是连续测试了四台电脑,确保每一步都可行,接下来你们只要跟着做就可以。点好关注收藏, 我这里依旧用的是 windows 系统来操作,因为 macos 系统呢,环境相对比较简单,不像 windows 这么复杂。首先呢,我们要确认好 windows 的 安装环境,安装的时候呢,全部都点 next, 一 直到完成即可,建议呢,不要去变更中间的安装路径。 呃,安装完成后呢,我们可以检查一下环境,我们在命令提示符的窗口输入这两个指令,如果输入指令后跳出版本号,那就说明安装已经成功了。这里提到的两个环境文件呢,我在文档里面也全部都准备好了。 好,接下来呢,我们就开始全区安装 oppo 卡使用管理员 c m d 指令输入,这个指令安装完毕后呢,再输入这一条指令, 好开始了。 ok, 这一步跳出来的呢是风险提示,我们直接选择 yes。 然后呢我们选择 quickstart, 这一步呢是选择大模型,我这里呢用的是千万,因为他是国内的,如果大家有惯用的呢,也可以自己进行勾选好,然后我们这里模型选择默认的即可。 之后呢会跳转到大模型的首页进行授权验证,大家验证通过就可以了。那通过后呢,这里也同样有一个选项,我们直接选第一个默认的模型。 ok, 下一步呢,这里可以看到很多的应用选项,这其实呢就是指令输入的终端,因为这些都是国外的,所以我们先不管,选最后一个,跳过,后面呢我会给大家介绍如何接入国内的飞书。 ok, 继续,这里会问你需要配置什么 skills? 呃,我们也跳过,没问题,因为这个不着急,后面都可以手动去配置的。 好,这个也不用管我们用不上,直接跳过。好,然后我们稍等一会,会自动弹出一个网页,然后你会发现这个网页是打不开的,没关系,我们这个时候呢,再运行一个 c m d 的 指令, 好,这就是欧奔 cloud 的 兑换框了,我们来尝试和他打个招呼, ok, 他 回复我了,那到这里呢,其实基本上就成功了,还是比较简单的啊。然后呢,我们再来尝试为大家接入一下飞书,很多小伙伴呢,在这一步呢,其实就被劝退了,因为怎么样都接入不了这里,大家看好我怎么操作。 首先呢,我们进入飞书的开放平台,我这里呢用的是个人版,我们来创建一个企业自建应用, 进到这个凭证与基础信息界面,把你的 app id 和密钥保存下来,这个很重要啊,后面会用到的。然后 我们添加一个机器人,再到权限管理这一步,为他添加一些权限。这里的权限列表呢,其实官方呢是有指导文件的,但是呢就藏的比较深,我呢也是给你们找出来,直接放到文档里面了,你们直接一键复制过来就 ok。 好,然后我们需要配置一下这个事件回调功能,在这里的订阅方式选择长链接这一步呢是必须的,而且是绕不开的,也是大家碰到卡点最多的一步,很多小伙伴呢在这里呢就是一直报错,好,不用担心,我呢,已经整理了一份非常长的傻瓜教程,大家直接照做就 ok 了。 然后选择以后呢,我们添加事件,然后添加搜索接收消息, ok, 然后我们就去点击创建应用,然后再发布就 ok 了。 好了,配置工作完成之后呢,我们就要开始给欧邦克劳接入飞速杀键了。由于 windows 的 系统环境问题呢,所以大家的电脑情况都不太一样,所以会出现不一样的报错问题。网上的很多视频呢,也没有把这个问题针对性的讲清楚,我自己呢也试了三到四台电脑来做尝试,都非常有挑战。 如果你手边也报错的话呢,不用担心,我这里想到了一个邪修的办法。好,那既然 oppo klo 可以 控制我的电脑,那为什么他不能自己安装飞出插件呢?我们来试试看吧,直接和他对话。呃,你自己安装一下飞出插件,然后呢,他就会开始疯狂的工作,并自行去验证安装环境和插件配置 啊。五分钟左右后呢,他就会告诉我,他工作完成了,需要我提供给到他飞出机器人的 app id 和密钥。这个呢,其实我们在上一步已经有了,我们直接复制给他,让他呢继续去工作。这里的工作过程当中呢,我们的机器人可能会下线几次,原因呢是他需要去重启网关, 如果呢,你感觉他下线太久的话呢,我们可以用 open cloud get away 这个指令重新把它呼出来。最后呢,他会要求你在飞车上和他对话进行测试,并为你排除最终的一些故障。 ok, 全部搞定,已经可以在飞车上正确回复我了,并且呢,刚才在外部的对话记录他也全部都记得, 呃,我们这里呢,再用手机给他发一条消息试试看。好,他也同样接受成功了。好了,这里欧本卡接入飞书的配置呢,就完全对接成功,基本上都是他自己完成的,我呢只是配合他提供了一些必要的信息, 妥妥的全能小助理。接下来我们来看看他能为我们做一些什么吧。比如呢,我现在想要订一张机票,我就让他帮我查询一下最便宜的航班,他立刻就给我列了具体的信息,包括航班号,价格以及其他的一些航班信息。不过这一步呢,是需要接入 api 的, 大家可以自行去网上找免费的接入就可以。 好,那现在过年了嘛,马上大家呢也会送礼嘛,那我就让他去浏览电商的页面。呃,不过这里呢,需要先安装一个 oppo club 官方的浏览器插件,我们直接从官方渠道进行安装就可以了。具体的步骤呢,已经放在文档里了,大家直接照做就可以。我让他给我打开。 ok, 成功,呃,然后我继续让他为我搜索燕窝。好,也成功了。 好,那我们现在在拿最近小伙伴在学习的 ai 的 线上作业丢给欧本克,看他能不能帮忙完成。 首先我们要让他找到作业的本地目录,并让他完成里面的题目。他立刻就找到了,并且迅速告诉我,完成了。啊,这速度还是真的蛮快的啊,但是呢,人呢,还是比较懒的。如果呢,你抄作业都不想抄啊?没事,直接让他把填完的东西返回给我。好,他已经做完了,我们来看看啊。 呃,代码呢?全部都完成了,不过呢,我也是看不懂啊。看懂的高手可以来说说他完成的这个准确率怎么样。 好了,那这次安装说明就先讲到这里了,关于 open cloud 的 更多能力,有时间呢我们可以再去测一下。好,那既然已经部署成功了,有兴趣的同学呢,也可以再去深度探索一下 啊。对了,现在呢,各大厂呢,也出了针对 open cloud 的 云端部署,我这个呢,也可以跟大家快速的分享一起。好,这里是阿月,希望我的视频能够帮助到你,让你更了解呀,我们下期再见。

open club 整挺火,后台私信主要关注两个问题,一,小龙虾是什么?二,怎么安装?因为我和我的关注者都不是什么 ai 专家,大多可能是因为小龙虾很火比较好奇,我就言简意赅了,小龙虾不是什么新的 ai 模型, 他是一个利用 ai 的 工具。如果你不给小龙虾分配模型啊,他是连聊天都没法聊的。如果给了他模型,那就厉害了,他可以读写操作你电脑上的所有文件,甚至接入其他程序的接口,操作这些程序,帮助你工作好了。第二个问题, openclaw 怎么装呢?上个月底一个上海粉丝啊,花了五百块装 openclaw, 离谱。 其实官方是有脚本的,安装起来并不麻烦,但是网上的教程却存在不同的安装方式的 原声安装和类似于虚拟机的 wsl 安装。这里各位不要被这个说法迷惑了,好像虚拟机就不太专业,不太灵活。实际上呢, windows 的 原声安装受制于安全策略,装好之后的 opencll 权限仅限于一个指定的文件夹, 反而是 wsl, 你 可以理解成微软的官方虚拟机啊,它的权限是可以控制你整台电脑的,这样才可以真正帮助你工作。而且后面小龙虾玩够了,你只要把这个 wsl 卸载, 电脑还是干干净净的,不像原生的安装方式啊,需要手动清理很多垃圾。第二个不同呢,就是接入方式的不同。如果你已经在电脑上部署了 ai 模型,那就可以直接让小龙虾调用,完全免费。但是这个工作效率嘛, 受限于你的电脑配置,像我这台电脑,真实体验下来并不好。而第二种方式是使用像千问呢, deepsea 这些官方提供的 a p i, 就是 你坐在家里,让他们的云服务器给你跑 ai 模型,这个体验就太爽了,缺点就是需要付费。当然喽,每家都是有免费额度的, 你可以挨个注册嘛,嫖完了所有的免费额度,再决定要不要付费。所以呢,我这里的安装教程就是 windows wsl 安装加上云端模型的接入。安装步骤拢共分三步,第一步,环境安装。先安装 wsl 搜索框,输入 power shell, 右键管理员运行, 输入 wsl install 回车,等待安装完成重启。 重启之后进行 linux 的 安装,再次 power shell, 输入 wsl install 乌班图二十四点零四这个版本回车。 安装完成后会提示设置 linux 账号,可以直接回车,然后设置 linux 密码,这里它不会显示你输入的字母,你就自信地输入简单的密码,然后回车并再次确认输入密码。 再回车之后,会发现命令符变成绿色和蓝色了,说明我们已经进入 linux 虚拟机了。第一步我们的环境就配置好了。第二步就是 open color 主体了,直接在命令框输入回车,等待完成, 直到出现黄色字体,就表示这个炙手可热的 openclaw 已经完成安装了。紧接着最后一步,配置 openclaw, 控制方向键向左回车回车。到了选择 ai 模型这一步,我选择用千万来做示范,控制方向键向下找到千万并回车, 选中弹出的网页链接, ctrl 加 c 复制并粘贴到浏览器,登录千万账号。这一步的意思是告诉千万允许 open color 调用它的模型,如果没有账号呢,咱就注册一个。确定授权以后,回到 open share 的 界面,这里也同时得到了响应键盘回车 配置技能。这一步,选择下面的 skip 跳过,然后继续选择 skip 跳过,一路选 no。 到了这一步,把除了 skip 之外的四个选项用空格键全部选上,按回车确定。最后一步,选择第一个回车, openclaw 也部署完成了,我们已经可以和他交流了,教程也结束了,更多的高阶功能需要安装一些额外的 skill, 这个就靠你自己摸索了。当然了,你也可以直接问你的 openclaw。

opencloud 现在也能免费部署安装了,我们一起来看一下。直接就在我们的小邦邦集成的软件里,就直接有一键部署的按键,这回再也不用花钱求人去安装了。打开小邦邦之后啊,左边第三个就是咱一键部署 opencloud 的 界面, 但这里啊需要咱登录一下咱的联想账号,没有的话可以注册一个,点击立即部署之后它是没有任何门槛的,我给大家演示一遍。 到这一步我们可以选择模型提供商,就是选择我们使用哪家的大模型。如果你对这个没有了解的话,我建议大家使用千问,千问呢它部署起来是比较简单的,千问模型能够自动部署, 而且它每天也有免费的额度可以供咱试用,咱可以先用一下它好不好使,再决定要不要去找一些付费的大模型套餐。 这里直接选择千问,哎,后续的设置一直按归车就好了。 我们选择这个自动部署以后, 它就会跳转到我们千问的登录界面,我们需要在这里注册一个千问的账号,当我们注册完账号以后,它提示我们可以返回到命令行界面继续使用。如果你是没有技术背景的小白,这一步看到的所有的选项你都可以选择默认的第一个直接按回车跳过就可以了。 这里我们回到小魔方啊,就能看到它一键启动的界面了,点击一键启动按钮,稍后呢就会弹出一个浏览器, 没错,我们小龙虾的最基本的使用方式就是通过浏览器来进行的,它会自动弹出浏览器,我们可以在上面和它沟通,我们直接在浏览器上操作它,给它发一个你好,就能看到它已经正常加载我们的千万模型,开始给我们有所回应了,这时候它就能可以控制我们的电脑啊。 配置好了之后呢,我们可以在代理这里看到咱现在用的是千万的模型,这个模型呢它有个好处,就是每天都会给一些免费的额度,咱可以借这个免费的额度先轻度试用一下, 如果用的感觉哎,体验不错,咱可以跟他询问怎么去更换一个其他的大模型,更换一个付费的 a p i, 比如说千万他们自己家的,他会手把手的带着我们自己去做。如果你想要进一步去连接其他的聊天软件呢?我们可以回到小帮帮里, 这里有比较丰富的教程,包括怎么去连接钉钉啊,飞书啊,这也是有完整的教程呢,也有一键打通的插件。 如果你想要去更进一步的去使用这种通用的 agent, 咱可以去了解下 skill, 这可以让我们小龙虾去自主学习,去学习一些更高级的能力。 当然我们都要小龙虾了,就算真的有些配置我们不知道怎么去安装,我们可以直接去问他,比如我们直接就让小龙虾你来帮我配置飞书,一步一步的跟着提示去做就好了,这就是小龙虾给我们最大的帮助了。

兄弟们 ai 视频制作进度报告来了,大家好,我们这是一款节点类 ai 生成软件,这里是官网,大家可以点进去看一下面不但有教程,还有我们的软件下载以及后续的一些更新, 这是我们的匹配的一些模型。我们首先是输入提示词,比如说我们要生成一张图片,我们点一下,这是两个节点, 把它直接做一个链接输入,比如说飞机,我们如果要生成比较复杂的这个镜头,那么可以点一下这个增强,这里有模板,我们比较我们这个风格,我们可以做个展示,点一下,这里是一键优化,那么一键优化它是链接我们的一个云端的大模型, 可以提供专业的这个提示词,等待一下点确定,我们这个提示词就出来了,默认也是这个模型,这个模型,这个模型也是我们云端经过链接的,当然每天有限额点击一下,我们在这里一个列队,我们可以看到它的一个进度,大概可以等个一两分钟就出来了, 这是一个模型,一个飞机的模型。好,下面是一个视频的视频,我们需要配置,我们在哪里配置呢?我们在这个设置里面有一个 api 配置,可以支持主流的这个视频模型,我们这个稍后展示,这里也一样,比如说我们把它 链接到这个提示词,我们看一下这里提示时输入,下面就是一个单卡图片输入,我们可以把这个图片链接来过来,我们选一个模型纹身视频,这里是否要添加音乐,我们不要选择,因为选择会扣更多的积分,等待它生成完毕。 下面这个是一个音频生成,那么因为我们是内置了一个大模型,大家可以去体验一下,当然每天是有额度限制的, 可以点击一下生成。好,我们稍许等待一下就可以了,这是一个音频的。你好模型。你好,我是音频大模型,是比较慢的,这是我们一个测试版本的软件,当然未来的一个全新版本的界面。跟这个一样,这个板块是我们的一个 ai 剪辑,还在开发中,然后它可以进行一个 ai 智能剪辑。

朋友们知道吗?这个 openclaw 可以 免费的使用,我们不使用 api, 我 们只用本地的一个大模型来代替,那就是今天我给大家说的欧拉玛, 可以看到这边欧拉巴的安装我已经写好文本了,今天我们就跟着这个一步一步走,我们给我们的 openclaw 部署一个本地的大模型,这个方式比较适合我们轻度的去玩,或者是我们新上手这个 openclaw 去练习用, 因为本地不说大冒险毕竟不如网上这个 api, 但是它是一个很好的练手的一种形式。废话不多说,我们开始,那这里呢?我直接是给到了大家安装的一个代码, 我们复制代码,如果你也是这个 windows 去你的 linux 系统可能会碰到什么问题,比如说碰到我们这个叫 z s t d 这个支持,没有这个东西我们怎么安装?我们用这个代码去安装,安装完这个代码以后,就这个代码执行完以后,我们就可以进行正常的一个安装, 这里我们就等待这个欧拉玛安装完成就可以了。那接下来这个时间我们可以去看一下我们想在本店跑的一个大模型,让我们直接搜索欧拉玛的官网,直接来到这个 models 里边, 这里大家可以看到有好多种模型,这里我推荐大家使用千万三点五,在这里有好多个模型,点一下理由,大家根据自己的显卡的现存多少去选择适合自己的模型。那比如说如果目前我是一个什么,我是一个二零七零, 二零七零,他只有八 g 的 显存,而且目前我们运行这个顽徒的迅疾,他已经占了二点三,也就说我们只有多少五点五点七的一个显存,五点七的显存正常我们大概只能跑个一个 四 g 左右的一个大模型,那目前看下来我这块显卡只能跑这个三点四,也就是千万三点五四 b, 这个四 b 应该是已经量化过了,之前的一个原生的四 b 应该是九 g 左右了, 我们可以选择这个模型去跑,那如果你是四零九零,这里推荐你可以使用 r 七 b, 我 们可以四零九零可以跑一下这个模型应该都是没有问题的。当然如果你是什么二零八零的双卡,这个之后我会说我组了一台二零八零的双卡, 他就可以跑更大的一个模型,那接下来我们就等待他安装就行了。我们把我们这样跑的模型我们记一下,这期视频其实也反反复复的做了好几次,那主要老杨也是个代码新手,所以说在中间会遇见遇见各种各样的一些事情, 后来经过我的一些查询,也把这些问题解决了,那基本上我就把这些遇到的问题都给大家去总结在这里面。这里我们拉玛安装好了,它已经系统级的运行了,这个是自动运行的,为了方便之后我们去看后台数据,我们这里建议把自动运行拉玛的 server 给它关闭。 那所以说这款我已经写了,之前我是下了模型以后,他就关闭了整个系统级的自动运行,后来就是这个模型丢了,所以说这里我们直接去执行,让他不要运行,然后禁止他的一个自动 set 访看是否运行成功, ok, disable 就 可以了,那接下来我们就可以去代码让他运行,那我们自己启动了,运行以后我们就可以看到什么宝莱玛的一个后台, 方便我们后面去监看他是否会出现问题,这样看起来比较方便,下面我们就去拉我们这个模型,这里我用刚来讲,我们就用这个四 b 复制一下,那么再开一个命令终端,我们再开一个终端,用这个欧拉马库,这里我们就进行等待就行了,等他下载好这个模型就可以。 ok, 到这里其实我们这个就已经装好了,我们看一下欧拉马 list, ok, 可以 看到这里有个千万三点五四 b, ok, 接下来我们直接把我们这个 openclaw 的 ap, 呃,就是 mod 它的模型给配置过来,我们 openclaw 直接选择 local, 然后我们选择我们的 model, 接下来我们就找一下找什么,找一下这个 customer provide, 选这一项,这里的它就自动是欧拉玛的, 我们打开斜杠 v 一 pass api key, 这个 api key 随便填,我们随便填一个,行了,它是一个 openai 形式的,这个模型的 id 这里一定要填对,直接去复制也行, 它是三点五冒四 b, 嘿,那这里就应该可以找到了,嘿,已经找到了,这里回车就行了,接下来我们 continue, ok, 那 这里我们就已经把这个模型配置给我们的 open cloud, 我 们 open cloud gateway, 他 说这个已经运行了, 也是自动运行的,我们 gateway restart, 让它我们这个 gateway 重启一下, ok, 看到其实这个后台上已经读到了,我们这个 就是 openclaw 调用它,我也没打开,还是报的一下,我们找一下这个网址,复制一下,打开浏览器很牛,这里就出现一个什么问题了,可以看到这个反应非常的慢,为什么 在这后台就能看到什么?就是 limit, 也就是它上下文限制多少?四零九六,我们这个 openclaw 给了多少?给了一万零一百六十七,所以说这个是远大于这个四零九六的,所以说他就把这个画开始裁切了, 这就是他的问题。那关于这个问题昨天也是研究了不少,可能我比较小白,这里给到大家一个解决方案,在这里这是我记录的 limit 四零九六 给的这个 promote 就是 提示死这么长,然后他就会出问题,他就反应非常的慢,那我们来解决这个事。回到这个命令符,首先你看你先下载的是默写,比如说我们看一下这个默写,那可以看到他的上下文,他默认的 给可以给到就是二六二幺四四,那这个二六二幺四四是远大于这个奥拉玛,他给的限制四零九六的,所以说我们需要新建模型来解锁这个限制,我们把如果你下其他模型,把这个代码改一下,把它我们导出,我验证它是否存在, 找到了我们编辑它,这里可以看,我们需要在这个 essence 这上面去加一行,是吗?加一行我们把它这个上下纹的长度给扩大, 这里我这块显卡加到三十二 k 就 可以了,因为我们用这个方向键来到给回去了,把这段复制进去,然后 ctrl 加 o 回去, ctrl 加 x 退出, 只有我们改了这个,用这个 modify, 我 们重新去新建一个模型,这个新建模型这块的名字根据你自己的改的去修改,比如说你改成六十四 k, 就 改了六十四 k, 好 标记加某拉玛 list。 那 可以看到我们新建这个模型,就通过这个四 b 新出来这个模型它已经存在了,这叫三十二 k, 也就是我们上下文调整到三十二 k 了。 接下来我们这个把我们的 openclaw 它的 model 重新改过来,这里复制一下,把这个复制一下来到 model 还是 custom provided 这块,还是斜杠 v e a b i k 边数这块,把这个新的模型名字输进去,哎,找到了, ok, 我 们在 openclaw restart 一下,就 getaway restart 一下,包括刚刚我们刚打开这个文本,如果你是觉得回答质量差,你就可以适当调整这些参数,再去新建好,我们回到网页里刷新一下, ok, 我 们再 set new, 看这个反应,可能还会提示这个提示词过程吗?没有了, 这样我们就把相当于把这个模型给配置好了,这样我们就打个招呼, 可以看到这个后台不停在提示他,其实在做这个正常的一个输出,这个都已经没有问题了,那这里已经给大家完全讲完了欧拉玛的一个配置,包括我们中间会遇到的一些,比如说的这种问题啊,山下文的一个问题, 这个四比模型现在就完全的可用了,其实我们这块二零七零他跑的时候可以看已经七点五级了,进行起来速度还是可以的,没有说速度特别的慢。怎么测试?给我写一片三百字 关于 ai 进化的文章,三百字的文章,你看一下我们这个四 b 它发现怎么样? 其实这个 token 怎么讲?它的速度是可以的。只有三百字吗? 只有三百字吗? 这有三百字吗?我数不过来,问问他, 就是他可能载入了会慢点,但是这个字数的话就是说他的投屏速度还是可以的,所以说四 b 在 我们这个二零七零上都可以爆。当然大家我觉得你们的显卡可能会更好,那比如说如果你真的是一个,比如说幺零六零之类的卡, 我不太建议跑,但是也有这个这种的特别小的,但是我没用过这个啊,我会感觉特别傻,但是四 b 用下来只要你不是这个扣定,就是我们这个编码做很多的话,应该是没什么大问题啊。 这场对话包括帮你写文案,他都是怎么讲可以去胜任的。好了,今天就到此为止,谢谢大家。

今天跟大家讲一下这个在小龙虾里面,他这个的模型是怎么切换的,那我当前这个模型是 glm glm 五的模型,那如果说我要切换成呃 glm 四点六 v 的 这种模型,那该怎么切换呢?那切换里面我们有这么几种办法。 呃,先给大家说一下,一种我们先打开一个终端,在这个终端里面呢,我们输入这么一个命令,叫 openclock apple color, 然后呢 o d l 是 model 四,那设置 set j ai, 这是智普的那个前缀 j ai, 然后写杠 g l m 杠四点六 v, 那 这个就是切换成把把这个默认模型切换成 g m 四点六 v 的 版本,然后我们敲回车一下, 敲回车完之后呢,它这里呢会告诉我们模型已经设置成功了,然后呢我们给这个小龙虾呢的网关重启一下, 重启一下,这个可以重启一下, 那重启完之后呢,我们回到这边来,我们去刷新一下这个浏览器,你看它当前呢这一个会增加了,多增加了一个叫 g l m 四点六 v 的 这么一个呃默认模型, 那这个呢是我们切换模型的一种方法,当然大家这里看到的这是一种呃通过它这种内置的这种 p p n 的 一个命令, 呃可以设置的,那如果说呃这里面的那个模型默认的模型不在我们的小龙项链表里面,比如说像 deepsea 这这种模型,那要怎么设置呢?因为 deepsea 它是不能通过这种呃简单的命令去设置,它只能通过自定义的呃 模型去设置,那它这边呢有两种,一种两种命令,一种是直接通过什么通过这种呃非交互模式的这种条命令就可以执行,比如说像这个, 比如说像这种像这种一条式的命令,它这里是什么呢?它这条命令呢?它这个是什么?呃是像这个参数呢?是。呃 执行非交互模式,使用非交互模式。那第二个叫 modelcare 了,这一个呢?按本地模式配置网关,这个是按本地模式配置网关。那第三个是什么呢?第三个是使用自定义的 api t 接入,这个是使用指定 api t 接入的参数。那第四个参数呢?这个第四个就是给这个呢?呃提供商命名为叫 dbseek, 对 吧? 那第五个这个参数呢?这个是什么?这个说明让它兼容 openai 的 协议。那第六个呢?第六个是什么设置?呃, deepsafe 的 这个接口地址。那第七个是什么呢?第七个是,呃设置默认模行为 deepsafe chat。 那第八个这个呢?那就简单了。第八个这个就是填写我们在数据库上创建的这个 api t, 这个就是 api t 的 序号。那第九个这个是什么呢?确认接受非交互模式的风险提示,一定要加这句话,要不然如果说少了这个,它上面的这个就执行不成功,那我现在来给他执行看一下 啊,这里已经告诉我们。呃, justin 呢?已经备份了,然后呢?这里也执行完成了。那执行完成之后我们要记得什么?记得是,呃,我们要给它一个重启网关,网关重启一下。 网关重启完之后我们直接在这上面刷新一下就可以了啊,刷新一下它当前这个 deepsea 的 这个什么?呃,模型已经加载进来了,那我们可以直接什么跟这个呃, 我们直接问用 deepsea 看一下 它,这里会回复我们是由深度求索公司那一个研发的这个大模型, 那这个模式像这种方式呢?都是用一条的命令方式,那还有没有办法用?呃另外一种方法呢?就不用一条命令,我们用那种直接 on 使用的是什么? openclock on board 这条命令呢,就是类似于刚刚安装的时候我们去执行,那我接下来也给大家去演示一下这个呃,我们用这种命令,使用 openclock, 使用这样子的粗俗化的方式去呃配置我们的 deepseek 的 这个呃模型。那首先呢,我现在呢先给它做一个啊,先把这个呢做一下来还原。其实所有我们所有配置的这个 wincore 的 这些配置参数都在这个文件里面,我先把这个删掉, 删掉完之后复原这个文件, 我重命名一下,我复原这个文件之后呢,我们我在这里呢先给他什么,先把它网关 重启一下啊,重启完之后我们确认一下是不是恢复到我之前的呃初设设置,我刷新一下啊, 这已经呃复原到最早的之前的设置了。好了,我现在呢给大家去演示一下这个什么呃通过这个叫做 open, 通过这条命令怎么去呃配置我们的 deepcom 这个模型,那我们执行这条命令叫 opencloud on board 的 这个命令, 那这个执行完之后呢?他就是我们,就像我们第一次安装的时候会告诉我们这个呃一些风险信息吧。完了我们给他确认一下这个选择 yes 啊,这个还是继续选择 quickstar, 那 这里呢告诉我们什么配置,是否继承原来的值,那我们选择第一个就可以了。 use assign 就是 继承原来的值, 那关键就是这些位这个位置了,这个位置这里的模型驱动商呢?有这么多个,那我们要选择哪一个呢?我们选择的是这个叫做 custom, 因为这里没有 dsp 的 那个默认的夫商,所以说我们这里要选择的是自定义的 夫商,那我们选择这个回车,那回车完之后,关键这个位置的 api, 那 个 api base url, 这一个要改成什么?就是我们的模型的接口地址, 这里的接口地址呢?要改成我们的这个叫 deepsafe v 一 的这个默认模型,那我们啊路径改一下,黏贴进来,就一定要改成这什么 a p i deepsafe, 点 com 点 v e 这个 u r 的 地址呢?是兼容 openai 的 接口模式。那我们回车,那这里呢?我们是什么?呃,黏贴那个 api key 的 值,那我们把 api key 的 值黏贴进来, 然后呢这个位置这里有三个参数,是选哪一个呢?我们要选择的是什么?叫做呃,说明兼容和 ai 模式协议,然后我们这里选择第一个兼容 open ai 协议, 那这里呢? model id 又是什么呢? model id 呢?这里呢是设置默认模型,也就是这个提供了哪些的默认模型?然后我们选择呃,输入 d e e p s e k 默认模型,然后显示 a t, 其实就是这一个, 其实就是呃这个位置接口文件里面的这个,其实就是这个, 其实就是这个。这个 deepsafe 提供的这一个叫做什么?推理模型跟聊天模型,然后我现在先选择的是聊天模型,叫 deepsafe chat 的 这个模型。好了,那我们给它 model id 选择了 deepsafe chat, 那这里的是什么呢?那 point id 又是干什么的呢?那 point id 它其实是是模型的一个小名,那我们这里的小名呢?也可以叫让它默认叫 custom api, 这个默认的也行,那我们选择用默认值吧。 那第二个是这个是别名,那这里的别名呢?我们也可以不填,没关系,我们直接敲回车也不填。然后第三个,这什么使用的一些我们交互的方式吧,那这个我们直接跳过啊,这里呢也是直接跳过, 然后这个是配置技能,那技能像我们之前也配置过了,我们可以选择 low, 也可以选择 yes 或者点 yes, 在 这里面跳过也行。我们先跳过,那这后面都是跳过了啊,像谷歌的,国外的这些 a p i 我 们都跳过,目前都没有申请 好了,那这个是不可使的,这个也跳过,那现在最后步呢?这个是什么呢?我们再重启一下就可以了。重启网关, 重启完关之后我们选择的是什么?还是继续选择 open 的 web ui 的 这个方式,然后呢它这里呢?它这里呢?你看它这种方式也可以把这个 deepseek 的 这个模型给它配置进来,那这个就是我们呃默认的这种, 呃自定义的方式,把 deepseek 的 一些那个 a p i 呢?呃配置到小龙虾里面去好了。呃,这个今天呢,呃,跟大家讲的这个第三方的 a p i 呢?呃就到这里了。

问你一个问题啊,为什么别人的 open claw 那 么厉害,而我的 open claw 啊,傻的完全没有办法交流啊,背后的原因是啥?以及怎么样去解决这个问题呢?好,接下来一个视频啊,给你讲清楚。那么前面我们说了,龙虾呢,有三大核心组成部分,除了龙虾 本身之外呢,还有大模型以及技能。而在这三个核心里面啊,大模型它充当的是龙虾大脑的时候,那么大概率 一定是你的模型选错了,你模型用的不好,那么整个龙虾就不好用了。好,问题来了啊,那我想让我这个龙虾好用一点,那怎么办呢?那就是使用顶级的大模型啊。好,那问题来了,那我怎么样给我的龙虾去更换大模型呢?接下来一个视频啊,给你讲清楚。好,我们想要给我们的龙虾更换大模型的话, 我们需要知道三个东西啊,第一个 ok, 你 的 api k 啊,你在哪个平台?你的身份标识是啥? api k 就是 你的身份标识, 因为龙虾呢,使用这个模型是要去付费的。好,那么付费的话,我就需要有一个身份标识来标识,张三是张三,李四是李四,这样的话,我才能够成功地去计费嘛,所以我需要有一个 apik, 然后第二个呢,我需要有一个 base url 啊,因为不同的大模型,它的请求的地址是不一样的, 所以这个就是大模型的请求地址,这是大模型的请求密钥。而第三个是谁啊?大模型的名称,因为即使是一家公司的话,他的大模型也是非常多的,那你到底是调这家公司里面的哪个模型, 你要讲清楚的。好,那么接下来呢,给大家去讲一下,怎么样从零到一的给我的龙虾呢?去更换大模型。好,那么首先咱们需要去找到这三个地方啊,通常情况下,不管是哪家平台, 那么它一定是有说明文档的啊,那这时候呢,咱们可以去打开它的说明文档啊,比如说,比如说随便一个平台吧啊,咱们就可以找到了,它里面有啥呀? open ai 兼容模型的这个列表的请求地址 啊,那么这个地址啊, base u l 给大家来说一下,它通常是以 v e 结束的啊,通常是以 v e 结束的,所以, ok, 咱们去调用的时候, base u l 咱们就找到了啊,这个地址有了,那么地址有了之后,接下来呢就是去调用模型了,然后在他们官方里面也给咱们提供了一个接口,然后这个接口呢去访问,你可以得到所有的 模型名称啊,当然因为它们本身是一个集成站,所以在它里面呢,国内的模型和国外的模型都有,比如说 kimi 二点五呀啊, jama 三点一呀啊, gpt 五点四呀啊,包括豆包一点五呀等等等等,还有 cloud 四点六啊,它们家都能用,而且夸张的是啥呀? 它们有套餐,可以让你的成本可控啊,你可以订阅六块九的,你也可以订阅四百九十九的,根据自己的使用情况来选择相应的模型就 ok 了。好, ok, 那 这时候我就得到了贝斯 u l 了,以及 它的模型名称了,那么第三个是啥呀?第三个是我的 api k 啊,那这时候咱们就去访问后台,在后台里面有一个 api k 啊,这时候呢? ok, 我 可以新建一个 api k 啊,比如说这儿呢,我就新建一个 test 啊,然后点击创建。 ok, 那 这时候 api k 就 有了啊,这个时候咱们三个东西都有了情况下啊,当然所有平台都是一样的,所有平台你就去找这三个东西就行了。 找到这三个东西之后呢,接下来咱们就去对接一下最新的 gpt, 五点四。好, ok, 那 这时候啊,怎么样去对接呀?不管你是 windows 电脑还是 macos, 苹果电脑都是一样的,那么 windows 电脑呢?你就点击视窗键, 然后 cmd 啊,打开你的命令行提示符,如果你是苹果电脑的话,在应用里面去找到终端啊,都是黑色的窗体,然后点击它就行了,然后点击它之后呢? ok, 接下来输入一行这样的一个命令, open cloud configure, 然后输完之后敲回车啊,敲完回车之后呢,咱们选择当前本地的配置,然后确定, 然后在里面去选择 model, 因为接下来我要去更换我的模型嘛,所以点击 model, 然后在这个 model 里面呢? ok, 如果你直接是比如说,哎,我就去对接 kimi, 那 你就去选择 kimi 就 行了啊,但是如果我对接这个平台在这里面没有怎么办? ok, 它底下会有一个自定义模型, 所以你不管是哪个平台,你只要拿到刚才那三个东西,咱们都可以通过自定义的这种配置来进行设置了。好,那刚才那个平台它没有内置啊,那我这时候呢,我就选择自定义的厂商啊,因为它符合 open ai 协议的好。敲回车,然后 敲完回车之后,它要你干嘛?输入 base url, 然后 base url, 刚才咱们找到了呀,啊?它在哪啊?它在这儿,对吧?啊?这个 base url, 它是唯一结束的,大家注意啊,唯一结束了,所以咱们复制这个地址。 好,然后回到咱们这边把它原来带的这个东西呢地址呢?给它删除掉啊?粘贴是吧?好,敲回车,备注 u l 有 了,然后接下来输入啥呀? api k。 好, 输入 api k, api k 是 啥呀?刚才咱们登录到后台,这个 api k 复制啊,然后这时候呢给它粘贴,然后粘贴完了之后呢?哎,敲回车, 传回车之后呢? ok, 你 要去选择协议,那我的这个协议呢,就是 open ai 的 协议,所以我选择第一个 open ai 啊,敲回车,然后这时候他让你输入啥呀? model id, 然后 model id 的 话,刚才咱们从这儿哎得到了所有这个 model 啊,我千万三三点五 plus 啊,然后这些都能用的,那我使用啥呀?这一批题四 啊,我使用顶级的大模型,那它的能力一定是最强的。好,那这时候, ok, 咱们去选择啊,这时候不要胡输啊,一定是平台给你提供的这个 id, 不要自己去输入复制,然后粘贴啊,粘贴完之后呢?敲回车啊,敲完回车,这时候他就该干嘛了?去验证你这些信息到底是不是对的?好,验证完之后他告诉你, ok, 我 可以连接成功,到这,你已经成功百分之八十了啊。好,然后这时候呢,他让你去起一个名字啊,给他起个名字,那默认的这个就可以, 不需要去改的啊,这时候咱们去敲回车就可以了,敲完回车之后呢,它需要有一个别名,是吧?啊,那么这个别名呢?咱们就叫做啊有 club。 好, 完了,配置完了啊,配置完了之后呢,咱们继续啊,这时候咱们重启一下咱们的服务就 ok 了啊,配置完之后, ok, 使用 open club 然后 get 位啊,你如果之前你的服务是启动的,这块使用 restart, 如果你之前已经把它关了,所以我这呢 open club get 位就行了。好, 敲回车啊,敲完回车之后呢,咱们问一下大模型,测一下,看它是不是 gpt 五点四啊?好, ok, 那 我设置完了之后呢?哎,我来到网页那边打开我的 龙虾啊,当然龙虾我没有升级版本,现在版本又发布新版本了,那我就问他,我给你更换了新的大模型,告诉我你是什么大模型。好,然后完了之后呢?点击 send, 咱们来看一下它的回复啊。好,那么经过了一段时间之后呢,它告诉我了它是啥呀? gpt 五点四。好,那到这咱们的模型就更换成功了。 所以呢,最后咱们去总结一下,不管你是哪个平台,咱们只要能找到这三个地址之后,然后使用命令的方式,就可以在不改代码的情况下自己来更换大模型了。我是磊哥,每天分享一个干货内容。

装了 opencloud 小 龙虾,连微信死活找不到设备,今天呢,一分钟教你正版直连加一键直就看完必成功!先讲正确连接方法,微信官方 cloudbot 插件三步搞定!首先呢,微信更新到最新版,彻底杀掉后台重新打开, 在我设置插件,找到 cloudbot 起用,点开详情。 然后呢,咱们复制这段命令行,可以直接粘贴给你的小龙虾,也可以去到终端去把它回车运行。这里呢,我就演示复制到终端去运行, 当我们在终端运行完之后,它会出现一个二维码,给我们扫一扫之后,成功的才能连上微信。敲重点,明明装了 open call, 在 终端执行时就是搜不到,连不上 百分之九十的人都是卡在这。你看,当我们把微信的链接复制进去之后,他提示我们未找到 opencll, 请先安装,但是呢,我们本机上是确实是有安装的,只是他找不到那个位置。 这个时候呢,豆包就告诉我,直接把 n p n 全局目录加入到当前绘画的 pass。 这个时候呢,我们再运行一下,能否看到 opencll 的 版本成功,看到了之后呢,我们就把这个终端给关掉,重新开一个终端,然后再去执行微信插件给的命令行,如果不重启这个终端的话,他就一直就是更新不了他的那个路径的。 然后呢,我们就需要找到 opencll 的 路径,然后后面点上 cmd, 去重新运行一下整个 opencll。 这时候呢,再运行微信给的命令行,我们就可以找到本地安装的 opencll 啦。要是像主播呢,刚开始没有去重新开启一个终端,它就会插件安装失败, 这时候呢,咱们就必须去重启一个终端了哈,这时候呢,我就重启了终端,把这条命令行给粘贴上去,直接运行,等待他出那个二维码结果。 ok 啊,他直接就出现了二维码,我们就直接打开微信扫一扫,去扫一扫吧。这时候呢,他会自动给你连接网关,但是如果连接不成功的话,我们可以手动输入 open cloud gateway restart, 去重启一下我们的网关。这时候呢,主播的小龙虾出现了问题,然后呢,我们直接选择 open cloud gateway 去重新打开一下网关。这时候呢,在一堆红色的字里面,它提示我的大模型千万没有连接上, 这时候呢,我就重新去开一个终端对话框,根据他给我的命令行提示去连接一下,然后去重新连接一下你选择的大模型就好了。命令呢,我放评论区复制,直接用连成功的评论区扣龙虾上线, 今天就讲到这了,大家多多关注,下期还想要听什么评论区可以跟我说,咱们下期再见了。

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

这期我们给 openclaw 接上大脑,我们用的是阿里云百炼的 coding plan, 里面包含了宽三点五 plus、 kimi、 glm 等八个模型,几分钟就能跑通。 首先进入到 openclaw 的 安装页面,具体怎么下载,网上教程很多,这里不再赘述。接下来就是安装向导,输入命令 openclaw on board, 接下来按方向键选择 y e s 回车,引导方式选择手动 回车。接下来设置为本地网关工作区目录,直接回车,下面选择模型厂商,我选择下面的阿里云百链回车。认证方式,选择阿里云百链的 coding plan 回车。接下来要获取 coding plan 的 api key, 打开云百链的控制台,登录进去, 找到 coding plan 的 我的订阅,下面复制以 sk 开头的 api key, 复制好后右击粘贴到向导里回车。下面需要选择模型, 我先选择的是第一个宽三点五 plus 回车,接下来一直默认回车, 直到提示是否配置聊天通道,先不配置选择 n o 不 配置技能起用钩子,这里按空格选中暂不配置回车,这里安装网关服务 回车。接着再回车,这里就基本配置完毕并进行对话了,这时需要多等一下,首次启动网关需要等一会就能对话。下面接入剩下的七个模型,在阿里的 callin plan 网页 把剩下的七个模型名称复制一下,在对话框输入,把阿里云百链的这些模型添加进来,并保存至 open claw json key 与主模型的 key 一 致,然后把刚才复制的模型名称复制进去发过去,等待片刻就会提示你已经添加到 open claw 点 json 里。 这里一定要强调两点,一是要写进 openclaw 点 json 文件,二是要表明和主模型 api key 一 致。下面输入命令,验证模型是否真正添加进去。 打开 power shell, 输入 openclaw models list, 现在显示的列表里有八个模型代表添加成功。

哎,好的好的,大家好,我们今天手动来带大家从零到一部署在自己电脑上面部署一下最近火爆全网的这个 cloud bot 啊,现在已经改名叫 opencloud, 我 们从零开始,首先我们去 opencloud ai 这个官网,然后往下滑,它有一个 one liner 的 这个 quick start, 非常简单,你只要在复制这个代码,然后开一个命令行,然后把它黏贴进去, 它就会自动去安装这个 opencall, 它会去检测联盟装着 homebrew, nojs 和 git 啊,如果没有的话呢,它会帮你去安装,我这边已经有了,所以它自动开始在安装这个 opencall。 好 的,安装完毕,安装完毕的话,它会自动会进入这个 onboarding 的 这么一个流程啊,它也是非常人性化。首先让你先来先签个协议啊,说这个很 powerful, 但也很 risky 啊。我知道了, onboarding mode, 我 们选 quick start。 然后第一步呢,是我们要接一个模型啊,在后端的模型,它虽然就 open call, 它只是一个中间层吧,你后端的模型还是需要用自己的 a p i 的。 之前呢是我我尝试使用这个 cloud code 的 订阅,可以接入这个 open call, 但是前段时间 cloud code 把它给封了,所以现在就必须只能调用 a p i, 所以美国的模型 api 太贵了,所以我们这里选择支持一下国产。我们使用 kimi 的 模型啊, moonshot ai, 然后 kimi 最近也是浪潮了,自己的这个 kimi k two 呃,二点五的这么一个模型啊,能力上据说是跟 opps 四点五非常相像啊,也是很厉害,然后价格可能只有十分之一,所以我们来体验一下,所以我们这里选 moonshot ai, 月色暗面, 然后把我们之前复制好的一个 api key 给复制进去, create a api key, 然后我们选择一个模型,我们就选 kimi k 二点五。然后呢,我们在这里选的是 在第二步呢,是选这个 channel, 就是 call bot, 呃, open call, 它是可以让你用过用你的这个即时聊天软件,然后来调用它的啊,这里就会去配置一下这个即时聊天软件。我在这里选的是,呃, whatsapp, 然后我们来看一下 whatsapp 怎么 link 啊,它会给你二维码,然后我们要拿 whatsapp 扫一下二维码。 好,我们拿这个 whatsapp 刚刚扫了一下这上面的二维码,然后,呃,现在是可以去继续去设置一下详细的配置。 whatsapp, 它里面有一些 phone, 呃,这个是 phone setup 啊, separate phone just for open call。 我 选择用一个单独的电话号码在 whatsapp 里面,然后这里使用,选择 recommended power mode allow form。 说实话不是很知道是干嘛了。嗯,选择 default 好 了,然后下一步呢,是 configure 这个一些技能啊,这里我先不 configure, 但是我们看一下, 呃,这个 open call 它有哪些技能啊?这些技能本质上来说就是它到底能做哪些事情,你可以看它这里有非常多的集成的这个 integration, 就 你的密钥,密钥管理系统 word 是 可以用来发这个 twitter 的, 然后 bear nose 是 可以用来这个记笔记的一些东西,然后有非常非常多的这个,还有什么 g u g 这种 就是 gmail 啊什么的,非常非常多 open ai 啊什么的很多啊,我们这里今天先不配置了,然后回过头也可以再配置,到时候会问你一些问题,要不要这些 a p i key 有 多选? no no, 如果到时候需要的话呢,可以再单独回过头来配置 好。然后最后一步呢,是这个 hook 啊,自动的这个操作,然后它可以在某些特定的环境下面被触发,然后帮你操作。比如说它这里有一个 session memory 的 这个 hook, 就是说它可以在每个赛季结束的时候呢,自动把赛季的这个你们聊天对话记录呢,保存到他们的这个长期的这个 memory 当中。这里我觉得还是开一下比较好,因为 open call 它是自带这种长期 memory 的 功能的,然后如果每每每一次跟他对话,它会更新长期 memory 的 话,你会发现这个 open call 越用越聪明。 好,然后这些都是系统自带的,我就都开了,然后都开了,然后去设置 gateway, gateway 就是 说是呃呃,如如何去开这个?开个关口,然后让可以让这个你在 whatsapp 里面发送的消息被传递到这个电脑上的 open call 里面。这里我之前已经装过了,所以我们在这里的话就是 reinstall 一下。 好,我们这里的 git 已经装好了,我们现在有有有方法去 hack。 我 的 bug 就是 初设啊,初设的话我们可以推荐是走这个 t u i, 也就是它自己会开一个网页,然后这有一个链接好,然后可以尝试发个消息 啊,很可惜啊,消息没有发成功,我要来 debug 一下。哎,好的,刚刚发现是因为自己的那个 kimi 账号没有充钱啊,现在充了钱就变强了啊,我们现在已经可以 跟他对话了,然后我们在终端呢,可以输入这个 open opencloud dashboard, 然后呢我们来重新进进入这个网页的 ui 啊,然后这里呢我跟他说了个嗨,然后他现在会介绍一下自己可以干哪些事情啊?怎么怎么样,怎么怎么样都是英文啊,太,太烦了,我看他看中文那里边啊, 好,他现在等于说一开始的对话呢,他会让你去呃设置一下他的名字是什么,然后怎么称呼我,然后他是干嘛的?嗯,然后同时呢我们我来就展示一下这个我们这个 whatsapp 的 这个能力啊,就你看我们这边, 嗯,其实 whatsapp 上面是可以给大家直接发消息的,然后在这里的所有的信息呢,我们也都可以在 whatsapp 里面跟他呃聊天,然后他就只要你的这个网关是上线的,他就是可以呃去跑的。 那么今天视频就到这里呢,我们就简单的装一下 cloud bot, 未来的话我们也会在这里继续更新一下 cloud bot 到底能在呃能对我的工作流程带来多大的影响啊?期待可以创造更好的内容给大家,谢谢。

新手必看龙虾 openclaw 大 模型配置保姆级教程零基础配置 openclaw 手把手教你完成 basel a p i t 与 model 配置。在配置大模型时,你一定会反复遇到三个关键词, basel、 a p i t 和 model。 你可以把调用大模型想象成像。一位博学多才的专家写信请教问题。 bash, 也就是基础地址,是大模型服务商提供的 api 接口地址,各大模型平台都会提供,相当于专家的收件地址,没有这个地址,你的问题就无法送达。 a p i p 也就是密钥, 是服务商分配给你的一串唯一字,服用于验证身份和计费,相当于你的专属通行证。专家凭此确认是你发来的请求, 并从你的账户扣除相应费用。请务必妥善保管,切勿泄露给他人。 model age, 也就是模型名称或 id。 同一家服务商旗下通常提供多个不同版本的大模型,你需要明确指定使用哪一个 个服务商平台的模型,列表中均会详细列出相当于你要请教的具体哪一位专家的名字。上面三个参数不仅支持各大服务商 的配置,以上三个参数支持各大服务商接口 中转。 a p i 级本地部署大模型,你可以根据选择的模型平台在对应控制台中获取 a p i t。 同时平台会提供固定的 base or 可选的 model。 opencloud 的 核心设置保存在本地的 excel 文件中,根据你的系统环境,它通常位于用户目录下的隐藏文件夹内。 windows 系统配置文件路径 通常为以上。内容处系统配置文件路径通常为以上。找到该文件后,用记事本 d s q 等文本编辑器打开即可编辑。如果目录下不存在 open call, 可在命令窗口输入 open call setup 进行初步化。在修改任何配置文件之前,请先将原来的 open call 设置一份作为备份, 以便改错后随时恢复。这是一个良好的操作习惯,可以有效避免因误操作导致配置损坏而无法恢复。打开配置文件,将其内容完全替换为官方模板,然后根据你实际的大模型参数进行修改。需要修改四个参数,大模型的纸杯 sir、 大 模型密奥 apikey、 大 模型名称域以及工作空间路径。 windows 和 linux micros 填写不同的路径格式。在配置文件中找到 agents models model primary, 确保其值为你刚才配置的模型路径格式为 custom 零零幺模型 id, 这表示 open core 启动后将默认调用该模行为你服务。如果你目前只需要使用基础对话功能,可以暂时忽略 tools 和 skills 中的 s k x x x x x 占位符。 待日后需要启动图片生成 web 搜索等高级功能时,再前往对应服务商申请密钥并填入即可保存修改后的 open call 送文件,然后关闭并重新启动 open call 程序。完成以上步骤后,你的 open call 二便已成功接入云端大模型,可以正常开始对话。

先用管理员打开 power shell, 再输入 openclock configure, 回车打开配置页面, 选择 local, 再选择 model, 最后选择 custom provider, 再把 bash 改为新流的 api, 再选择 paste apikey now, 从新流平台将新增的 apikey 复制下来粘贴进去, 再选择 openai compatible, 接着选择模型 id, 在 新流平台的模型库里面复制你想要用的模型 id 并粘贴进来即可。 后续的配置直接回车,选择默认值,选完后退出就完成配置了。

一会我们在聊天的时候啊,你好的时候他是不会回复的,为什么呢?因为在 providers 提供器里边,我们没有给他去配置, 就是在这没有配置,那么如果我们的套餐里面有很多一个低级模型,又等着你用,或者我们用不常用的模型怎么办?就是我们这样啊,大家注意看提供器 providers, 把这啊大家看,直接从这到这都给他去,从这到这都给他删掉, 然后打开笔记啊, 我们把这个大家注意看啊,你把你的模型的名字放在这, 然后其他的在这照抄就行了。这个是窗口的大小,这个是 max 头肯,虽然我选择了最小的一零二四,但是呢实际上他至少他不会这么小的。我们先看一下刚才这里面他的默认是多少,他是大概 是一百三十一 k 啊,就是他是这样的,一百三十多 k 除以一零二四。这个呢,我们给他尽量小一点,把这个拿过来, 把这个删掉啊,把这个一拿过来。这块大家要注意一下这里是否是推理, 那我们就给他这么写下, 那这个地方就是你的模型是推理还是不推理,就这写处或者 false, 其他的就照抄就可以了。然后我说一下窗口大小跟 max token 的 意思,什么意思? context 上下文窗口。上下文窗口是什么意思呢?指的是模型一次对话能记住最大的 token 数量,简单说模型一次能看到文字的历史内容,加上当前的输入, 那超出这个窗口它会怎么样呢?就会挤出去一部分,那么就会造成失忆。而这个 max 头款就是你每次最大输入的,这个我们是可以自己设置,从而呢让你的头款进行一个结缘,然后这个 id 呢是什么?就是你在这里面你选择模型的时候, 它是什么,你就可以给它写上。比如说咱们这个是赠送的四点五二,你就把后面这个给它拿过来,你看就放到 id 这上面。为什么咱们没有这个 z a i 杠?是因为 怎么外层有个 z a i o。 那 么如果同学们用的是我这个质谱跟我一样,直接照抄我这这个就可以了,那我是把多余的给它删掉了,只留一个四点五。为了让大家看着方便,这是提供器 proender 所主要的 pr i primary 这个单词, agent 默认的代理默认的模型,主要模型,这是主模型,后面是 forback, 是 备用模型。这个咱们要自己写啊。 如果咱们不是自己编辑这个文件,咱们在这选的话,你选完之后它就会变成一个 glm, 他这个是没办法去选咱们自定义的这种地段模型的。那么有同学发现设置完模型怎么都用不了, 那可以用这种方式去手动去修改模型,这个名字也是在这去选,你在这复制,带着前面斜杠左边的跟右边的完整的放到这, 那么这个文件设置完之后一保存就好了。但如果咱们在那保存完之后,在这,又比如说我现在又去保存一个,我再 continue, 那 它就会覆盖。比如我们现在再双击它, 我们再搜 friend, 大家看,只要你在命令行里面去设置了它的主模型,这儿就会改成不是。咱们要的就是咱们必须在这儿改完之后,不要在这里面再继续去,再 再去命令行再改一次,那么大家如果在命令行里面又去设置这个文件之后,我们还要去手动修改 open collog, 这次文件给它改成我们自己要用的模型, 那智普赠送给我们的套餐里面,他是没有五的,所以我们这不但不会消耗最低版本的这个四点五二,同时还会聊天报错,大家可以举一反三啊。看一下我们的 配置文件里面,它的主模型里面的版本是否是我们自己购买套餐里面所带的版本,如果不是就自己手动改一下这个 api k, api k 不 光是在命令行上设置在这里面, 大家注意看是在这个文件里面,它是能设直接去修改这个的。

上节课我们在本地部署了千万三点五 ai 大 模型,这节课我们继续部署 open core, 并让 open core 对 接上本地 ai 大 模型,彻底告别头肯焦虑,让大家零成本养龙虾。现在看 open core 官网,里面有很多种安装方式, 我们这里啊,使用 n p m 方式,一键安装,运行之前需要先有 node js 环境才能使用 n p m 命令。 node js 安装好后,打开终端运行 n p m i 杠 g 二分 q, 安装完成,运行命令,开始配置,复制过来粘贴。 先问我们啊,是否继续,当然要继续了,用键盘左右方向键选择 yes, 接着选啊,快速开始。这里问要对接什么模型, 这些选项啊,大部分都是对接云端 ai 模型的,因为我们要对接本地 ai 模型,所以要选择自定义。接着问模型的 api 地址,这个地址啊,在 o m x 的 仪表盘里,大家看这里, 复制一下,将这个删掉粘贴我们这里啊,要填的是幺二七点零点零点一,冒号八千斜杠 v 一。 继续啊问模型的 api k, api k 在 管理面板的设置权限设置里, 默认的 key 是 默认一二三一二三,我们不做修改,就填这个,先按回车粘贴过来,兼容性选择 open ai。 接着问模型 id, 模型 id 啊,在管理面板的模型管理器里面,将名字直接复制了,粘贴过来,确定 end point id, 保持默认就行,这个是模型的别名,可以不填,直接下一步。接着问啊,要对接什么聊天工具列表里啊,默认只有飞书。我这里出现的 open code 微信是我后面装的,大家初次安装并没有这个关于微信的对接,我们下节课再来讲, 这里直接选跳过接着问搜索服务现在没有,也先跳过,继续出来。技能的选择,直接按回车。 出来的技能选择,这里推荐只选 clonehub, 按空格,选中按回车键安装,其他的先不要选,可以避免网络有问题一直卡住。其他的有需要啊,后面可以再来安装。我这里列表中没有看到 clonehub, 是 因为我之前已经安装过了,所以看不到,我就直接选跳过。 后面的几个 api 啊,也都是收费的啊,暂时都没有,全都选 no no no no 还是 no 霍克时啊,也选跳过先按空格再回车。到了最后一步了,问我们运行方式,推荐的是在终端中运行,选择后,现在就可以和他直接发消息了。好,我们发个消息, 它会直接在动态中进行回复,当然也可以使用 word 界面进行访问,大家打开幺二七点零点零点一冒号幺八七八九,在这里也可以一样聊天,还可以做各种设置。总结下,安装 open core 需要 load 机制环境,在装好 load 机制后,使用 n p m 命令,可以一键安装 open core, 安装好后,运行命令开始配置文字版,内容请看课程讲英文档, iphone 可乐,现在出来聊天还可以操控你的电脑了,在下节课的对接微信里,我继续演示给你看。

大家好,我是 ai fish, 装了 openclaw, 却不知道模型配置在哪里,好不容易找到了,又不知道怎么切换大模型,没关系,今天 ai fish 手把手教你三分钟搞定 openclaw 的 模型配置 啊。我们先打开我们 open curl 的 后台,输入这个命令, open curl config, 然后我会把这个命令放在我的评论区里面,可以大家直接用 好,进入之后选择这个 local, 呃,选择第二个 model。 进入之后,我发现有非常多的模型可供大家选择,这些模型都是 open crawl 里面内置的,我现在版本是三三月二十二十二号的版本,所以说呢,里面模型会比较新,比如说最新的 minmax, 二点七,他都是有的。 那我们现在就第一种情况里面是有这样模型的,那我们先点击点击进入啊。点击进入 为什么选择 mini max 呢?因为他现在价格便宜,而且呢适合新手,而且二点七还是我们现在最新的一个模型 啊,跑出来效果还是不错的啊。我们看到里面有四个选项,那我们现在是可以选择这个就是开放认证,开放授权,点击之后他会跳出这么一个等待你认证的一个授权的一个 呃标识,但是你发现这没有跳出来,那怎么办呢?我们去复制这段网址, 然后进入我们的网站,就能直接呃,打开我们的这个授权界面,他会出现这个界面是登录应用,然后你点击授权 啊就可以了,然后你会发现我们这个就自动就进到这个界面,我们只要回车啊,那里面有很多模型呢,我们就选择 把这个几个都点上,呃,这个 minox 二点七点上就可以了,然后回车。好,然后我们 ctrl, 在这个时候我们已经可以用可口可乐点润,然后开启我们的小龙虾了。那现在呢,我要跟大家说另外一种情况,就是当我们进到这个界面之后,他没办法显示,就是或者你的版本比较低,不是二月,呃,最新的版本他可能没这个,那怎么来使用呢? 我们接下来进入这个配置界面,然后 logo 选择, model 选择这一项啊,就是客用户的自定义啊,我们自己提供,那我们自己提供有三样东西,一个是他的那个 s u r l, 一个 base ur l, 第二个就是他的 api key, 然后第三个就是他的模型 model, 那 这三样东西怎么能够获得呢?我来教大家一步步的到他的网站上去取得这个信息。我们进入 文档中心,然后有 api 参考,那就再点击 open a r api 兼容,因为它的文档非常的长,需要大家呢去找一找。现在我是把这个直接就答案交给大家, 我们第一个看到 base url 在 这里出现了,就是这个这长串,然后呢千万记得后面的一定要带上,其他的有的网站,比如上面会有迷思啊,迷奇啊,都必须要带上,看好这个,然后我的 model 就是 这个 minimax 二 m 二点七,就是它会采用这个模型,上面的引号是不需要的,只要把你的内容复制下来就可以了,而且大小写和一个字都不能错。好了,然后接下来是我们的 api key, api key 就 比较简简单了,我们到我们的账户管理里面, 然后透更 light, 我 们会有这么一个 api key, 你 叫复制就可以复制,然后它就会保存在你的记那个里面。 为了方便大家演示,我把这些都贴在我的即时板上,这个它默认的,先要删除 第二个,然后把这个复制我们刚才在那里找到的地址,复制完之后,只要右键它就可以复制在这个控制台上了,然后点击回车。呃,那你粘贴 api key, 然后我们再回车 啊,某个 api key 很 长,就 sk 打头的 cp, 然后再回车,明天晚上回车,然后再回车。 model id 就是 刚才我们说的 minmax 两点七,这千万别错啊,我们再输入进去,这个在认证,认证完之后呢,马上会出现啊,认证成功, 嗯,然后我们就这里就不用去动它 and point id 就 别动它,就确定。然后这是给 model 起个编码啊,回车好就可以开始,那同样呢,我们就可以开始。嗯, open curl 好, 点击就可以输入。哎,你好, 你看,然后就出现,他反应也很快,对吧?有什么想聊的?好了,那今天教程就到这里了,欢迎大家下期再见。 最后呢,我给大家介绍一下我们的 minimax 的 talkin plan。 呃,大家看一下它其实分那么几种。呃,分六种,那我现在选的是 start, 就是 刚开始入门的这个情况,因为 start 呢比较优惠,它每五个小时可以六百次的模型调用。 呃,其实够了,比如说你六百次,你用完了,你这个再等一会,他五小时给你刷新一次,又有六百次模型调用的时间。呃,然后其他的我们看上面这个九十八的, 九十八的呢,现在是他有个模型叫 high speed, high speed 的 效果和我们现在 mini max 二点七的效果其实是一样的,只是他会比较快,他是一百 tps 的 一个极速推理, 就是说呢,正常情况下会比我们的 midmax 二点七会快一倍,但是呢,你看我们的低峰时段啊,也有能达到一百 tps。 嗯,其实我用下来感觉差不是太多,大家可以先从这个开始用用起来。 嗯,然后呢,其他两个,就比如说他的模型调用的次数也会变多,比如九十八的,你看达到四千五百次啊,已经很多了。嗯, 还有这个普通的,他也是一千五百四十五小时,就这个情况,当然他要连续包年的,但是连续包年的他会省两个月,也是挺划算的。就是在这个基础上,呃,十个月就能买一年的这个 top。 然后,嗯,现在呢?而且现在有优惠我们,你到我的评论区,呃,点开我的链接,他会有给你打个九折,就是这个基础上再便宜二十九,还是挺划算的,所以大家可以试一下刚开始吗?试一下, 然后再我给你看一下这个套餐的具体情况,我把我的使用情况打开给大家看。第一个呢,他会把阅读套餐这个信息告诉你, 然后他会说在当前使用的情况,他会在这里显示,比如说现在五个小时,呃,我访问了十四次,然后还剩多少, 还有多少时间之后重置,这都可以看得到。他当时在新出来啊,三月二十三号之后,他就新出来一个周限制,周限制我看剩了六千啊,我一共大概还有几天之后吧,刷新现在用了百分之二十, 大家可以关心一下。那当然,以前是没这个周线值的,我觉得挺划算的。那现在有了这个周线值呢?我觉得也还行,大家可以试一下。嗯。