想本地部署欧本科尔小龙虾模型,还想要百人级稳定并发,什么配置这么硬?今天,这台为河北某企业量身定制的欧本科尔专属 ai 大 模型,本地部署服务器处理器搭配了两颗 amd ip 九七五五一共两百五十六核五百一十二现成 高并发,任务调度完全无压力。内存浅浅上个二十四条三十二 gb d d 二五七六八 gb 容量和欧本科尔模型绰绰有余,后期项目升级再加也不迟。 显卡我们配的是八张二 t x 五零九零三十二 g 涡轮板,能充分满足大模型推理微调需求,推理效率和响应速度全程稳定流畅,稳定性与扩展性也更出 色。硬盘方面,搭配四块三点八四 t b m e m e 固态加八块十六 t b 企业级机械盘模型,数据级研发资料,大容量存放,高速读写不掉,再配上一百 g i b 网卡与企业级阵列卡, 多节点集群高速互联,一步到位。这台专为沃本科奥打造的企业级服务器,稳定能打,可长期七成二十四小时运行。
粉丝8160获赞1.6万

最近这 openclo 真的 就是好多人呀,好多小伙伴也是刚入坑九九八十一难的,第一难就难到了所有人不会安装啊! 那在本期视频,我将会装成纯小白,找人帮忙部署 openclo, 看看不同价位的安装服务到底怎么样。只能说这些安装服务都没有通过代码进行安装,而是用了其他洗救办法,甚至连 openclo 中文版都出现了。 同时我还邀请了一位超级编程高手来评分,那就是 open club, 本虾保证绝对的公平公正。那代安装真可靠吗?让我们开始吧, 傻瓜式安装中文版,各种系统通用,可以对接飞书,无需懂代码就能全平台一键部署龙虾,这谁看了不流口水?关键是 买八块钱买不了吃亏,买不了上当,我就是要看看这个服务到底能不能部署成功。下单后,对方发了一个安装包给我, 好家伙,这原来是 github 上的一个开源项目,能够一键安装龙虾帮你直接部署。这里我就安装好了,下一步就是添加大模型就能与龙虾对话了。 嗯,到这步的时候,我还以为是我 a p i 输入错了,于是我就重新新建了一个 a p i, 点进去依旧显示错误,甚至我用自定义也无法成功添加大模型。 然后我就想着,嗯,我直接去终端部署大模型总可以了吧?当我打开了它的终端,是这样的 啊,密密麻麻的乱码和 bug 判定为完全不能用。 open class 自己是这样评价的,这套东西看着像个 agent, 实际上核心脑子没接稳任务一跑就爆错掉线,纯属披着 u i 外壳的费件 非常尖锐哦,满分一百分,只有二十六分,模型调用不了,也跑不了任务,后台一堆 bug, 只能说八块钱买了个寂寞,鉴定为拉完了。 哎,我就不信了,绝对是钱没给到位,直接翻倍!这次我找了一个四百八十八元的安装服务,他直接就是在详情页写着, 国外给他正版 open club 部署,还包含什么?独家自研机系统独家自研技能存储系统独家自研中央技师,还能让你的龙虾永远比其他龙虾强,这听起来就很高端了,这次绝对赚了。 于是我就联系上了这位小哥,他很热情的跟我说了一大堆,不仅给我安装 openclaw, 还附赠一个 closeclaw, 买一送一,这就是我想要的安装服务,一个字,赚麻了! 所以我和他约好时间,线上帮我远程安装,我则是在旁边偷偷记录学习。按照正常安装 openclaw 的 流程,就是一句,安装代码进入安装程序, 一只好大模型选择想要的 skills, 连接好飞书就可以成功使用了。而四百八十八的服务不同的就是,它是先下载一个 cloud code, 然后通过 cloud code 让它自己去安装 open cloud。 好 家伙,合着这是找了个通天带来啊, 不涉及任何代码层的内容,全篇贯穿两个字,跑通!不管说了什么,就是你只管跑通就行。从开始到安装好,花了四个多小时,终于能从飞书接收到信息了, 这下该我大展身手了。我先是发信息让他质检一下后台情况发给我,然后他跟我说去运行之后就再也没有执行了,一问执行了吗?就跟我说正在执行,半个小时后再问就是抱歉,立刻整理,完全没有形成任务闭环,仅仅只是接收信息,并没有处理。 后面我再让他尝试帮我生成一篇今天的 ai 日报,点开一看, open ai 刚发布 gpt 四点五, 今夕何年啊,把一年前的资讯发给我了,出现了无法联网搜索,只能靠大模型本体的训练库里的知识来输出的问题。 open class 直接给到四十六分的水平,锐评为不是死的,也不是没装上,只是一个并没有完全残废的 agent。 哎,只能说两个安装服务全部宣告失败,没有一个是几个的,有的直接就是用不了,首赚八元, 有的就是帮你部署好了,但是用起来要不就报错,要不就不动再装几把。这坑我先替大家踩好了,专业被坑,请勿模仿。现在大部分的代安装服务都是直接帮你部署了个基础环境,连上飞书就算成功,而并不会重视安全环境或者做到真正好用, 甚至还会让你提供 api, key 等一系列非常敏感的信息,一旦泄露就会造成金钱的损失。 那如何安装?只能说代码安装已经是古法安装了。来点更小白的基础款和斜修款。基础款大家可以下载一个 ai 编程软件,像是国内的 tree, 国外的 anti gravity 和 codex, 像刚刚四百八十八元的服务那样,输入网址,让他帮你先安装好所需要的环境,并且安装好 open cloud, 接着使用后台运行这段指令,自己配置好大模型和 skills 入飞书就可以使用了。这种安装方法有一个好处,就是它能够帮你维修 open cloud, 当你出现问题时,只需要把报错的代码塞给 ai 编程软件,它就能一步一步帮你修复,非常适合小白。那携修款就是现在各大厂商纷纷下场推出的一键 cloud 部署, 像是腾讯的 qcloud、 智普的 auto cloud、 内置暗面的 kimi cloud、 mini max 的 max cloud、 字节的 r cloud 等等等等,它们都有着更加完整的环境部署以及更强的安全性。只需要点击安装环境部署模型配置 选择就会帮你处理完成,并且还不用使用魔法网络,简直就是国内养家户的救星啊!而我也相信再过一个月,你还会有更多更方便的 open cloud 部署。各位小伙伴也不用着急去找什么代安装了,遇到什么安装问题,我们还有好多大模型朋友呢,问问豆包,他也可以帮你解决。 随着 open klo 的 爆火,似乎手头上没有一只虾都有点赶不上潮流了,但随着来的就是更多的安全问题,大家一定要小心敏感信息的暴露以及权限的管理,不要让龙虾真的控制你的电脑了。 哎,说个好玩的,现在都不流行安装服务了,现在更流行的是帮忙卸载龙虾服务。 总的来说呢,安装龙虾现在是非常非常容易的,现在小伙伴们需要思考的是怎么把它应用起来。举个例子,我自己的 open cloud 每天都会发送 ai 日报给我,然后每个热点后面都会有它的视频创意,方便我更好的找到学科。 很多人使用过后也发现了, open club 并不是万能的,什么一人公司,什么躺着赚钱还是很难实现的, open club 的 上限其实是取决于背后人们的脑洞有多大,能给的指令有多清晰。他只是一个机器人,而给他注入灵魂 的是你。好啦,以上就是本期视频的全部内容,喜欢这期视频的不妨给我点一个关注和赞,也可以在评论区留下你的养虾玩法。那我们下次再聊点好玩的,拜拜。

两分钟教你部署自己的小龙虾。首先打开浏览器搜索扣子,点击扣子二点零进入后下拉,点击扣子编程。进来以后首先注册,然后点击中间最上面一键部署 open call, 再弹出框右上角点击一键部署。 模型有很多,我们直接选择自动版本,选择满写版,然后授权非书,再根据个人喜好给你的小龙虾起个名字。接下来的页面右边是你的小龙虾,左边是扣子对话框, 这样的安排主要是让你能够对你的小龙虾一键纠错,对于我们新手小白来讲简直是福音。 接下来我们和小龙虾对话,开始正式配置他,接着我们可以给小龙虾起个好听的名字,定义他的性格,明确他的工作以及让他知道自己的老板是谁, 然后点击发送,小龙虾就会根据你的定义开始自行配置自己小龙虾。自行配置的过程中,所有配置代码全程自动,无需你再输入什么指令,所有的配置它会自动保存在根目录里。到这里你的小龙虾就已经基本配置好了。 那下一次我们在哪里找到它呢?我们重新回到扣子空间,然后点击扣子编程, 找到项目管理。进来后,我们的小龙虾就在第一个位置,然后我们点击它就能再次回到小龙虾的界面,按照以上步骤,你的小龙虾就已经基本配置完毕。 下期视频教大家如何用飞书打通手机和 pc 端,让你拥有一个可以用手机管理的电脑端小龙虾助手,我们下期再见!

很多朋友呢在下载完龙虾之后,非常关心的一个问题,我是不是可以用一些免费的模型,然后去让龙虾进行使用,那这样的话我就可以不花钱了。之前我也给大家介绍了一些免费的厂商,提供了一些免费模型,但是那些免费模型呢,他是会限定一些额度的, 那就会有很多朋友问说,我本地部署模型是不是 ok 的? 那怎么让龙虾去连接本地的部署的模型呢?那这期视频呢,我们就来看一看怎么实现。首先呢在本地模型部署有一个非常牛的软件,就叫这个欧拉玛, 这个软件呢我们可以下载之后,它可以去帮我们去下载对应的一些我们想部署的模型,并且呢在它软件里面可以进行一个启动, 这样的话就不需要我们自己去找对应的模型资源,然后进行一个模型文件下载,然后再去启动对应的模型,所以说这个软件呢非常的方便。那这个欧娜玛的一个安装呢,我们这个地方直接就是给大家提供了下载链接, 就进入到欧娜玛点 com 这个地方,然后点击对应系统的一个下载方式,比如说你是 windows 就 直接点,然后下载完了之后直接安装就可以了。那安装完了之后它是一个什么效果呢?主要是有两个地方,首先呢 安装完之后它有一个文件夹,文件夹里面呢它会有一个 app 的 入口,可以把对应的 app 打开,打开之后呢我们就可以在这个地方跟它进行一个对话,可以看一下它所支持的一些模型,比如说 gpt, 然后 deep sync, 千问的,然后 mini max, 还有一些什么拉玛,然后本期我们就以千问的这个模型给大家进行一个讲解,看对应的龙虾怎么去连接。那我这个地方呢,已经把千问和拉玛的这个模型已经下载下来了, 所以说可以看到如果没有下载的话,他这个地方会有一个下载按钮,然后如果已经下载好的这个地方是没有下载按钮的,大家到时候可以下载一下,一会也给大家说一下怎么去进行一个下载。然后我这个地方就可以跟他在这种格式化的页面进行一个对话,问他你是谁, 那可以看到它现在因为它是一个 think 模型,就是它会思考,然后思考完了之后它会进一个回话,可以看到它的一个速度,在本地的一个部署模型速度还是比较快,当然了这个也是看你本地机器的一个性能,那我当前的这个机器呢,是一个五零八零的显卡,所以说它的一个效率还是比较高的。 然后除了这种方式之外呢,我们还有就是控制台的这种方式,就在这个地方我在文档里面给大家写好了, 就是我们可以在 power shell 里面去执行欧拉玛瑙,千问八 b 就 这个模型, 八 b 这个模型如果我们执行了之后,你本地如果没有去下载对应的这个模型,他会先去当 load 的 把对应这个模型给你下载下来,如果已经下载完了之后,他会直接去启动对应这个模型,那你在这个地方也是可以跟他对话的,你问他是谁, 然后进行一个 syncing, syncing 完之后输出对应一个结果,可以看到还是比较丝滑的,那本地模型呢?已经部署成功了,接下来我们就是要让我们的龙虾接入到这个本地模型。接入本地模型呢,其实也比较简单,那这个地方呢,我给大家介绍的是通过修改 opencloud 的 配置文件, 它里面有一个 open cloud, 点 json, 去把里面对应的一个内容进行一个修改,然后我们先按照上面这个步骤去打开 open cloud, 它对应了一个文件位置,我们就可以先去这个地方,然后 按照我命令执行就行了。先 cd 到点 opencloud, 然后进来之后呢执行这个 start 点,打开对应的一个文件夹,打开之后这个地方会有一个 opencloud 的 json 文件,然后编辑给它,在记事本里面编辑就 ok 了。 那我们可以看到之前呢我们这个地方,因为我是豆包的模型,所以说这个地方会有一个豆包模型的配置,那还有一个 agent, 就是 这个与我们对话的这个 agent, 它对应的模型使用的是什么?可以看到这个地方使用的是豆包, 那我们想去使用本地的欧拉玛模型,其实只需要修改三个地方就可以。首先第一个地方就是我们需要在猫豆子这个里面把我这一段给它拷贝进去, 找一下猫豆,然后与豆包进行一个平行位置, 然后把它删掉,加一个逗号,一定是一个英文逗号,然后加完之后我简单说一下它对应的一个内容,首先它是请求的 url 是 什么?就是本地的 logohost, 然后端口,然后 v e 接口 这个 appk 的 话,实际上它是因为本地模型是不需要这个 appk 验证的,所以说你这个地方随便写就 ok 了,跟我这个一样就可以。然后这个地方模型的话你就是用自己的,我们刚才不是下载的是千万八 币吗?所以说这个地方就是千万三八币。然后配置完这个之后,我们还需要去修改 agent 的 它所使用的模型。首先我们需要在底下去把欧拉玛对应的这个模型添加到它可用的模型列表, 在这个地方添加进去。 ok, 添加完了之后我们还需要替换一下,就是这个地方把这个 primary 给替换成我们下面的这个好的保存完了之后呢,我们这个地方的配置就结束了,就直接可以回到命令行执行一下, 我们把这个地方给关掉,关掉之后执行 open cloud get away。 这个因为我们是命令行之前启动的,所以说我们直接关掉之后呢,就相当于对应的龙虾已经结束了,那我直接执行它重启就好了。但是如果大家是 没有在这个地方直接关闭,它是后台执行的,那大家是需要执行 open cloud get away restart。 大家一定要记住这个点,我们直接启动 可以看到这个地方他有 agent, model 是 欧拉玛的千问三八 b, 那 说明我们这个地方配的还是没有问题的。我们来到龙虾这个地方给他对话一下, 那这个呢?是我之前问他的这个模型使用的是什么,那现在呢?我在问他说你现在的模型是什么?你当前使用的模型是什么? 那可以看到它现在已经告诉我说使用的模型是千问,然后它是通用实验室自主研发的超大规模语言模型, 所以说我们现在就已经切换成功了,这样呢,大家就可以拿龙虾去玩本地的模型了,也就不需要花你一分钱了。但是这个地方大家要注意,一定你的机器性能相对来说会好一点,那这个模型的速度运转会更快一点。然后如果你机器性能非常好的话,因为我这个地方配置的是八 b 的 模型, 八 b 呢代表是它的一个参数量,那三十 b 呢?像这种大参数量的,它的一个效果一定是要比我八 b 的 这个模型的效果会好一点。如果你的机器性能非常卓越的话,那你去下载三十 b 的 这个模型, 当然它需要很大的这种资源,所以说当它运转的时候,它对应的这个思考或者它的一个能力也是要比我八 b 的 强的。所以说这个地方看大家一个机器情况。

最近这个龙虾啊,真的是太火了,前几天腾讯楼下的工作人员免费给大家安装了龙虾,真是人山人海,有两三百人排队,甚至还有很多人没有排上号。所以今天我也来给大家讲讲如何安装部署,不用排队,自己在家就能安装了。当你一不小心突然想配置一个在国内可以用的中文版小龙虾 agent, 聪明的你呢,就打开了编程软件 tree, 非技术背景的你啊,直接可以在对话框里面和 tree 说帮我配置 no 环境, 几秒之后呢,按照小龙虾的前置条件就解决了。然后聪明你呢,这个时候就在 github 里面找到了这个中文版的小龙虾,确认这个版本的小龙虾是在国内也可以用的,而且还能够通过飞书对话给它下指令。于是你就直接在这个网站里找到这三段神秘的代码,先把第一行丢给 tree, 几秒钟之后呢,就搞定了。接着呢,你再回到刚才那个网址,把第二行代码复制后再丢给 tree。 这个时候就进入到了紧张的部署环节。第一个问题,问我们是否理解有风险?回答, yes。 第二个问题,选择引导模式,选快速引导模式。第三个问题,选择配置现有值。第四个问题,选择模型商,因为之前在 deepseek 充了 token 啊,所以我就直接选择了 deepseek。 然后第五个问题是让我们提供 api key, 聪明的你呢,这个时候打开了 deepseek 的 官网,点击开放平台,点击左侧的 api keys, 然后快速创建一个,并且把这个代码复制后丢给 tree。 第六个问题,我们默认模型就选保持当前。 第七个问题,跟我们使用什么与小龙虾沟通,我们选择飞书,然后选择使用本地插件,选飞书国内版。 这个时候聪明的你就搜索飞书开放平台,登录后点击右上角的开发者后台,点击创建企业自建应用,然后随意输入应用的名称和描述,然后就创建好了。 这个时候呢,点击左侧添加应用能力,选添加机器人,然后点击权限管理,再点击批量导入权限,获得对应的接入文档, 这个时候输入第三段神秘代码,然后就开通了所有需要的权限啦。接着呢,我们点击左上角的线上发布,随意输入内容后就完成了发布。那么接下来有毅力的你再坚持一下,把应用 id 的 秘钥呢,分别复制给翠,然后回答最后几个问题,分别选 yes, np 和暂时跳过钩子。好到这里恭喜你,小龙虾的部署完成了,有毅力的你呢,也决定再把最后一步飞书也配置好。 这时候聪明的你呢,就回到了刚刚的飞书应用页面,点击左侧的事件一个回调,选择订阅方式,添加一个长链条并保存,然后点击右下角的添加事件,搜索接收消息,然后点击确认, 这时候再次点击上方的创建新版本,仍然是随意填写内容后完成发布。好了,现在恭喜你,你已经可以在飞书里给小龙虾下指令了。

普通人玩小龙虾最大的问题从来不是不会用,而是根本装不上。现在进入这个网址,点击下载链接,安装之后,一个全中文界面清爽,你的专属小龙虾就正式住进电脑了。你能忍住不去玩一下吗?想让他活过来?进去先别急着用, 找到设置模型与 api 右侧,点击重置链接,确认服务状态,显示已连接。这一步做完,小龙虾才算真的火了。接下来就是选择合适的大脑模型,官方已经内置了配置好的大模型, 注册就送积分,纯体验党直接用就行,想折腾的也可以自己接。其他大模型我呢,用的是 deepsea, 这一步弄好以后就可以正常使用。而那些复杂的配置,官方已经弄好了,回到主页左侧就能配置不同角色。让实习生小李专门整理资料,让小王负责写文案。 再养个龙虾助理,专门教我怎么使用。比如给他安排这个任务,他自己遇到问题了,我也不懂代码呀,我直接说你帮我安装好, 他就能自动解决问题,还把前面的任务一起做完。当然,最绕不开的是 token 的 花呗情况到底高不高?参考前面的那个任务,看一下 deepsea 的 后台,这是消耗的 token, 这是 deepsea 的 消耗费用。而现在呢,你最该做的就是亲自去体验一把,你到底需不需要养一只小龙虾?

现在很多人用 open core 龙虾来提升工作效率,但是他用云端的大模型,大家又有所顾虑,数据不安全,依赖外网还会受限。想让龙虾直接调用你本地的大模型吗?今天这期手把手带你切换,安全又自由。 好的,真的是手把手教哈!现在我们在左下角搜索框上面输入 c、 m、 d 三个字母,在弹出来的命令提示框里面,我们首先要进行一个环境检测,那检测的内容无非就是两项,首先第一个是龙虾的环境是否是安装正确,另外一个是欧拉玛本地 你的开源大模型运行框架是否正常,有些人到这一步可能就开始挂了,哎,我这里怎么跟你不一样呢?这些都是基础环境的问题,点赞过千呢!我会为大家出一期教大家怎么零基础安装龙虾环境,并且配好本地大模型。 openclose 需要一个 api key 来识别,欧拉玛服务 这里我是使用了 linux 常用的,这种 spot 命令在 windows 环境下应该是识别不出来,所以待会大家看到一定会出一些问题啊, 那我们换另外一种方式就可以了。所以现在我们是通过 open call 来配置他的 a b i k, 这个 k 可以 是任意的支付船。我这里是设置成了欧拉玛 logo, 那 你要设置成 abc 也是可以的。 现在大家看到提示就代表着我们的龙虾已经连上了本地的大模型,当然现在还没结束啊。接下来我们要检查一下奥巴马服务是否已经开启,因为如果没有运行的话,是需要重新再启动的。这里输入的是本地奥巴马的服务地址, 可以看到我现在本地正在使用的一个大模型是千问三点五的九币,如果没有顺利出现模型铃声,那需要执行这条命令,手动启动本地大模型。那如果你的拉玛本来就是正常运行的,执行这条命令呢,就会 有错误,跟我一样,这是正常的,不用慌,现在我们干脆新开一个命令行窗口啊,我们先检查一下这个龙虾里面的模型有哪一些啊?用 openclose model list 的 这条命令就能够查询的到,第一个千万三幺四 b 的, 这个是之前我使用的本地模型。 第二个呢就是龙虾他默认使用的大模型啊,这是一个在线的大模型。然后呢,用现在大家看到的这条命令,我们就可以让龙虾去找到本地正在使用的大模型。 千万三点五九币。执行完了以后,龙虾会自动的重启,重启以后倒转到这个龙虾的 t u i 交互界面, t u i 交互界面是我们和龙虾进行交互的一个 窗口,我们可以交代他去做什么啊,他会在同样的地方给我们反馈。按 ctrl c 就 可以退出 d o i 界面。紧接着用 open claw on board 这条命令 来启动龙虾的出石化像道这一步用方向左右键就可以选择 yes or no, 这里我们选择的是 yes。 第二项默认选第一个就可以 回车跳转以后我们就可以在龙虾里面看到一个表,这个表里面就显示出了龙虾检测到的本地大模型。千万三点五九币。下一个配置我们可以选择一二两项中的一项,但是千万不要选择第三项 reset, 接下来模型供应商选择,我们直接跳转到最后一个,跳过就可以, 然后选择 o provider, 在 这个 default model 里面连接的欧拉玛模型应该会出现在最上面,并且作为末日模型选择这个就可以了。后面的设置大家只需要参考视频的配置就行。 最后重启龙虾我们就可以来测试是否切换成功。由于之前我已经使用了飞书来测试一下本地的 overclock 使用 大模型是否是正确的啊。大家可以看到当前我发送的消息是直接会发送到我本地的服务器的, 然后有本地的大模型去查找问题。好,我们看到了现在这个龙虾去查询了一下,回复我们当前模型是圈问三点五九币,这个是准确的啊,那基本上到现在 本地模型切换呢,就是完成了啊。最后给大家展示的是拉取本地模型常用的两条命令啊,第一个是拉取,第二个是查询啊,有需要的宝贝啊就可以去参考一下。

想低成本无风险尝鲜龙虾机器人,最好的方式之一就是在阿里云上部署龙虾机器人。废话少说,我们直接开始手把手教程,大家把屏幕打成横屏,跟着我一步一步操作,两分钟完成部署。首先我们进入阿里云的主页, 在上方的菜单栏点击产品精选产品轻量化服务器,在这点击立即开通, 选择龙虾镜像,选择最新版本 地区,因为国内需要备案就我们就选择佛吉尼亚,美国,然后,嗯,新手的话价格非常优惠,一年只要六十多块钱,点击购买开通就可以了。 开通成功了以后呢,我们再回到主页,继续点击产品清亮服务器,这个时候就不要点击购买了,点进入产品控制台。 好,我们看到这个云主机的实力已经生成,我们点击云主机的名称进入配置 openclock, 点击上方的应用详情, 那么这里就列出了三步,我们只要按照三步后面的提示按钮逐个点击顺序开通就可以。 第一步开通端口,第二步开通 motobot, 这节课时候在点击的时候它会引导你去生成一个 key, 那 么把 key 输入进来就可以了。 最后一步是生成访问控制链接,我们把生成的链接地址复制下来,打开一个新的浏览器窗口,输入地址,敲回车访问。 好,到这一步我们就完成了龙虾机器人在阿里云主机的远程部署,那么龙虾部署好了,怎么让他来替我们完成一些工作呢?点点关注下一期给大家做进一步介绍。

经过一整天的折腾,不停的调试测试,终于把龙虾和欧拉玛本地部署的大模型链接上了。下面说一下我这次的经验,并不是所有本地大模型都支持龙虾,目前经过我测试,最好用的是千万三, 我本地的硬件最高能支持在欧拉玛里面跑三二 b 的 大模型,但是速度比较慢,所以我下载了一个九 b 的 千万三,先试一下 九臂的千万三在欧拉玛里面可以很快的速度运行,但是在龙虾上反应的速度就有点慢, 而且只能支持本地聊天或者处理文本任务,让九臂的千万三驱动龙虾去打开浏览器都实现不了,也可能是因为我本地部署的大模型太小,有没有哪位部署过比较大的本地大模型的朋友可以说一下使用效果如何? 所以我打算暂时放弃使用本地大模型去动龙虾,去购买二十九元包月的 mini max 的 a p i 来使用 tucker, 量大管饱,关注我,一起交流养龙虾!

在配置小龙虾的时候,这里有不同的模型可以供我们选择,但是呢大多数都是国外的模型, 那很多小伙伴说我更喜欢使用 deep seek 模型,要如何配置呢? ok, 那 这个视频中咱们就手把手教大家如何在 opencloud 小 龙虾中配置 deep seek 模型。好,我们看到当前这个页面就是我们之前配置好的小龙虾的 web 页面, 在这里面我们输入任何聊天内容,它都会返回一个错误信息,这是因为这个模型 and topic 咱们没有配置,我们要配置的是 deep sec。 那 怎么配置呢?接下来跟着我的流程。首先我们在这个页面中找到这里的设置,这里有个配置, 然后我们找到模型在这里 models, 那 么配置方式有两种,如果你会编程的话,你直接找到这个路径,在这个接私文件中进行配置。我先给大家演示一下, 直接打开你电脑中的访达,然后点击这里前往粘贴一下这里的路径。好,现在就已经找到这个文件了,然后打开你的一个编辑器, 比如说我这里就使用文本编辑 sublime, 这是每一项配置,比如说 agent tools, message 等等等等,咱们就给它添加,到最后这里添加一个逗号。接下来就是咱们的 provider 模型的设置,这里呢给大家准备了一个文档,大家可以直接粘过来, 直接把这个文件全部粘过来,这是一个新的一项叫做 models, 那粘过来以后,我们会发现这里有一个 api key, 它是 deepseek 的 api key, 那 么我们需要访问 deepseek 的 网址,查看一下它的后台, 找到 api 开放平台,充值完成以后,这里有一个 api keys, 点击它,然后点击新建 api keys, 输入一个名称,比如说我们就叫做这个 open crawl, 直接复制它,然后把它保存到一个地方,然后把你的 api key 添加到这里,保存这个文件就 ok 了,这是你会编辑代码的情况下, ok, 我 们还原回去。 那小伙伴说如果不会写代码,不会这么操作怎么办?非常简单,我们直接就在这个配置页面中来进行添加。 ok, 那 接下来咱们看一下怎么添加。首先咱们找到配置,找到 models, 然后这里 model parameter 模型提供商,点击它, 点击这里的 a, d, d entry 添加试卷,咱们就在这里进行添加,其实无外乎就是把刚才内容这里添加了一遍,咱们叫做 deep seek, 起个名字, 然后这里选择模型,选择模型的时候呢,这里没有 deep seek, 咱们可以选择这个 open ai competition, 因为什么呢?因为 deep seek 它是兼容 open i 的, 所以说你选择它是没有问题的。接下来这里填写 api key, 也就是我们刚才在 deep seek 中复制的那个 api key, 把它填到这里,好,下一项,这里咱们选择 api key 的 形式, 接下来这里有个 base ui 二, base ui 二,我们应该填写这个 base ui 二, 这样的话它就会请求 deep seek 的 这个 api, 然后继续 model list, 这里是额外的选项,咱们点击 a d, d, a, p i, 选择这里,我们还是选择 open a i, 然后继续 content window, 这是文本长度,对应的就是它,把它拷贝过来,然后点击 cost, 这些全部设置为零。 id, 这个 id 呢,咱们就叫做 deep seek chat input, 点击 a, d, d, 然后选择文本形式 t y 七 ok, 最大的 token 这里咱们设置为八幺九二 name, 这个 name 呢,咱们就叫做 deep seek chat。 好,全部填写完成以后,点击这里的 save, 现在呢就保存成功了。保存成功以后,咱们再回到聊天系统这里,那此时它的回复是,我是 deepsafe chat 模型, 这也说明咱们现在 deepsafe 配置成功了。如果你在配置过程中遇到任何问题,请在评论区告诉我,关注我,带你玩转小龙虾!

作为一个老程序员,我花了一个星期的时间,每天大规模的使用小龙虾,今天给大家一个视频,讲清楚该怎么样去使用小龙虾。 那首先第一步就难到了很多人怎么去安装小龙虾,这是原生的小龙虾,我教大家一个好的办法,就是你可以用国产的小龙虾,因为很多像腾讯啊,阿里啊都推出来自己小龙虾,那么他们小龙虾实际上把原生的小龙虾打包成一个安装包, 那样的话你只要点下载,你看,不管是苹果还是 windows 电脑,你下载安装包之后,一键安装,你就可以拥有一个国产的小龙虾了,你看是不是就有国产小龙虾了?他跟他跟小龙虾是一回事对吧?他自己是打包了让你方便的使用。那么你用这小龙虾之后呢, 你就可以发现小龙虾和原来的 ai 有 本质的区别在哪里?最核心的区别只有两点,第一个,他就可以通过命令行的方式去控制你的电脑,让你的电脑干各种活,也可以直接写一个应用程序安装电脑上面用, 那这样的话,你就是不仅你只是回答文字了,他可以操作电脑了。第二个呢,他可以配置好你的这个,呃, 微信还有 qq, 飞书,钉钉等等,这样的话你通过对话聊天就可以给他发命令,这是小龙虾的用处。好,你看我要做什么呢?我主要是用了它帮我总结一些最新的 ai 资讯,然后帮我发到微博还有小红书上面去。 大家看这些都是小龙虾帮我发的微博,内容也是他在网上收集的那些资料,整理好发出去, 你看这个一看就是 ai 的 那个味道啊。然后小红书也有,那么整个的访问量呢,还可以,所以我更要更好的去 总结,让他写出更好的文案发出去,包括后面我想去让他做视频和这个图片,甚至让他帮我去做客服,这都是想了算,可以完成的。好, 那么我们该怎么选择呢?我觉得普通人你可以用国产小龙虾去安装原生小龙虾,因为毕竟原生小龙虾的可操作性更强, 只需要跟他说在我的电脑上面帮我安装下载一个小龙虾,大概需要二十分钟之后他就把这个装好了,你其实中途什么都不用做,他就帮你做好了。 呃,但是呢,我建议大家还是直接用国产小龙虾,就是那些大厂做好的。呃,客户端,那么它有一个坏处,就是它内置的这些大模型啊,都是国产大模型,比方说 kimi 啊,比方说呃, dspc 啊,千问啊这一些哈,那么它们也非常棒。但是在真正工作当中,比方说你写代码,编辑文案,操作浏览器等等一些的话, 那么他有两个缺点,第一,准确性不是很好,他工作了完成的这个不是你很想要的样子。第二个呢,速度相对的慢一些。第三个呢, talking 消耗更多。所以呢,我就把这个东西啊, 接入了国外的大模型,比方说 g p t 五点四和 colode 的 四点六,这是最新的大模型,怎么接入呢?也很简单,我只需要打开这个网址, p p word 点声。为什么这个网址呢?因为这个网址里面的话大概有六十多个 ai, 全球最顶级的 g p t, 包括 db c, 这还有吉米兰啊,还有 clone 都有,最新的包括四点六都有。然后你只需要注册之后呢,在这个地方点这个啊 api key 点好之后这边申请 一个新的 key 就 行了,然后你把这个 key 的 内容复制下来,然后告诉他你的 base 里边 l 是 什么,然后呢把这些内容一股脑的发给这个呃原声的小龙虾, 跟他说帮我把里面内置的这个大模型换成我这个 p p word 的 呃大模型,那么你只要替换之后,你看里面就有这些, 对吧?大模型了,你就可以在这些呃小龙虾,不管是原生还是小龙虾里面去使用到国外的最新的大模型了 啊,这个时候你的小龙虾才真正的起飞,你看他这个整整的那些国外大模型,他去收集资料还是去做工作的时候,那个效率提升的可不止一点点,特别的快,而且很准确。 这样的话你还可以让他去做一些自动化的流程,比方看每天给我发小红书,发 ai 资讯到各种平台, 兄弟们,这个时候你就真正的玩转了小龙虾,所以呃核心的两点哈,第一个就是下载一个国产大那个小龙虾,随便哪一家都可以, 然后呢第二个呢,就是让他去在 pp 点声音这个网站里面申请一个 api key 去使用国外大模型,然后你的小龙虾就可以起飞了。

最近 ai 界掀起了养小龙虾热,但是有谁知道养着这个龙虾多费钱? opencall 本身完全免费,收费只来自你接入的大模型 api。 一、 核心收费逻辑,小龙虾本地开源免费,本地部署无任何费用算力 token 收费,小龙虾只是指挥中心, 干活全靠背后大模型,你用什么模型,怎么计费,完全由模型方决定额外成本,本地运行电费,电脑损耗,云服务器部暑月费约六十到三百元。二、主流模型 token 收费,按一百万 token 公算 gpt 四 o 约一百到一百五十元。 wild 三、 opus 约一百二十到一百八十元。工艺千问文心一言约三十到六十元。 deepseek minimax 约十到三十元。免费模型,如 q n 七 b llama 三、本地版零元。 三、小龙虾烧钱有多猛?普通聊天一天几元到几十元,自动任务成文党一天几十到几百元很常见。复杂 a 诊多工具调用,单日上千甚至上万都有可能,隐藏消耗心跳机制,记忆重试机制,闲置也会烧头啃。四、 省钱方案一、优先用免费低价模型,本地开源模型,国内低价 a p i 二、控制任务复杂度,少开记忆,少用多工具缩短任务量。三、按量套餐,选平台包月套餐,如腾讯云 coding plan, 首月约八元,次月约二十元,无限 token 在 线次数。 四、本地部署,用自己电脑跑轻量模型,零 token 费,一句话记,小龙虾免费模型按 token 收费,想省钱就用低价免费模型加本地部署。还有,养小龙虾有安全风险,使用需谨慎。

我们可乐的安装方式已经进化了,我这段时间一直在折腾小龙虾,足足安装了五次小龙虾,踩了非常多的坑。原来的安装方式往往是租一个云服务器或者部署到自己的电脑,要自己配置环境,配置非常的繁琐,还容易出 bug, 往往折腾大半天还配置不好。 但现在很多厂商已经出了一键安装,云部署和服务器部署都有,往往按几个键就可以完成部署。如果你想要本地部署,你可以选择这些厂商, 如果你想要部署到云端,可以选择这些厂商。区别在于本地部署往往可以配置自己使用的模型,也可以指挥小龙虾来操作你自己的电脑。 缺点在于你需要不间断的二十四小时开机,如果你配置额外的模型服务,还需要额外付费。云端部署比较方便,你不需要准备一个二十四小时开机的电脑,有极简的配置,几分钟就可以接入你的聊天软件。但是缺点在于很多厂商提供的模型有限, 而且某些是需要会员的,又或者只能连接这些厂商自己的聊天软件,不能随意配置。当然,如果你是一个极客,仍然可以使用原版配置方式。现在你是否清楚你可以使用哪一种配置方式了呢?如果你还有问题,欢迎评论区留言,欢迎点赞关注,我会继续分享更多有意思的 ai 视频。

openclaw, 一 款能接管你的电脑,真正自己动手二十四小时替你干活的 ai 工具。因为 claw 这个单词有龙虾钳字的意思而被国内网友戏称为 ai 小 龙虾。为了用上这个小龙虾,有人甚至花几百块找人上门安装 openclaw, 腾讯还专门搞了个线下活动,免费帮你装龙虾。这期视频手把手教你学会 openclaw 的 本地步数。 一、前期准备工作,硬件要求不高,一台能联网的电脑, windows、 mac 系统都可以,只要不是特别卡都能流畅运行 openclaw。 如果你的电脑里有重要文件资料,建议把 openclaw 部署到虚拟机里运行。软件方面,我们需要先在电脑上安装 nodejs 和 git 这两款软件。首先来到 nodejs 官网版本,建议选择 vr 二 lts 稳定版,点击获取 windows 安装程序, 下载后打开软件安装包,勾选同一软件安装协议,然后一直点击 nex 的, 再点击 instyle 开始安装,稍等片刻, note gs 就 安装好了。然后进入 get 软件官网,点击下载,没反应的话可以到评论区看看安装选项,全部保持默认即可。 最后把这个 view release note 取消勾选,点击 finish 完成。二、安装 openclaw, 点击左下角开始菜单,输入 powershell, 选择以管理员身份运行,然后输入这一行命令,按下 enter 键运行, 系统会询问我们是否确认执行策略,更改输入 y, 按下回车键表示同意,然后再输入 openclaw 官方安装命令并执行, 剩下的就是耐心等待 openclock 完成部署。安装过程中你可能会遇到各种各样的错误提示,直接截图问 ai, 根据他们的回答逐步解决问题, 期间会有一个弹窗提醒,选择允许访问,随后会来到这个界面,表明你成功完成了 openclock 的 本地安装。接下来我们还需要对 openclock 进行配置,按下键盘上的左右方向键,切换到 yes 回车,确认出石化模式,选择 quickstar ai 大 模型。这里支持使用 gpt、 mini max、 kimi、 豆包、火山引擎、阿里千问、百度千帆等。这是国内主流 ai 的 api, 使用费用大家可以自行选择。 这里以 kimi 为例,依次选择 kimi apikey, 点 c paste、 apikeynow, 然后打开浏览器,搜索 kimi 开放平台,确保账户有余额。点击 apikey 管理,新建 apikey 名称,输入 opencloud 项目,选择默认复制这串密钥,并粘贴到刚才的窗口即可。 如果你喜欢用豆包,就选择这个火山引擎 pass 的 api k, 然后进入火山引擎控制台,点击这里的 api k 管理,创建一个 api k, 粘贴到 power shell 窗口中,返回 timi 的 配置界面, 按下 enter 确认执行模型版本,选择默认的即可。这一步是配置通讯频道,我们选择最后一个 skip, 包括后面的配置,搜索引擎配置、 skills、 自动化脚本全部选择,暂时跳过,等跑通了再回来配置即可。 最后一步选择 opens web ui 系统,会自动调用浏览器,打开 opencloud 的 聊天窗口,如果小龙虾可以回复您消息,恭喜您完成了 opencloud 的 本地部署。下期视频我们具体了解小龙虾的使用方法。

界面啊, open cologne, 来看一下咱们整个配置。这边呢是 cologne 的 get 位,他的网关,这边呢是本地的欧拉玛服务器 哎,这边已经好了,其实呢,走了一些弯路,我跟着豆包的思路啊,给我转圈转了一天。然后呢,我用 tiffany 呢,直接改了一个 jason 的 一个配置文件,直接跑通啊,就是这么。哎呀神奇,看一下, 我这边是跑的本地的欧拉玛,用的千问三点五九币的一个模型。你看这边啊,我已经开始给他对话了。这边想做什么啊?怎么称呼这边?你看下一步呢,继续折腾一下。

很多朋友都想安装 open klo 的 小龙虾,但是不知道怎么办?今天教大家最简单的方法,只要五步,第一步在腾某云上面去买一个服务器,也就是你要给你的龙虾租一个房子,大概六十块钱一个月。然后第二步去安装一只小龙虾,这个不花钱。 第三步就是去给龙虾买粮食,这个最花钱也就是大模型的 token, 国内的 kimi 或者国外的 klo 都可以,一开始可以先充值五十块钱玩一下。 然后第四步,配置通讯接口,这样的话你就可以跟你的小龙虾沟通了,安排活。那这个呢,可以是非某书或者企业某信都可以,按照官方的指南来就好了。那这些做完之后,第五步你就可以正常使用小龙虾了,就这么五步轻松搞定。但是这里面最耗钱的是那个龙虾的口粮, 用的便宜的人呢,一个月几十块,用的贵的人一个月几百几千都可能,不同的口粮呢,价格不一样,进口的很贵。 然后安装其实很简单,大概二十分钟就够了,装好之后大家就可以慢慢的调试你这个小龙虾了,把它当成你的第一个 ai 员工,好好的教它吧,我是喜子,带你看透 ai 时代的商业逻辑。

微信怎么连 openclaw? 小 龙虾,来我们一起试试看。首先呢,要提醒大家两件事情啊,第一呢,这个在部署过程当中,它不是全程免费的,因为首先你需要选择一个云端的服务器,这个服务器是需要付费的。 其次呢,当你在选择这些模型的时候呢,其实模型也是需要付费的,哪怕是使用腾讯自己的 calling plan, 你点这个一键添加模型的时候呢,他会提示你是否已经购买,如果你没有购买他的模型呢?你又需要前往他的大模型去购买这个 plan 套餐。 第二件事情呢,就是用 open claw 调用第三方的 skills 呢,是有一定风险的,他不是理论风险,他是有实际风险的,所以希望大家在调用过程当中一定要非常谨慎。 那使用腾讯云来部署 openclaw 呢,有一点好,就是不需要放出你电脑的权限,那么和微信连接呢,无非就只是一个对话框, 但是也不是说一点风险没有了,因为呃,第三方的 skills 可能会通过给你发一些恶意链接,你点进去了,那就也会受到攻击。 最后达到的效果就是这样的一个微信聊天框,然后你只要把需要的发给他就可以了。 好,那我们现在来看一下怎么部署啊?首先打开我们的网页,然后直接在链接处输入 这个链接地址就行了,然后选择这个左上的,立即部署我的 ai。 注意,那么首先呢,他会让你先选择一个你的服务器,云服务器,那我建议大家往下拉,选择这个海外优选稳定延迟 opencloud, 畅联全球的这个 我选的是这个,但是大家其他的也可以试一试,接下来呢就是三步走了啊。首先你需要选择一个模型,然后选择一个通道,也就是说连接你的微信还是你的企业微信元宝这些都可以。最后呢是选择一个 skills, 首先我们要选择一个模型,那在这里会默认给你选择这个腾讯云的 coding plan, 那这里自动都没有关系啊,但是当你点这个一键添加模型的时候呢,它会提示你啊,是否已经购买,如果你没有购买它的模型呢?你又需要前往它的大模型去购买这个 plan 套餐。好,大家可以看到啊,现在我的这个 check gpt openai 的 已经连接好了, 那么接下来我们要选择一个通道,那既然是选择微信,那就选择直接选择微信就可以了,前往授权哦,但是要更新到最新的微信版本了, 我们看一下,现在版本已经是这个八点零点七零了,你再来扫这个码,连接 好了, chatbot 就 已经上线了,我们回看微信的话,我们就可以在这边看到微信 chatbot, 然后你可以给他发一个你好 就比较慢的,我觉得你看他会跟你说你好,他是一个全新的 work space, 所以你可以叫他给他取个名字,然后就可以跟他合作了。最后呢就是给你的龙虾添加他的核心技能啊, skills, 那 么获取更多 skills 呢,就是在这里点击获取在这个 club 上面, 在这个 club 上面现在有三万四千三百六十一条 skills 可以 供你选择,但是一定要注意安全,一定要注意安全啊! 好,我们的微信终于连上了部署在腾讯云端的 open club 小 龙虾了。你会想让你的小龙虾为你做点什么呢?在我的评论区留言吧,关注我,分享更多 ai 时代有趣的事情!

云端部署小龙虾只需要三个步骤,适合新手快速入门,这个视频带你了解云端部署 opencloud, 并接入飞书的全流程,看完就能上手操作。 第一步,准备好前提条件,在飞书开发者平台创建应用,这里填应用名称和描述确认,打开凭证,拿到飞书的 app id 和 secret, 把它们保存下来。 然后在模型厂商创建模型的 api, 新手选有免费额度的或者有套餐的模型厂商后期用起来不烧钱。在这里创建 api 保存下来,在下一步创建云服务器要用。 第二步,创建云服务器。现在很多云服务厂商都有一键部署 opencloud 的 服务,打开创建页面,选择应用模板计费类型,选这个 地狱,下拉选择配置,选这个普通场景完全够用。在这里创建登录密码并保存下来,后期远程访问要用高级配置,这里设置模型,下拉选择要用的模型, 填入提前准备好的 api key。 注意,这里可以用模型套餐,也可以单独选某个模型,长期用的话建议选套餐。消息渠道选飞书也是填入提前准备好的, 这里确认年限,勾选同意,点这里去购买就行了。这样一台不熟好龙虾的服务器到手了,可以在控制台点这里远程连接,连接好以后就是这个界面。第三步,连接飞书,新手跟着教程一步步点就行了。 首先配置飞书权限,点击已创建应用,在左侧目录,点击权限管理,点开批量导入导出权限,删掉原有的势力,复制这一串粘贴上来,下一步,申请开通, 这两步都点确认接下来事件与回调,回到开发者后台左侧目录,点事件与回调,事件配置订阅方式,选长连接,点击保存添加事件、搜索消息,勾选这三个选项,点击添加 回跳配置订阅方式,选择长链接保存,添加回跳,勾选这个点添加接下来发布版本,点这个创建版本,输入版本号一点零点零填个更新说明点保存确认发布。 打开飞书开发者小助手,点打开应用,给他发条消息,机器人会回复一条消息,这个就是通行码, 执行这条指令,把这里换成通行码去服务器后台运行,这样你就得到了一个云端部署并连着飞书的小龙虾了。流程已整理好,拿去直接用。这期先讲到这里,下次见,拜拜。

我发现还是有人不会部署 openclaw, 今天一期视频就讲清楚 openclaw 的 部署方法和使用方法。 openclaw 是 有本地部署和云端部署的,那我们应该选择哪个呢?首先云端安装的步骤比较简单,你不需要懂代码,虽然本地的也很简,但是本地还有,这除了安装方式之外,还有就是说权限的问题, 小白不懂代码的话,有一些权限你不懂的安全隔离,我们的一些隐私有可能被 opencloud 获取到,或者是有其他的一些安全风险,所以我建议大家先从云端开始来,那云端又有腾讯云、阿里 云等等这几个云服务场上都出了自己的一键部署小龙虾服务器,今天我拿腾讯云的举例子,今天我就先介绍一下云端部署的方法,下一篇我会介绍本地部署以及其他宝藏的文件的配置,它是怎么样 去养的,下期我会深度的去拆解一下。首先腾讯云上部署,首先打开腾讯云的官网,这个地址登录,先买一台服务器,我们打开腾讯云的官网,首页就出现 opencloud。 云端一键部署,我们点击立即体验,点击立即体验之后有个立即部署我的个人助理,点击点击这个立即部署我的个人助理 三步点击完部署之后,会让你选择服务器买这个就行,而选择立即购买,你这都保持默认就行,然后支付,支付订单就行。支付完了之后,来到清亮云服务器的页面,来到这个页面,点击这个服务器,它已经把那个 opencloud 给你部署好了。 点击这个服务器来到应用管理,这是应用管理的页面,然后在下面去配置模型通道,你就 china, 我 们是要接飞书,还是接 whatsapp, 还是 discord, 还是微信啊等等,都可以接,包括 skill, 然后我们就来接飞书。首先打开飞书的开放平台这个网址,这个是已经登录的状态哈, 打开这个网址,点击创建企业自建应用,点击这个蓝色按钮,填写应用名称,应用的描述,点击蓝色按钮创建。 创建完了之后,然后第二步,你先知道这 a p p id 和 a p p secret 的 位置,再凭证基础信息,知道这个位置之后,待会儿我们复制,然后我们先来配置权限,点击权限管理,点击,点击这个批量,然后把下面这个代码完全复制,因为这个开通权限非常多,一个手动开通的话就太慢了, 所以大家直接粘贴我给的这个代码,直接导入就行,然后这个代码的话三连这个视频找我拿,导入这个位置,粘贴好这个 jason 代码之后,点击蓝色按钮确认添加。添加完全件之后,第四步,开启 机器人能力,在应用能力这块添加应用能力,机器人这块选择开启。第五步,开启长链接,在这个页面点击时间与回调,然后这个订阅方式,点击这个编辑的图标,然后选择长链接,点击保存, 把下面这几个时间添加机器人进群,机器人被移出群,消息已读,接受消息这四个添加,然后确认。 然后第六步,我们发布应用之后,我们对机器人做了任何修改,添加权限或者是其他的一些修改,你发布了之后才会生效。 左侧这个菜单,点击版本与管理。第六步,在非书开放平台的版本管理与发布,这个位置点击创建版本,点击完了之后 会让你填写版本号,然后写一点零,点零可以加上这个机器人的描述,往下滑有一个保存,点击保存,点击发布。如果你是个人的飞书的话是秒通过,如果你是组织的话,那可能需要组织去通过一下。第七步,在 opencloud 里面配置飞猪。我们在飞书创建完机器人应用了, 然后我们需要获取到这 app id 和 app secret。 我 们创建完企业之后,我们需要把飞书和 opencloud 关联起来, 关联的凭证就是 a p p id 和 a p p secret。 我 们来到凭证基础信息, a p p id, a p p secret 这块一会要粘到我们的服务器里面,配置上 channel, 我 们回到腾讯云服务器,在第二个通道点击聊天软件 qq, 选择下滑,选择非输,在这里输上非输的 a p p id 和 a p p secret, 然后添加并应用,然后你下面就会出现非输的这个通道,显示绿色的。现在非输 oppo 卡号就打通了,但是现在还没有配大脑,没有配模型。 好,我们先来配模型,我建议大家选 coding plan 的, 因为太费头肯了,我之前用的是 openroot, 我 用的是 cloud 模型,烧,我每天烧的太痛了,太贵了。配置是 kimi, kimi 太慢了,回复得也慢,经常还会有 a p i 数据限制。后来试了个 mini max 的, 速度还不错,而且也不会有那个限制什么的,所以我非常推荐 mini max, 所以 大家直接闭眼入这个就行,我已经替你们踩过坑了,打开这个网址,注册并登录往下滑选择计划,我选的是这个四十九的套餐,买完之后我们回到这个 mini max 的 开放平台,这块是有个 tokenplay, 我们点击这个投屏 pad, 如果你没有 a p i k 的 话,点击创建,如果有的话直接点击复制就行。然后我们回到腾讯云,在这个模型里面选择 mini max, 选择完 mini max 之后,你这块都是默认的不要动,然后在这里面填入 a p i k, 然后添加并应用, 然后你的 mini max 就 成功配置了这个小三角,点击有不同的模型,我们直接选最高的二点七的就行,默认就行二点七,现在的话我们就可以在飞书上跟 oppo pro 对 话了。小龙虾本身它没有太多的技能, 比较强的是它的 skills, 所以 我们需要给它安装上很多很多技能,这样它才能帮助我们干很多事,比如说刚刚安装好的小龙虾,它也没有什么浏览器的功能,或者不能帮我们抓热点什么的,需要我们配置 skills, 所以下一期我就会分享这些 skills 以及这个 skills 的 一些构成,包括 openclaw 的 一些心跳机制啊等等。我们必须要了解的是 openclaw 是 怎么样才能把它养强,下期我会着重从 agent 记忆系统、 skill 仓库等这方面去分,让大家把龙虾越养越强,越来越能帮我们干更多的活儿,帮助我们省更多时间。

这是给上海林先生配置一台 max studio, 用于部署他的 openclaw, 因为他的公司主要是做新媒体的,我会用他来做账号的定位,以及每天查看他自己账号的数据,早上十点通过短信发给他,并且给出一些改进建议和分析, 这些全部都可以由模型自动完成。其实很多粉丝会好奇,为什么自己的小龙虾好像又慢又傻,说的话小龙虾好像听不懂一样。硬件的话其实只是一方面,最重要的是模型的选择以及你到底如何训练它, 确认的方法不对也会导致小龙虾傻傻的。林先生这台六十四的 max 六六它用起来就会非常顺心,因为方案里不止包含了硬件,还有全套的教学和工程师的一对一服务,所以拥有一个完美适合自己的小龙虾真的不是什么大问题。如果你也想要方案,可以找我聊聊。

嗨,大家好,我是硬核王同学,今天给大家分享一下如何极简的搭建小龙虾。首先第一步是搭建我们的云服务器,我们可以使用腾讯云服务器,现在有一个免费使用的活动,但是这个资格呢,是需要你去抢的,如果你不介意这个的话,你可以去自行购买。 第二步呢,就是配置我们的算模型,这里我推荐 mini max, 因为 mini max 的 费用比较低,而且我使用起来体验也很不错。 其次还有 kimi, 二点五啊等等一些其他的 a p i, 如果你想用免费的,也可以试试智普星研的 a p i, 智普星研也有活动,你注册之后会送你两百万的一个 token。 第三步就是在云服务器上去配置我们的小龙虾了, 现在呢,腾讯云服务器是有一个一键配置的功能,首先你需要重装一下你的云服务器,把它改成小龙虾的应用系统。其次在应用管理这里,你需要配置一下你的 ai 模型,直接输入你的 api k 就 可以了。最后再用飞书去进行一个通道的配置, 这里你只需要通过飞出进行一个扫码,就可以一键配置一个飞出的 ai 机器人,这样我们的整个通道全部都搭建好了。最后的最后啊,需要你在飞出上面去和你的 ai 机器人去进行一个对话,再回到云服务器里面去输入他提示的这一条命令,这样你的整个小龙虾就已经完全搭建好了。