大哥些看这里第一批养龙虾的兄弟伙,最近硬是睡都睡不踏实,刚刚把龙虾装起的时候,个个都在吼,凶得很,凶到爆,结果耍到后头,越想越心虚, 这龙虾半夜会不会在我电脑上面乱搞?好多人都搞忘了,龙虾根本不是拿来吹垮垮的,他其实真正的本事是直接的动手操作,行里的都晓得, 终端的权限都是电脑的家门钥匙,以前黑客挖空心思都是为了抢这个钥匙,结果现在倒好,大家主动把一把钥匙交给龙虾,开浏览器,翻文件,绑 api, 绑密钥,连接服务器,等于是把自己的家底全部给别个龙虾了。工信部都发提醒了, 龙虾默认的配置风险很高,喊大家莫要乱去改,免得遭攻击信息泄露啊,这是有很大的风险的。所以说,全民养龙虾的时代, 不光要看的是算力省不省钱,更要看的是安全的。一个围栏牢不牢靠,一句话,斗是他本事再强,安全才是第一位。
粉丝80获赞1311

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

零元带你体验在云服务器上部署官方 openclo 首先我们用到的是腾讯云服务器,打开腾讯云服务器, 登录完之后,这里有免费试用。腾讯云服务器给我们提供了非常多免费试用的服务器,我们通过完成个人认证之后,就可以在晚上零点之后可以立即领取,领取之后我们回到首页,点击控制台,控制台这个位置 就有清亮应用服务器,直接给它点开,点开之后这里就是你领取的服务器,直接点开,点开之后首先我们需要给它重组系统,点击重装系统,点击使用应用模板 openclock, 输入自己的密码,无需备份,直接重装,点击确定,随后我们回到刚才服务器的开始, 点击这里应用管理,在这里可以配置你想使用的模型以及使用它的渠道有哪些模型优先建议选腾讯云 deepstack, 这里不需要调用 api key, 可以 直接一键增加并应用。随后这里有通道,通道中给了这几款应用的渠道,我们首选飞书, 点击手动配置,直接点击详情。进入飞书开放平台之后点击登录,登录完成之后点击开发者后台,在开发者后台去创建属于自己的应用,输入应用名称以及对他的描述,直接点击创建。 创建之后这六个凭证与基本信息这里就出现了 app id 跟 app script, 点击复制,再回到这里配置这里复制,再过来 ctrl 加 v, 直接增加并应用,这里就可以看到它是属于正在运行中。 here 目前 我们初级配用可以先不用到,之后自己想进阶玩法,想提升自己的 open class 的 时候再来处理相关 skills, 随后这里配置好之后,我们来到飞书点击增加应用能力, 增加机器人,这里显示出机器人之后即为成功。随后我们来到权限管理,权限管理我们需要开通几个权限,点击开通管理输入,我们需要给他的权限点击确定开通权限 继续添加,这里的权限是你给他能操作的,有哪些权限在之后的用途当中可以自行添加。 随后我们点击事件与回调,事件与回调部分,进入方式全部都选择长连接,要注意的是我这里是在给大家进行演示,实际你在保存之后,他这里是没有红色字的, 要是你这里没有点击一键添加并应用的话,那你这里就会选择红色。这里保存之后我们来到回调设置,回调配置当中也选择使用长连接接受回调点保存点回事件配调增加事件, 选择两个,一个是信息已读,另外一个是接收信息。随后我们在这里创建新的版本,比如说一点零,点零,这就是你的初步版本更新说明, 随后我们直接点击保存就可以了。随后我们重新打开这个控制台,然后直接点击进入, 进入之后需要给他扫个码,成功之后直接登录,登录进去,在刚才调出来的飞书,直接在这里搜索属于你的这个机器人,随便给他发一句话,然后他就会给你发这一段, 发这一段之后把最后这一段给他复制粘贴一下, 点击回车, 当这一部分出来的时候就是成功等待。

大哥些,看这里算账,现在还要 ai 帮我们算了。最近我们搞了一个数字员工 openkey 了,你给他下一个命令,帮我监测 a w s 的 账单,只 要亚马逊敢多扣你一分钱,他必须半分钟内给你弹窗。以前要算三天的成本优化报告,现在 openkey 了,你喝杯茶的功夫他都帮你整出来了, 不仅帮客户省了钱,还会帮你把利润给你算得清清楚楚的。但是有两点需要额外注意, 不然你都要遭弄起。第一是安全,尽量只给一个 open 客了,只读你权限,虽然他嘿听话,但是涉及到删除实体的或者你购买 sp 的 操作,一定要设置一个人工确认环节,防止他一激动把客户的生产环境给你关了。二是私有话不说, 敏感的数据一定要利用 open 客老的优势,把模型部署在本地的集群上,只要数据他不出屋,这个他都安全得很。

opencloud 呢,让本地的 ai 上了一个档次,那搭配什么硬件更好用呢?真的是 mac mini 吗? mac mini 虽然解决了 opencloud 运行和工具的支持,但实际上呢,也有几个弊端, 第一个呢,就是算力不足,有一些呢,本来应该放在本地跑的任务,只能呢依赖云端。第二呢,就是存储不够,如果说想把日常生活当中最常见的多媒体类的资源,比如像图片全放到上面的话,会很困难。其实呢,我觉得二十多万的这个顶配的 max studio 是 蛮合适的,只要呢你能接受这个价格。 我最近啊参与内测了一款纯国产的神秘设备,说实话,他带来的体验呢,让我挺惊喜的,他大概只要 max studio 五分之一的成本就带来了类似的效果。那今天呢,我们就来聊一聊他到底凭什么? 那先快速的来看一下我这几天都用它做了什么。首先呢,是本地的智能图库,过年期间啊,总是要拍很多的图片, 那现在呢,我都会随手的通过 qq 来去发送给 openclock, 他 会呢,整理好图片。然后呢,分析图片的信息。之后呢,我就可以随时的让 ai 去查找和处理图片了。 比如呢,说起过年期间都吃了什么,可以直接让他呢把近一周我吃饭的照片都发给我,一下子呢就能拿到全部了。再比如啊,我说去年我女儿过生日的照片发给我一张,他会根据之前的锁影信息来给我找到合适的图片。 那第二个呢,就是语音的随录,现在呢,我可以随时啊去录一些语音,晚上呢,全部一块发到一体机上, opencloud 呢,会自动的去做分析和缩影,那这一下呢, opencloud 就 能知道这一天当中重要的事情了。比如啊,哪一天我和老婆吵架了,我可以呢,让他帮我找出前几天说过的证据,你说这个实不实用啊, 如果再配合一个录音笔的话,那其实呢,就可以做到随时的记录,那真的呢,就是数字的人生了。那第三个呢,就是专属的 ai 网盘, 那比如啊,我经常会去搜集一些资料,那多了之后呢,自己也很难找,就像呢,我加了一个 qq 的 群啊,有一些分享的书籍,那我看到不错的呢,就会转发给 opencloud, 他 会使用我调教好的技能啊,直接保存好文件,那还会做好书目的记录。 还有呢,比如像吃饭开的发票,都可以让他呢很方便的去做整理。而且啊,如果你珍藏了一些个人的学习资料,就是那种不能播的啊, 那本地去管理啊,就太有优势了。可以看到啊,端导云的这台一体机呢,帮我实现了照片的智能管理,语音的记录,还有网盘文件的管理。 还有啊,就是我感到呢,他是越用越聪明的,因为他优化了 open cloud 的 长期记忆机制,可以让他呢自主的去学会很多技能。比如像前面我说到的整理书籍和发票,就是我一开始教他如何去做,然后呢,他学会了,后续呢,他就可以自动的去完成对应的任务。 那你可能要问呐,为什么我说他是更适合发挥 openclaw 能力的呢?首先呢, openclaw 想要工作就要有算力,尤其呢,是本地的算力,因为本地的算力啊,才能真正实现隐私性和低成本, 同时呢,想要让 openclaw 产生更大的价值,就需要呢让他有足够的工具。还有非常重要的一点啊,就是需要和自己的数据做真实的融合,这样呢才能逐渐的进化成更好用的 ai 助理。 所以呢,算力存储工具隐私,我觉得呢,这几点啊,是用好 opencloud 的 关键,如果你想要构建自己的本地的 ai 助理,也要记住这几点。那结合前面的这几点啊,我来拆解一下这台一体机里面的 opencloud 的 架构。 首先呢是最核心的肯定就是 openclaw, 然后呢,顶层呢,是通过 qq 来去做的接入,那 qq 的 接入效果呢,我觉得在国产的 i m 里是非常好的。那下层啊,是一个专门为 openclaw 提供支持的 multimodelreg, 前面的图片、音频文件的分析和缩影都是通过这部分来去实现的。 那它调用的模型呢,就是在本地的欧拉玛里运行的千万 v l 和 in bend。 那 我觉得呢,后续啊,还可以增加对视频的支持,当然呢,对于视频支持的关键还是要看算力。说到算力啊最底层的硬件这部分,这台内测机呢,搭配了 amd 的 amx 加三九五, 配合上三十二 g 的 内存和九十六 g 的 显存,可以说呢,就是专门为 ai 而来的,尤其呢是在九十六 g 的 显存,让本地的运行这些模型都绰绰有余。最后它还有两 t 的 ssd, 而且呢至多可以扩展至一百 t 以上,所以呢,完全不用担心存储的问题, 如果是 mac mini 的 话,这个存储的话就要加价大几千了。当然呢,我其实也是用本地和云上的组合算力,端导云上呢也提供了算力的套餐,用来呢做任务的规划和调度,效果更好,价格呢也非常便宜。 当然呢,我也不是觉得它就是完美的端脑云呢,其实可以在使用的便捷性上再下一下功夫。首先呢就是优化 skill 的 生态,现在的 open cloud 呢,很多 skill 都有安全性的问题,这个呢也是很多新手啊担心和害怕的一个问题,我觉得呢,端脑云可以做一个安全的 skill 中心, 毕竟啊,大家买了硬件的话,都希望可以更容易的上手。另外呢就是接入,现在呢,我是使用 qq, 但是这一类机器人呢,在多媒体的资源上还是会有一些限制,比如呢,像文件的类型,文件的大小,所以呢,如果可以做一个全功能的 app 会更好用一些。 如果是带货主播的话,最后是不是就该上链接了?当然啊,我不带货,而且呢,这个一体机啊,我也只是参与了内测,并没有价格,只是想和大家来分享一下,用好 opencloud 的 思考。 端导云呢是计划三月五号正式发布产品,如果感兴趣的朋友呢,可以去关注一下发布会,反正呢我觉得国产设备呢,在性价比这一块是不会让我失望的。 那我也接到了参会的邀请啊,到时候呢会给大家带来第一手的消息。好了,这里是 it 咖啡馆,我希望呢你也可以找到最适合自己的 open club 玩法,那我们下次再见。

哈喽,大家好,今天给大家详细的讲解一下如何在云服务器上面一键部署你的龙虾机器人,并且部署好你的龙虾机器人之后,如何快速的去接入海外的大模型和海外的聊天通道。 因为有些粉丝朋友他并不想接入国内的大模型,比如说他本身手上有像 gpt 啊,或者 gmail 这种大模型的账号,那就可以选择接入海外的大模型。 好,那今天这期视频的话,我会以腾讯云这个云服务器厂商为例,给大家来详细的去讲解。首先我们需要在腾讯云的这个官网上面去登录注册一个账号啊,这账号并且要实名认证,实名认证搞完之后,我们在他的首页选择这里的 open call 云端,一键秒部署的这个按键,我们点击这里的立即体验,然后进入到另外一个页面,这个页面呢,我们把鼠标一直往下滑, 一直找到这里选购云服务器的这个选项。这里如果你是只想接入国内的大模型,那你就买国内的这种云服务器。如果你想选海外的大模型或未来接入海外的大模型的话,那我建议大家买海外的这种云服务器。海外的云服务器如果你是首次注册使用腾讯云的话, 他一般都会有新人折扣,并且还比较优惠。像我这里是一般买的这种轻量应用级服务器,入门版的二合二 g 的 买这个其实目前,嗯只装那种 龙虾机器人的话,我觉得是完全够的,地狱的话可以切换一下,我这里是选的硅谷啊,然后点击立即购买,购买成功之后,接下来部署这个 open cloud 龙虾机器人的时候,是不需要你任何操作的,它会直接给你后台给你部署好,部署好之后, 呃,我们来看一下,不说好之后就会给你直接生成这么一台你的 open cloud 这个机器人在这里呢,你只需要接下来去接入你的大模型和聊天通道了,大模型就相当于给你的龙虾机器人一个 ai 级别的一个大脑,而聊天通道就是你和你的机器人一个聊天对话的一个发指令发信号的一个通道而已。 那我们怎么进去呢?我们首先在进到这里的呃,这个服务器的时候,我们直接点击这里的空白处,在鼠鼠标这里随便点击一下,然后进去,进去之后啊,我们再点击这里的应用管理, 在应用管理这个页面,这里就有一键接入大模型和一键接入聊天通道的这里一个选项。我们首先来看一下它这里的大模型,基本上啊不是基本上是百分百全部都是国产的大模型, 并且聊天通道也是一样的,也是国内的这些聊天通道。如果你想接海外的大模型和海外的聊天通道,我们该怎么去操作呢?其实也很简单,我们需要登录到 进到你服务器里面的那个终端,这服务器的终端我们需要点击这个右上方的这个登录这个按键,进入到这个终端这个页面之后,我们需要先给他一条指令,这个指令的话,我直接先提前复制到,写到了这个文文本档这里了, 然后我们粘贴一下,复制粘贴一下,复制到这个终端之后,我们粘贴到这个终端这个页面,然后点击回车给他一个命令,然后这里的进程的话稍微等待一下, 当你的这个终端这个页面这里出现了一个 yes 和 no 的 这个选项之后,这里就是要你确定一下就是需不需要同意他们的这个风险。一个同意告知我们这里要在键盘上面把你的选项按键选择到 yes 这个选项,然后点击确定 好,接下来的话继续选择。呃 quickly 就是 快速开始的意思,我们点击快速开始好接下来这个选项。第一层第一个选项呢就是使用现有的已经设定的这个值,第二个选项就是更改现有的一个设定的一个值,我们要把呃选择项呢选到第二方 第二行选项的话,然后再点击确定回车键,接下来就到了对接大模型的这个步骤。这里的大模型有很多种,比如说像 open i 啊,像呃谷歌的大模型啊,或者像 mini max 啊等等之类的,国国产的大模型和海外的大模型都有。这里今天我就以 open i 为例。为什么要以 open i 为例呢?我这里稍微给大家做一个解释, 就是你在对接你的龙虾机器人的时候,不管你在其他的一些大模型那里是否有账号会员啊,有会员账号购买了他们的会员的时候,都是需要额外的再花钱买托管的,并不是说意味着比如说你在啊,比如说你在 kimi 那 里啊,或者在其他的一些大模型那里有了会员账号,然后就可以直接去 使用你的龙虾机器人呢链接你的呃大模型的账号直接就免费的去使用这个产品了?其实不是的, 但是 openai 这里呢,就有一个好处, openai 它目前是已经接入了 codex 的 这个产品。 codex 的 这个产品的大模型呢,就意味着你只需要花钱购买 openai 的 一个 plus 的 会员,就是每个月二十美金的那个嵌的 gpt 的 账号。你只需要有一个二十美金的嵌的 gpt 账号,就可以直接用你嵌的 gpt, 也就是 openai 的 那个账号和密码, 直接一键登录链接你的龙虾机器人就可以了,不需要额外的花花钱买托肯。虽然这种使用方式可能你和龙虾机器人对话时间长了,或使用的频率高了,可能会有一定的速度限制或一定的托肯限制, 但是比你花钱去买托肯会节省的很多,因为它属于这种包月的这种服务了。好了,我今天就以这 open i 为例,因为我正好有一个千里 g p 的 会员账号,那我给大家演示一下这种方式, 我们在这里选择 open i, 然后回车键选择一下。呃,使用的大模型呢,就选择 open i context 的 这个大模型啊,这个选择项我们继续选择回车。好,它这里会出来一长串的一个链接,这个链接我们需要点击一下,然后跳转到另外的这个页面。这另外的这个页面呢,就是一个 open i 账号登录密码账号登录的这个页面。 如果你有欠了 g p t 的 plus 的 这个会员账号的话,你就把你啊的账号密码登录进去。我现在输入好我的账号和密码了,然后接着点击继续登录一下。 ok, 我 这里还有一个一次性的验证码,因为我在我的 open ai 的 账号上面设置了一个两步验证了的, 然后点击继续,接着继续点击这里的继续按钮,好,跳转到这个页面之后,我们暂时不要慌,虽然这里显示的无法访问此网站拒绝我们的链接请求。这里不需要慌张,我们只需要在这个顶部栏的一个这个链接栏这里,我们把这里的链接全部 呃选项选择一下,然后 ctrl 加 c 复制一下。复制到哪里呢?我们继续回到腾讯云的这个终端的这个页面。在腾讯云终端这个页面呢,我们需要把你刚刚复制的这个链接给它粘贴过来, ok, 粘贴好之后,我们继续选择回车像啊, ok, 接下来的话,我们就需要确定好具体的大模型的一个选项了。这个具体的大模型呢?我这里选择的是保持这个 open icodex 的 gpt 五点三的这个大模型,然后选择呃确认回车键, ok, 这样子的话就已经把你的大模型接入好了。大模型接入好之后,接下来就需要接入你的聊天通道了,有些人比较喜欢使用这个 pentagram, 那 我今天就以 pentagram 的 这个聊天通道为例,我们把你的选项呃移到你的 pentagram 这个选择项之后,我们这里的回车键按键一下, 接下来就需要输入你 tengram 的 机器人的 token, 这个 tengram 的 机器人 token 我 们该怎么去搞定它呢?我们首先打开你的 tengram 的 这个软件,在 tengram 这个软件这里呢,我们需要找到这个这个一个机器人,这个机器人的这个用户名是长这样的啊, 我们先复制一下这个机器人的名字搜索一下,搜索出来之后一定是要打勾带星号的这个机器人,我们点击进去,进去之后我们选择这里的开始键,开始键之后我们点击这里的 new bot, 就是 新创建一个 bot, 然后随便给他发一个话,比如说一二三,发完之后,接下来就需要给你的这个 电报的这个机器命名个名字,但是命名的话一定是要以 bot 结尾的或者是斜杠啊,下划线就下划线, bot 结尾的我这里先复制粘贴过来,然后比如说我输入 btc, 六六八八九九,随便命名个名字,这无所谓啊,因为我给大家演示用的好,输入好之后我们点击发送 好,这里就已经给你创建好了一个属于你自己的机器人了,然后这个机器人的话,他这里会有一长串的这个英文加数字的一个 api 接口啊,这个 api 接口其实就这就是这里的 bot 的 一个 token 的 一个形式,然后把这个复制一下,复制之后我们粘贴进来,粘贴进来之后我们点击回车, 好,这样子就把你的这个 tanigma 的 这个聊天通道已经搭建好了,搭建好之后接下来他会继续询问你是不是要增加一些技能,就是给这个机器人增加一个技能,我这里不建议大家就在这里去配置他的机技能,因为在终端上面配置技能技能的话会很麻烦,会让你选择很多项,然后你选择的某一项技能 可能还需要对接额外的一些 a p i 接口的,所以我不建议大家在这里选择,我们直接选择 low, 先把你的这个龙虾进行跑通,跑通之后未来再去增加一些技能都是可以的。我们在选择 low 之后,然后准备确定 这个选项的话,我们也不要选,我们直接选择这里的跳过这个,跳过这个选项,因为都是呃需要用空格键来去给他指令的,我们在你的键盘上面敲一下空格键,他这里就亮出了一个绿颜色的这个指令,绿颜色的指令说明你代表你这个选择是选择这一项了,选择这一项之后我们继续回车, ok, 这样子就到了最后一个选项了,最后一个选项就是他是意思是你把这里的聊天通道和大模型全部对接好之后,需要重新重启动一下,重启的话是选择第一项就是重新启动 好继续回车,好等待它重启啊。成功之后我们就再尝试一下在你的 telegram 的 这个机器人上面和它对话,看能不能跑通了, ok, 到了这一步的话,我们就不要做任何选择,我们直接选择最后一项也可以,或者你直接放弃不管也可以,我们选择最后一项直接就跳过啊,继续点击回车,好,这样子就 ok 了, 那我们接下来的话就回到你刚刚创建好的这个电报机器人这里,我们点击进到电报机器人,然后点击开始。 ok, 我 们点击开始之后,他这里给我发了一串英文的这个意思,这英文的话是代表我的机器人的一个 id 以及这个授权码,这个授权码该怎么去使用?我给大家一个最快的一个方法,你直接在这里截个图啊,把这个截图截下来。截图截给谁呢? 你最好有一个额外的或另外的一个 ai 的 软件,比如说我是用的 gpt, 或者你有 gmail 也行,哪怕你有豆包也行。你直接把这个截图发给你的 ai 的 另外一个软件,告诉他,我已经在呃云服务器上面已经搭建好了 opencloud 的 这个 呃龙虾机器人,但是对接的呢,是 tony graham 的 这个聊天通道。对接好之后,他给我发了这么一串指令,我不知道该怎么做啊,请问这个,呃,这下一步该怎么做?你告诉他告诉你的那个 ai 软件, ai 软件会自动告诉你该怎么去给继续给这个终端一个指令的啊。接下来我给大家再实操演示一遍。 好,现在的话,我已经把截图已经粘贴过来了,并且我给我的 gpt 发了。怎么操作?那我发给他,看他怎么回复我啊。 然后他明确地告诉我,这一步其实不是报错,是在做账号的授权绑定啊。这意思说你的 telegram 账号还没有被 open cloud 允许使用,所以它生成了一个配对码,让我的机器的主人在服务器上面手动去批准一下。 需要给到这个指令,就是要呃龙虾机型去配对我的呃 pentagon 的 机型。那我继续把这个指令复制到我的终端上面,在终端这里呢,你直接把这个指令复制好之后粘贴过来,然后回车命令一下,让它去做自动的配对。好,这个过程我们稍微等待一下啊。 好,到了这一个页面呢,就显示已经配对成功了,那我接下来直接在呃这个机型这里发一个,你好看一下,看能不能回复我。 ok, 这已经链接成功了,它这里已经显示正在输入,你看我他给我的回复。你好,我刚上线,先认识一下我应该叫什么名字,我怎么称呼你?好,到了这一步之后,接下来, 呃我就还给大家延伸的去讲一下如何去优化一下,或者是刚部署的你的龙虾机器人,如何给他一个身份,给他呃一个称谓,然后并赋予它一些灵魂人人格以及一些行为准则。这是对于你的 open cloud 这个机器人呢是一个非常关键的部署, 因为你如果不给他一些行为准则,不给他一个人格的灵魂的话,他可能回复你的一些文案,回复你的答案可能又臭又长,这对你自己的托管消耗也是一个呃不利的因素,并且对你需要找到一些精准明准确的一个答案,也是不是特别好的。 那我们这个该怎么去写呢?首先我们在这里呢是需要给到他一个受的一个这个文件,这个受的这个命令。行呢,这个文件的这个东西呢,我是这么写的,如果你不会写的话,你可以照抄我的这这我我自己这么写的。好,我把我这个写的这段话来发给他, 然后他就会按以后所有的对话都会按我这一套行为准则来去和我对话,就比如说啊,不需要做任何的铺垫,不需要模糊的表达等等之类的。我给他写了很多一些框架,你必须按我的框架来去和我做交流,做对话,给我答案,给我执行一些命令 啊,他已经把这个这些行为准则已经写进了这个文件里面了。好,这个文件呢,写好之后呢?然后呢我再要告诉他,我他自己是什么,这个文件准则就是要告诉他你叫什么名字,然后你是主要做什么任务的? ok, 我 把这段话也要发给他,好,发给他之后他自己就知道他这个他自己的名字,他自己的角色是做什么的啊?然后他需要做什么事情等等之类的。 好,他这里显示已经完成了,已经更新到这个文件夹了。那接下来的话我还要告诉他,就是我自己的名字,就是你的主人叫什么啊? 然后你主人那些行为爱好,一些工作内容啊,是生活在哪个城市,哪个地方的都可以,然后关注的哪些事项,关注的哪些行业领域的啊,需要和我对话,说什么语言等等之类的。 然后我告诉他,同样他也会把把这些行为准则和信息的话写入到他的文件里面。 ok, 到了这一步的话,他已经全部都更新完了。更新完这三份文件之后,就相当于给他赋予了一个灵魂的角色,他自己的一些姓名,以及那个各种一些行为准则,包括他知道我自己的一些初步的一些信息, 这些都已经明确好了。明确好之后还没有结束,我们首先要给他安装一个非常重要的这个技能,这个技能呢是我在 github 上面找到这个技能,这个技能就是可以全网搜索 或者识别一些网页,不需要给他一些任何的 a p i 接口的,就是你只要发一个网页的链接发给他,他可以直接打开这个网页,可以自动给你识别这网页的任何的一些内容和信息。然后你把这个 github 的 这个链接,这个技能链接呢粘贴上去,粘贴上去之后你告诉他安装一下,安装一下这个命令,这啊这个技能。 安装这个技能之后,后续我是为了去给他做另外的一个铺垫作用的,我先把这个技能安装好啊, 然后再补充一下,其实这个技能主要还是用于推特上面的啊,其他的些网站也是可以的。 ok, 他 这里已经安装成功了。安装成功之后,接下来我需要做一个很关键的一个步骤,这个步骤呢就是给你的这个龙虾机器人去搭建一套记忆框架。为什么要搭建一个记忆框架呢?其实所有 呃养龙虾的粉丝朋友,如果第一步没有把这个记忆系统搭建好的话,我个人觉得未来你用你的龙虾机器人对话的越多的话,你未来会 很麻烦,因为你你和他对话的内容,输出的内容和输入内容越来越多,会导致你的农家机器人,嗯,输入进去的这些记忆会越来越越来越繁琐,越越来越繁重。 如果你没有把他的内部系统的一些记忆系统给处理好的话,他到时候可能给你输出的或给你传输的一些答案,你可能会显得他可能还没你聪明,会很笨,这就是根本原因。所以你先要把他的记忆框架给搭建好。这个记忆框架是怎么搭建的呢?其实我也是在网站上面去看到了一个博主他自己 啊写的一套框架,这个框架可能会涉及到一些代码开发呀,或者是简单的一些代码开发的一个问题。然后呢我就把这个呃, 这个博主的这个文章啊直接发给他,我说你先总结拆解一下这篇文章的教程,看他的这个设计的这个记忆的框架的思路是否对你有帮助,如果有请详细列出来这个改进的优化的清单。好,我发给他,然后看他怎么去回复我啊, ok, 他 现在给了我一套结论了,就是这个方向非常非常的正确,工程上面也是可以落地执行的啊,逻辑上面有价值,但是不完整,需要补充。 然后呢等等之类的给我写了很大一堆很大一堆。然后接下来呢,他会直接给我生成这一套文件的股价和模板。啊,我这里呢直接就给他一个最终的一个指令,比如说我会从我会让他直接执行 执行 p 零到 p, 他 这里总共是几个任务啊?总共是 p 十一,我直接 直接把这个任务全部让他执行完,一一次性的搭建好。如果把这一套记忆体系搭建好的话,对你未来去呃使用这个龙虾进行是非常非常有帮助的, 他给我的结论就是可以一次性全部搭建完,当前进度正在执行第一阶段。好,那我们接下来就让他自己搭建。 ok, 那 今天这期视频的话,我就给大家分享这么多,如果你觉得我的视频能够对你起到一点点帮助,请对我的视频点赞订阅,开启小铃铛,我们下期视频再见,谢谢大家观看。

ok, 之前介绍了通用云服务器和游戏服务器该怎么进行选择,那后面还其实还有两款特殊的云服务器,也是大家问的比较多的啊,那在这一次也给大家进行一次讲解。那首先呢,第一款就是 gpu 的 服务器,那 gpu 服务器俗称显卡服务器是吧?它就是在通用服务器的基础上,帮你额外搭载了一块显卡, 当然这块显卡和我们桌面级的这个显卡是不同的,它不能用于 u i 游戏之类的,它是用于挂机、渲染、办公等一些 ai 创作的一些使用,你比如说纹身图图上图这些需要 ai 算力的啊,这个 gpu 服务器是能够胜任的啊,这样来选择,那它所对应的这个配置呢?我可以在这里面简单介绍一下啊。 啊,具体你还是要看右边的这个链接,它这里面有详细的介绍啊,腾讯云的话,它有两款,一个是 t 四 gpu 是 比较常见的啊,就是比较好的 gpu 十六 g 显存, 对应的就是 d b c 原先的那个蒸馏板十四比的一个性能,然后这个是对应三十二比的这个蒸馏板的性能,然后对应的这个价格有七天的,有一个月,你根据你自己的选择就行了,本地部署的好处我在这里面就不多说了啊。然后对于京东云的,京东云的这个也是在这有一个智算服务, g c s 是 d b c 和 r e 的 三十二比啊, 三十二比这款配置,然后有有按小时的,按天的、按月的啊,就这样来选。右右边也是有详细的介绍。那对于阿里云呢?阿里云这个 gpu 服务器我在这边没有展示啊,但是他有很多的这个 ai 方面的需求都在这里面,你可以选择, 比如说你打开进去之后,他直接就是像这些多模态的啊,你就可以选,然后像千元之类的都在这里面非常详细,你在这里面挑。你如果选择同用云服务器的啊,这有个很隐藏叫云产品权益,点击这就可以看到他对应的这个呃,同用云服务器,在这选 ai 算力的话,就在这里面进行挑选。 ok, 那 这是一个 gpu 服务器的介绍。那接下来就是境外云服务器,境外云服务器和国内云服务器有什么不同呢? 境外云服务器有一个很好的优势,就是它建站免备案,搭建网站是不需要走国内的这个非常复杂的备案流程的啊,有很多有很多搭建网站的这个这个用户呢,他对于这个建站每次审核不通过比较烦,也不想这样走,那境外服务器就非常适合你,你就直接是用用这个就可以免备案了,而且还有一些多 ip 的 需求,你可以用这个 境外服务器来进行购买啊。在这里面推荐的是腾讯云和语言这两款啊,就是腾讯云的话,在这里面标浅蓝色,像两盒两 g 高贷款,他和这个其他的这一款这些服务器不同的是,两盒两 g, 大家国内可能是三兆四兆就封顶了,但是他他给你了二十兆或三十兆这种贷款非常非常高, 而且他的价格也不贵啊,像这个是按月份的是三十兆,一年九十九还是比较好的。两盒四 g, 三十兆是一年一九九啊,都是比较合适的一个价格, 然后呢,你如果有批量采购,多 ip 采购这种需求的话,然后腾讯也是比较推荐他十台,每月是二十九,每台可以给你优惠一点,性价比比较高就所以所以说是批量的首选。 那在这里面要注意一下,就是如果你是国内的用户啊,你没有这些免备案这类需求,呃,你还优先选择这个国内的云服务器,因为境外服务器他和我们之间有有很高,有比较高的这个延迟,这是一点啊,需要注意一下啊。那这个云呢?云这个也是呃, 比较好的是两核两 g, 有 一个五兆到百兆宽带,就是他的这个宽带可以跟像之前介绍游戏云服务器一样,可以自定义啊,你可以自己去调整进行购买, 那价格也可以从十九到三百一十九不等啊,你在这里面也是点击进去以后,然后有对应的像云服务器啊,在这有中国香港,日本东京啊,美国洛杉矶是吧?就这个你就自己去介绍了。那今天配置的位置刚才也给大家提到了啊,这个腾讯呢,就就在那个正中间的位置啊,再回顾一下,就是这个业务处,海外产品优选就在这个位置。 ok, 那 这就是所有云服务器的介绍。好了,看到这里相信你已经知道自己适合哪款服务器了,对比表的链接我会放在 b 站视频的评论区和简介区,那么本期视频就到这里了,如果对你有所帮助的话,希望给小苏一个一键三连支持一下,那我们下期再见啦,拜拜。

想不想拥有一个二十四小时在线的 ai 员工呢?最近 oppo klo 特别火,我在云服务器上也折腾了一个,接下来带大家体验一下我在云上折腾 oppo klo 的 一个过程,还有使用之后我对它的真实看法。当然我这两天时间还没有部署完成,也存在一个比价的环节啊。 首先是腾讯云,腾讯云是比较实在的,他能够二十块钱买一个月的服务器,因为你如果是选国外的节点的话,他能够 使用里边的这个搜索功能,如果你选国内的节点,它搜索功能是不能用的。当然我也是对比了这个阿里云,阿里云的 open globe 是 原价五十九,它其实有一个抢购的计划,抢购的计划它能够做到好像是 九块钱买一个月,但是你如果是续费的话,他是按照原价来续费的。腾讯的续费仍然是二十块钱,这个比较方便一些。这个百度他有一元的抢购,但是我没有抢到,所以不知道他到底好不好抢。 如果是你,他的正常购买的话,就要买他幺五六的幺五六,但是他是买一年的,价格是挺便宜的。 但是,但是他这个有问题,他的地域呢?北京跟广州,所以他部署上去之后,应该搜索功能是用不了的,所以这个体验感到时候功能限制性就会很大。到最后我选的是腾讯云的服务器, 买了之后呢,他这个部署是相当简单的,虽然说已经是在云服务器上了,会省很多时间部署安装的过程,但是他配置的过程也是挺麻烦的。我觉得想用这个其实难度并不是特别小, 你看先配这个 openid, 我 就要选接入的即时通信工具,我就选飞书,飞书我已经我已经配置了。跳过选飞书这一步其实挺麻烦的, 因为你要去跳到飞书的官网上边去创建一个应用,获取这个应用的 api k 跟 secret。 另外你需要把这个应用里边加入这个机器人, 所以它才能有即时通信的机器人工具帮 openroot 来接收消息。所以这一步我大概用了一个多小时啊,这里配置 skill 现在也可以先用上,简单一点。 那现在我首先这里边点空格就能够选中你要装的哪些东西? gmail 跟 github, 我 先装上这些不太认识的,这个大概知道是干啥的, 所以我也先装上。上边还有苹果 note, 默认,其实这些都不知道是怎么用的,干啥的默认我,我感觉应该是做笔记。你可以, 因为它是云服务器,我本地当然有服都当然有默认,但是在云服务器上的话,我就需要把它复制上来。 行好先好,就这样等空格,空格它就会去安装,选择依赖。 但是我觉得现在有一有一个麻烦的事,后边我都需要通过这种没有界面的方式来访问这个台服务器和操作这台服务器我觉谷歌的 g p i k 我 感觉也是比较困难的,来获得又是比较困难的一步。 还有 notion, notion 当然是做笔记的 open ai。 呃,位置不变生成的。下边这个是什么?不太认识啊。 这个也不知道是干啥的。另外装 fox, fox, 因为这个其实不消耗资源, 我觉得都装上吧,现在为 siri c c installed install 你 装好之后重启吧,其实它之所以强大,首先它需要很多其他的软件来支撑啊, 另外有这些软件,当然你也需要有其他的软件的这些工具的账号,所以这账号也是另外一个麻烦事。返回服务器,我看现在看他文档怎么来操作。在配置完成之后,通过文档就能够看到, 看一下,通过文档就能看到。完成以上配置之后启动 get 位啊,这样就能够启动这个,现在按照他的文档来启动一下试试。应该他启动之后会打开一个软件, 现在这里它提醒我,我的 open core 已经启动了启动,但是应该怎么用呢?看一下我的乖乖啊,你启动这个 open core 之后呢?这个界面上服务器上是没有任何反应的,你看它现在这个 说明文档上边,比如说你配置了 discard 或者是飞书,你就需要下载飞书跟你的机器人进行聊天,这样通过聊天的方式给这个服务器发送指令。这个服务器呢,可口可乐在服务器上接收到你的消息,他通过理解你的自然语言去分解任务, 然后调用各种各样的工具来帮你完成这个任务,基本上就这样,所以现在我需要安装一下飞书,不是经常用飞书的人可能都不知道怎么去添加机器人。 腾讯文档上就没有啊,我是看的阿里云的文档,我现在就试一下在飞书里边创建一个群聊,添加一个机器人,添加机器人的时候,往下拉就能看到自己创建的这个自动回复机器人点一下,这无所谓啊,因为没有别的人, 现在他已经正常运行了,我现在看能不能往里输入啊,看他有没有什么反应。 我先不等他了,我在这个在这个飞书文档里边直接问他,金融大师,难道我有我艾特他一下吗?艾特他一下是啥?因为之前没有用过飞书文档,所以不熟 梳理 l l m 发展趋势好了,同样需要艾特他一下。应该是需要艾特他一下,要不然他这边接收不到消息。可能, 但是他在服务端这边不会看到他运行的对话,处理对话的过程感觉不太靠谱,不知道这个时候我应该怎么去检查一下,检查一下到底是谁来处理的这个东西,谁来处理的这个消息。 接着我想让他总结我 obsidian 下边有什么东西。这个时候呢,可以看到他不知道我的 obsidian 的 文件内容在哪个地方,所以我还需要告诉他我 obsidian 的 笔记文件放在什么位置, 现在可以看到我告诉他我的 obsidian 的 根目录是在什么位置,他就给我回复了。 这也是我在服务器上放的两个文件,一个是读书笔记的,另外一个是关于篮球的,他就告诉我这些内容,这个就算是基本打通了,也实现了一些简单的功能。我觉得通过云服务器简单体验了这个 open globe 它的功能,它云部署第一个优点就是它这个部署的方式特别简单,还有一步一步的配置的流程。 因为这些云厂商他们已经做了这个 opencloud 它的镜像,这些镜像使用起来会特别的方便,就是节省了我们安装的一个过程,我觉得第二个优点就是它能够二十四小时不间断的运行吧,这也是一个服务器应有的一个优点。 另外一点就是他不会破坏我们本地的环境,因为他是一个独立的私有的一个服务器。说完这三个优点呢,接着我觉得比较大的缺点有那么几个,最大的一个缺点就是在于我们需要不断的去维护里边的资料, 其实很多时候我们并不想去另外维护一份这种资料,为什么呢?比如说我想要像这个作者他那样说自己要定一个机票,有一些自己的个人资料在本地存着。 那么你让 open 来做这个事呢?他就会自己去找这些资料,打开网站,把需要的资料去填进去, 通过分析去筛选一个比较合适的航班啊,帮你买下来。如果是你在 云端使用这个过程的话,就算他有无头的浏览器,不用你操心,但是你仍然需要把自己的这些资料传到云服务器上一份。那么这个跟自己订机票中间省了多少时间和工作量呢? 这个很不好说,我觉得另外一个就是缺点我觉得也很大,在云服务器上他的 open globe 没有这个界面,这就算是对程序员来说, 比如说你在用 obsidian, 需要打开设置,设定一个根目录,才可以知道哪些文件属于你这个 obsidian 的 这个文件内容。当然还有更多的软件是有这方面的问题的,我觉得这个是对大多数人来说是比较难使用的啊。 通过这个视频大家应该能够知道 open globe 能够实现大概什么样的功能?希望这期视频能够简单的帮你认识一下这个当下最热门的 open globe, 它是一个什么样子的东西。评论区里边可以聊一下大家对 open globe 它的一个看法。

我的先人板板耶,你们用 oppo 克劳千万要注意一下托克,不要撂倒,撂倒都破产了。前几天有人在屋头装了个 oppo 克劳,想让他尝下哪里的火锅好吃,结果几句话下去,百万托克直接都干没得了, 他云服务器账户瞬间都要欠费。后来才搞懂, oppo 克劳为了回答大家的问题,他就在后台给你疯狂的操作,要开很多的网页,总结很多的数据和资料,反复的确认,虽然你是一句话,但是他是个成千上万的东西在跑。如果你没有设置好,过滤好 oppo 克劳打开的一个新闻网页,会把广告啊,导航啊测编成几万字的代码,全部围给模型,这个托克他不得了, 可能百分之九十九他都是读的垃圾信息。所以说不会使用可口可乐的他斗是个吞金兽,你会发现没得当你安了一个可口可乐小龙虾以后,你的时间斗是在 调整可口可乐,其实有很多的时候,他并没有帮你实现真正的工作价值。

想要部署 openclock, 但不知道该选哪种方式,今天我们来看四种常见的安装方案,帮你找到最适合的部署方式。 第一种方案是云主机部署,你可以选择腾讯云、阿里云或者 a w s 等云服务商。云主机可以二十四小时不间断运行,完全隔离,远程随时访问。不过需要注意,只能通过命令行操作,而且会有一定的网络延迟,适合需要稳定运行的生产环境。 第二种方案是直接在本地电脑上安装,通过 npm 直接安装,零额外成本可以直接访问本地文件,上手也非常简单。但缺点是电脑不能全天候运行,休眠或重启会中断服务,而且在主力电脑上运行有一定的安全风险,适合开发测试和个人项目。 第三种方案是使用 mac mini 作为专属设备,推荐 m 二 pro, 配置十六 g 以上内存和五百一十二 g 固态硬盘。 mac mini 功耗低,性能强,运行安静,可以长时间稳定运行。缺点是需要前期硬件投入,而且地点固定,适合家庭办公和小型工作室。 第四种方案是刀克容器部署,刀克提供完全隔离的运行环境,可以一键部署,轻松更新,而且跨平台通用。不过需要一定的刀克使用经验,配置相对复杂,也会有少量性能开销,适合团队协助和 c i c d 流水线。 我们来做一个横向对比,从全天候运行、阅读成本、上手难度和安全隔离四个维度来看,每种方案各有优势,没有绝对的最优解,关键是匹配你的实际需求。 总结一下入门体验,推荐本地电脑生产部署,推荐 docker 加云主机。想要专属设备可以选择 mac mini, 选对平台,让 openclaw 成为你的全天候 ai 助手。

现在一堆人推荐云版的 open curl, 那 你用过就知道,一到真实场景实在拉胯,两分钟帮你把现在所有的 open curl 形态从哼到拉排清楚。第一种叫本机的 mac mini 部署,这是目前最能打的方案,因为它生态最完整,工具最丰富,而且不会被风控。 现在随着迭代,安全性能也逐渐补上了,可以给到哼。第二种就是像 auto qq 啊这种, 它们都能一键接飞书或者微信,能自动配置 ui 也很友好,一上来就可以给你一大堆的 skills。 但问题是你就模型被绑定,而且能力上限也会被限制,但是仍然可以给到人上人。 第三种就是像 nano curl, zero curl, coco 这种,这种开源的工具是工程玩家最喜欢的,比如说 nano curl 极简可控, zero curl 安全而且是极致性能, coco 多 agent 可以 给到顶级,但是仅限高端玩家。 最后说说各种云部署,其实又分两种,第一种就像 kimi cloud、 max cloud 这种厂商深度集成的。 第二种就是像阿里云镜像,腾讯云镜像的 lighthouse, 还有火山的镜像等等。这两种都有一个非常棘手的问题,就是它容易被封控,它登录很困难,而且非常容易被拣出,云 ip 被限制, 很多高价值的信息都需要浏览器登录才能拿到。要解决这个风控问题,你需要搞代理啊,指纹啊,环境等等,费的劲直接能把我半条命都搭进去。但是看在一键接入方面上,我还是给 kimi cloud 和 max cloud 给到 npc, 最后各种云的镜像直接给它拉就完了。核心结论, opencloud 的 能力上限不只是模型,还取决于两件事,一是能用什么工具,二你在什么环境里运行。

与 google, i w s 等云提供商合作时,经常发生的情况是,由于 vm 配置不正确或任何配置错误的 payload, 我 们收到的账单比预期要高。我们通常只有在收到发票时才会发现账单问题,除非我们使用 club watch 或相应平台的控制台手动监控这个过程也可以自动化。 因此,我们的团队为 api 成本监控创建了一项技能,使用我们正在使用的云提供商的 cli 工具来检查预算。 我们把它放在 openclog 文件夹的技能文件夹中,该技能会在仪表板上被识别出来。我们使用 openclog 的 聊天界面创建了一个 cron 任务,让它监控我们的 a p m 一 和云控制台。我们要求它在已配置的频道上报告任何异常情况。 有了这个设置,我们能够在 chatbot 上收到警报消息,得知资源使用量在过去六十分钟内飙升,几乎翻了一番,因为某个服务出现了重试。它还提供了我们现在可以采取的可操作步骤,以防止使用量进一步攀升。该设置提供了及时的报告,防止账单进一步攀升。

最近 oppo 可乐很火爆,我看到很多人想要部署,但是卡在了第一步,到底用现有的电脑,还是买台 mac mini, 还是部署在云端?那我先公开一下我的全套配置,我是特意买了一台 mac mini, 养了一个多月小龙虾,今天来说说我的思路。先点个价,我的方案不一定适合所有人,只说真实感受,欢迎以后讨论。三种方案我都研究过, 首先,排除用自己常用的电脑,不仅会占用日常电脑资源,一些自动化的程序会干扰我正常使用,最怕的还是信息泄露,或者是把我重要的资料删除了。第二种,云服务器 可以二十四小时在线,不占用自己设备。现在大厂陆续都上线了自家的一键部署方案,以前要折腾半天命令行的东西,现在打开网页就能用,甚至手机就能直接跑,确实还挺方便的。但是我当时部署的时候还没有这么多选择,而且它也确实存在一些短板,一是便宜的配置跑起来很勉强, 每月还有额外付服务器费用,长期算下来不一定比买设备便宜。二是定制受限,很多云端预装镜像用不了某些高级功能。最后,我是自己买了一台麦克迷你,自己部署。 方可乐在 macos 上配置最简单,空不入一行命令就能装好,运行也是最友好的,所有功能开箱即用。大厂方案基本是绑定自家模型,虽然有的说支持切换,但选择范围很有限。我个人是比较喜欢用可乐的 opus 模型,它的理解能力、写作质量、复杂推理都是相当丝滑的。 选择 mac mini 可以 更方便地结合 color code 的 使用,对我来说,最实际的感受就是 opus 写出来的稿子几乎可以直接用。跟那些 a r v 很 明显还得花大时间改的模型不一样, opus 的 措辞、节奏、语感都很到位, 十四小时在线功耗极低,待机才几瓦。我的 oppo cola 跑在自己的麦克迷你上,所有的数据都在我家里,会更有安全感一些,跟我日常的工作机也是分开的,不用担心污染数据翻译、分类、格式转换这些简单的工作,用本地模型不花钱就能搞定,节省头肯留给深度创作,一年能省不少钱。 举个我自己在用的例子, openai 的 whatsapp 语音转文字模型,我直接装在 mac mini 上,把视频链接或者会议录音丢给他,就能自动转成文字稿,全程离线,不用联网,不用调 a p i, 也就是零费用,音频内容也不会传到任何服务器上。 最最重要的一点,装在 mac mini 上的 open cloud, 它能帮我截屏看内容、浏览网站、安装软件、管理文件,就跟一个真人坐在电脑前帮你操作一样。就我目前用了一个多月来说,真的还蛮爽的, 在聊天软件上跟他说几句话,就能帮我写好文案,每天自动整理热点新闻,再也不用听那些满是广告植入的早间播报了,还把我养成了五百八十二卡吗的 reddit 账号,有片一百八十一赞的爆款。当然他也不是完全没有缺点。首先,需要一台单独的设备,这个前期投入就比云端部署要大很多, 对于很多只是想要试用一下 apple cole 的 朋友来说不怎么划算。其次,想要接入更好的模型也是有一些难度的,如果只是处理基础的工作,甚至只是跟他聊聊天,就没必要搞的这么复杂。可以看看大厂的部署方案,我这边给有需要的朋友简单总结一下,就在评论区,那本期视频就到这里啦,我们下期再见。

最近爆火的大龙虾可以说把国内所有的云厂商都给卷了起来,那大家都纷纷推出自己云端部署方案,本期视频我将花两分钟手把手教大家如何部署使用, 在这里我将使用阿里云进行演示,大家可以根据自己的使用习惯选择其他的云厂商,那整体的流程其实都差不多。登录账号后,我们点击上方的权益按钮,然后往下拉,会有各种不同的组合配置,我个人觉得这个 live 版本还是非常划算的,整个套餐包含了一个一年的服务器和一个月的大模型服 务,然后大模型是按照扣丁 plan 这种机位模式的请求,相对来讲这种机位模式还是比较划算的。 确认无物之后,我们点击立即购买,然后弹出的这些选项保持默认即可付款。完成后大约需要五分钟服务器才会创建完成,这个时候根据提示,我们可以先点击下方的创建 a p i t, 然后我们会来到百炼平台,点击生成按钮, 此时 ai 大 模型的密钥就已经生成了。在下方可以看到支持接入的模型还是比较丰富的。稍等片刻后回到阿里云平台,点击我的资源,选择对应的地区, 在这里就能看到刚刚创建好的服务器,我们点击进入服务器,在这个页面会显示服务器的各种参数,点击右侧的应用详情。接下来我们就可以开始配置大龙虾了。首先我们需要选择一个 ai 大 模型,然后点击应用即可。 为了确保能够在线和大龙虾聊天,接下来需要点击公网访问,然后选择打开,此时端口就已经开放了,下一步开始出场, open close, 点击执行命令后, 此时会弹框让我们选择 api 密钥,那这个密钥其实就是刚刚在百变平台生成的那个密钥,我们直接选择配置即可。 最后一步,点击这里获取访问地址后,打开链接就可以和大龙虾聊天了,至此我们就拥有了自己专属的大龙虾了,如果大家感兴趣的话,后续我也会出更多相关教程,我们下期见。

新手想玩 openclo, 到底选哪个平台的小龙虾最合适?怕买贵又担心不会安装?今天一分钟就给你讲明白,记得先收藏起来。先给纯小白科普一下, openclo 本身是免费的,咱们花钱呀买的其实是平台的一个服务器,还有模型的使用权, 不用自己折腾本地部署和对接 a p i 那 重点来了,六家主流平台对比,我将从收费模式、价格、安装难度等维度来帮你筛选出最合适你的 openclo。 首先是腾讯云和阿里云的 openclo, 它们采用的是服务器加模型收费的模式,优点是便宜,这里推荐阿里云的 openclo, 只需要十八块钱就能够拥有一只自己的小龙虾,但缺点是需要折腾两次付费流程。而且考虑到很多人连服务器是什么都没有搞明白,非技术人员呢,就可以直接 pass 掉这两种了。直接看下面四种就好了。 kimi clo 先排除, 因为它太贵了,且不说功能和其他几家相比起来大差不差,光订个会员就需要一百九十九块钱,直接就是一个劝退了。从价格上来讲,我更推荐火山引擎,它有九块九体验七天的一个套餐,别看时间只有七天,我 敢打赌百分之九十的人呢,在装了 oppo nano 不 到七天就会放弃了,如果是想尝鲜的话,这是一个不错的选择。最后是扣子跟 mini max, 也是我最推荐的两个, 质量其实差不多,一个四十九块钱,一个三十九块钱, mini max 会更便宜一些,但扣子的生态更完善。这里有很多大神已经做好的 skill 呢,可以给 openclaw 来调用,大家可以根据自己的需要来进行选择。这六个主流平台的 openclaw 安装指南,我也整理了一份完整的文档,点个关注轻松获得。

最近 openclaw 小 龙虾一产是如火如荼,在国内看到很多大厂都在疯狂地抢这波热度,据说呢,腾讯门口呢,是免费的给大家装 openclaw 云服务呢,是用自己的云云 海外呢,比如说魔镜公司中的 kimi 跟 mini max, 今年的主要的收入呢,就是通过售卖 openclaw 的 a p i token 完成的收入,据说 kimi 呢在二十天就完成了去年整个的收入。可见呢, openclaw 的 热度呢,还是很高的,而且目前呢,也慢慢地从极客,从开发者转向到普通消费者 对这波的影响力跟热度。然后这波的对于 egentic 颠覆性的一次跃迁呢,其实是对所有创业公司来说都很重要,我曾经分享过一次呢,关于 openclaw 的 一些比较深度的细节的一些技术的方案,对于普通用户来说可能稍微有点难懂, 那我这次呢,用一些简单的方式来做点分享,一起呢,说一下 openclaw 对 哪些公司来说带来的创业机会会更大一点。首先呢, openclaw 有 一个非常有意思的机制呢,区别于类似豆包啊, gpt 这样拆包,很核心的一个逻辑, 大部分 ai 呢,只有你在提问时候才会回复,在 open call 呢,设置了一个脉搏,没几分钟呢,就会主动的唤醒,主动的与你沟通,获取当前环境,并自问我是否应该朝着用户的目标前进, 这是让他可以在二十四小时工作,即使在用户睡觉时候都可以不间断的完成任务的核心原因。这个呢,我们可以理解成为主动性。第二呢,叫做灵魂 so, 这个呢,是定义至人体的性格和约束的一个配置文件,你可以在这里植入你希望的助理的一个形象和约束的一个配置文件,你可以在这里植入你希望的助理的一个形象和角色,以及个人的偏好,比如代码风格, 饮食禁忌等。有灵魂的 openclaw 呢,会按照你希望的风格以及你的偏好,以及非常的有个性的一种状态与用户进行互动。第三呢就是记忆 memo 文件,它不只是一个聊天记录,还有长期的本地的数据库 存储,从失败中吸取的教训,比如说爬取某个网站被防火墙拦住了,它就会记住保持了未来一段时间不会犯同样的错误。剩下的就比较简单了,比如说适人体的逻辑, a 阵到 m d, 相当于一个作战的指挥中心,包括 twos, 这是 openclaw 执行系统命令,操作浏览器或使用第三方 api 的 地方。 一句话讲应酬呢, openclaw 就是 一个具备智能体逻辑和工具,使用了完整的 a 证。在这里面呢,增加了三个很重要的模块,分别是主动性、人格和记忆,这也是 ai 发展到今天这一步来看的话,最重要的三个发展方向。那 openclaw 为什么可以进化呢?为什么大家说养龙虾养的越久越能干? 其实这里面很重要原因呢,它是使用了一种叫做 recurves skill synthesis, 就是 递归式的技能合成的能力,它在过程中呢,其实是一直在不断的给飞白通过出现了问题,得到了问题的反馈。之后呢,针对目前的问题和用户的意图, 找到下一个尝试的方向,不断在改变自己的路径,它不是一个劫死的一个进程,这个逻辑呢,其实也是 agent 的 一个很重要的一个能力,就他有自我纠错能力, g b t 五点四呢,其实在 n t m 的 时候呢,也可以不断地接受用户新的信息和新的条件。这就是为什么 open call 可以 实现自我进化,它在遇到技术障碍时候,会 重新写了新的脚本在沙盒中呢,测试如果成功,就把新的能力加入他的 skill 技能库,如果不成功呢,他也会不断尝试。 openclaw 曾经就暗恋了用户,让 openclaw 作为一个视频的上传,但是 openclaw 自己发现格式不对,主动找到对应的软件下载并完成了格式转换,之后实现了视频上传。 类似的,有用户起初让 openclaw 帮忙去购买二手车, openclaw 呢主动去寻找了各个供应商,通过发邮件比价,最终呢帮用户省下了几千美元。这些呢,其实都是可以理解成 openclaw 在 过程中自我净化,自我涌现的一些能力,并不是用户最开始的指令 或者是用户意途中包含的内容。整个 openclaw 对 于整个生态中哪些玩家比较有价值呢?我觉得最有价值的就是模型公司了,因为原来模型公司呢,消耗都很受限于自己的应用,那整个应用来看的话,原来呢,各种应用呢?用户呢,其实都没有像 openclaw 这样的热情, 也没有使用 opencl 这样的魄力和勇气去大规模的去消耗 token。 无论是长线原因还是自动化原因, opencl 它带来的一个核心价值是取代人力工作,或者是取代招聘一个团队实现的效果,所以比起人力成本来看的话, opencl 的 token 的 成本就很低了。可以理解呢,就是 opencl 开启了 ai 应用的一个全新的大规模使用 token 的 场景,那对于模型的 api 公司来说,这样的场景才能实现规模性的 token 的 消耗,从而实现收入和 毛利。在模型公司里面呢,其实开源模型呢,一定是利多的,原因是大规模的 a p i 的 费用呢,其实会是一个经济黑洞。即使是创始人 peter steinberg, 在 加入 open i 之前呢,也是开源模型的坚定支持者。可以看出来,现在在 open cloud 的 影响推动力下,未来的模型的趋势呢,一定是向着更小,更快,更属于用户自己的方式去发展的。 我们公司呢,在这个领域呢,也有很多的布局。除此以外呢,很多应用公司呢,在 opencloud 市场上也能找到一块自己的天地。比如说如何把 opencloud 的 能力通过虚拟机变成一个不需要用户自己部署就可以体验的功能。类似的比如说 madison, kimi 都已经出了自己的 cloud 版本,我们 agnus 呢,在本月呢,也会推出自己的 agnus cloud, 让没有部署能力不是绝对的这种即刻的用户基于我们的虚拟机来体验 opencloud 的 一些核心能力。以上就是我们对于 opencloud 目前的一些技术的核心能力,以及市场玩家对于创业公司的影响一些判断。

最简单的 open cloud 安装方法有两段话的,这个命令就全程让机器人去跑完了。 先说一下我为什么要装本地的 open cloud, 我 其实在这之前也尝试了一些云端的 cloud, 但是就发现一个问题,它有很多命令是针对本机的, 你这个云服务器里空荡荡的,什么也没有,那其实它都发挥不了什么作用。机器人的意义就在于能够操纵本地的文件。先装一个 cloud code, 再用 cloud code 去装 open cloud, 因为 open cloud 有 很多环境调试,自己去搞就很麻烦。 cloud code 本身也是一个 ai 助手,让我们去配置 open cloud 就 变得很简单,一句话就搞定。接下来我就说一下 cloud code 是 怎么安装。首先是要理解 cloud code 或者 opencloud, 它们的运行环境,还有一个命令行窗口,因为有些代码是 linux 或者 gs java script 代码,它需要安装环境才能运行。 c m d 和 power shell 两个都是命令提示行窗口,只不过是 power shell 比 c m d 更加 先进一些,它可以支持对象,可以支持 linux 的 命令,安装命令都是通过这两个命令窗口来实现的。那接下来讲 cloud code 的 安装,首先安装一个前置环境, g t b 就 下载一路去安装就行了,安装完之后安装这个 node g, 下载是安装就按它一路回车就行。安装完之后可以在这个 命令行窗口还看到 note 技师的版本号。安装完环境就可以安装 cloud code 了,就把这个命令复制粘贴到提取行里,然后交回车, 他就可以去安装了。这段命令已经是国内的镜像,所以就不需要魔法,安装完以后就代表安装成功了,安装完成功, 卡的扣的需要绑定一个大模型,打开 deep seek 登录以后就可以去创建一个 k, 随便起个名字创建一个 k 去复制它,这个 api k 只能是你创建的时候 能够复制,之后你就没有办法再去复制它了,所以你复制好以后最好粘贴到一边,防止以后在其他地方再用得上。复制完以后就把这里改成刚才创建的 api k, 然后把这一整段的命令输入到这个梯长里,他搞完以后打开 cloud 就 可以看到给已经显示安装成功了,之前的 deepsea, 记得要在这里去充钱。很多人不喜欢用命令梯长窗口,那我们 最好是有一个图形界面,我们要装一个 vs code 的 这个软件,打开这个网址下载,然后在 vs code 的 这个软件,在这里 搜索 cloud code vs 第一个,这里一般会有一个安装,全是英文,看着不方便,你就创建市场,输入 chinese, 然后安装它, 这样再重启整个的 vs code 就 会变成一个中文版本。安装完之后怎么打开这个 cloud code? 在 这里 右上角打开就可以打开了,那可以让他做一个自我介绍,就代表这个 cloud code 安装成功。如果想切换大模型,就装一个 cloud code 电源 switch 安装完之后,我们在右下角这里就可以去切换,我们可以在这里去修改, 比如说是智普的 g r m 模型,我们可以在这里直接填填入它的 api k, 那 之后就可以在在这里去 去切换,然后保存完以后就可以快速的切换,那如果这些正常了,那我们就可以打开 cloud code, 给它下一个命令,安装 open cloud 检查,把这个命令发给他之后, cloud code 就 会自动的去 一步一步去执行,看看这个过程,等他执行完以后,他会告诉你已经是运行正常了,然后你就可以通过 浏览器打开这个网址,进入到 open club, 但是你最开始进去的时候,他会报错,那聊天就会写有红色的报错,这是因为下边的这个网关令牌生成, open club 的 网关令牌 就在在这里输入,然后点连接它,这里的状态就会变成正常,就可以去对话。但是呢,由于没有绑定大模型,你去发送消息你还是不行的。 绑定大模型怎么办呢?就需要找到 open cloud 的 配置文件,把这个这段代码,然后把它添添加进去。当然 更简单的方式呢是我们直接去跟 home club 对 话,把这段发给他,按照上面的方法重新配置 home club, 这样就可以配置成功了。最后发一段自我介绍,他正常回答就代表 home club 已经配置成功。

你不会玩电脑,不懂高科技,难道就用不了智能云服务?那就大错特错,现在这款 open core 大 龙虾,零基础的你也能玩转!现在很多人想用好云服务,可一看操作页面就头大,总觉得自己不会怎么去用那云服务器,完全没这个烦恼。他是云端部署的智能小助手, 不用下载一堆软件,也不用搞复杂设置,一键就能部署到位。 openkaw 不 管是整理数据、处理日常工作,还能帮着打理线上杂事。单嘴说需求、打字发指令, 他都能乖乖照做,一点都不挑人,很方便。别觉得云服务遥不可及, openkaw 就是 给普通人做的,简单好用,还靠谱。关注我,带你了解更多的 ai 信息!

昨天我在视频里讲的是在一个 opencloud 里面创建多个飞书的机器人,然后把几个飞书的机器人, 每个飞书的机器人配置一个一个 agent, 然后把他们拉到一个群组里,然后来干活,这是一种方式。评论区和 后台的私信的有朋友在问,有没有试过在一个机器人里面让它自己配置多个 agent 来来配合工作的,不需要创那么多机器人。 我,我今天晚上试了一下,可以我给大家看一下实际情况。奶油是我在腾讯云的,腾讯云服务器上的 opencloud, 它是线上的,跟我线下不冲突, 你知道我这个电脑上有两个 opencloud, 一个是腾讯云服务器里的,还有一个就是本地的。我问了他一句话,我说你可以化身多个 agent, 代理协代理协助,这还错别字儿,打快了, 他说可以,他可以化身多个 agent, 他 有多 agent 协助的能力,他的子 agent 可以 同时使用多个,最多好像是八个吧, 他可以协调他们工作,汇报结果,并行处理任务。完了他下面我把之前在豆包里面生成的我对一个团队的配置的几个角色,他们应他们是干啥的?他们的职责能力是什么?他们的工作流程是啥,什么风格什么之类的。我一股脑的又扔给了他,你看他的回复, 他说他看到已经有了这个完整的团队架构,非常专业。团队配置,他自己的角色是什么?他需要分配出几个人分别干什么? 他的角色是监督,他需要来汇总结果来汇报。他现在问我说让我告诉他品牌产品信息,以及具体需要完成什么任什么任务,这个团队 我告诉他这些任务不着急。我说请将这个团队的配置常态化,每天早晚各一次,定时提醒我同步计划和验收结果就是 一个团队的一个正常的一个工作流程。他说收到,首先他配置了配置了那个工作的文件,设了定时提醒,早上九点提醒,我做了一下验证,最后给我生成一个这个。他已经成功地配置了整个团队的一个工作 团队的架构、标准的工作流、定时提醒以及整个的工作模式。我提需求他来接受分析拆解,拆解之后是多 agent 并行执行,成果交付, 提醒时间是早九晚九,下一步就等我给他布置任务。 ok, 这个是在一个机器人里面,就在这一个机器人里面创建的一个情况。我之前有一个群组,里面是 一堆机器人,我这两种情况都配置了,我不知道这两种有什么区别,就是这两种模式他们的优劣势各是什么?我就去问了一下 ai, 我 问他一个问题是我说在飞书中创建多个机器人,为每个机器人配置对应 ai 阵和创建一个机器人让他分身多个 ai 阵的工作。 两种情况各有哪些优劣势?他分析了一下,总的来说,如果是多机器人,多 agent 这种是相对来说,它隔离做的彻底一点,就是比如它这里提到的身份隔离,用户可以清楚地识别身份权限隔离提高安全性, 消息隔离独立处理,避免混淆。故障隔离一个机器人故障不影响其他机器人的运作灵活性,但它的劣势就是配置复杂,也容易出问题,资源消耗大,这个大家可能比较关心的,因为每个独立的机器人都是独立的 api 调用的, 单机器人多 a 证的这种方式就是配置简单,维护成本低,只需要管理一个就可以了。它的劣势就是它的身份容易混淆,它的权限是共享的,所有的 a 证它共享一个机器人权限,消息路由复杂,这个有点看不懂,故障影响大,它只要有一个故障就是活,什么都不用干了。 它适用场景是对多多机器人多 agent 的, 适合这种对安全性要求比较高,而且需要区分角色的这种场景单机器的资源,单机器人多一种的就是资源有限的,或者对成本敏感的,或者是决策区分没有那么重要的,就可以一股脑的信息全放在一个地方的。 所以他给了这样一个建议,我不知道他给的这个建议大家认不认同,大家也可以讨论一下。