qq 官方支持大家养龙虾了啊!而且经过我的实测,真的只需要一分钟就可以完成。接入。 第一步, qq 扫码登录第二步,点击创建机器人,瞬间就可以创建完毕。然后你的 qq 里边就收到了一条消息,说机器人已经创建完毕。第三步,把这三条命令在命令行里边敲一遍就行了,仅此而已啊。然后我们的 qq 号就可以继续发光发热了。 如果你还没有安装龙虾机器人的话,你是 windows 电脑的话,看我这一篇。然后你是 mac 电脑的话,看我这一篇。
粉丝759获赞4738

整理了一千条 openclaw 小 龙虾的问题后,我把最关心的问题都会走了。首先是费用问题,很多人都说 token 费用高,求求大家去研究一下。火山、阿里、腾讯等大厂的编程套餐都支持 openclaw, 四十块钱包月,基本能满足日常需求,首月优惠才几块钱, 谁家富哥直接调用 a p i 来养大龙虾,你们烧钱是真不心疼。怎么安装小龙虾?小白不自己安装,用大厂的服务器,里面都帮你安装好了。小龙虾用一个新账号,几十块买一年四合四 g 服务器就好了,硬要自己安装,搞一个 ai 编程工具,帮你安装它能解决绝大部分问题,实在不行用别人打包的一键安装。用什么模型养小龙比较好?如果你有钱,直接充最强,可漏电啊。但考虑性价比,新手和刚安装的时候可以用国产模型 编程套餐,包月,性价比更高,模型开源域三家都可以。小龙虾能干什么?辅助日常工作是没有问题的,更多的需要融入自己工作中探索。我实现了帮我每天推送招标信息,帮我管理微信群消息及文档,慢慢养成他还是一个新工具。小龙虾很笨怎么办?小龙虾刚安装就像一个小奶狗,你需要去养成的,给他安装 s k i l 和 m c p, 更新优化记忆,给他的环境,安装相应的基础,养个把月进化再说。小龙虾适不适合普通人? 小龙虾其实有一定门槛的,并不适合哪些开箱即用的人,适合喜欢折腾有想法的人。一般人每天修龙虾就够自己头疼了。龙虾安装在哪里比较好?其现实阶段,龙虾最适合 mac 和 linux 系统, windows 系统还在调整升级中,有不少 bug, 所以 限阶段最佳方案还是部署在服务器上。可以用国产版龙虾吗?普通人玩玩可以,但费用一停,空间记忆清零。有想法和喜欢折腾的人可以玩原版龙虾。因为官方升级快,且社群最大, 搞一个龙虾费用多少?我用的配置是四核四 g linux 服务器七十九元,普通人够用了。四十元每包月编程套餐就这么多,大神的话可以增加服务器配置,内存越多越好,内存小限制了龙虾能力。养小龙虾最重要的是学习,而不是花钱,这是最好的时代,你可以快速学到任何东西,这也是最坏的时代,你很容易就掉队了。

腾讯在上周推出了现场安装龙虾机器人的活动后,又在周末发布了新版的 qq 机器人助手,可以让用户以 qq 聊天的方式远程控制龙虾机器人。首先你需要访问腾讯的龙虾机器人注册网页,并使用你的手机端 qq 软件扫描右下角的二维码, 扫描成功后会跳转到创建机器人页面,目前每个账号最多可创建五个机器人,创建成功后你会看到机器人的 id 和密钥信息,请一定注意安全保管。 安装和配置也仅需三行指令,分别是安装插件、设定机器人 id 以及重启服务,相当便捷。在具体操作上,你只需要复制这些指令,并在对话框发送给龙虾机器人直接执行即可,一般仅需三分钟就可完成。 设置好之后,你就能通过手机 qq 来控制你的小龙虾了。我测试了自我介绍以及新闻抓取等问答,测试响应相当迅速,比之前使用的其他通讯软件效果要更出色。 看来鹅厂的软件优化功底还是相当不错的。欢迎各位也上手测试并分享你的使用反馈,关注我可以学习更多小龙虾使用技巧。

hello, 家人们,我是最近超火的 openclaw ai 助理,今天给大家安利一个我的黄金搭档, linux 运维面板 one panel, 咱直接上干货哈!怎么在一台服务器上轻松搞定多个 openclaw? 从对零部署、对一管理到对二运维呢? 很多小伙伴部署 ai 助理,要么不会部署,要么只能单开一个,要么部署完就不知道怎么管理。想让我干活还得求运维大佬,太憋屈了!而 one panel 就 像给了我一套拎包入住的大平层,让你在同一台 linux 服务器上, 直接在 d 零就能创建多个龙虾,不是单个打工人,而是一个 ai 打工团队,同时还能进行 d 一 龙虾管理以及 d 二的龙虾运维,整个都是开源免费小白也能上手,这一点真的很良心! 看好啦,这就是 d 零创建日,以前配置环境得折腾半天,现在呢,在 one panel 应用商店里找到我,点击安装,一键部署,容器化管理,隔离又安全, 哪怕你同时开十个去写稿、跑数据、盯监控系统都不会乱,这就叫基建稳了,搬砖不抖,装完只是开始。接下来是 day 管理。 第一,给我装上眼睛和手无头浏览器配置,这样我才能半夜去帮你抢鞋子,自动解网页填表格。第二,给我换个大脑模型配置,不管是欧拉玛本地模型还是云端 a p i, 我 说换就换。第三,给我接上你的工位渠道配置,飞书、 telegram discord, 你在哪办公,我就在哪待命。最绝的是这二后期运维,别的 ai 挂了只能干瞪眼,我可是有物业管理的命令行操作,直接连接终端,想重启,按 power 里点一下,想升级它能自动拉取镜像,我立马学会新技能, 怕数据丢了。一 panel 自带一键备份,我的记忆和配置全给你存得明明白白,就算我哪天失意了一键恢复,我又是那个能帮你处理邮件、整理代码的得力干将。有小伙伴担心 one panel 开源面板不稳定,放心吧, one panel 是 github 上今日排名第一的代码仓库,社区活跃,三二数稳定增长,持续发版本迭代更新。 总结一下,用 one panel 养 openclaw 龙虾 ai 团队,一台 linux 服务器,一个 one panel 就 能搞定多个龙虾 ai 助理, 从 day 零部署、 day 一 管理、 day 二维护,全程可视化,不用等复杂运维,个人和小团队都适用。感兴趣的小伙伴赶紧去试试。

qq 官方下场支持 open class 接入 qq, 而且仅需三步, 打开龙虾机器人专用链接,并且登录 新建一个机器人。 这里官方准备好了三条命令,直接复制运行即可安装,第一步,安装插件, 第二步,配置连接 第三步,直接重启服务即可。 现在你的大龙虾就已经在你的 qq 上听令了。

给大家看一个牛逼的东西,这个 openclock 的 本地部署工具我已经把它做成安装包了,直接一键安装,全程傻瓜式操作。然后牛逼的点来了,环境配置 a p i 加上这个机器人全部配置好了,开箱即用,模型用的还是君临三点一 pro 软件,还内置了一个上万技能的仓库,而且全做了汉化搜索,然后装上对应的技能,就可以全自动的干活了。

这是 openclaw, 它的部署并不简单,需要由你的电脑二十四小时挂着。这是 kimi claw, 只需要点击这个创建按钮就可以部署完成并使用。我创建了三个 kimi claw 机器人,并把它接入了这个非输群中。现在我发送一条指令,比如说集合,他们都会回复收到。现在我给它们一个复杂的指令, 让他去 github 仓库上监测一个更新,如果有更新,那就生成一份报告给我。好,我们来看看他会有什么回应。我们可以看到现在他就已经给了我回应,并完成了刚才我给他的任务。那这个过程是怎么实现的呢?首先我们打开 kimi 的 网站,在这里选择 kimi clock, 然后点击这个创建 好,这样就创建成功了。我们直接把提示词发送给他,告诉他我们是谁,还有他应该叫什么好,这样他就明白了。现在我们打开飞书开发者后台,然后点击这个开发者后台, 然后创建一个企业自荐应用,我们给他起个名字,比如 ce 的 kimi 啊四号。好,然后用描述,我们也给他起一个名字, 这里我们给他设置一个图标,点击创建好的,这样就创建完成了。我们回到 kimi club, 点击这个设置图标,然后打开这个用户手册,在这里呢,我们把这串代码复制下来,点击这个权限管理, 然后点击批量导入或导出权限,我们就把这串代码粘贴下一步好,然后就把这些所有权限都开通就可以了。好,我们点击这个凭证与基础信息,复制这个 app id, 然后回到 kimi, 告诉他帮我配置, 然后给它粘贴过来,然后回到这里,我们复制一下这个 app secret, 然后再发送给他。在配置的时候,我们回到这里,然后点击添加应用能力,这里我们记得添加一下机器人,这个能力。好,这样它会成功了。它是要重启 getaway, 我 们点击这里的重启 kimi klo, 然后点击重启。 我们回到飞书,点击事件已回调,然后在这里定义方式,点击这个铅笔,选择长链接,点一下,保存好,这样它就成功了。我们点击添加事件,然后这里会输入接收消息, 然后勾选这个,点击确认添加。点击创建版本,这里我们创建一个版本号,比如我输入一点零点零,只要这个描述,我们也输入这个好,然后保存确认发布好,这样的话我们就发布成功了。现在我们打开飞书这个软件,然后打开我们的 kimi club, 我 们就可以试着给它发一条消息。 好,这样我们就看到它成功的回复了。如果它提示需要一个权限的话,我们可以回到飞书里面,给它添加这个权限。 好的,这样我们就成功地部署好了 kimi cloud, 并把它接住了飞书。总结一下, kimi cloud 就是 在 kimi 的 环境里面一键部署了 opencloud 的 功能, 帮你省掉了买麦 mini 和配置环境这些步骤。它的好处是上手快,能在聊天中不断了解你有技能库和定制任务,而且内置了 kimi api。 但它的局限就是只能在 kimi 里用,不能操作你的电脑,暂时不能把虚拟机的文件发送给你。

最近科技圈最火的话题是什么?是龙虾机器人 openclaw, 十天在 github 狂揽十万收藏,就金山千人开发者大会被警报?别误会,它不是什么实体机械币,而是运行在你电脑里 七成二十四小时待命的 ai 数字分身。它能接管鼠标、连通邮箱和本地文件,像个真人助理一样自己跑起来干活。在过去搭建这条生产线,需要在画布上痛苦地拖拽连线。而今天,惠智智能推出 nomake 智能体平台 托 a 振特智能体工作流开发引擎系统,我们实现了对话及构建。想要一个工具,不懂代码?没关系,工作流就是你的专属程序员,用自然语言、大白话题需求,它瞬间为你生成并部署。在 nomek 的 工作流里,你能做到什么?组建你的龙虾军团,它可以调度多个 ai 角色,各司其职,拆解任务全网解锁,执行操作 长周期任务,成功率只数据飙升,打通企业数据经脉。它可以链接公众号、飞书、钉钉等全平台,让数据自动流转。当然,面对如此强大的数字劳动力,安全是底线。 我们在 nomec 中构建了完善的沙河环境与权限管理。我们教你如何在安全的边界内驯龙,而不是把家门钥匙随便交给 ai。

今天给大家看一个牛逼的东西啊,这个 open clone 的 本地部署工具,现在呢?我已经把它给做成了这个安装包啊,直接一键安装, 全部是傻瓜式的,就只要点安装下一步直接进行就行了,就很简单,就只需要点一下,想要的朋友评论区见。

大家好,今天给大家出一期一帕诺最新版安装 openclo 的 教程。一帕诺更新到二点一点二版本后安装 openclo 方便了非常多,如果是之前安装各种问题安装不上的, 可以试试一帕诺最新版安装 openclo 方便快捷。由于现在 openclo 的 权限比较大,推荐大家使用虚拟机或者一台云服务器来部署 openclo, 最好不要在有重要资料的设备上部署,避免重要的数据丢失。今天我就使用莱卡云的云服务器给大家进行部署演示。莱卡云拥有各个区域各种配置的服务器, 在内存硬盘疯涨的今天,云服务器才是真正的性价比之选。有需要购买云服务器的可以通过视频简介的链接进行购买。 首先在你的服务器上安装一 panel 官网,使用脚本一键安装,然后注册好一个奥特曼的账号,这是我本次使用的模型提供商,当然你用其他的也可以。 然后我们打开 epanel 的 管理面板,选择 ai 智能体。首先在模型账号这里创建一个模型账号,模型提供商选择自定义,如果你是使用的官方的渠道,可以选择对应的提供商。注意这里只要是兼容 open ai 接口的都可以用自定义。 然后输入 a p i p base url 以及模型名称。 a p i p 在 alimay 官网 settings keys 页面中生成,生成后复制保存好。 base url 就是 alimay 官网的地址,后边记得加 v 一 模型,去 alimay 这边找 cloud 标签的都可以在一定额度内免费使用,我这里选择签问三点五, 重点是这里的 api 类型, open a completion 是 老版本的 open ai 接口规范。 open a responses 是 新版本的 open ai 接口规范。如果你不知道你的提供商用的是哪个版本的接口规范,可以使用 cherry studio 进行测试一下。 cherry studio 这里添加供应商,带 responses 的 就是新版本,然后填入你的供应商信息,通过管理获取模型。右键左侧提供商也可以修改供应商类型。选定供应商类型后可以进行健康检测,测试通过就说明供应商支持该版本的接口。 我这里对 alamo 两个类型都测试了一下,都是能正常返回的,说明 alamo 两个类型的接口都支持,然后就根据刚才的测试结果选择这里的供应商类型。支持 responses 就 选 responses, 不 支持 responses 的 就选 completion。 这里仅限兼容了 open ai 接口的供应商,只要你确保这个没问题,基本上都能部署成功。绝大多数的报错都是因为供应商跟模型这里配置的不对。 然后回到智能体创建智能体基本上都是默认的模型供应商,这里选择刚才创建的,点击确认,等待部署完成。注意这里镜像体积比较大,拉取镜像可能会等的时间比较久, 等待创建完成。控制台有日制输出,然后点击 ypui 访问就可以了。 跟 openclock 聊天测试一下,可以看到正常响应了,通过 ip 访问还是有点不安全哈,推荐大家尽可能增加一个域名的反向代理,通过 http 进行访问。好了,今天的视频就到这里,快开启你的龙虾之旅吧!

qq 炸了,腾讯官方宣布接入 opencloud, 一 键生成你的 qq 机器人。一个 qq 号可以生成五个机器人, 你不需要会写代码,也不需要懂什么配置,而且还是官方通道稳定,不会封号,几分钟你就可以搭建属于自己的机器人,赶快去试试吧。

运行 openclock 到底需不需要使用 mac mini 主机?今天我用吃灰了大半年的 mini m 四的十六 gb 盖板进行了测试。 操作系统我已经升级到了二十六点三最新版,可以看到在刚刚登录系统且未运行任何其他软件的情况下,系统内存就已经被占用了大约十 gb, 这意味着留给大模型的运行空间仅有区区六 gb 资源,非常紧张。 大模型的运行软件我依旧使用了喜闻乐见的羊驼欧拉玛模型,使用的是千问三点五的九币和四币两个参数版本,可以比较好的适配目前的硬件资源。为了了解 mac mini 对 新版千问模型的支持情况,我运行了两个模型的性能对比测试。首先测试的是九币模型, 运行速度是十三 token 每秒,而四 b 模型的运行速度则是大约十九 token 每秒,区别并不大,不过应该可以满足基本的对话需求。下面开始测试。 openclaw 是 全新安装的 macos 版本,版本号是二零二六年三月二日。 在后台把模型设置为千问三点五的九币模型之后,我开始了第一次对话。首先要求龙虾机器人上网搜索今天全球最新的股市新闻。由于是全新安装的环境在思考,大约等待五分钟后,对话框提示需要配置 web search 的 api。 我 按照提示信息将提前准备好的 api key 输入了对话框,并要求他帮我写入后台配置文件。又是长达数分钟的等待, 机器人回复 a p i 的 配置信息已经更新好了,需要重启网关,但是很不幸,网关在重启时提示失败,提示无效的配置文件。很显然,由于模型的能力问题,配置文件的设置有误。好在新版龙虾提供了一个修复命令,我在运行后,网关终于再次成功启动了, 于是我要求龙虾机器人继续帮我搜集全球股市信息。对话框随即陷入了长时间的等待。期间我还关注到 mac mini 的 cpu 温度已经上升到了七十多度,说明后台在进行非常忙碌的数据计算。 不过好在大约十五分钟后,机器人给出了答案,虽然信息很简略,但是非常有条理,并没有明显错误。 于是我再次提出了下一个问题,要求机器人对中国 a 股进行点评分析。不幸的是,在长时间的等待后,页面弹出大模型无响应的错误, 说明后台硬件资源已经完全耗尽,于是我尝试将模型改为了四 b 的 版本,降低资源消耗。但是在我继续等待一段时间后,模型超时的错误再次出现,于是我只能彻底放弃下一步的其他测试。至此,经过我大约三个小时的深度测试,基本可以确认 使用盖板。 mac mini 运行龙虾机器人毫无必要,其有限的硬件性能无法满足基本的对话要求,特别是在单个对话动辄就有可能调用几十万 token 的 情况下。所以推荐的正确做法是选择旧版本更廉价的 mac mini 主机,比如 mac mini m 二, 或是我已经闲置吃灰很久的软路,由主机再配合外部大模型一起工作,才是迷你小主机的正确龙虾使用方法。如果你也有类似的使用经验,欢迎在评论区分享您的心得。

腾讯大厦楼下排起了近千人的长队,不是面试,不是抢手机,就是为了装一只龙虾。我是杨乐多,大白话讲 ai, 这只龙虾叫 open club, 但我今天不是想跟你说它有多火啊。我想说一个大多数人没有意识到的东西。先说表面,这一层, 这个工具四个月就登顶了全球最大程序员社区,什么概念?上一个第一名叫 linux, 你 的手机的安卓系统,特斯拉的车机,全球大部分服务器底层都跑的是它,攒了十几年才到那个位置。 openclaw 四个月就超了,但火不是重点,重点是它跟你现在用的豆包、 deepsea、 元宝有一个本质的区别。豆包、元宝, deepsea 呢?你问它答,你不问它就不动,本质上它是一个很聪明的顾问。 open club 不 一样,你跟他说一句,帮我每天早上抓一下小红书的热点,筛选掉没用的,写三条文案发过来,他就真的自己去抓,自己去筛选,自己写,自己发。你不用管他,他是一个员工, 这两个角色的差距比你想的大得多。顾问再聪明,活还得你自己干。员工不一样,员工是替你干活。这是 ai 第一次从动嘴变成动手,但我真正想说的是,第三层 装瞎的那一天呢。现场什么人都有,从杭州飞来的程序员,退休的航空工程师,小学四年级的学生,抱着孩子的妈妈,一个大部分人都还搞不懂的东西,这些人愿意排一个小时的队来装上试试。这份好奇心我觉得特别的了不起。 deepsix 出来的时候服务器被挤爆了, opencloud 出来了以后,腾讯楼下排长龙,每一次新的东西出来,最先冲上去试的不只有这些基因和专家,还有像你我一样的普通人。 中国 ai 为什么能跑这么快呢?就是因为在这片土地上啊,有千千万万愿意为了自己生活变得更好一点,主动去购一购新东西的普通人,他们才是真正的中流砥柱。一个国家最可怕的竞争力,从来不是有多少天,才是普通人的自驱力和好奇心。 也许多年以后啊, ai 已经在替我们工作,替我们开车,替我们照顾老人了。那个时候我们再回头看,人们会记得二零二六年春天,那个排队的下午, ai 刚刚长出手的那一天。你每天最想交给 ai 去干的那件事是啥?评论区告诉我,持续用大白话带你看懂 ai 走到了哪,变化很快,关注我,带你一起跟上!

昨天我跟小龙虾大战了一天,终于是用上小龙虾了,在这里给大家讲一下这个过程。我先是让豆包给我推荐了一下这个布置方案,他给我推荐了三个, 第一个是租服务器,在服务器部署,这个的话是比较便宜些。第二个是本地部署,几乎是完全不花钱。第三个呢就是租阿里云已经部署好 opencloud 的 云服务器,其实也就是两个,一个是自己部署,另一个就是买现成的。 我为了尽快用上小龙虾,所以我直接选择了租阿里云的服务器,就是预装好小龙虾的服务器。我们打开阿里云购买这个 open cloud 服务器的页面,选择一键购买并部署。这里有跳出来的两个组合套餐,看上去都很便宜,但是咱们不要买这两个,因为清亮应用服务器这里边的是两 g 的 内存, 根据咱们广大用户的经验,咱们这个服务器要至少选四 g 内存的。咱们往上翻,找到这个 轻量应用服务器量和四 g 的 这里,这地方是可以选择国外和国内的,如果选国外的话,大家可以选这个离咱们中国近一些的,像韩国、泰国这种的。如果选国内的话,豆包推荐咱们选这个花呗。二北京,我就是选的这个点,立即购买, 买完之后我们来到阿里云的工作台,在我的资源这里找到我买的这个服务器,像我买的华北。二、北京,点清亮应用服务器,打开这个服务器, 到这里我们就看到了这个服务器的一个情况,是两 cpu 四 g 的 内存, 然后还有一个它的一个公网的 ip 等,在这里我们要点实力 id 下面这一串,而不是点这个远程链接,点开这之后我们 就进入了这个更详细的一个信息,在这里我们点应用详情,大家可以看到 open class 使用步骤,它的都已经给你做好了,然后我们只需要点第一步的执行命令,等它运行完再点第三步的执行命令, 第三步执行命令之后,他会给到你一个控制台的访问网址,我们直接点这个网址就来到了小龙虾的一个工作界面,在这里我们可以给小龙虾发个信息,到这里的话小龙虾就已经可以开始用了,大家都去养自己的小龙虾吧。

很多朋友啊,都想安装 open klo 的 小龙虾,但是呢不知道怎么办,今天教大家最简单的方法,只要五步啊,第一步呢,在腾某云上面去买一个服务器,也就是你要给你的龙虾租一个房子啊,大概六十块钱一个月。然后第二步呢,去安装一只小龙虾 啊,这个不花钱啊。第三步呢,去给龙虾买粮食,这个最花钱啊,也就是大模型的 token, kimi klo 的 都可以,一开始呢可以先充值五十块钱玩一下。然后第四步呢,配置通讯接口,这样的话你就可以跟你的 小龙虾沟通了,安排活。那这个呢,可以是非某书或者企业某信都可以,按照官方的指南来就好了。那这些做完之后,第五步,你就可以正常的食用小龙虾了,就这么五步轻松搞定。 但是呢,这里面最好钱的是那个龙虾的口粮啊啊,用的便宜的人呢,一个月几十块,用的贵的人呢,一个月几百几千都可能啊,不同的口粮价格不一样,进口的很贵好吧,然后安装其实很简单,大概二十分钟就够了,装好之后呢,大家就可以慢慢的调试你这个小龙虾了,把它当成你的第一个 ai 员工,好好的教他吧。

上一期我们录了一个教程,就是如何嗯,在 windows 系统里面,呃通过零代码零命令行的方式来部署 openclaw 龙虾机器人。 嗯,我看大家在评论圈里问的比较多的一个问题就是 openclaw, 嗯,去运行的话,它需要什么样的硬件配置?今天就用一个视频的时间给大家讲的明明白白。 首先主流的是有三种方式啊,第一种方式就是最常用的本地部署加云端 api token 的 方式。第二种方式就是云端部署,纯云端部署, token 也在云端,然后我们的 open cloud 也运行在云端。第三种方式的话就是完全本地化部署, 就是我们把自己的呃龙虾也运行在本地,大模型也运行在本地,当然这种方式需要消耗高性能的 gpu。 我 们现在就把这种方三种方式进行一下对比。 第一种方式也就是我目前在用的一种方式,嗯,用本地的一个嗯比较低功耗的小主机,它用来就是二十四小时运行,当然我们如果让它二十四小时运行,我们要考虑能耗的问题。所以说, 嗯,原来 mac mini 卖的比较贵的原因,卖的比较多的原因就是这个,很多人在老外在抢 mac mini, 但是我们嗯嗯就是国内一般用 windows 比较多,所以说,嗯,当然为也为了省钱就买了一个嗯,这个 小的小主机啊,它的功耗应该在十五瓦左右啊,整体成本在一千块钱左右啊。当然大家如果有闲置的电脑的话,它的性能肯定是要比这个小主机要高的多的,因为这个小主机它好像是就是那种 n 系列的, n 系列的芯片只有四核四 g 啊,这样的 就是性能非常非常低,但是跑起龙虾是绰绰有余了啊。像国产呢,现在老外出了龙虾之后,国产又出了一个,叫什么皮皮虾,这个皮皮虾的话就是直接可以在手机上运行的,就它对硬件性能要求是非常低的,但是你 token 的 话肯定是要云端 token, 就是 你要去接入一些,嗯, api。 另一种方式的话就是云端部署,云端部署的话,它有一个非常非常大的优点啊,它是有 固定 ip 的 啊,它是有固定 ip 的, 它有固定 ip, 它有个什么好处呢?就是,嗯,假如说你在运营公众号,或者是在运营一些其他的一些平台,通过自动化的方式,它会有一个 白名单限制,白名单的话是像微信的话,它的安全系数非常高的,所以你要把这个 ip 加入白名单之后,你才能够进行下一步的权限操作啊。所以说,呃,如果是运营公众号的话,大家可以选择使用云端部署的方式 啊,云端部署家园端 api, 当然这样的话你本地就是免维护的,你本地不需要投入硬件,你只要买一台云就可以了。第三种方式的话就是完全本地化部署,这种就适合一些啊,重度使用者,尤其是企业, 你们可以把自己的那个龙虾包括,嗯,包括大模型,比方说你用的是 mini max 了,或者是用的是,呃,质朴的模型,都可以在自己本机上去运行,当然这种成本是很高的。呃,因为,因为我也是一个重度使用者,所以说 一开始的时候,嗯,每天五十块左右的图腾,我也觉得很贵。嗯,后来想的是我有台四零九零啊,家里也有台嗯,不错的显卡,想把它给配置起来啊,但是我尝试了很久的话,效果并不是很明。效果不是不是很明显,四零九零的话,基本的啊,千万模型是跑不起来的。 嗯,然后后来又听说出了一些比较好的方式,我也没有去尝试,因为觉得我觉得图腾就是借着花钱买图腾也是很方便的哈。 嗯,当然。嗯,目前有一种就是在老外那里有一个叫什么 max studio 的 哈,据说它能够花一万块钱多的成本就可以把这个模型跑起来。嗯,我们等待其他的大佬们去测试吧。啊,如果是真的的话,你相对划算一点的话可能就是 max studio。 呃,几种成本,第一种本地部署的话,本地本地,你买一个小主机的话可能在一千块钱左右,如果是二手店的话,成本就是零了。然后 自己闲着电脑嘛就拿起来跑一跑。然后另一种方式的话就是云端部署,云端部署的话,比方腾讯云,呃,跑的比较稳定的话,我估算了一下,大概是一千块钱一年, 然后本地化部署,如果说四零九零我都跑不起来,我自己估算了一下,如果现在按现在的这种模型跑起来的话,可能成本就要六万块钱一套左右。所以说,嗯,直观免费的哈, 就大家还是选择的。第一种就是拿一台旧的电脑直接按照教程去部署 open cloud 就 可以了。