不知道大家有没有用过一些食之无味弃之可惜的 ai 产品,今天我就遇到了。上个月我订阅了阿里巴巴的百炼 coinplan, 原价是两百块钱,第一个月优惠只要三十九,我觉得很划算。过去这一个月,我主要使用里面的 kimi k 二点五模型, 用于接入我的小龙虾。当一个备用的 ai pro 的 同时,我也把它转换成了一个 a p i, 接入了我的一些 ai 应用。老实说,阿里巴巴的这个 callin plan 不 管是接口响应速度还是提供的 ai 质量都还是挺不错的,用量也很足,我一个月使劲用下来才使用了百分之十三的额度。但 但是我自己工作本身主要用的是 cloud code 和 codex, 我 还有免费的 java 都底,除了 gpt, 五点四也有好几个其他 ai api 的 渠道。所以阿里巴巴的这个 coding plan 第二个月续费要两百块钱, 就让我觉得有点浪费了。昨晚我还在纠结要不要续费,后来忙其他事忘了,结果过了零点发现订阅已经被取消,而且无法再续费了。 阿里巴巴的这个 coinplan 由于太火爆,购买居然还有限额,要每天早上九点半抢购,这你敢信吗?话说大家现在有在用国内的这些 coinplan 吗?如果用的话,大家更推荐用哪一家的呢?也欢迎大家来讨论交流一下。
粉丝136获赞331

国内的模型基本没怎么用,结果想买的时候试一试,发现买不了了,包括阿里云、百联和智普 ai, 智普的 g m m 也用不了了,每天都需要去抢。刚才我去十联讲了一下,发现它的网页是在转呢,跟抢票一样。 所以大家啊,早买早用,现在这个 kimi 还是可以用的。这个 kimi 还能用,赶快去买一下。我建议买个四十九到或者九十九的都可以,我买个九十九的 kimi 还是可以用上,感觉跟克拉扣的是有些差距,但是便宜,大家可以试一试,尽早用 其他的模型,比如说迷你 max 或者是 dipsic, 这些还是一般,有的说迷你麦草, 目前迷你 max 是 它的,这个定制 plan 是 可以用的。我买了一个 plus, 先试一试。刚才试了一下啊,还行,但是你要让玩龙虾比较贵,我不太建议用龙虾,用迷你 max 有 点贵了,我可以用本地去部署, 或者你就用一下提米豆的就可以了。还有庆大家一些,这些 ai 的 层出不穷,一个月一个版本,所以我建议大家就买一个月就试一试就得了,不要开这种连续包年的。这种的你看比如说前两天刚 充值 cds 二点零的,现在又出了新模型,所以一个月左右基本上就过时了,所以大家还是自己看一下,如果有钱无所谓,可以试试用这种单月的。

我非常确信呢,各家模型的 token 只会更贵,不会更便宜。你知道我最近在干嘛吗?天天在抢各家的 coding plan 的 计划。咱就说 g l m 五,国内的 coding plan, 天天都要去智普的官网蹲点抢,根本抢不到。阿里的也是根本抢不到。 腾讯京东的也是每天限量字节的,字节的火山引擎还能搞到,但是似乎没有上架。 g l m 五,包括小米的 miimo 已经上架了。大家说各位 web coding 的 专家, 各种代码天才, openclaw 的 大师,没有 token 根本就过不下去啊。有的人会说,你是伪需求,我想什么是伪需求?我现在四个 token plan 的 计划,京东云 token plan max 尝鲜以下已经抢到了。智普国内版的基本上不太好抢,要不有时候高峰期速度太慢,我直接抢一手国外版的 z 点 ai, 不 过比国内贵些。另外,很多人会吐槽,你要那么多 token 是 伪需求。其实我倒不觉得,我有大量的项目可以测试,脑袋中有大量的想法可以折腾, 恰恰是因为我有太多的 token 可以 用,我得想办法每天把这些 token 折腾掉。所以这些想法是我撞出来,不是我想出来的,是我在工程环境下实践出来的,恰恰不是靠一拍脑袋想出来的。所以 token 吧,有什么想法就去试试, 我每天大概跑几个任务,就差不多一 token 了。这里面让我最注意到的地方是,很多人说 web token 是 文科生的世界,我觉得一部分没错, 我更觉得 web coding 非常适合有清晰目的的人。那么当然,文科生非常是把自己的思维提炼出来,然后把这样一种思维运用到 web coding 里面去,我觉得这是非常适合 的,是清晰认识到思想框架,把这种系统性思维运用到 web coding 中,这种框架有很强的边界感,你就能玩的很顺畅。那么下次有机会的话,我来会跟大家讲讲 coding plan 的 计划,各家到底怎么样?

昨晚,智普突然扔了个大招,距离 glm 负五发布才一个多月, glm 负五点一直接杀到编码能力暴涨百分之三十,得分从三十五点四直接跳到四十五点三。 cloud op 四四点六,才四十七点九,差距已经肉眼可见地在缩小。六个月前,这个差距还是十几分,现在只差二点六分,达到 cloud op 四四点六的百分之九十四点六。在实际编码场景中,这个差距几乎可以忽略, 有人甚至说应该直接叫 g l m 负五点五。还有用户测试发现, g p t 负五点三都没搞定的问题, g l m 负五点一直接解决了。看数据, s 大 愈减, bench verified 得分七十七点八,开元模型最高 turmnobench 二点零,得分五十六点二,超过詹姆奈三点零。 pro 擅长复杂系统工程和长城 agent 任务使用体感逼境 cloud opus 四点五,这是目前国产编程模型的天花板。说价格, cloud opus 按量计费每百万 token 大 概十五到七十五美元。 g l m 负五点一,通过 coding plan 使用 light 套餐,三美元起步,按量计费每百万 token 只要一元, 用 cloud 十分之一的价格,获得百分之九十四点六的体验。使用方式超级简单。如果你已经在用 g l m coding plan, 只需要找到配置文件,比如 cloud code 的 sighting store js, 把模型名改成 g l m 负五点一就行了。 一行配置无缝切换,支持 cloud code、 cursor、 open cloud 等主流。 coding agent 质朴也很坦诚,说了两个现实问题,第一,高峰期可能限流, 每天下午两点到六点,系统负债最高,编程任务会被优先保障,非编程场景可能会排队第二。高峰期消耗三倍额度,非高峰期只按一倍抵扣,建议错峰使用,体验会好很多。重点来了,现在到四月底, g l m 负五点一 在非高峰期只按一倍抵扣,这个福利期间用起来超级划算。三美元的 lite 套餐,日常开发完全够用。 pro 和 max 套餐适合重度用户,发布几小时内已经大量用户上手体验, x 上好评不断。 有人说稳定性比 g r m 负五好很多。有人说长链路 a 阵这任务终于不崩了,从三十五点四到四十五点三的百分之三十暴涨,不是吹的,是实打实的工程能力提升。如果你是国内开发者,不想翻墙用 cloud, 又想要接近 opus 的 编码能力, g l m 负五点一目前是最佳选择,尤其适合复杂工程任务和长城 a 阵开发。 g l m 负五点一国产编程模型的天花板编码能力直逼 cloud, opus 价格只要十分之一。邀请码在评论区点赞加关注,赛博杨千焕明天见!

最近国内各个大厂因为 openclaw 爆火的原因,都相近推出了 coding plan 计划。作为消费者,除了准确分辨眼花缭乱的各种首月七块九拉人策略外,现在还得定闹钟准时抢了。 不过我今天想分享的内容是,到底哪个模型能好用,用得起来?我在很早之前就订阅了千万的 coding plan, 因为国外模型成本太高了,钱没赚到,投入成本不断增加,这是不合理的。 所以我将我的小龙虾改成了两层工作模式,上层国际大厂,下层就是今天要讲的国内模型。不管你是做跨境电商还是自媒体工作者,少不了信息收集任务,适用了各种模型,包括让他们相互 battle 得出来的最推荐选手 kimi, 这位选手能够真正的听得懂人话,不管你安装了多少 skill, 什么记忆管理,什么 a 阵定义,不听你的规则,读了记忆也不遵守是没有用的。 timi 在 这几方面做的确实不错,他能够准确的识别你想要的信息,并以你想要的方式呈现给你。 虽然使用阿里的 coding plan 在 访问速度上不如 kimi 官方,但是结果是可以接受的。不要跟我讲用什么国外大厂的模型,这样目的性强的工作不需要大厂模型,无论是短视频也好,文章博客也好, ai 在 帮你复制生成材料时,你都必须考虑到对端平台的要求。 我强烈不推荐全部内容由 ai 生成,这个肯定是各大平台早晚会干掉的事,但 ai 可以 很好的帮忙做好准备工作,收集素材,整理素材,准备视频脚本,帮你选题。这类内容推荐的 mini max 和 glm, 但是你要注意, mini max 常常犯一些低级的错误,你需要修改它对应的 a 帧配置文件。我们在 ai 辅助工作中经常要编辑一些代码,这些代码帮助我们完成流程化的工作,比如通过脚本自动化整理下载到的图片、视频素材。 这些素材下载到本地以后,你需要 openclaw 帮你识别内容,并按照内容整理到不同的文件夹,方便你后期使用,不然你下载的素材就是灾难。 这个 coding 的 工作需要很明确, glm 五点零和 kimi 适合担任,别跟我谈什么项目,开发 vive coding 那 样的工作更适合用专门的开发工具, open code, cursor vs code plus, 各种插件等等。总结,这么多大厂的这么多 coding plan, lite pro 第三个月的价格上已经基本持平。 我们重点想要的其实是这三家模型, kimi, g, l, m, minimax。 所以 你现在该知道如何选择了吗?选择这些模型,其他的模型凑热闹的多。下期我们聊聊更多的使用场景,下期见。

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

今天抢这个 ai 的 国产的模型啊,日普的 glm 说十点抢,然后现在一直刷新进不去,现在是十点十点零五了,还是进不去,然后抢了一个腾讯云,腾讯云他也抢光了,刷新也不好使,腾讯全抢光了, 腾讯云不行,然后阿里巴巴的也抢不了,阿里的百炼这个高级套餐二百块钱一个月的也抢不到,每天九点半说补货,进去就没有,进去就没有。就现在这国产模型啊,好一点的全抢不到,差一点的迷你 max 吧,用了也不舒服。 deepsea 呢,到现在也不更新。然后那个 kimi 也是 kimi 赶不上还赶不上之前小米那个免费模型啊啊,小米那个免费模型昨天晚上到期了,所以现在又属于那个没有模型可用,就说这个吃相太难看了。

随着 opencloud ai 智能体的火爆,这可能离 ai 收购我们普通人最近的一次,平台都推出自己的 codingplay 的 套餐。为此,我花了一周的时间,把国内所有的平台 codingplay 全部撤了一遍, 整理出这一份可能是全网最全的对比指南。从七块九的入门价到五十块钱的旗舰版,从火山引擎到智普 glm, 从阿里百联到 mini max 七家平台,我会把每个细节都给你讲清楚,看完这期视频,一定帮你省下不少馒头。 那么我们正式开始吧。可能有些朋友还不太了解头顶 play 到底是什么,简单来说,它就是原厂商推出的 ai 编程模型订阅服务。 你以前可能只是简单用 ai 对 话来解决一些问题,但自从奥本克勒出现之后, ai 使用 有所改变,你需要自己调用 a api, 然后按 token 数量付费。 token 费用这个东西用起来真的没底, 有时候我们通过 open curl 问几个问题,一个月下来几百块钱甚至上千块钱都有可能。但是 coding play 不 一样,它是固定月费,根据我们的需要,每月只需要几十块钱就可以无限的调用。 这些平台做了深度适配,像 opencloudbirdcode、 coser 这些主流工具,全部可以直接使用,连门槛开箱即用,这就是 opencloud 的 核心价值。好,我们先说第一家,火山引擎方舟, 这是字节旗下的云平台,他们的特点就是多模型结合,什么意思呢?就是他不绑定某个模型,而是同时支持多个主流模型。他们有一个叫 out 模式,能根据你使用场景自动选择最优的模型。 这个功能很实用,省去你自己判断模型的麻烦。第二家,阿里百联,阿里百联是目前模型选择最丰富的平台,一口气支持五五个模型。还有阿里最大的优势就是它的 a 键生态圈, 什么意思呢?就是他不只是给你一个模型,而是有一套完完整的开发工具链,非常适合做复杂项目的开发者。第三家,腾讯云 腾讯云 callinplay 背靠着腾讯这座大山,最大的优点是企业生态做得好,支持混云二点零模型,这是腾讯资源的大模型。 腾讯人的优势。还有如果你本身就在使用腾讯的企业服务,如微信生态 企业微信这些,那腾讯人的接入是非常丝滑的。第四家,百度千帆,这家比较特殊,他最大的特点就是百度平台的生态圈,作为国内最早的原厂商之一, 百度的企业用户基础是非常庞大的,支持文新一员四点零,还有是百度的 c 加加优化,这是它的亮点,如果你主写 c 加加, 百度千帆可能是不错的选择。第五家,夜之暗面 kimi ko 夜之暗面这家的特点是长上下文的能力, mini 二点零,支持 二十万字的上下文,什么概念呢?相当于可以同时理解一篇三国演义,所以 timi 特别适合分析大型代码库或处理复杂的项目。第六家,智普 g l m codingplay 这家的编程能力是 真正的行业顶尖, glm 五在 s w e bench 榜单上是并列第一梯队的。 s e bench 是 什么?它是衡量编程模型能力的权威精准测试,能上榜的模型都经过严格的验证, 智谱的模型在推理能力上表现非常出色,适合需要高复杂编程任务的开发者。第七家, mini max talking plane 这家是今天性价比最高的平台,它最大的特点不是便宜,而是全模态。什么意思? 其他平台只支持编程模型,而 mini max 它包含了语音模型、视频模型、图形音乐模型一站式服务,且代码之余还能用它来语音转文字视频,裁剪图片,生成一页,制作一份定位,就解决了所有的需求。 如果你追求极致的性价比,又想体验全套模型,那么 mini max 是 最佳的选择。这边是模型的对比情况,最后给大家一些选购的建议。 如果你追求极致的性价比,日常写写代码,不用做特别的复杂项目, 那么 mini max 是 你最佳的选择。如果你在企业环境需要稳定的服务,完善的工具链,那么 阿里百链是最佳的选择。它不只是提供模型,还提供了 ag 的 生态生态圈,以及五个模型的随意切换。如果你需要 强大的编程能力,比如处理复杂的算法或者大规模重构,那么智普是首选。智普的 glm 五的编程能力是经过 swe 编程认证的,是行业顶尖水平。如果你想处理超大的代码, 如十几个文件、复杂的项目分析,那么 kimi 是 你的最佳拍档。如果你刚开始使用 ai, 火山眼前是个好的起点,它的自动选择模型模式 非常适合我们新手入门。以上就是国内七家平台 qq 平台的全面对比,如果你觉得有用,请点赞收藏,我们下期再见!

免费了,不要三四九九,也不要九块九,不包手机的平替智普的开源项目 open auto gm, 配合它的开源模型 auto g o m 九 d, 咱们也能实现手机 agent 的 自由。我用手上这台安卓手机和 mac 电脑搭好的环境,让他来帮我购物, 这是执行效果,提示词是在淘宝上找到帮宝适黑金刚 l 码最低价的商品,加入购物车,然后发微信告诉我商品选好了。我来看看。这套开源方案和豆包手机最大的区别有三点,第一, 一,运行级别不同。开源方案只能在前台运行,豆包手机可以在后台自己默默的运行。第二,手机的便携性不同。开源方案手机和电脑必须用数据线连接,或者是在同一个 wifi 下,豆包手机可以只拿着手机到处走。三、智能程度不同。 开源方案接的是九 b 参数的小模型,能完成大部分的基础场景,但是极限智能比不上豆包手机。推荐两种适合的使用场景。 场景一,操作电脑忙不开的时候,比如快下班时提前叫车,当同事还在等车的时候,你已经上车回家了。场景二,需要在手机上多个 app 之间切换,收集数据,分析并且最终操作手机的场景。比如说在双十二购物选择最低价格商品时,我的微信收到消息了,任务完成。 牛逼!那么这么牛逼的手机, a 镜的方案会不会很难配置呢?完全没问题,我摸索了一套极简方案,只需要一行命令和一句话就能配置好。 首先看我这期视频,一行命令把 cloud code 安装好,然后打开 cloud code, 告诉他这句话,一路点同意就能安装完成整个配置过程,需要用数据线把安卓手机 在电脑上这么简单都能就能搞定,快去配置一套试试吧!你还有什么场景想用手机 app 来解决的?详细的安装过程和常见问题我会总结成文档,方便大家查看。关注我,玩转 ai 编程。

如果你最近也在用 open cloud 跑项目,那么我想知道,这个月的 a p i 账单你看的心疼吗?是不是跟我一样,用的时候有多爽,付钱的时候就有多肉痛? 明明只是让他写了几个小项目,改了几版代码,成千上万的 token 哗哗就没了,月底一算账,几千块钱直接打了水漂。别慌,今天这条视频,我把目前全网主流的 callin plan 套餐都给你找来了。 从七块九的入门尝鲜到重度开发的旗舰套餐,哪家性价比最高,哪家不抢就能买,哪家最适配你的常用工具。看完这条视频都能明白,建议所有开发者先点赞收藏,免得要用的时候找不到了。 首先第一个也是目前入门价最低的之一,腾讯云大模型 coding plan。 腾讯云这个套餐核心优势就是两个字,便宜。 mate 套餐日常价四十块钱一个月,现在活动价首月只要七块九。 pro 套餐日常价两百块一个月,活动价首月只要三十九块九。 这个价格对于想尝鲜的朋友来说,几乎是零门槛。用量方面, lite 套餐每五小时最多一千两百次请求,每周九千次,每月一万八千次。 pro 套餐直接是 lite 的 五倍,每五小时六千次,每月九万次请求。对轻度用户来说, lite 的 额度完全够用, 重度开发者的话,买 pro 也能顶得住。模型方面,除了独家支持腾讯的混元全系列模型,还接入了 gmm 五、 chimi k 二点五、 mini max m 二点五这些主流模型、主流编程工具呢,几乎全兼容,像 opencloud、 coldbody、 cursor 这几个直接就能用。 唯一要注意的是,这个优惠价每天十点限量开,抢手慢,无想上车的朋友要定好闹钟。 接着第二个,阿里云百炼定制 plan, 阿里这个套餐跟腾讯的定价体系差不多, mate 套餐日常四十块钱一个月,新客首月十块钱。 pro 套餐日常两百块钱一个月,亲测首月五十块。用量上, pro 也是 light 的 五倍,跟腾讯持平。它的核心优势,第一是独家支持阿里自家的千万全系列代码模型,尤其是千万三 cold plus, 这个在代码生成和工具调用上的表现大家懂的都懂。第二呢,是对阿里云的服务器生态适配拉满,如果你是用阿里云服务器部署 opencloud 相关服务,用它会非常丝滑,而且配置教程很完善, colude code、 client 这些工具都有手把手的接入指南。不过呢,缺点跟刚刚说的腾讯一样,优惠价每天限量抢购,早上九点半开抢,热门时段基本很快就售清了。 下一个字节跳动的火山引擎方舟 coding plan 字节。这个套餐最大的亮点就是独家支持豆包系列代码模型,尤其是在国内代码模型里属于第一梯队的豆包 seed code, 而且现在订阅还能解锁自接刚出的 ark cloud 跟 open cloud 完美适配。价格方面, mate 套餐日常四十块钱一个月,限时特惠,首月九块九。 pro 套餐日常两百块一个月,限时特惠,首月四十九块九。 用量上, light 是 plud pro 的 三倍, pro 是 light 的 五倍,完全能满足重度开发需求,模型生态也很能打。除了豆包全系,它还接入了 kimi k 二点五、 glm 四点七、 deep sick v 三点二这些热门模型支持手动切换,也能开 auto 模式,智能调度,简单任务用轻量模型省额度。 复杂任务呢,就用旗舰模型保效果,非常智能。而且它对 collude code 的 适配做的特别好,翻翻教程非常详细,新手也能一步到位部署,不用踩坑。 第四个,百度千帆 coding plan 先说结论,百度这个套餐绝对是新手常先的性价比之王。 mate 版首次购买只要七块九,一个月首次续费二十块,常规也才四十块。 pro 版首次购买三十九块九,首次续费一百块。跟腾讯视频用量上, mate 是 每月一万八千次,请求 pro 每月九万次,跟腾讯云一样完全够用。最关键的是它对 opencloud 的 专属适配适历从配置文件怎么改 到 base 五 r l api key 怎么填,一步一步教新手,照着做就能搞定,完全零门槛。模型方面,默认用 kimi k 二点五,同时支持 deepsafe v 三点二、 g l m 五、 mini max m 二点五这些主流模型。唯一的小遗憾就是不支持百度自家的文星大模型,不过不影响日常使用。讲完了腾讯、阿里字节、百度四个大厂,下面我们来看看垂直大模型厂商的套餐。 第五个,先说智普的 g l m coding plan。 智普这个套餐核心就是冲着 g l m 大 模型的用户来的,如果你是 g l m 五、 g l m 四点七的重度用户,选它准没错。 grm 五在 coding 和 agent 能力上已经做到了开源模型的搜查使用,体感非常接近 cloud ops, 用来跑 open cloud 的 复杂任务,效果特别好。它的套餐分了三档, light pro max light 是 cloud pro 的 三倍用量, flower 是 light 的 五倍, max 是 pro 的 四倍,能覆盖从入门到重度开发的所有需求。 而且它支持智能调度、简单任务自动用轻量模型省额度,复杂编程自动切旗舰模型,非常省心。价格方面, mate 按月是四十九块一个月,按季更划算,一百三十二块一季度。 pro 按月一百四十九,按季四百零二。 max 按月四百六十九,按季是一千两百六十六。唯一要注意的是,它也是每日限量供应,每天十点补货,想入手的要卡点。 第六个是 minimax coding plan, minimax 这个套餐最大的特点就是档位多,选择灵活,从入门到顶级发烧友都能选到想要的档位。标准版分了三档, starter 二十九块一个月,每五小时四十次。 prom plus 四十九块一个月,二点五倍 starter 用量。 max 一 百一十九块一个月,七点五倍用量。还有极速版,从九十八块到八百九十九块, 满足高病发极速响应的需求。套餐的核心优势呢是 mini max 自家的 m 二系列模型,它在代码生成和工具调用上表现很稳,尤其是上下文的代码理解效果很不错。 缺点也很明显,只支持自家的 mini max 系列模型,不支持第三方模型。如果你只用 mini max, 选它没问题,想换模型的话就不太方便了。 接着第七个, kimi 编码相关权益这里要跟大家说清楚, kimi 其实没有单独的编码 plan, 它的编码功能是包含在 kimi 会员体系里的。 会员分了四档,从四十九块一个月的 indent 到六百九十九块一个月的 lego, 不 同档位对应不同的用量限额。优势在于 kimi k 二点五的超长上下文能力,这个不用我多说,用过的都知道,处理超大代码库,超长文档效果特别好。 缺点也是只支持自家的 kimi 模型,不支持第三方,而且不是专门为 coding 场景做的套餐,针对性不如前面几家。 最后一个,快手 quick cat coding plan 这个套餐可能很多朋友没听过,它是快手万晴平台出的,核心是自家的 cat code pro v 一 模型, 这个模型在 a a 榜单的非推理模型赛道拿过第一,前端生成的美感和实用性做得特别好,如果你是前端开发者,可以关注一下。价格方面,入门的 mini 套餐日常二十九块一个月,限时特惠,首月八块八,每五小时四十次。 pro max 最高的 max 套餐二百四十块,每五小时一千次。 pro max 重度开发也够用。缺点还是只支持自家的 cat 系列模型,不支持第三方,生态丰富度不如大厂。好了,八家套餐给大家说完了,肯定有朋友会问,这么多套餐,我到底该选哪个? 别着急,接下来我给大家一个保姆级的选购指南,分四个维度,看完你就知道自己该充哪个了。第一个维度看你的使用强度,如果你只是想尝鲜体验,每天用一到二小时,属于轻度用户, 直接闭眼充七到十块钱的入门套餐就行。腾讯云 night、 百度千帆 night 首月都只要七块九, 快手迷你首月八块八,火山引擎 mate 首月九块九。这些套餐的月度额度足够你每天跑五到十个中等复杂任务,性价比直接拉满,就算踩坑也没什么损失。如果你是重度开发者, 每天要用六小时以上,或者多终端多实力同时跑 open pro, 直接上 pro 及以上档位。 比如说腾讯云、百度千帆、阿里云、火山引擎的 pro 套餐,每月额度都是九万次,请求是入门款的五倍,还支持更高的开发, 多项目同时跑也不会限流,完全能满足重度开发需求。第二个维度看你的模型偏好。这个很简单,你平常用哪个模型最顺手?就选对应的套餐。常用混元选腾讯云, 常用千问选阿里云,常用豆包选火山引擎,常用 timi, 上下文选 timi, 会员常用 mini mess, 直接充他家的套餐。大厂的套餐基本都支持多款第三方模型,而垂直厂商的套餐大多只支持自家模型, 大家按需选择就行。第三个维度看你的工具生态。如果你是 cloud code 重度用户,优先选火山引擎方舟和阿里云摆列, 这两家对 cloud code 的 适配最完善,官方教程最详细,不用自己踩坑。配置,如果你是 qn code 的 用户,直接闭眼充阿里云百联原声适配体验拉满。 如果你是纯纯的 oppo pro 新手,优先选百度千帆,官方直接给了 oppo pro 的 专属配置试例,照着填就能用。第四个维度看你的预算,预算十块以内尝鲜腾讯云百度千帆的 light 套餐,七块九,首月首选, 预算五十块以内,月度稳定。用阿里云、腾讯云、火山引擎的 light, 续费款二十到四十块钱,一个月完全够用。 预算,一百以内,重度使用大厂的 pro 套餐,首月款三十九块九到五十块,这个区间性价比最高。最后跟大家总结一下, open cloud 这波热潮确实把 ai 编程的门槛拿到了前所未有的低, 但也让很多开发者踩了 api 账单的坑。而 coding plan 的 出现就是用包月订阅的方式,把我们的开发成本直接锁死, 让普通开发者也能毫无负担的用上最顶尖的 ai 编程工具。当然也要提醒大家,这些套餐的首月优惠基本都是一个认证主体,只能享受一次,而且大多不支持退订退款,大家入手前一定要看清楚规则,按需购买, 别盲目冲最高档位。好了,今天这期 coding plan 就 介绍到这里,欢迎大家和我分享。你用 opencloud 最多的场景是什么?你最看好哪家的 coding plan? 如果你还有什么私藏的高性价比套餐,都可以打在评论区一起交流。如果觉得这条视频对你有帮助的话,也别忘了点赞、关注、收藏、 转发给你身边正在被 a p i 账单折磨的开发者朋友。后续我还会持续更新 opencloud 的 使用技巧和避坑指南,我们下期见。

传统方案一句指令花零点零八元,优化后仅零点零零二元, token 成本直降百分之九十。养虾人实测三组数据,传统方案一句指令消耗二十万 token, 花费零点零八元, 优化后直接砍到零点零零二元。这个 coding plan 让成本力降百分之九十。三天实测从每天十二元压到一点三元。 支持豆包、 mini max、 kimi、 智浦、 deep seek 主流模型,也支持 open claw、 tray、 cursor 等主流工具。跟着我做,一共四步,第一步,订阅 light 套餐。 第二步,创建你的 api key 确认模型。第三步,以 open cloud 为例,把 api key 和模型名称填进去。第四步,在终端执行配置命令,然后你就可以直接跟他对话,一点不用心疼偷啃消耗了流程已整理好,留言分享!

智浦最新旗舰模型 g l m 五点一刚刚宣布全量开放了,它的编码能力比上一代狂飙了百分之二十八,实力已经无限逼近 cloud office 四点六。 李子璇还承诺 g l m 五点一将会开园,目前所有 g l m c d plan 用户都可以调用,价格更是只有海外模型的五分之一,性价比彻底拉满,还是觉得贵?关注我,获取超级优惠!

养虾人实测三组数据,传统方案一句指令消耗二十万, to 肯花费零点零八元,优化后直接砍到零点零零二元。这个 colding plan 让成本立降百分之九十,三天实测从每天十二元压到一点三元。 支持豆包、 mini max、 kimi、 智浦、 deep seek 主流模型,也支持 open claw、 tray、 cursor 等主流工具。跟着我做,一共四步,第一步,订阅 light 套餐。 第二步,创建你的 api key 确认模型。第三步,以 open cloud 为例,把 api key 和模型名称填进去。第四步,在终端执行配置命令,然后你就可以直接跟他对话,一点不用心疼偷啃消耗了。流程已整理好,留言分享。

二零二六年三月全网七大国产大模型 ai 编程套餐怎么选?一个视频给你说清楚。首先声明,本视频无任何广告,请放心使用。在正式开始分析之前,我先出结论,综合实力最强可以直接闭眼入的首选是智普 ai, 他首发独占了目前最聪明的 glm 五点一模型,这个模型目前在编程方面是国产最强,没有之一,并且白送能让 ai 直接帮你操作电脑的 mcp。 普通人直接买四十九块钱一个月的 like 版,一个月能用两万多次,查资料、写文章、做 ppt 基本用不完。 如果你只是想要一个高性价比的龙虾方案,绝对的性价比之王,一个月只要二十九块钱一年也才二九零,不用去抢名额 就能拥有独占的 mini max m 二点七模型,反应速度极快,学生党或者只是想轻度尝鲜的用户, 闭眼买这个二十九元的 start 套餐就行。习惯用豆包体系的可以看字节方舟,它四十块钱一个月起步,独家支持最新的豆包 size 二点零模型,买套餐还会送很实用的 open core 插件,但你要注意避个坑,它目前不支持最新的 g o m 五模型,模型选择上会稍微有点局限, 对于有大量阅读需求的人,长文本刚需者专属选 kimi, 四十九块钱起步,途展 kimi k 二点五,如果你每天要让 ai 帮你读几百页的 pdf 或者写万字长文,选它最合适不过。官方一直不公开具体的调用次数限制,用起来像开盲盒, 而且 asynch 速度也会有区分。剩下几个平台,普通人可以先观望下。阿里百店没有平价套餐,起步就是两百块的 pro 版。腾讯会员和百度千帆属于大杂烩平台,主要是接入别家模型撑场面, 比如百度能用到 d c k v。 三点二,腾讯首月只要七点九元,除非你想花一份钱体验各种不同的模型,否则不用专门去开通。 最后总结一下,兜里的钱到底怎么花,想花最少钱体验顶级 ai, 选二十九元的 mini max, 想要最聪明、功能最全, 买四十九元的智普重度处理藏私料,选四十九元的 timi, 如果确定要长期用,直接买包年最划算。最后提醒一句,现在官方封号极严,千万别去买什么共享号,直接买官方平价套餐最稳妥。

智普 g l m 五点一昨晚突然偷袭,编程能力相比上一代暴涨十分,评分直接贴到了全球最强模型 oppo 四点六的脸上, 甚至把扣丁 plan 都给卖断货了,这国产大模型卷起来,真是连服务器都不给友商留啊!智普 g l m 五点一这次不仅是常规迭代,它在代码场景下支持瑞斯尼模式,上下文窗口稳在二零零 k, 有极客已经用它连夜搓出了可交互的 ai 版我的世界,空间,补全能力极强。最离谱的是,它完美兼容 open nai 接口, 开发者改一行代码就能无缝切换。这波 astrapec 的 sonnet 四点六恐怕要连夜修复爆了,因为 sonnet 四点六已于二零二六年二月十七日发布。聊完了模型,咱们看看语料库建设。 教育局和国家语委近日正式发布了两项新规范,专门针对 ai 语料库基础术语和机器合成普通话等级。 这意味着以后咱们为数据搞 tts 都有了国家标准。对于做热爱者和语音生成的开发者来说,这可是合规性和工程化的重要指南, 建议去下个 pdf 文研读一下。不仅是软件层面硬核,国产智能车也开卷了!智己 l s 八已于二零二六年三月二十六日开启预售,预售二十五点九八万起, 直接塞进了英伟达芙尔芯片,六十四 g 内存带宽直充二七三 gbs, 这性能已经超越很多高配 pc 了。 更绝的是,他首发了全线控四轮转向,还搭载了千万大模型做 agent 助理。这哪是卖车啊,这分明是卖一个带轮子的聚生智能工作站最后大厂人才流动的瓜也得吃一口。 华为盘古大模型负责人王云鹤,已于二零二六年三月二十八日被爆离职。这位九十一年的天才少年,曾获华为十大发明奖, 现在要投身 a 振赛道进行水下融资了。在 gpt 五点二已于二零二五年十二月发布并普及的今天,纯模型已经不是护城河,能够跑通复杂流转的智能 a 振才是下一个风口。 看来今年的 a 振创业潮又要加一把火了!代码模型卷性能、国产芯片卷、上车大佬离职卷、 a 振观众老爷们,这波技术爆发,你们跟上了吗?点个关注,天天降带你拆解最硬核的两千零二十六!

ai 现在已经发达到可以让任何一个普通人写代码,开发应用了,而且还有羊毛薅。最近就体验了一下智普的 g l m 四点七,只要能够用文字描述清楚我想要的功能, ai 就 可以帮我生成一个没有 bug, 点 点开即用的代码应用。起因就是元旦那几天跟朋友们聚会没有色子,然后我就突发奇想说,哎,好像现在的 ai 可以 编程,要不直接用 ai 写一个摇色子的应用,结果他一分钟就写好了,而且点开就能玩。 其他比如说学生们的论文,牛马们的 ppt, 小 到批量换个格式,改个布局,大到整个海报,整个数据报表都可以直接生成,再也不用一点一点对着屏幕抠到眼瞎,而且对代码一窍不通,连怎么部署都不知道也没关系,可以用我这句话直接去生成一个网页应用, 电脑里有浏览器就能用,双击点开就可以玩起来。这么强大的 ai, 唯一的门槛就是如何部署到电脑里,我用的是 mac 电脑,只要打开终端,复制一些命令文字进去,然后就可以像聊天一样随意打字了。当然这么好用的 ai 肯定也是要花钱的,现在可以二十元订一个, 而且一月九号之前还有羊毛可以薅。部署完可以试试,对他说,阿姨助我,如果部署成功,就可以获得一杯二十元的奶茶,兑换码等于不要钱,试玩一个月 ai, 阿姨助力你的代码梦 转行不做程序员这三年 ai 把整个行业都颠覆了,真的是任何人都可以拥有一个超强的 ai 助理,成倍数的提高工作效率。作为一个普通人来讲,我们薅到的羊毛其实不只是这杯奶茶,更是这个 ai 时代的羊毛。

就在上周五,智普直接在用户社群里扔了颗深夜炸弹, callinplay 全体用户即将用上最新旗舰 g o m 五点幺。拿到更新后,我第一时间上手实测,特意挑了个很考验功底的实操场景,让它从零生成一个赛博复古风的网页游戏。要求一步到位,先设计完整游戏逻辑, 写出全套 h t m 摇加 css 加 g s 赛码,加上像素风 u i 动画特效、计分系统、死亡判定,最后还要自动生成一份可直接运行的说明文档,高 告诉我怎么打开、怎么调试、怎么扩展功能。看着步骤不算难,但懂点开发的都知道,这种从头到尾连贯下来的复杂任务,最吃模型的常上要闻理解和全程专注力。而 g m 五点幺拆解需求特别稳, 全程牢牢盯着核心目标,不会写着写着跑偏漏掉关键细节,写代码时结构清晰不混乱,就连最后配套的运行说明、调试指南都写的特别完整。这一点真的很出乎我意料。 因为之前我也用过一些主流编程大模型,但凡牵扯多文件逻辑,长链路编辑还要配套交付,大多写到后半段就开始往前面的逻辑界面、动画逻辑经常对不上, 最后交付的东西根本跑不起来。但 g i m 五点幺不一样,全程能记住整个项目的结构,从需求理解、代码编辑、界面设计到交付说明,一整条链路丝滑衔接,这种扎实的长城落地能力 真的拉开了很大差距。这确实是目前编程能力第一梯队的模型,尤其是在复杂任务的持续执行和完整交付上,体感差距非常明显,个人觉得能媲美国产的 oppo 的 四点六了。 我们为什么要关注这件事情?因为长城任务能力是检验 ai 智能的新标准。 g m 五点幺突破明显复杂,目标自动拆解,长链路,不跑偏,不掉目标代码,网页 api 无缝切换, 全程记忆,进度连贯推进。直白讲,越来越像靠谱的全职工程师。现实问题随之而来,当 ai 能稳定承接中高阶工程任务,人的不可替代性还剩多少 头部企业全在压这条赛道,能力越强,肉眼可见,尽早吃透用好这类工具,才是接下来的核心竞争力。现在 g i m 五点幺已面向 g i m c d play 用户开放,性价比超高,闭眼入不亏,你准备好了吗?

还在说大模型全是赔本赚吆喝,智普这次给了市场一记闷棍。二零二六年一季度, a p i 价格直接上调百分之八十三,结果掉用量没掉,反而暴涨百分之四百。这就离谱了吧?按老商业逻辑,涨价就该掉用户,可他偏偏越涨越抢手。为什么? 因为用户买的东西变了,以前买的是能聊两句的模型,现在买的是能直接上岗的数字员工,写代码,修 bug, 做流程,连系统。一个人要花几小时干的活,他几分钟就能给你交差。 所以企业看的根本不是单次调用贵几分钱,而是这东西能不能替我省。一个人换一个项目,少一轮返工。 你把一百四十九元月费放到真实的人力成本里看,那都不叫成本,那叫减时间。更关键的是,行业定价毛变了,以前是谁算力便宜,谁有订单,现在是谁智能上限高,谁拿走利润。 模型一旦接入 a, 进场二十四小时自己跑任务,每一次偷看消耗,背后都是稳定现金流。这就不是卖工具了,这是在收智能过路费。 我的判断很明确,大模型行业真正的分水岭已经来了,后面比的不是谁更便宜,而是谁更像人,谁更能交付。结果, 普通人别再被参数。第一,融资多少带节奏了。盯住两个动作,第一看涨价后调用量还增不增。第二看客户是不是从试用变复购,因为钱只会追着能干活的智能跑。

hello 大家,今天呢是一期国产小龙虾的挑选指南,如果你跟我一样看不懂 openclaw, 也没有 mac mini, 但想快速的跟上这波小龙虾疯潮的话呢?可以从零门槛安装的国产小龙虾开始上手。二月以来,大厂到小厂前前后后推出了几十种小龙虾, 普通人到底该怎么去选呢?我挑选了目前最热门的五个国产小龙虾, kimi clone、 mac clone、 auto clone, 还有 q clone, 从安装方式、亮点、优势到性价比这三个维度,带你选出最适合你的小龙虾,记得点赞收藏好这条视频,我们正式开始 open clone 呢。我们都知道是一个开源的 ai 智能体框架,一个会自己干活、自己折腾的做事情。 ai 代码开源意味着谁都能用,但对普通人来说真的很难用,所以就有了国产龙虾家族,它们都是基于 openclock 框架改良出来的小龙虾应用通常具有这三个特性,支持一键部署,从安装到使用基本不超过三分钟,而且 自带常用的技能 skill, 像是什么定时任务啊,捕捉 ai 热点信息啊,都已经预设好了,更靠谱的安全技术,用起来也会更加的放心。这样一同改造之后呢, openclaw 就 从一个粗糙的毛坯房转身变成了一套精装房,还是同样的房型,但给你通好了水,通好了电,直接拎包入住。 那接下来我们就具体展开讲讲这五个国产小龙虾之间有什么样的区别。那你又最适合哪一款小龙虾呢? 按照养它们的方式,可以分为两大类,云端龙虾和本地龙虾。我们先来讲讲云端龙虾,那云端龙虾不需要你安装,打开即用,因为厂商呢,直接把龙虾装好了,养在了它们的云服务器上,二十四小时的全天候运行, 但是不能直接碰你本地电脑里的文件,这种体验就很像你养了一只永远不睡觉的文件。这种体验就很像你养了一只内测版就上线了,成功蹭到了 opencloud 的 第一波流量, 上线七天就登顶了全球模型调用榜的 top 一。 那 kimi k 绑定的是 kimi k? 二点五模型最大的特点就是上下文超长,支持两百万字的上下文窗口, 相当于可以同时装下四百份报告,而且带有四十 gb 的 云组层大空间。所以如果你需要处理大量的文字信息,比如说写论文呐,做报告啊,出分析啊,那 kimi kong 会是一个不错的选择。 timmyclaw 是 没有免费试用的,额度一百九十九,一个月,是五个小龙虾里头门槛最高的。那紧接着呢,二月二十六号, mini max 发布了。 max claw 主打的是一个好用又便宜,它有着媲美 claw 的 索尼三点五模型的能力,但是价格呢,只有不到它的二十分之一。不到一周的时间,又拿到了这一波的全球模型调用宝的逃逸。 那 max claw 呢,也是指定自家的 mini max 模型定位偏向内容创作,有着非常全面的多模态能力,支 持升图、升视频、升音频。所以 maxclock 也是自媒体和内容创作者的爆款工具。而且它支持的对话应用选择最多。除了常见的非主流,钉钉起微还可以连接到 telegram or discord 这些海外社交的平台,可以满足有跨境需求的用户, 在性价比这块儿,它也是没有免费的额度,基础版只要三十九块钱一个月。那对比 kimi 和 mini max, 大 场的动作稍微呢慢了一步, 直到三月九号,字节的火山引擎才推出了阿克洛。那阿克洛的核心优势就是深入的接入飞书系统, 飞书的文档啊,表格啊,会议啊,消息啊等等等等,全部都可以直接让他上手操作,可以说是飞书打工人的本命龙虾。那另外呢,阿克洛有一点比前面两个会更灵活,就是他支持接入其他模型的 a p i, 整体模型的选择会更多。但是阿克洛也没有免费用的额度,最便宜的一档是五十元一个月。 但如果你一分钱都不想花,就想体验一下国产小龙虾的话,那就看接下来的本地龙虾。那什么是本地龙虾呢?就是把龙虾安装在你自己的电脑上,像本地电脑关机了,那龙虾也会跟着休息,没有办法像云端龙虾那样全天候给你干活, 但是你换来的也是更高的操作权限,授权之后可以直接读取你电脑里的文件,使用感也会更贴近原版的 openclaw。 三月十日,智普上线的 autoclaw, 也叫做澳龙,它是国内首个真的已经安装的本地版龙虾,给大家演示一下,从点击下载到安装,那大概只要三十秒钟左右的时间, 跟你下载一个 app 的 体验很像。那 autoclaw 还有浏览器自动化操作,叫做 autoclaw, 就 相当于呢,在浏览器上装一个插件,能够丝滑的给你干活。 在模型上默认是质朴的模型,但是能够支持接入像 deepsea、 kimi、 豆包等等主流的国内大模型。 a p i 模型的选择非常的丰富,你 下载安装之后,它会送你两千的积分,可以免费执行差不多一到两次的任务。如果呢,你想这种原汁原味的体验一把小龙虾的话呢, autoclole 是 一个非常不错的选择。 那最后我们介绍一下腾讯推出的 qoclole, 那 腾讯这次的速度还是挺快的,先是线下千人在腾讯的大楼下面排队安装 openclole, 又集体发布了三款腾讯小龙虾内测, 在三月二十日开始全量开放使用了。那它的安装体验跟 autoclole 很 像啊,都是一键直接安装的。像 qoclole, 它的核心亮点就是能够深入的兼容腾讯的生态,可以直接连接 qq、 微信,你直接发个消息就能远程指挥你的电脑干活。 还有个非常可爱的龙虾工作台,就是你可以直接看到你的小龙虾,是这会是在摸鱼呢,还是在干活,比如说啊,我现在给他发个任务,然后你看我把任务发给他了, 那他就真的起来干活了,还是蛮有意思的,真的就像是有一只跟你远程工作的龙虾搭子,不过他这个工作环境看起来比我还要好。 在安全性这块呢, qq 也是有点东西的,因为本身呢,就是腾讯的电脑管家团队推出的,有安全杀伤和二次确认的安全防护,自带安全基因。在性价比这块,可以说 qq 真的 完胜所有的小龙虾,每天给你四千万免费的头啃。不得不说呢,腾讯还是非常的豪气, 所以真的想不花一分钱玩小龙虾的,可以试试这个 qcloud 的 电子宠物。好,那这五个产品呢,全部就讲完了,再总结一下, 那如果呢,你天天要处理长文章写报告的朋友们推荐 kimicloud, 那 如果呢,你更多的是去做内容创作的朋友们,可以试一下 maccloud。 如果你是用非书办公比较多的打工人,推荐 archcloud, 那 想体验一下原版 opencloud, 喜欢折腾的进阶玩家呢,可以试一下 autocloud。 最后,如果你想零成本尝鲜新手小白可以直接闭眼入 qcloud。 最后呢,还是提醒一下大家,小龙虾产品目前还是比较的初期,稳定性不是特别的好,在复杂任务的处理上面可能跑到一半,经常会跑错,或者是有时候发出去的指令他根本没有执行,这些问题还是非常常见的, 所以很重要的任务不建议在县级段只靠小龙虾去给你完成。好,那今天这期的分享就到这边,欢迎在评论区分享你养的小龙虾体验。那下期我们再聊一聊,装好之后怎么配置 skill, 怎么让你的小龙虾真正的开始替你干活。如果这期视频帮助到你的话呢,记得点赞收藏关注!