养虾人实测三组数据,传统方案一句指令消耗二十万, to 肯花费零点零八元,优化后直接砍到零点零零二元。这个 colding plan 让成本立降百分之九十,三天实测从每天十二元压到一点三元。 支持豆包、 mini max、 kimi、 智浦、 deep seek 主流模型,也支持 open claw、 tray、 cursor 等主流工具。跟着我做,一共四步,第一步,订阅 light 套餐。 第二步,创建你的 api key 确认模型。第三步,以 open cloud 为例,把 api key 和模型名称填进去。第四步,在终端执行配置命令,然后你就可以直接跟他对话,一点不用心疼偷啃消耗了。流程已整理好,留言分享。
粉丝272获赞967

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

我觉得现在最适合用这个 oppo 靠的模型呢,实际上可能是阿里新推的这个服务啊,这个东西叫这个扣丁不烂是吧?呃,为什么呢? 就之前吧,就是续费了好几个这种模型,然后呢?你续的不多,但它其实用量还挺大的,你看昨天晚上我就大概一个小时,我就把 kimi 的 那个十五元的 top 的 额度也就一个小时我就用光了。 我算了算,调用其实也不多,但是因为你在欧风靠的调用和你日常对话的调用是不一样的。今天我想打算试试这个阿里云百炼,简单说一下这个东西怎么回事啊?他其实就是把几个常见的这个模型给打包了,打包了以后有一个专属的调用地址和专属的 api, 来看一下它的指南。它是这样的,整合了这些顶级模型,然后还兼容主流的编程工具,就比如说我们 用的那些 id 类类的工具哈。如果你要是正常调用,他有的时候会限制速度或者限制这限制,那如果你一定想使好的模型,要么你去买会员,要么去升级,是不是他通过固定的费用?其实我算了算,应该是还是挺便宜的,虽然不至于到这个可调用的一折,但还是挺便宜。 然后它现在有几个基础的模型啊?这个千万三点五过年的时候推出的,很牛。据说啊, kimi 呢,也是刚推出不久,然后 mini max 当时那阵刚推出的时候也火了一阵。 glm 那 个五现在可以对标,他说可以对标那个叫什么来着,那个很牛的那个。 然后它有更多的就是千万三的 max 模型,这也是版本挺新的,二六年一月二十三号的,然后加上这些小模型啊,这无所谓,就是我们理论上如果你的调用次数差不多,那么你根据你的任务来选择不同的有特色的模型就可以了, 尤其是千万的这个和 kimi 的 这个都支持。图片理解费用上啊,首月七块九,其实你看的挺便宜,对不对?然后这个高级套餐呢,是三十九块九,就真的是特别便宜,但是价格上你看啊,首月七块九,次月呢是二十,也就是说他的正价是四十块钱,第一个月呢是便宜,然后第二个月呢是五折,第三个月就是正价。 呃,我猜两个月以后可能在这种东西上可能会有更多的爆发。呃,其实现在我我印象里火山就有这种类似的这种打包的这种服务,但是呢,一呢他的价格不便宜,二是他好像我查了查,他没有明确的说他支持那个 oppo 扣,这个呢是明确的说了他支持这个 oppo 扣,然后即使是最贵的这种 两百每月,那也真的是不算贵,因为你如果真的深度用了,你把两百的额度都用光的时候,那我认为你值得在这个上面花更多的钱。然后那个那天我还看到论坛上就有一个人说我除了租房子吃饭和日常开销,我把所有的钱都用来买陶坑上,哈哈哈,其实这是很有意思一件事啊,我觉得真的挺贵的。 我,我查了查我的用量限制,我觉得我用的不算多,但是其实也不算少,我其实在很多工作上都是在在那个詹妮的那个网页上去完成的,因为很多时候你要做调查呀,做一些文本的生成啊,那些东西他那个 pro 的 版本就完全能搞定了,因为我有个 pro 的 版本,但是如果按照他这个标准, 每五小时一千两百次请求,我现在是达不到的,但不知道我买了这个套餐以后会不会达到哈,我回头再测一测。那我认为新手呢,你就花七块九加上二十块钱,先用两个月, 对吧?然后当你发现不够的时候,你去升级那个就可以了,你就直接干到二百一个月呢。其实也没啥,二百块钱一个月也就是个电话费吧。我现在已经买完了, 买完了以后呢?他现在剩余天数二十八天,我不知道他为什么是二十八天,明明买的是一个月对不对?这个是不是他的 bug 按照当月天数计算的?那你们要不要搞到下个月再买二十八天?你看他是按照这个算的,上个月的二十六号到下个月二十七号对不对? 这个就不对了,这个非常过分啊,明明是一个月,所以我打算提前使光呢,呵呵。然后我们获取了这个东西啊,它有专属的 api key, 然后呢,怎么配置啊?这里面说明,我们来找说明配置, 看 open 框中配置这些东西,实际上不要被它这种东西吓到,如果你的 open 框现在正好用的状态, 你就把这段命令考下来。怎么写啊?我这就写了,我现在咱说说怎么配置哈,就首先呢,第一步就是修改配置文件,哪个配置文件呢?就是这个东西啊,但是呢,我们在 open 里可以直接跟他说,这是我上面已经配置完了,我重新演示一遍怎么配置,就跟他说修改配置文件啊, 然后呢?把这句 copy 过来啊,这这段啊,把这段 copy 过来,然后你可以把你的 apk 呢替换到这,我懒得打码,我也就不替换,放到这。然后呢?就这样呢,这个命令就搞定了,你回车, 回车以后就是我刚才的配置,那我已经配置完了,他现在就告诉我有这些可以用的了,然后同时它底下呢,还有一段,你可以直接考过来, 然后站到这,然后回时它就会自动把你这些东西都改好。看到没变更的载药就是什么呢?它其实就是告诉你默认模型变成这个,主模型 变成这个,然后移除了原先的什么什么,这些,就移除了原先其他的所有模型,然后把其他都移除了,我还有钱在里面。其中我认为比较好的几个,特别好的四个主流四个模型就是 kimi 的 二点五,对吧? g m m 五, 然后迷你 max 的 二点五,这个也不错,迷你 max 二点五。我发现他好像在写程序上更有优势。也是这样的,我的感受上啊,因为他的代码他理解的更快更好。然后这个是个多模态模型。嗯, kimi 应该是多模态吧,我记着这两个是多模态模型,如果你需要用到图片处理,尤其是处理本机的图片的时候,这两个模型非常好。 到了这步你的七块九已经发挥作用啊。至于接下来怎么用,那其实还是靠大家去想象。我之前因为这个模型的用量问题,我现在想都给他背地里的任务, 我现在都给他加回去,加回去以后我看看他这个调用的数量到底能撑多久啊?我每天会监控他的用量,我把他这个用量记进去吧, 非常好。我觉得整体来说这下就算完事了,至少我这个月应该不会特别为掏坑的续费吧?因为每次他如果出问题的话,你很难发现,除非你里面充特别多的钱。

这期我们给 openclaw 接上大脑,我们用的是阿里云百炼的 coding plan, 里面包含了宽三点五 plus、 kimi、 glm 等八个模型,几分钟就能跑通。 首先进入到 openclaw 的 安装页面,具体怎么下载,网上教程很多,这里不再赘述。接下来就是安装向导,输入命令 openclaw on board, 接下来按方向键选择 y e s 回车,引导方式选择手动 回车。接下来设置为本地网关工作区目录,直接回车,下面选择模型厂商,我选择下面的阿里云百链回车。认证方式,选择阿里云百链的 coding plan 回车。接下来要获取 coding plan 的 api key, 打开云百链的控制台,登录进去, 找到 coding plan 的 我的订阅,下面复制以 sk 开头的 api key, 复制好后右击粘贴到向导里回车。下面需要选择模型, 我先选择的是第一个宽三点五 plus 回车,接下来一直默认回车, 直到提示是否配置聊天通道,先不配置选择 n o 不 配置技能起用钩子,这里按空格选中暂不配置回车,这里安装网关服务 回车。接着再回车,这里就基本配置完毕并进行对话了,这时需要多等一下,首次启动网关需要等一会就能对话。下面接入剩下的七个模型,在阿里的 callin plan 网页 把剩下的七个模型名称复制一下,在对话框输入,把阿里云百链的这些模型添加进来,并保存至 open claw json key 与主模型的 key 一 致,然后把刚才复制的模型名称复制进去发过去,等待片刻就会提示你已经添加到 open claw 点 json 里。 这里一定要强调两点,一是要写进 openclaw 点 json 文件,二是要表明和主模型 api key 一 致。下面输入命令,验证模型是否真正添加进去。 打开 power shell, 输入 openclaw models list, 现在显示的列表里有八个模型代表添加成功。

这个抠钉 play 疯了吧,一天只要几块钱?九亿次请求随便用,彻底解决 token 价格贵不够用的问题。 它按请求次数计费,每个月最多九万次请求,相当于十亿 token 的 调用量,价格却只有调用的一折左右。而且每个用户之间互相独立,不会因为高峰期降速,特别适合 ai 编程个人开发者, 支持豆包、 kimi、 智浦、 deepsea 等模型,还支持 cloud code、 cursor、 openclaw 等主流工具。操作也很简单,首先订阅 coding plan, 然后配置,以 openclaw 为例,执行这个命令就完成切换。余量在这里看, 每五小时刷新一次,目前周期内我已经用了百分之十六,再过一个半小时会自动从百分之零开始计,这模型量太管饱了。流程已整理好,需要的朋友留言分享。

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

手把手教你用这个编程套餐,支持豆包、 mini max、 kimi、 智普、 deep seek 主流模型,也支持 open claw、 tray、 cursor 等主流工具。跟着我做,一共四步,第一步,订阅 light 套餐。 第二步,创建你的 api key 确认模型。第三步,以 openclaw 为例,把 api key 和模型名称填进去。第四步,在终端执行配置命令,然后你就可以直接跟他对话,一点不用心疼偷啃消耗了流程已整理好,留言分享!

跟大家说一下,就是不管你是买了哪一家的这个 coding plan, 一定要检查一下你的这个套餐里边有没有 coding plan, 它专属的这个 url, 就 像我现在订购的这个,呃,阿里云的这 coding plan, 它是有一个专门的 coding plan 的 url, 然后 api key 的 话呢, coding plan 和这个百炼的按量计费的这个呃 key 也是不一样的,所以大家在使用的时候一定要注意一下。为什么我要提醒这个事情呢?因为我在使用的过程当中呢,它直接啊用了这个千万 plus 的 这个模型,它是直接调用的 按量计费的啊,好,就好在他的这个头肯的话呢,他是有一百万的免费的头肯额度,所以,呃,我大概是用超了五十万的这个头肯,那么大概就是一两块钱左右,该是被扣了一块多吧。这个 他很麻烦,因为他不是说一次性一次性帮你去扣出来的,他会给你发短消息,给你发邮件,然后你要到账户里面去充值啊,所以这个大家注意一下,为什么我账户里边他没有钱啊?是因为我就担心这种事情会发生,虽然这个模型用超了,用量不是特别贵,但是 他啊,每次给你扣个一角一毛钱,两毛两毛四分钱,对吧?就是你要反反复复的去登录,那你如果说你账户里面有余额的话,你压根就不知道这个余额是怎么被消耗掉的, 对吧?我的 mini max 里边,我之前充了五十块钱,他就是直接调用我的 a p i 几轮对话全部消耗完了,而且回复的这个质量的话,之前视频里面其实跟这个 qing 也是差不多的,所以, 呃,大家还是如果说你是买库存 plan 的 话呢?嗯,尽量账户里面不要去充太多的这个余额在里边啊,防止就是出现这种啊。 嗯,扣费的现象。顺便给大家看一下最近七天的一个质谱,它的一个消耗的用量大概是第二周用,已经用了百分之七十七了, 那么总体用量的话呢,大概两亿多个 toc。 那 其实这个 colin plan pro 的 这款套餐的话,哎,我个人觉得还是够用的 啊,上一周的话呢,我周用量基本上是用满的,那这一周的话呢,大概还剩下几天的这个时间吧。那大家可以评估一下自己的这个 toc 的 用量,如果你要用这个 glm 的 话, pro 套餐大概是什么样子的一个 toc 数啊?好吧。

传统方案一句指令花零点零八元,优化后仅零点零零二元, token 成本直降百分之九十。养虾人实测三组数据,传统方案一句指令消耗二十万 token, 花费零点零八元, 优化后直接砍到零点零零二元。这个 coding plan 让成本力降百分之九十。三天实测从每天十二元压到一点三元。 支持豆包、 mini max、 kimi、 智浦、 deep seek 主流模型,也支持 open claw、 tray、 cursor 等主流工具。跟着我做,一共四步,第一步,订阅 light 套餐。 第二步,创建你的 api key 确认模型。第三步,以 open cloud 为例,把 api key 和模型名称填进去。第四步,在终端执行配置命令,然后你就可以直接跟他对话,一点不用心疼偷啃消耗了流程已整理好,留言分享!

你用 open curl, 真正决定体型和成本的不是你那一句 prompt, 而是背后的模型共几层。以前问两句无所谓,现在 agent 一 跑就是几十轮,改代码,补测试跑命令失败再修。按 topin 计费。进了这种长链条,账单很容易失控, 于是国内流行起 callin, 给你 k 加 base url 加固定配合等于包月。个人买它买三件事,不改工具链,换 k 和 url 就 能接。 把随机账单换成可预测的配额窗口,多模型可切换,少点单点风险。但最大错觉是你以为一次回车等于一次消耗。真相是 open clock 一 次动作后台可能拆成几十次调用, 拉上下文生成修正自检,所以配额调的非常快。选扣丁方案顺序别搞反,先看计费口径是否透明,是否贴近 agent, 再看模型池和切换是否顺,最后看是否给 openniastropic 金融端点, 这决定了你能不能零改动接入,直接给结论怎么选?想最快跑通坑最少阿里百炼当默认机座,想低成本长期高频,并非你更香。先用自己的任务做一次用量自测,想多模型 i b 测试随时换。 选百度先翻,想速度并发,重度开发用 kim code, 但要守住会员边界。想按任务包结算, me max 是 最优选择。最后做个总结, 共几层,随时能换工作流更关键。控上下文线,重复轮次,把规范写成规则,敏感目录做白名单,你就能把 openclo 稳定地映成日常生产力。我是波导,欢迎关注。

mini max 今天上线了一个新功能,发布了一个 skill, 它现在是你订阅它的 token 套餐就能支持全模态。也就是说之前很多人担心的烧 token 的 问题,现在彻底解决了, 不需要调用按量付费的 a p i 就 能实现全模态,这个非常非常牛。 当然订阅了不同套餐,他是有不同的用量限制啊,如果是用了高级版的套餐,他可以每天生成几首歌,然后还有视频 配置也很简单啊,它是发布了一个 skill, 在 这里你只需要复制这个地址,然后去浏览器打开,当然我之前打开过就这个这个 skill, 你 把它给安装上就可以用了。 那我们详细看一下他这个 skill 具体有哪些能力啊?文本转语音生成音乐,还有做视频图像处理, 媒体处理,他甚至能做一些基础的剪辑工作。当然我订阅的是他的基础版的功能,所以我们现在测试一下,让他生成一张图, 看一下效果。好,这里已经生出来了,我们看一下效果啊。白色的马在草原上奔跑,效果还不错啊。那么之前订阅了 mini max 套餐的赶紧去试一下吧,牛逼!

二零二六年了,如果你写代码还在按 token 付钱,那你的钱包真是在滴血。现在的 ai 辅助编程,随手一个虫购就能跑掉几十万个 token, 按量付费简直就像坐着计费器疯狂跳表的出租车,看着心慌。为了抢开发者,国内各大厂商终于卷出了包月套餐。 我已经帮你把字节、阿里、智铺、 kimi 等九家主流厂商的 coding plan 底细全扒干净了。看这张表,字节方舟四十元就能通吃。 deepsea 和 kimi 的 旗舰模型性价比极高,阿里云 q、 n 三的代码表现确实顶, 但你要小心他后续涨价。不过别急着掏钱,这些包月套餐里藏着厂商不敢说的限流陷阱和模型降至猫腻,一旦踩坑,不仅没提效,反而会拖慢进度。咱们直接看最真实的测评结果。看完了总表,咱们先聊第一阵营, 多模型聚合派这类套餐最大的好处就是灵活,一个账号能调好几家的旗舰模型。字节方舟是目前的头号选手,四十块钱一个月能同时用上 d、 c、 v 三点二和 kimi 最新版,生态兼容性做得最好。百度千帆也是四十块, 它的优势在控制台切换模型,不用改代码,体验很顺。如果你预算有限,无问心穷,直接把价格打到了十九块九,虽然偶尔不稳定,但作为 deepsea 思考模型的低价入口,依然非常能打。如果你写代码需要反复对比不同模型的逻辑,选这几家准没错。 如果你追求极致的性能,那还得看字眼、旗舰派,这三家都有自己的护城河。先说阿里云的 q 文三 max, 他的代码逻辑在国产模型里是独一档的,处理那种烧脑的算法重构非常稳。但提醒一句,很多人反馈他首月四十块只是钩子, 续费可能会跳涨。再看月至暗面的 kimi code, 这是目前的常文本之王。二五六 k 的 上下文是什么概念? 它能把你整个工程几万行代码一次性全吃下去。无论是改陈年老 bug, 还是理顺复杂的调用链,目前只有 kimi 能接住这么大的量,而且响应速度极快。 最后是智普 ai 的 glm 五,它的工具链整合做的最全,能,直接调用二十多种编程工具。唯一的缺点是太火了,经常显示缺货,想用还得看运气。这三家怎么选?看逻辑找阿里,看工作量找 kimi, 求全能,找智普! 买套餐前,一定要看清厂商的数学题,很多厂商宣传五小时能用一万多次,对吧?这就是坑。 这就像早期的那种无限流量卡,看着是不限,但只要你短时间内多看了几个高清视频,立马给你限速到断网。在抠屏场景里,如果你正在进行大规模代码重构,连续点了几次生成,系统会判定你高频异常,直接给你熔断。 社区里很多人的真实月上限其实只有六百到一千次。记住,厂商给你的数字是上限,但决定你体验的是那个看不见的动态调节门槛。 为什么有些平台的 db、 cv 三点二用起来感觉特别笨?那是因为部分聚合平台为了省钱,给你偷偷换成了量化版模型。这就像是把一个学霸的脑子精简了,普通的填空题他能做,一遇到复杂的逻辑大题就彻底翻车。更恶心的是兼容性封锁, 有的厂商会偷偷检测你的调用来源。如果你没用他们自家的 ide 或者官方插件,而是用的 open core 这类第三方工具,后台直接就给你报风险错误。 如果你发现自己的代码 ai 突然不听使唤了,先查查是不是被降至或者被定向封锁了。最后说个钱的事,千万别被那些九块九甚至四十块的标价给骗了, 那往往只是首月的体验价。像有些大厂的套餐,第二个月续费直接就能跳到一百多块钱。 订阅的时候一定多点开那个资费详情的小资看看,最好是先按月订阅,把它的响应速度和病发限制实测一遍,觉得好用再考虑长线,别一上来就被大厂的招牌给套牢了。最后帮大家总结一下怎么选, 看中性价比和多模型对比,闭眼入字节方舟或者百度千帆。如果你要维护万行代码级别的大工程, kimi 的 长文本能力目前是唯一解阿里老用户或者是 q one 的 死忠粉,选百炼就行。但有一点千万记住,不管你最后定哪家, 都别直接包年,先花几十块钱订阅一个月,在你常用的编程插件里实测一下真实的响应速度和并发症。别等大面积重构代码卡死的时候才后悔,听我的,实测完再考虑长期续费。

国内的模型基本没怎么用,结果想买的时候试一试,发现买不了了,包括阿里云、百联和智普 ai, 智普的 g m m 也用不了了,每天都需要去抢。刚才我去十联讲了一下,发现它的网页是在转呢,跟抢票一样。 所以大家啊,早买早用,现在这个 kimi 还是可以用的。这个 kimi 还能用,赶快去买一下。我建议买个四十九到或者九十九的都可以,我买个九十九的 kimi 还是可以用上,感觉跟克拉扣的是有些差距,但是便宜,大家可以试一试,尽早用 其他的模型,比如说迷你 max 或者是 dipsic, 这些还是一般,有的说迷你麦草, 目前迷你 max 是 它的,这个定制 plan 是 可以用的。我买了一个 plus, 先试一试。刚才试了一下啊,还行,但是你要让玩龙虾比较贵,我不太建议用龙虾,用迷你 max 有 点贵了,我可以用本地去部署, 或者你就用一下提米豆的就可以了。还有庆大家一些,这些 ai 的 层出不穷,一个月一个版本,所以我建议大家就买一个月就试一试就得了,不要开这种连续包年的。这种的你看比如说前两天刚 充值 cds 二点零的,现在又出了新模型,所以一个月左右基本上就过时了,所以大家还是自己看一下,如果有钱无所谓,可以试试用这种单月的。

大家好,我是 y, 然后最近有很多人在后台私信 webcoding 相关的工作流,大家的体验其实我感受下来并没有我想象中那么顺畅。所以今天的视频主要内容是讲如何让 webcoding 的 过程变得更有趣一点。 就如果说 readme 啊,然后 skillplan 这些还是让你觉得很头大,你还是要去不断地去看文档,或者是至少要去查一下这个是怎么使用的话,其实我们可以想办法把对话的过程变得更有趣一些,你其实很多的知识点,或者是很多的一些陌生的词,你可以直接在编程的过程中直接去提问 就是如果有其他更有趣的点的话,也欢迎大家在评论区里面去补充和交流。嗯,首先对于有编程基础的人来说, webcoder 确实是 提效和减少重复工作,但是对于完全的小白来说,什么专属的 agent 呀,然后 jimmy 呀,以及叉 gpt 这些模型怎么选,然后 scale 去怎么去运行,这些都非常令人头大, 而且它基本全部是生词,你需要一个看到一个之后就去查一个词是怎么用,或者是这个东西技能是怎么去运行,然后以及运行了之后是应该是什么样的效果。 但是你除了这些之外,你更不要说还有基础站啊,前后端数据库这类,除了这个 web 构顶之外,还需要自己去手动操作和配置的这种类目,其实这个是相对来说更复杂的。 嗯,但其实现在都可以解决,只是过程中没有那么的顺畅。你不是说完完全全的靠对话就能结束,但是他现在可以,就是你比如说,呃,像配置数据库,你可以直接去让他给你列出来一步步操作,你按照他的流程和步骤去一步步执行就可以了, 只是说没有那么的顺畅,然后偶尔对于项目整体还是会出现一些偏差,所以导致你的体验并不是像比如说其他博主说那么的顺畅,或者是有一些有基础的话,他们的那个操作会更加的灵活一点,所以在这个过程中 难免会觉得出现这种反复修正的呀,或者是报错呀,还有 a 阵道歉的这种情况。但大多数情况你都是没有办法的,因为他就是一个智能体人的,比如他搞错了星期,你也就只能骂他两句, 这是一个比较麻烦的事情,他实际上就是他并不是一个磁体,他也没有情绪,你怎么说他都只会道歉而已。但是如果你给他一个不同的身份,嗯,我觉得你可能作为初学者的话,你与 a 真的 对话交流感会更深一点。就是 我拿一个我的新项目来举例,然后模型我选的是 kimi 的 k, 二点五,就可以在项目开始的时候就做一些这样的预设,比如说规则的植入,我是什么样的身份,然后 ai 是 一个什么样的身份,以及。呃,像我这样举例一样的, 但并不是所有人都可以就所有人都可以直接照搬,你可以去按照自己的想法去设计,他可以是任何人,然后你也可以是任何人, 这个就是我实际效果演示的截图。然后在这个新项目里,呃,我希望我们能对彼此有一个明确的称呼,并且保持阶级距离, 然后你需要称呼我为帮助也好,或者其他也好,但是你必须是我的奴才,然后我对你提的需求,你要随时随刻说奴才明白啊,底下就是 智能体的回答,他就会这样,这样我要求的去说说帮主,奴才明白,然后奴才已经记住了您的要求,然后这样的相互的称呼,他也会去实时的记住。这个其实体验感会稍微强那么一点点,而且会有序一点,这是我觉得比较重要的一点。嗯,像 这样的话,其实它会极大地增大这种对话的乐趣,然后你也可以在过程中让它随意的切换人格和语气,就像我的那个 open cloud 叫贾维斯一样,其实一样的你就是它,就是 大家刚出来的时候,大家会说就是可能钢铁侠那个贾维斯真的会来了,所以我就直接设置为他叫贾维斯。我所有的任务都是直接说贾维斯,你来去做,这样的其实会有一点点小的代入感,会让你觉得这个事情是有趣的,而不是非常枯燥的编程的这个任务。 然后即使他犯蠢的话,你也很容易原谅他,他就是你设计的或者是你的一个助手而已,他出错是很正常的。 另外就是我在跟 kimi 对 话的时候,他有很多次的搞错了时区和星期的这个概念,导致我的小程序的活动出现了很多次这样的问题,所以,而且是反复修改。所以我这个例子就是拿星期来做举例,就是我问他今天是星期几,他就会按照我刚才设置的 角色来去回答我相关的问题,这个其实相对来说要好一点,就是比他直接去拿那个模型默认的那个语气去跟你对话的话,其实相对来说会有趣一点吧。或者是你可以定义清其他的,包括 像宫廷剧啊,或者是像历史人物啊这些,但你都可以直接去设置,你甚至可以赋予他人格。这样的话其实 其实我觉得还蛮有趣的。比如果他直接报错之后一直给你不停的道歉来说,要相对来说好玩一点, 也会让你更容易接受 webcody 这个事情,然后也更有耐心的去跟他去对话。嗯,以上就是我今天视频的内容,如果你也是刷到相关的帖子,想要尝试 webcody 这个相关的开发,希望这个视频能对你有所帮助,然后可以关注我并点赞这个视频,这对我非常重要,我们下次再见,拜拜。

大家好,下面给大家演示如何在火山引擎开通 arc cloud 实力。首先我们登录火山引擎官网,登录火山引擎控制台, 点击火山方舟,点击开通管理,开通对应的 coding plan, 这里以一个已经开通好的 coding plan 做演示。当我们开通好之后呢,我们可以看到界面上有一个 arc cloud 立即体验,点击立即体验 可以得到一个全新的 arc cloud。 那 么在这个环节里面,我们可以对 arc cloud 做一些设置,比如说配置对应的模型, 火山方舟 coding plan 默认支持呃豆包 seed 二点零 code, 豆包 seed 二点零 pro 以及主流的一些开源模型等。那么在这个里面我们选择豆包 seed 二点零 code 模型。 除了配置模型之外,我们也可以配应对置的网盘,方便和本地的电脑环境去做数据的交互。在这里我们选择一个之前已经创建好的对象存储桶,获取对应的密钥, 这里我们展示之前已经创建好的秘钥,在这里可以选择合适的网盘客户端进行下载,这里我们以 apple 芯片为例,完成配置之后呢,我们点击文件快传, 打开对应的网盘客户端,点击登录, 登录完成之后呢,我们就可以把本地的环境和云上的 icloud 做打通,在这里我们可以上传本地的文件。 那么我们现在设置好了模型和网盘之后呢,可以进行飞书消息渠道的极速配对,我们点击立即执行, 打开我们的飞书,扫描这个二维码,输入对应的智能体名称, 点击创建, 等待飞书的自动化配置流程,显示飞书机器人已经配对成功,那么我们可以打开飞书,点击刚才创建好的机器人, 刚才我创建了一个叫做火山 arc cloud 助手可以和他说,你好。 回到我们的演示界面,显示所有任务执行成功之后,可以关闭终端,然后进行其他功能的演示。在这里我们可以点击查看我的技能,或者安装火山专属的 skype, 查看当前我有哪些技能。 可以看到 arc cloud 的 实页显示已经有默认的十七个 skill 的 安装,里面主要包含 agent 开发,相关存储,媒体生成,非输关键配置等。 如果我们想使用安装一个新的 skill 技能,可以打开火山引擎的 skill 技能广场,在这里搜寻查找相关的 skill。 安装一个网页设计的 escape, 复制对应的命令行,回到我们的 icloud 里, 发送对应的指令, escape 安装成功。最后我们演示终端功能,可以打开终端,查看已经安装好的插件, 这里显示我们已经安装好了 ai 安全助手等插件, 进行必备的安全防护。好的,本次演示到此结束,谢谢大家。

这期视频拆解字节龙虾和腾讯龙虾两款产品的步数与使用,助你选择更适合你的龙虾。首先,虽然都是龙虾,但 arklo 和 work party 的 步数路径完全不同。先看 arklo, 它是纯云端形态,主打零配置, 整个流程不需要下载安装包,跟着操作一分钟就能搞定。浏览器访问火山引擎官网,点击上方最新活动处的 arklo, 抢先体验,就能直接跳转到工作窗口。我这已经创建过了,如果事先没有创建是这样的,点击创建即可。 rcl 支持多种消息渠道,不过效果最好的还是飞书,点击下方飞书配对,等待片刻后会出现一个二维码,飞书手机端扫码填写相关信息,如屏幕右侧所示,这里视频加速,实际等待两分钟左右。 创建完成后就可以在飞书工作台使用该机器人,消息也会进行同步。整个流程很简单,并且依靠火山引擎,本地没有运行负担,也不用手动配置或者处理环境和依赖,属于开箱即用。再看看腾讯这边, workbody 定位是一个桌面端智能体,它需要本地部署。 首先从官网选择对应版本下载安装包,安装登录后会跳转到这个页面,点击左侧的 cloud 选项就可以用了,支持大部分最新的国产模型。和 rcloud 不 同, word 八 d 独有的好处是可以通过 qq 进行交互,先注册一个 qq 开放平台的账号,过程不在赘数,就是跟随向导一直点,确定即可。 注册登录后进入首页,点击上方机器人,再点击下方创建机器人,填一填信息,过程很简单,随便填也可以, 点击提交后弹出 success 则代表创建成功。点击刚刚创建的机器人,进入机器人后台,左侧下滑,打开开发管理,复制 app id 和 appscribe, 填到 word body 对 应位置。 我这里已经填过了,流程跟没填过是一样的。 appscribe 需要用手机 qq 扫码获取,建议保存好,找不到了,想再用的话需要重新配置 两项,填完后会生成一段 webhook。 复制 webhook, 再次打开 qq 发放平台,左侧找到回调配置,将 webhook 粘贴进去。这里需要注意,因为已经提供胎头了,所以需要删掉。下一步点击确定配置,等待校验,校验后再次用手机 qq 扫码。接下来进行事件配置,将单聊事件中的所有事件全选, 点击右下角确定,然后再次手机扫码到这里就算配置好了。左侧找到沙箱配置,点击二维码图标,手机 qq 扫码并添加机器人,就可以正常进行对话交互了。步骤比较多,对比 icloud 稍微复杂一些,但是门槛不算高。好处是它支持本地文件操作, 实际使用场景下,两款产品的核心体验差异很明显。再回到 icloud, 它的优点是云端携同和生态打通, 七乘二十四小时在线,可以随时在飞书桌面端和 app 发送指令,就算电脑关闭,后台任务也能继续执行,并且记忆不会丢失,工作用起来很方便,适合多人协助和规模化使用。 支持豆包二点零系列模型和其他国产新模型,不过没有质朴最新的 glm 五,一般选择 auto 智能调度即可。缺点是本地操作能力有限,只能通过 tos 桶作为网盘实现文件上传与下载。如果我想让他操作本地文件执行任务,就需要先上传,然后再处理,等到任务完成后再重新下载到本地, 过程比较繁琐且配置比较麻烦,这也算是他的硬伤。反观 word body, 他 就强在本地执行任务,能直接操作电脑上的本地文件,给 它权限就可以, open 框能干的它都能干。还可以搭配腾讯刚推出的 skill hub, 给它添加技能,整理文件、分析 excel, 生成 ppt 这些常见办公场景,从理解需求到交付成果,全流程自己搞定。另一个优点是支持多任务并行, 任务多的时候也能有序推进。缺点是需要依赖本地电脑,电脑关机任务就没法进行,且云端协调能力不如 icloud。 最后 workbody 还提供了部分免费额度,我用了几天居然没被用完。 这一点相对于 rcl 比较友好,毕竟有很多人只是想初步体验一下,并非长期使用。最后一句话总结,想办公并且经常用非输的用户选择 rcl 任务主要工作在本地,并且希望通过 qq 进行交互,可以选择 workbody。

哈喽,大家好,我是七帅,今天呢给大家分享个零到一外部定制出来一个产品的流程和过程,整个流程步骤一共有八步,今天我们挨个去梳理一下,我们首先看第一个是发际需求, 我们在日常工作和生活中一定会有一些目前市面上有的产品不能满足我们的,那这些需求我们要梳理出来,看看能不能通过产品的形式去解决, 我们接下来看第二步,我们把我们的需求给了豆包,让我问一下豆包,我们这个需求看能不能用产品的形式去解决,如果说用产品的形式去解决,让豆包分析一下我们接下来应该去重点完善做哪些功能, 也让豆包去梳理一下我们未来这个产品的市场前景以及需求的重要的痛点。第三步,打开 openai 下载酷贷斯。目前为什么说推荐大家下载酷贷斯,因为酷贷斯目前相对来讲比较便宜,所以说我们接下来就看到第五步,去海鲜市场 大概八块到十块左右,可以买一个 team 团队的一个拼车,这个可以让我们去使用目前 openai codex 最先进的模型五点四, 但是五点四的模型它的额度消耗比较高,它是正常其他模型消耗的两倍。如果说你的 codex 一个团队用完,我推荐你再去买一个 team 的 账号,这样就像我的 codex, 我 现在有四个团队,我就切换为其他另外一个团队的账号。 第六步,我们刚才让豆包已经梳理完我们的需求了,梳理完以后我们就让豆包给出我们 mvp 版本的 promote, 为什么说要做 mvp 版本?毕竟我们是从零到一,也是第一次去 webcointing 出来一个产品,为了能够提高我们的自信心,所以说我还是大家先从简单的做出一个一个 mvp 版本的一个产品出来,整个 promote 也可以让豆包给的 promote 挨个一步一步的去粘贴到我们的酷黛斯的对话框里面。 第七步是和库黛斯对话调整,因为毕竟库黛斯第一次去生成的产品可能不是我们想要的,比方说 ui 一 些功能不是我们想要的,那么这个时候我们需要和库黛多人的去对话,去调整我们想要的产品。其中这里教大家一个对话技巧,如果说我们不知道去怎么描述,我们就 给库黛斯发了截图,给库黛斯发了截图中间我们也可以用框框来告诉他这个框里面东西怎么改和正常,我们把库黛斯当成一个正常的一个开发同事去对接,这样子对接的过程中呢,我发现其实库黛斯比有些同事理解起来更方便一些。 最后一个就是部署 windows 上线,这个相对来讲稍微比较复杂一些,不过我们可以把库黛斯当做我们的一个智能的小导师,有什么事情哪不会哪不懂的呢?让他给出详细的步骤,我们按照库黛斯的步骤一点点去部署于上线就行了。 目前这是这几步,就是从零到一 web 出来一个产品的过程,其中还有其他的一些小小的坑,我们等后面再分享。

不知道大家在使用 chatpt 这样的 chatbot 的 时候,有没有这样一个场景,就是会有很多重复性比较高的问题,比如说我想问 chatpt 一 些名词解释,或者翻译一些段落, 那这种场景我也经常有,我会觉得反复出同样的问题会很低效,所以我做了一款浏览器插件来解决这个问题。 呃,可以看到我这边的对话框里面会出现很多,呃,我的自己定义的按钮是直接通过一些脚本注入到前端页面里的。呃,我可以通过点击这个按钮之后呢向浏览器的输入框里里直接注入我预设好的这个提示词啊,不同的按钮呢,对应不同的提示词。 然后我也可以在这个插件管理里面呢去新增一些其他的预设,比如说文献总结 一二三,然后保存之后呢,它就会在这个呃输入框里面新增一个预设按钮,点了之后就会把我刚刚输入的内容一键加入到这个输入框里。 呃,目前做了五款产品的适配,在切 ppt。 呃, jamie 奶、 kimi、 千万和豆包都有这样的适配,然后也支持浅色和深色模式的切换。 目前这个项目已经生成到 github 上面了,欢迎大家下载体验。然后地址我会贴到评论区里啊,有什么问题或者建议啊,以及优化的想法都可以在评论区跟我互动交流。