ai 编程已经远超出了编程本身的范畴,它实际上是在做项目管理,这个视频我们就把整个完整的项目开发流程走一遍。我们打开 control 以后,首先切换到 command 模式,这时我们需要按一下 shift 加 tab 这个组合键, 注意观察最下面这个地方,它会变,从 word 模式变成了接收编辑模式,再按下 shift 加 tab, 又变成了 plan 模式,再按 shift 加 tab, 又回到 word 模式。 word 模式下, 当 cloud 打算去读写你本地的某一个文件,打算去执行一个下脚本时,他会先询问你要不要执行,但这样一个问题,你扔给他一个任务,然后你切换窗口去干其他事情了,结果十分钟之后回来一看,他停在了半中间, 他问你要不要去打开一个文件,你始终没有回复,导致呢?程序始终停那了。所以为了避免这种情况,你可以切换到编辑模式,这样的话他就会直接干了,就不会再询问你了。 而我们今天讲要切换到这个 plan 模式,就是说在一个项目最开始的时候,你给他一个任务,先不要让他急于的去写代码去执行, 而应该让他先把完整的计划先列好,他列好之后,你还要再 check 一下,看这个计划是否对是否周详,圈好之后再开始执行,再开始写代码,所以这个就是规划模式。来到规划模式,我们开始给他发任务了, 那这个任务你不管,告诉他你打算实现什么功能,同时你还给他框定一个大概的基础方向, 比方说要使用什么语言,要使用什么库,看我写的这个指令,我说请使用 playwrite 这个库,写一个 b 站自动发布视频的脚本,所以这个是核心任务。但中间一些实现步骤有一些要求,比如说 它要通过获取库克文件来实现自动登录,需要用户填写内容呢?从配置文件里面提取,需要有日制文件,每天完善信息, 需要进行截屏,便于事后检查好。这是我最开始的一个需求,然后 cloud 收到这个需求之后,它还要进一步地跟我进行明确,因为我这个需求可能还不是特别详细,基本它开始去加载一个 skill, 叫做 brainstorming 头脑风暴。 它之所以会去加载这个 skill, 是 因为我事先安装了一个插件,就是这个 super owners。 那 怎么安装插件呢? 这实际上是 cloud 官方那个插件,我们直接在这个地方输入斜杠 plug in 回车。最上面有一个 discover, 就是 发现新插件,还有一个 installed。 啊,你已经安装了哪些插件?大家看一下。我这个地方应该是安装了一个 super owners, 你 看这些都是 cloud plugin official 嘛。官方插件有做这个 code review 的, 还有做代码简化的,还有一个 feature dev, 就是 产品功能嘛, flag 嘛, 前端设计还有一个 skill creator, 它帮你去生成 skill。 这边有一个 super owners, 对, 这都是我提前装好的。那怎么装?我们先切换到这个 discover, 然后往下翻。比如说你想装这个 commit commands, 按下空格键就选中了。 比如说下面这个按下空格键而选中。当你把多个想安装的全部选中之后,按下 enter 回车键这地方,它会询问你是安装到什么地方,是安装到当前用户,还是安装到当前项目?等等, 你选一个范围啊,就可安装了。安装完之后我们按住 escape 先退回来,好,退回到这个主界面,我们需要重新加载一下,输入一个 plug 音, 下面有一个什么 reload plug 音,执行一下这个命令,就把刚才你选中的那几插件彻底的安装好了。 所以这边他实际上起用了那个插件进行一个头脑风暴。他说我先来了解一下当前的项目结构,看看是否已经有相关的代码或者配置。因为可能我们昨天已经就这个项目讨论过了, 他已经生成了移动代码或者配置文件,那我们之前已经形成的这个结果肯定不能把它退,他要看一下之前是否已经有这样的一些成果了。好,我已经了解了目前的项目结构,还有几个问题需要跟你确认,所以你就感觉这个 a 他 更像是一个外包团队, 你给了他一个比较粗略的需求。第一他要来跟你去沟通更详细的细节,这些细节既包含了需求本身,也包含了实现方案。 比如说他先问我,你打算使用 python 实现还是使用 node js 啊?我说我想使用 python 实现你希望什么格式的配置文件。 他这个地方实际上是给我列出了几种常见的配置文件格式,我当时选择了节省,那么发布视频要填一些子段呢?他给了我这么几个选项,第一个是说只填一些必填子段,第二个是必填,应该选填都填, 那我选择的是都填完整信息,还问我关于测试要使用哪种模式,要么就是说他只负责填信息,最后发布那个按钮,让人工去点, 要么就是代码自动的帮你去点那个发布按钮,要就是所谓的智能模式啊,在测试阶段 他不去点那个发布按钮,测完之后他去点那个发布按钮,所以这一些实际上是在沟通需求了,那么需求沟通清楚以后,他给了我三个实现方案,这个属于技术方讨论了。 第一个是单脚本架构方案,就所有功能全部放在一个拍摄文件里面,直接搞定。 这个方案有什么优点?有什么缺点?范二,模块化架构,让什么配置文件?浏览器操作网址截图,不同功能放到不同模块里面去,这样你的项目结构、文件目录就会更多一些,扩展性更好一些。 他有什么优点?有什么缺点?还有第三个方案更加复杂,他会带一个管理后台, 还会带一个报警机制,这就是一个大型的很重要的一个项目了。到最后他说推荐采用方案二,但是我最后选择的是方案一,他说好我们采用单脚门架构,下面是详细的设计方案,上面还是在讨论一个 粗略的方案,下面才是更详细的方案。那么对于单脚本架构来说,整体结构包含的这个脚本文件是什么?使用什么库?配置文件在哪里?已知文件在哪里? 操作截图在哪里?配置文件好,包含哪些个字段?那注意现在已经进入到详细设计阶段了,那么你要逼自己 去改他的详细写方案是你一定要把他每一句话,每个字仔细过一遍,因为如果这个详细方案里面有纰漏,那么将来他根据这个方案实现代码就肯定是有纰漏的。 你如果不想改代码,你就把这个方案给整好。比如说我就发现他这个配置文件里有几个字段需要改, 这个定时发布时间不需要精确到秒到分钟就可以了。比如说这里面的是否允许评论,是否允许下载这几个字段,我觉得可以,不要 直接使用那个默认值就可以了,所以我希望他删除这三个字段。下面是功能模块,读取配置文件,预制输出到终端和文件登录验证, 这是登录后要验证一下是否已经登录成功了。视频上传后要进行截图,填完基本信息之后要进行截图, 上传完封面之后要进行截图,所以这边是详细的步骤,包括这边他还说 要检查一下是否所有的必填字段已经全部填写完整了。最后一步还要做测试验证,对整个网页进行一个完整的截图,检查一下信息是否完整。工作流程,第一步做什么?第二步做什么? 先上传什么?后填写什么?目录结构脚本在哪里?配置文件在哪里?日期和截图在哪里?六、比较有意思的是它这边还有一个 apple 的 file, 上面这一些文件也好,目录也好,全部是他帮我规划好的,他生成的,而唯独这个 app file, 这个是我在最开始 我自己创建了一个这样一个目录,把我要测试使用的视频文件和封的图片我已经放在了这个目录下。最开始的时候他不是说他会去了解一下当前 u 的 这个目录结构,所以他在那个阶段就已经发现了 有这个目录,他理解了这个目录下这两个文件是干嘛的,他在做这个设计的时候就直接附用了这个目录,还是很智能。问我,你对这个方案设计 是否满意?我说需要调整,他说请告诉我需要调整哪些子段吧,我说不需要,填写互动选项配置文件中的三个 enable 子段,请删除。定时发布时间精确到分钟即可。好,然后他开始改这个方案了, 他说关于这个配置文件已经简化了,我已经删除了这三个字段,发布时间已经精确到了分钟。这是改之后的配置文件格式,我工作流也做了修改,他说我已经删除了互动选项这个步骤, 其他的保持不变。 ok, 那 么这个详细的实现方案对好之后,我这边说符合, ok 了, 抄近了。他开始要把这个记写到文件里面去。先创建了一个目录,我开始去写文件。我们整个流程中间,每一个里程碑,每一个阶段的重要成果,一定要落实到文件里面,因为整个流程可能会随时打断, 那么打断以后,之前已经达成共识,他可以直接去读文件,就没必要从头开始交流沟通了。 好,这个开发计划已经保存到这个 md 文件里面了,下一步该按照计划执行了。而这个执行它又分成两种模式, 第一种是 subdivision, 第二种是 subdivision。 那 么对于我这个任务来说,任务比较小,所以更适合采用 subdivision。 那 什么意思?简单理解,可以认为这个 subdivision 更像是多进程模式,而这个 subdivision 更像是一个多进程模式。 当你的整个任务很大时,你有很多比较独立的模块,那么你可以使用这个 parallel session。 那 每一个模块之间它们是完全独立嘛? 它们的 context 上下文是完全独立的,每一个绘画之间它是不怎么交流的,它们的文件是不共享的。所以 当他把每一个独立的任务完成之后,还需要人工的去进行合并。比如说你要开发一个电商网站,有人负责开发订单系统,有人负责开发推荐系统, 最后你还需要把这项目全部合到一起,并且这个大型项目怎么拆分也是需要人去拆的。 而对小型项目来说,更适合使用 subagent, 它会有一个主 agent, 主 agent 负责去拆任务,去分配给每一个子 agent。 虽然说每一个子 agent 也享有独立的 context, 但是子 agent 可以 通过主 agent 进行一些协调和通信人的话会比较轻松。你不用去考虑怎么拆分任务,怎么合并,结果都不用管。 我这边选择了 safari 的 这种模式,我将使用子弹类模式来执行这个计划。第一步,先完成一些前置准备,他要去安装一些第三方。这个时候他启动了这个 feature div code review 和归性审,因为刚才给大家看过,我其实已经安装过这个 feature div 插件了嘛, 他要 pip list 看一下这第三方库是否已经安装好了。这边说环境已经 ok 了, 正式开始执行第一个任务,基础结构和配置读取执行之,他会去进行一个合规性审审,他每做一步都会自己检查一下,他之所以会自己检查,原因是在于我安装了这个插件 code review 好, 那么他进行完这个合规性检查之后,发现有问题,他说 让我进行一些修改,他要去修改实现。好,那修改之后他要再次的重新进行评审,发现还是有问题,让我直接按照计划来重新实现这个任务一。 好吧,他重新开始实现这个任务一了,到最后啊,他终于说这个任务一已经完成,已经完全合规了, 开始执行任务二,任务二完成执行任务三,任务三完成执行任务四,任务四,任务五。好,最后全部任务已经执行完毕,这个时候他还要进行一个最终的代码审查,审查合格以后,他说 这个自动发布视频功能已经全部完成了,我已经实现了这么多文件和目录,每一个文件目录到底是干嘛的? 表格全部给我列好了,最后还很贴心的给了我一个使用步骤,说你第一步要去安装这个第三方库后,要去修改你的配置文件改好之后,你就可以通过这个命令来运行测试了, 这边需要加一个 test 测试,测试没问题,之后只通过这个命令来运行就可以了。所以整个过程是什么?它就是一个完整的从开发到交互的一个生命周期。从最开始 我们要去对需求,到最后产品完成了,那么这个相当于是一个质检报告,是吧? 一项向对哪项功能完成了,就打个对勾,这个是一个产品形态说明书,这个现在是一个产品的使用说明书好,那么整个过程非常完美,执行计划非常详细,是不是意味着他最终写出来的这个 pass 代码就大差不差呢?咱们下期再见。 插播一条上岸信息,我录制了一些编程课程,包括 python, 勾元,区块链变化,还有智能体。我是一个人,一个公司没有立即变轻的压力,所以呢,我可以花更多时间去打磨一门课程,我做事情可以考虑的更长远, 所有课程都是经过我的精心剪辑的,尽可能让大家花更少的时间达到一个更深的高度。感兴趣的可以进我主页橱窗进行了解,或者呢,直接私信咨询。
粉丝1.7万获赞3.4万

这期我们给 openclaw 接上大脑,我们用的是阿里云百炼的 coding plan, 里面包含了宽三点五 plus、 kimi、 glm 等八个模型,几分钟就能跑通。 首先进入到 openclaw 的 安装页面,具体怎么下载,网上教程很多,这里不再赘述。接下来就是安装向导,输入命令 openclaw on board, 接下来按方向键选择 y e s 回车,引导方式选择手动 回车。接下来设置为本地网关工作区目录,直接回车,下面选择模型厂商,我选择下面的阿里云百链回车。认证方式,选择阿里云百链的 coding plan 回车。接下来要获取 coding plan 的 api key, 打开云百链的控制台,登录进去, 找到 coding plan 的 我的订阅,下面复制以 sk 开头的 api key, 复制好后右击粘贴到向导里回车。下面需要选择模型, 我先选择的是第一个宽三点五 plus 回车,接下来一直默认回车, 直到提示是否配置聊天通道,先不配置选择 n o 不 配置技能起用钩子,这里按空格选中暂不配置回车,这里安装网关服务 回车。接着再回车,这里就基本配置完毕并进行对话了,这时需要多等一下,首次启动网关需要等一会就能对话。下面接入剩下的七个模型,在阿里的 callin plan 网页 把剩下的七个模型名称复制一下,在对话框输入,把阿里云百链的这些模型添加进来,并保存至 open claw json key 与主模型的 key 一 致,然后把刚才复制的模型名称复制进去发过去,等待片刻就会提示你已经添加到 open claw 点 json 里。 这里一定要强调两点,一是要写进 openclaw 点 json 文件,二是要表明和主模型 api key 一 致。下面输入命令,验证模型是否真正添加进去。 打开 power shell, 输入 openclaw models list, 现在显示的列表里有八个模型代表添加成功。

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

哎,你有没有想过拥有一个完完全全属于你自己的 ai 助理花的钱呢?可能比你每天那杯咖啡还少。今天啊,咱们就来揭秘一下,怎么轻松把它搞到手。 这么说吧,如果我告诉你,每个月就花个二十九块钱,也就是一顿午饭钱,你就能拥有一个超级强大,七乘二十四小时线上,而且还不用翻墙的 ai 助理。你是不是觉得我在吹牛?哎,这还真不是幻象, 有一个叫 open cloud 的 开源项目就能让这事变成现实。今天啊,我就把这个独家秘籍分享给你,整个过程啊,简单到你不敢信, 是不是已经有点迫不及待了?好,那咱们就别光说了,直接上手跟着我六分钟,就六分钟,我们就能在云端把它跑起来。准备好了吗?我们开始 第一步特别简单,就是给你的 ai 在 网上安个家,你去阿里云这种地方买一台清亮应用服务器就行。哦,对了,记得啊,一定要选那个已经预装好 opencloud 的 应用镜像,这样最省事。 哎,这个有个重点听好了啊,这个服务器的内存啊,至少得是二 g, 这一点你可千万别省,不然你的 ai 跑起来可能会卡,那就体验不好了。记住,二 g 是 最低门槛。 好了,服务器买完之后出场就更简单了,人家云服务商都帮你把路铺好了,你只要点进应用详细页面,跟着那个一二三的步骤,点击下鼠标,这事就办完了。 ok, 最后一步,也是最关键的一步,就是给咱的 ai 大 脑加燃料,也就是配置一个 api 密钥。那问题就来了,上哪找又便宜又好用的燃料呢? 别急,这就要说到咱们今天的独家秘籍了,一个叫做 coding plan 的 神奇玩意儿, 你可以把这个 coding plan 想成什么呢?嗯,就好像是给你的 ai 大 脑办了一张手机卡,还是那种无限流量的月度套餐。这么一说,是不是一下就懂了?按月付费,本地直联,没有漫游费,想怎么用就怎么用。 那用这玩意儿的好处简直不要太明显!首先,便宜,便宜到什么程度?一个月二十九块钱起。其次,快,不用开什么 vpn, 国内网络嗖嗖的,延迟超低。 最后,选择还多,你定一个套餐,好几个 ai 大 模型就能随便你换着用,简直太爽了! 你可能会想,听着,这么好,设置起来肯定特麻烦吧?完全不会!我跟你说,不管你用谁家的服务,来来回回就这么三步,买套餐,拿到密钥和地址,然后把这两东西填到配置文件里,最后选个你喜欢的模型搞定。 那么市面上这么多家,到底哪家的手机套餐卡最适合你呢?来,我们快速对比一下几个最热门的, 来看这张选购指南。如果你喜欢尝鲜,想玩遍各种不同的 ai 模型,那阿里云有八个以上模型绝对是你的首选。 如果你像我一样有点懒,希望系统自动帮你搞定一线,那火山引擎的 auto 模式就是为你准备的。当然了,如果你追求的是一个极致性价比,那没得说, minimax 二十九块钱包月,闭眼入就对了。 这句话真的说的太对了,你仔细算算每个月省下来的那点 ipi 费用,跟你每天被那些重复无聊的工作浪费掉的时间比,哪个更重要?这笔账啊,其实咱们心里都清楚。 当然了,再厉害的技术,有时候也难免会闹点小脾气。不过别担心,万一真出问题了,我这也给你准备了一份快速排错指南, 如果你辛辛苦苦把 api 秘笈都设置好了,结果一运行,诶,报错了,先别慌,也别砸电脑,十有八九就是下面这三个小问题之一。 来,跟着我检查一下。第一,那个 base url, 你 看看最后是不是带了杠勾定杠这个小尾巴,大部分服务商都要带的。第二,模型名字你是不是从官网一个字儿一个字儿复制过来的?差一个字母一个大写都不行。 第三,也是最多人犯错的那个 api 密钥前面的 s k space 杠这部分你是不是给漏了?赶紧看看。如果你是个高级玩家啊,还想玩点花的 opencloak, 甚至允许你再配置一个备用的服务商, 这样以来啊,就算主力的偶尔罢工,备用的也能马上顶上,保证你的 ai 永远在线。 好了,说到这,你发现了吗?拥有一个私人 ai 助理的门槛,现在基本上已经可以说是没有了。 二十九块钱,你想想现在二十九块钱能干嘛?可能就是两杯奶茶的钱,但现在呢,你可以用它换来一个全年无休七乘二十四小时待命的 ai 伙伴,帮你写邮件,做研究,处理各种烦人的工作,这简直太划算了! 好了,方法工具,所有的钥匙今天我都交给你了,现在就轮到你了,你会用这把钥匙去开启一个怎样的新世界,去创造点什么好玩的东西呢?我很期待以上,你 get 了吗?

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

mini max 今天上线了一个新功能,发布了一个 skill, 它现在是你订阅它的 token 套餐就能支持全模态。也就是说之前很多人担心的烧 token 的 问题,现在彻底解决了, 不需要调用按量付费的 a p i 就 能实现全模态,这个非常非常牛。 当然订阅了不同套餐,他是有不同的用量限制啊,如果是用了高级版的套餐,他可以每天生成几首歌,然后还有视频 配置也很简单啊,它是发布了一个 skill, 在 这里你只需要复制这个地址,然后去浏览器打开,当然我之前打开过就这个这个 skill, 你 把它给安装上就可以用了。 那我们详细看一下他这个 skill 具体有哪些能力啊?文本转语音生成音乐,还有做视频图像处理, 媒体处理,他甚至能做一些基础的剪辑工作。当然我订阅的是他的基础版的功能,所以我们现在测试一下,让他生成一张图, 看一下效果。好,这里已经生出来了,我们看一下效果啊。白色的马在草原上奔跑,效果还不错啊。那么之前订阅了 mini max 套餐的赶紧去试一下吧,牛逼!

昨晚,智普突然扔了个大招,距离 glm 负五发布才一个多月, glm 负五点一直接杀到编码能力暴涨百分之三十,得分从三十五点四直接跳到四十五点三。 cloud op 四四点六,才四十七点九,差距已经肉眼可见地在缩小。六个月前,这个差距还是十几分,现在只差二点六分,达到 cloud op 四四点六的百分之九十四点六。在实际编码场景中,这个差距几乎可以忽略, 有人甚至说应该直接叫 g l m 负五点五。还有用户测试发现, g p t 负五点三都没搞定的问题, g l m 负五点一直接解决了。看数据, s 大 愈减, bench verified 得分七十七点八,开元模型最高 turmnobench 二点零,得分五十六点二,超过詹姆奈三点零。 pro 擅长复杂系统工程和长城 agent 任务使用体感逼境 cloud opus 四点五,这是目前国产编程模型的天花板。说价格, cloud opus 按量计费每百万 token 大 概十五到七十五美元。 g l m 负五点一,通过 coding plan 使用 light 套餐,三美元起步,按量计费每百万 token 只要一元, 用 cloud 十分之一的价格,获得百分之九十四点六的体验。使用方式超级简单。如果你已经在用 g l m coding plan, 只需要找到配置文件,比如 cloud code 的 sighting store js, 把模型名改成 g l m 负五点一就行了。 一行配置无缝切换,支持 cloud code、 cursor、 open cloud 等主流。 coding agent 质朴也很坦诚,说了两个现实问题,第一,高峰期可能限流, 每天下午两点到六点,系统负债最高,编程任务会被优先保障,非编程场景可能会排队第二。高峰期消耗三倍额度,非高峰期只按一倍抵扣,建议错峰使用,体验会好很多。重点来了,现在到四月底, g l m 负五点一 在非高峰期只按一倍抵扣,这个福利期间用起来超级划算。三美元的 lite 套餐,日常开发完全够用。 pro 和 max 套餐适合重度用户,发布几小时内已经大量用户上手体验, x 上好评不断。 有人说稳定性比 g r m 负五好很多。有人说长链路 a 阵这任务终于不崩了,从三十五点四到四十五点三的百分之三十暴涨,不是吹的,是实打实的工程能力提升。如果你是国内开发者,不想翻墙用 cloud, 又想要接近 opus 的 编码能力, g l m 负五点一目前是最佳选择,尤其适合复杂工程任务和长城 a 阵开发。 g l m 负五点一国产编程模型的天花板编码能力直逼 cloud, opus 价格只要十分之一。邀请码在评论区点赞加关注,赛博杨千焕明天见!

最近这个 openclaw 真的 太火了,有人呢把它当成新一代的 agent, 也有人说呢,它本质上还是一个偏工具的 ai 助理。那我一开始呢,也是想抱着试试看的心态啊,把这个 openclaw 装到了本地,但是当我想要去接一下 whatsapp 的 时候, 发现根本连不上,那网上一搜呢,他们这个教程几乎都是清一色的使用飞书啊,钉钉啊, qq 这些,那很少有人去讲这个 whatsapp。 后来呢,我干脆不折腾配置了啊,我直接把这个 opencloud 的 源马拉到我本地,然后呢用 opencode 打开看了一眼,其实上面那个问题呢,并不复杂,改完之后呢,我的这个 whatsapp 也终于是连上了。那于是呢,我有一个想法,就是既然我们的这个源码是可以去更改的,那这个 opencloud 其实是可以被定制的。 所以说这期视频呢,我想跟大家分享一下我最近在做这个 openclaw 二次开发时候总结的一些经验。那如果说呢,你也想把这个 openclaw 变成更懂你的 ai 工具,这期视频呢,应该可以帮到你。 我现在用的是这个摩尔县城的 mtt ai book, 选它的原因呢,其实很直接啊,就是我想要在一台不折腾环境的设备上面,把 openclaw 这种偏工程的工具啊,完整的跑通。那 ai book 呢,它给我的一个感受就是,它把 ai 开发需要的环境直接做到了系统层面, 不管你是拉原码还是后面的配置模型和 skills, 基本上呢,就是开箱即用。那这一点呢,对于我们 ai 开发其实是非常重要的啊,因为像本地变异啊,依赖安装啊,模型调用啊这些事情,如果说环境本身不稳定很容易呢,就把人劝退了。 而 ai book 给我的一个感觉就是很多 ai 开发常用的工具链啊,环境啊,都已经提前给我们准备好了啊,所以说呢,我才可以直接开始干活,而不是先花时间搞这个环境配置。 那这是一个开源的 ai 编程工具啊,因为其灵活好用的特点,受到了广大开发者的一个喜爱,安装过程也是非常的简单啊,谨行命令,执行一下就搞定了。装完之后啊,我们来配置一下这个大模型,那这里呢,我推荐使用这个摩尔县城的 air cooling plan 啊,它这里的一个大模型其实是 gm 四点七, 一方面呢,它是一个国产模型啊,对我们中文提示词啊,工程上下文的一个理解啊,都是很友好的。另外一方面呢,就是背后是国产 gpu 的 一个算力支撑,整体的算力也是比较的稳定。 安装配置完毕了之后呢,我们随便去输入一段话,看到回复就表示安装成功了。接下来呢,我们去到 opencloud 的 这个 gitapp 仓库,复制它的 gitapp 地址,然后来到终端下载到本地啊,现在呢,我们就进入这个项目文件夹,然后用 opencode 打开它, 首先的话呢,我们需要去使用这个斜杠编辑命令,然后这个 opencode 对 整体的一个代码做下缩影,然后建立呢,它对这个项目的一个认知和行为边界 啊,可以看到这个速度还是非常快的啊,不愧是显卡公司对吧,速度体感一下子就上去了。那接下来我们就解决 whatsapp 连接不上的问题啊, 我们描述一下现状,让 open code 找一下可能的原因。 ok, 那 他现在呢,就已经定位到了具体的文件了啊,他说这里的网络请求是没有走代理的啊,这就解释了为什么我们本地是有魔法的, 可以去打开这个 whatsapp 的 外部端啊,但是呢,这个 openclaw 在 配置的时候啊,始终是拉不回来这个 whatsapp 的 二维码,点完之后呢,我们需要去验证一下,直接让这个 openclaw 帮我们去运行这个项目。那注意啊,这里和 openclaw 官网给到的一键安装命令是不一样的啊, 它是基于当前原码进行变异然后运行的。那因为我们这台 airbook 呢,它本身就预装了很多开发工具和套件啊,所以说在变异运行的过程当中呢,大家可以看到是非常的丝滑,包括一些 n p m 包的下载也是很快的。那现在的话呢,它就已经安装成功了。那接下来的话呢,我们做下配置 模型提供商,这里呢,我们选择这个 z a i 啊,然后这个模型我们就选择 g l m 四点七,那这里它需要去填入一个 api key, 我 们还是来到刚才摩尔县城那个 coding plan 的 页面啊,然后我们新建一个 key, 然后回到终端啊,粘贴一下就可以了。接下来的话呢,我们再去配置这个 channel, 那 这里我们就选择 whatsapp。 ok, 那 这里可以看到一个巨大的二维码,对吧?就表示呢,我们刚才 open code 它的一个改法是正确的。 然后呢,我们就用这个手机端的 whatsapp 进行一个扫描,填入 whatsapp 相应的一个号码就配置完成了。后面的这个 skills 呢,可以跳过啊,然后呢其他的一些 api 我 们也直接跳过。现在的话呢,我们已经配置完成了 open cloud gateway, 也是启动成功了, 我们去到这个 web 界面测试一下,比如说现在我桌面上有很多文件,然后我让他去帮我来整理一下,可以看到他很快呢就按照文件的一个类型做了一个规章,还是非常的不错啊。接下来的话呢,我们给他上点难度啊,比如说我们本地有很多发票文件,然后财务呢,让我们去找到上次购买 apple watch 的 那个发票 啊,放到以前的话呢,我们可能得挨个去打开比对,就非常的花时间。而现在我们可以直接让这个 openclaw 来做啊,就非常的轻松,它的速度呢非常的快。然后最后呢还给到了我文件的一个名字啊,效率非常的高。再比如我们在手机上面啊,跟他说每天上午九点帮我去统计 github 的 一个热门项目,然后呢做成简报推送给我。 那这个功能呢,需要我们自己去加一个 skills, 我 们需要去到这个 gitap 项目啊,我们可以去找到 news aggregator skill, 复制它整个文件夹到 open cloud 的 这个 skills 目录。接下来我们只需要跟 open code 说帮我们安装这个 news aggregator skill 啊,然后重启一下。那接下来的话呢,我们就去到 web 端,发现刚才的那个 skills 就 已经安装进来了,那同样的方法,我觉得大家可以去安装成百上千的这种你感兴趣的 skills, 对 吧?甚至呢,你还可以去啊,让这个 open code 来帮你写 你想要去做的一些 skills 啊,就是脑洞越大,其实这个东西是越好玩的。那到这里的话呢,你可能会发现一件事啊,就是这个 open cloud, 它真正有意思的地方,其实不在于它内置了多少功能,而是它本身就是一个可以被不断改造的工程底座啊。 不管呢,你是去接这个新的 channel, 还是加这个新的 skills, 本质上面呢,都是在做一件事情啊,就是把你自己的一个工作习惯变成一个啊,可以被自动执行的这样的一个流程。而 open code 在 这个过程当中呢,它起到的一个作用就是不仅仅是帮你写代码,更多的是帮你去 啊快速的理解一个陌生的项目架构,然后找到它能够去自定义的地方,非常高效安全的帮我们改出来。 顺带说一句,我对 ai book 的 一个真实感受啊,在 ai 开发这种场景下面呢, ai 原生笔记本,它的一个优势不在于参数, 而在于体校。那比起 windows 下面啊,经常需要去折腾环境,或者说在不同的工具之间来回切换,在这台设备上面,我们可以更加专注地去想,我们到底要改什么,怎么改这件事情本身 ok, 那 以上呢,就是本期视频的一个全部内容了,感谢大家的收看,我们下个视频再见, peace。

大家好,我是 y, 然后最近有很多人在后台私信 webcoding 相关的工作流,大家的体验其实我感受下来并没有我想象中那么顺畅。所以今天的视频主要内容是讲如何让 webcoding 的 过程变得更有趣一点。 就如果说 readme 啊,然后 skillplan 这些还是让你觉得很头大,你还是要去不断地去看文档,或者是至少要去查一下这个是怎么使用的话,其实我们可以想办法把对话的过程变得更有趣一些,你其实很多的知识点,或者是很多的一些陌生的词,你可以直接在编程的过程中直接去提问 就是如果有其他更有趣的点的话,也欢迎大家在评论区里面去补充和交流。嗯,首先对于有编程基础的人来说, webcoder 确实是 提效和减少重复工作,但是对于完全的小白来说,什么专属的 agent 呀,然后 jimmy 呀,以及叉 gpt 这些模型怎么选,然后 scale 去怎么去运行,这些都非常令人头大, 而且它基本全部是生词,你需要一个看到一个之后就去查一个词是怎么用,或者是这个东西技能是怎么去运行,然后以及运行了之后是应该是什么样的效果。 但是你除了这些之外,你更不要说还有基础站啊,前后端数据库这类,除了这个 web 构顶之外,还需要自己去手动操作和配置的这种类目,其实这个是相对来说更复杂的。 嗯,但其实现在都可以解决,只是过程中没有那么的顺畅。你不是说完完全全的靠对话就能结束,但是他现在可以,就是你比如说,呃,像配置数据库,你可以直接去让他给你列出来一步步操作,你按照他的流程和步骤去一步步执行就可以了, 只是说没有那么的顺畅,然后偶尔对于项目整体还是会出现一些偏差,所以导致你的体验并不是像比如说其他博主说那么的顺畅,或者是有一些有基础的话,他们的那个操作会更加的灵活一点,所以在这个过程中 难免会觉得出现这种反复修正的呀,或者是报错呀,还有 a 阵道歉的这种情况。但大多数情况你都是没有办法的,因为他就是一个智能体人的,比如他搞错了星期,你也就只能骂他两句, 这是一个比较麻烦的事情,他实际上就是他并不是一个磁体,他也没有情绪,你怎么说他都只会道歉而已。但是如果你给他一个不同的身份,嗯,我觉得你可能作为初学者的话,你与 a 真的 对话交流感会更深一点。就是 我拿一个我的新项目来举例,然后模型我选的是 kimi 的 k, 二点五,就可以在项目开始的时候就做一些这样的预设,比如说规则的植入,我是什么样的身份,然后 ai 是 一个什么样的身份,以及。呃,像我这样举例一样的, 但并不是所有人都可以就所有人都可以直接照搬,你可以去按照自己的想法去设计,他可以是任何人,然后你也可以是任何人, 这个就是我实际效果演示的截图。然后在这个新项目里,呃,我希望我们能对彼此有一个明确的称呼,并且保持阶级距离, 然后你需要称呼我为帮助也好,或者其他也好,但是你必须是我的奴才,然后我对你提的需求,你要随时随刻说奴才明白啊,底下就是 智能体的回答,他就会这样,这样我要求的去说说帮主,奴才明白,然后奴才已经记住了您的要求,然后这样的相互的称呼,他也会去实时的记住。这个其实体验感会稍微强那么一点点,而且会有序一点,这是我觉得比较重要的一点。嗯,像 这样的话,其实它会极大地增大这种对话的乐趣,然后你也可以在过程中让它随意的切换人格和语气,就像我的那个 open cloud 叫贾维斯一样,其实一样的你就是它,就是 大家刚出来的时候,大家会说就是可能钢铁侠那个贾维斯真的会来了,所以我就直接设置为他叫贾维斯。我所有的任务都是直接说贾维斯,你来去做,这样的其实会有一点点小的代入感,会让你觉得这个事情是有趣的,而不是非常枯燥的编程的这个任务。 然后即使他犯蠢的话,你也很容易原谅他,他就是你设计的或者是你的一个助手而已,他出错是很正常的。 另外就是我在跟 kimi 对 话的时候,他有很多次的搞错了时区和星期的这个概念,导致我的小程序的活动出现了很多次这样的问题,所以,而且是反复修改。所以我这个例子就是拿星期来做举例,就是我问他今天是星期几,他就会按照我刚才设置的 角色来去回答我相关的问题,这个其实相对来说要好一点,就是比他直接去拿那个模型默认的那个语气去跟你对话的话,其实相对来说会有趣一点吧。或者是你可以定义清其他的,包括 像宫廷剧啊,或者是像历史人物啊这些,但你都可以直接去设置,你甚至可以赋予他人格。这样的话其实 其实我觉得还蛮有趣的。比如果他直接报错之后一直给你不停的道歉来说,要相对来说好玩一点, 也会让你更容易接受 webcody 这个事情,然后也更有耐心的去跟他去对话。嗯,以上就是我今天视频的内容,如果你也是刷到相关的帖子,想要尝试 webcody 这个相关的开发,希望这个视频能对你有所帮助,然后可以关注我并点赞这个视频,这对我非常重要,我们下次再见,拜拜。

我发现还是有人不会部署 openclaw, 今天一期视频就讲清楚 openclaw 的 部署方法和使用方法。 openclaw 是 有本地部署和云端部署的,那我们应该选择哪个呢?首先云端安装的步骤比较简单,你不需要懂代码,虽然本地的也很简,但是本地还有,这除了安装方式之外,还有就是说权限的问题, 小白不懂代码的话,有一些权限你不懂的安全隔离,我们的一些隐私有可能被 opencloud 获取到,或者是有其他的一些安全风险,所以我建议大家先从云端开始来,那云端又有腾讯云、阿里 云等等这几个云服务场上都出了自己的一键部署小龙虾服务器,今天我拿腾讯云的举例子,今天我就先介绍一下云端部署的方法,下一篇我会介绍本地部署以及其他宝藏的文件的配置,它是怎么样 去养的,下期我会深度的去拆解一下。首先腾讯云上部署,首先打开腾讯云的官网,这个地址登录,先买一台服务器,我们打开腾讯云的官网,首页就出现 opencloud。 云端一键部署,我们点击立即体验,点击立即体验之后有个立即部署我的个人助理,点击点击这个立即部署我的个人助理 三步点击完部署之后,会让你选择服务器买这个就行,而选择立即购买,你这都保持默认就行,然后支付,支付订单就行。支付完了之后,来到清亮云服务器的页面,来到这个页面,点击这个服务器,它已经把那个 opencloud 给你部署好了。 点击这个服务器来到应用管理,这是应用管理的页面,然后在下面去配置模型通道,你就 china, 我 们是要接飞书,还是接 whatsapp, 还是 discord, 还是微信啊等等,都可以接,包括 skill, 然后我们就来接飞书。首先打开飞书的开放平台这个网址,这个是已经登录的状态哈, 打开这个网址,点击创建企业自建应用,点击这个蓝色按钮,填写应用名称,应用的描述,点击蓝色按钮创建。 创建完了之后,然后第二步,你先知道这 a p p id 和 a p p secret 的 位置,再凭证基础信息,知道这个位置之后,待会儿我们复制,然后我们先来配置权限,点击权限管理,点击,点击这个批量,然后把下面这个代码完全复制,因为这个开通权限非常多,一个手动开通的话就太慢了, 所以大家直接粘贴我给的这个代码,直接导入就行,然后这个代码的话三连这个视频找我拿,导入这个位置,粘贴好这个 jason 代码之后,点击蓝色按钮确认添加。添加完全件之后,第四步,开启 机器人能力,在应用能力这块添加应用能力,机器人这块选择开启。第五步,开启长链接,在这个页面点击时间与回调,然后这个订阅方式,点击这个编辑的图标,然后选择长链接,点击保存, 把下面这几个时间添加机器人进群,机器人被移出群,消息已读,接受消息这四个添加,然后确认。 然后第六步,我们发布应用之后,我们对机器人做了任何修改,添加权限或者是其他的一些修改,你发布了之后才会生效。 左侧这个菜单,点击版本与管理。第六步,在非书开放平台的版本管理与发布,这个位置点击创建版本,点击完了之后 会让你填写版本号,然后写一点零,点零可以加上这个机器人的描述,往下滑有一个保存,点击保存,点击发布。如果你是个人的飞书的话是秒通过,如果你是组织的话,那可能需要组织去通过一下。第七步,在 opencloud 里面配置飞猪。我们在飞书创建完机器人应用了, 然后我们需要获取到这 app id 和 app secret。 我 们创建完企业之后,我们需要把飞书和 opencloud 关联起来, 关联的凭证就是 a p p id 和 a p p secret。 我 们来到凭证基础信息, a p p id, a p p secret 这块一会要粘到我们的服务器里面,配置上 channel, 我 们回到腾讯云服务器,在第二个通道点击聊天软件 qq, 选择下滑,选择非输,在这里输上非输的 a p p id 和 a p p secret, 然后添加并应用,然后你下面就会出现非输的这个通道,显示绿色的。现在非输 oppo 卡号就打通了,但是现在还没有配大脑,没有配模型。 好,我们先来配模型,我建议大家选 coding plan 的, 因为太费头肯了,我之前用的是 openroot, 我 用的是 cloud 模型,烧,我每天烧的太痛了,太贵了。配置是 kimi, kimi 太慢了,回复得也慢,经常还会有 a p i 数据限制。后来试了个 mini max 的, 速度还不错,而且也不会有那个限制什么的,所以我非常推荐 mini max, 所以 大家直接闭眼入这个就行,我已经替你们踩过坑了,打开这个网址,注册并登录往下滑选择计划,我选的是这个四十九的套餐,买完之后我们回到这个 mini max 的 开放平台,这块是有个 tokenplay, 我们点击这个投屏 pad, 如果你没有 a p i k 的 话,点击创建,如果有的话直接点击复制就行。然后我们回到腾讯云,在这个模型里面选择 mini max, 选择完 mini max 之后,你这块都是默认的不要动,然后在这里面填入 a p i k, 然后添加并应用, 然后你的 mini max 就 成功配置了这个小三角,点击有不同的模型,我们直接选最高的二点七的就行,默认就行二点七,现在的话我们就可以在飞书上跟 oppo pro 对 话了。小龙虾本身它没有太多的技能, 比较强的是它的 skills, 所以 我们需要给它安装上很多很多技能,这样它才能帮助我们干很多事,比如说刚刚安装好的小龙虾,它也没有什么浏览器的功能,或者不能帮我们抓热点什么的,需要我们配置 skills, 所以下一期我就会分享这些 skills 以及这个 skills 的 一些构成,包括 openclaw 的 一些心跳机制啊等等。我们必须要了解的是 openclaw 是 怎么样才能把它养强,下期我会着重从 agent 记忆系统、 skill 仓库等这方面去分,让大家把龙虾越养越强,越来越能帮我们干更多的活儿,帮助我们省更多时间。

这个抠钉 play 疯了吧,一天只要几块钱?九亿次请求随便用,彻底解决 token 价格贵不够用的问题。 它按请求次数计费,每个月最多九万次请求,相当于十亿 token 的 调用量,价格却只有调用的一折左右。而且每个用户之间互相独立,不会因为高峰期降速,特别适合 ai 编程个人开发者, 支持豆包、 kimi、 智浦、 deepsea 等模型,还支持 cloud code、 cursor、 openclaw 等主流工具。操作也很简单,首先订阅 coding plan, 然后配置,以 openclaw 为例,执行这个命令就完成切换。余量在这里看, 每五小时刷新一次,目前周期内我已经用了百分之十六,再过一个半小时会自动从百分之零开始计,这模型量太管饱了。流程已整理好,需要的朋友留言分享。

如果你最近也在用 open cloud 跑项目,那么我想知道,这个月的 a p i 账单你看的心疼吗?是不是跟我一样,用的时候有多爽,付钱的时候就有多肉痛? 明明只是让他写了几个小项目,改了几版代码,成千上万的 token 哗哗就没了,月底一算账,几千块钱直接打了水漂。别慌,今天这条视频,我把目前全网主流的 callin plan 套餐都给你找来了。 从七块九的入门尝鲜到重度开发的旗舰套餐,哪家性价比最高,哪家不抢就能买,哪家最适配你的常用工具。看完这条视频都能明白,建议所有开发者先点赞收藏,免得要用的时候找不到了。 首先第一个也是目前入门价最低的之一,腾讯云大模型 coding plan。 腾讯云这个套餐核心优势就是两个字,便宜。 mate 套餐日常价四十块钱一个月,现在活动价首月只要七块九。 pro 套餐日常价两百块一个月,活动价首月只要三十九块九。 这个价格对于想尝鲜的朋友来说,几乎是零门槛。用量方面, lite 套餐每五小时最多一千两百次请求,每周九千次,每月一万八千次。 pro 套餐直接是 lite 的 五倍,每五小时六千次,每月九万次请求。对轻度用户来说, lite 的 额度完全够用, 重度开发者的话,买 pro 也能顶得住。模型方面,除了独家支持腾讯的混元全系列模型,还接入了 gmm 五、 chimi k 二点五、 mini max m 二点五这些主流模型、主流编程工具呢,几乎全兼容,像 opencloud、 coldbody、 cursor 这几个直接就能用。 唯一要注意的是,这个优惠价每天十点限量开,抢手慢,无想上车的朋友要定好闹钟。 接着第二个,阿里云百炼定制 plan, 阿里这个套餐跟腾讯的定价体系差不多, mate 套餐日常四十块钱一个月,新客首月十块钱。 pro 套餐日常两百块钱一个月,亲测首月五十块。用量上, pro 也是 light 的 五倍,跟腾讯持平。它的核心优势,第一是独家支持阿里自家的千万全系列代码模型,尤其是千万三 cold plus, 这个在代码生成和工具调用上的表现大家懂的都懂。第二呢,是对阿里云的服务器生态适配拉满,如果你是用阿里云服务器部署 opencloud 相关服务,用它会非常丝滑,而且配置教程很完善, colude code、 client 这些工具都有手把手的接入指南。不过呢,缺点跟刚刚说的腾讯一样,优惠价每天限量抢购,早上九点半开抢,热门时段基本很快就售清了。 下一个字节跳动的火山引擎方舟 coding plan 字节。这个套餐最大的亮点就是独家支持豆包系列代码模型,尤其是在国内代码模型里属于第一梯队的豆包 seed code, 而且现在订阅还能解锁自接刚出的 ark cloud 跟 open cloud 完美适配。价格方面, mate 套餐日常四十块钱一个月,限时特惠,首月九块九。 pro 套餐日常两百块一个月,限时特惠,首月四十九块九。 用量上, light 是 plud pro 的 三倍, pro 是 light 的 五倍,完全能满足重度开发需求,模型生态也很能打。除了豆包全系,它还接入了 kimi k 二点五、 glm 四点七、 deep sick v 三点二这些热门模型支持手动切换,也能开 auto 模式,智能调度,简单任务用轻量模型省额度。 复杂任务呢,就用旗舰模型保效果,非常智能。而且它对 collude code 的 适配做的特别好,翻翻教程非常详细,新手也能一步到位部署,不用踩坑。 第四个,百度千帆 coding plan 先说结论,百度这个套餐绝对是新手常先的性价比之王。 mate 版首次购买只要七块九,一个月首次续费二十块,常规也才四十块。 pro 版首次购买三十九块九,首次续费一百块。跟腾讯视频用量上, mate 是 每月一万八千次,请求 pro 每月九万次,跟腾讯云一样完全够用。最关键的是它对 opencloud 的 专属适配适历从配置文件怎么改 到 base 五 r l api key 怎么填,一步一步教新手,照着做就能搞定,完全零门槛。模型方面,默认用 kimi k 二点五,同时支持 deepsafe v 三点二、 g l m 五、 mini max m 二点五这些主流模型。唯一的小遗憾就是不支持百度自家的文星大模型,不过不影响日常使用。讲完了腾讯、阿里字节、百度四个大厂,下面我们来看看垂直大模型厂商的套餐。 第五个,先说智普的 g l m coding plan。 智普这个套餐核心就是冲着 g l m 大 模型的用户来的,如果你是 g l m 五、 g l m 四点七的重度用户,选它准没错。 grm 五在 coding 和 agent 能力上已经做到了开源模型的搜查使用,体感非常接近 cloud ops, 用来跑 open cloud 的 复杂任务,效果特别好。它的套餐分了三档, light pro max light 是 cloud pro 的 三倍用量, flower 是 light 的 五倍, max 是 pro 的 四倍,能覆盖从入门到重度开发的所有需求。 而且它支持智能调度、简单任务自动用轻量模型省额度,复杂编程自动切旗舰模型,非常省心。价格方面, mate 按月是四十九块一个月,按季更划算,一百三十二块一季度。 pro 按月一百四十九,按季四百零二。 max 按月四百六十九,按季是一千两百六十六。唯一要注意的是,它也是每日限量供应,每天十点补货,想入手的要卡点。 第六个是 minimax coding plan, minimax 这个套餐最大的特点就是档位多,选择灵活,从入门到顶级发烧友都能选到想要的档位。标准版分了三档, starter 二十九块一个月,每五小时四十次。 prom plus 四十九块一个月,二点五倍 starter 用量。 max 一 百一十九块一个月,七点五倍用量。还有极速版,从九十八块到八百九十九块, 满足高病发极速响应的需求。套餐的核心优势呢是 mini max 自家的 m 二系列模型,它在代码生成和工具调用上表现很稳,尤其是上下文的代码理解效果很不错。 缺点也很明显,只支持自家的 mini max 系列模型,不支持第三方模型。如果你只用 mini max, 选它没问题,想换模型的话就不太方便了。 接着第七个, kimi 编码相关权益这里要跟大家说清楚, kimi 其实没有单独的编码 plan, 它的编码功能是包含在 kimi 会员体系里的。 会员分了四档,从四十九块一个月的 indent 到六百九十九块一个月的 lego, 不 同档位对应不同的用量限额。优势在于 kimi k 二点五的超长上下文能力,这个不用我多说,用过的都知道,处理超大代码库,超长文档效果特别好。 缺点也是只支持自家的 kimi 模型,不支持第三方,而且不是专门为 coding 场景做的套餐,针对性不如前面几家。 最后一个,快手 quick cat coding plan 这个套餐可能很多朋友没听过,它是快手万晴平台出的,核心是自家的 cat code pro v 一 模型, 这个模型在 a a 榜单的非推理模型赛道拿过第一,前端生成的美感和实用性做得特别好,如果你是前端开发者,可以关注一下。价格方面,入门的 mini 套餐日常二十九块一个月,限时特惠,首月八块八,每五小时四十次。 pro max 最高的 max 套餐二百四十块,每五小时一千次。 pro max 重度开发也够用。缺点还是只支持自家的 cat 系列模型,不支持第三方,生态丰富度不如大厂。好了,八家套餐给大家说完了,肯定有朋友会问,这么多套餐,我到底该选哪个? 别着急,接下来我给大家一个保姆级的选购指南,分四个维度,看完你就知道自己该充哪个了。第一个维度看你的使用强度,如果你只是想尝鲜体验,每天用一到二小时,属于轻度用户, 直接闭眼充七到十块钱的入门套餐就行。腾讯云 night、 百度千帆 night 首月都只要七块九, 快手迷你首月八块八,火山引擎 mate 首月九块九。这些套餐的月度额度足够你每天跑五到十个中等复杂任务,性价比直接拉满,就算踩坑也没什么损失。如果你是重度开发者, 每天要用六小时以上,或者多终端多实力同时跑 open pro, 直接上 pro 及以上档位。 比如说腾讯云、百度千帆、阿里云、火山引擎的 pro 套餐,每月额度都是九万次,请求是入门款的五倍,还支持更高的开发, 多项目同时跑也不会限流,完全能满足重度开发需求。第二个维度看你的模型偏好。这个很简单,你平常用哪个模型最顺手?就选对应的套餐。常用混元选腾讯云, 常用千问选阿里云,常用豆包选火山引擎,常用 timi, 上下文选 timi, 会员常用 mini mess, 直接充他家的套餐。大厂的套餐基本都支持多款第三方模型,而垂直厂商的套餐大多只支持自家模型, 大家按需选择就行。第三个维度看你的工具生态。如果你是 cloud code 重度用户,优先选火山引擎方舟和阿里云摆列, 这两家对 cloud code 的 适配最完善,官方教程最详细,不用自己踩坑。配置,如果你是 qn code 的 用户,直接闭眼充阿里云百联原声适配体验拉满。 如果你是纯纯的 oppo pro 新手,优先选百度千帆,官方直接给了 oppo pro 的 专属配置试例,照着填就能用。第四个维度看你的预算,预算十块以内尝鲜腾讯云百度千帆的 light 套餐,七块九,首月首选, 预算五十块以内,月度稳定。用阿里云、腾讯云、火山引擎的 light, 续费款二十到四十块钱,一个月完全够用。 预算,一百以内,重度使用大厂的 pro 套餐,首月款三十九块九到五十块,这个区间性价比最高。最后跟大家总结一下, open cloud 这波热潮确实把 ai 编程的门槛拿到了前所未有的低, 但也让很多开发者踩了 api 账单的坑。而 coding plan 的 出现就是用包月订阅的方式,把我们的开发成本直接锁死, 让普通开发者也能毫无负担的用上最顶尖的 ai 编程工具。当然也要提醒大家,这些套餐的首月优惠基本都是一个认证主体,只能享受一次,而且大多不支持退订退款,大家入手前一定要看清楚规则,按需购买, 别盲目冲最高档位。好了,今天这期 coding plan 就 介绍到这里,欢迎大家和我分享。你用 opencloud 最多的场景是什么?你最看好哪家的 coding plan? 如果你还有什么私藏的高性价比套餐,都可以打在评论区一起交流。如果觉得这条视频对你有帮助的话,也别忘了点赞、关注、收藏、 转发给你身边正在被 a p i 账单折磨的开发者朋友。后续我还会持续更新 opencloud 的 使用技巧和避坑指南,我们下期见。

今天和大家聊一下用 cloud code 加密的时候如何 debug。 个人经验而言, debug 是 加密最核心的一环,因为你让 ai 生成代码 很容易,但是离真正落地往往还有很长的路要走。我自己在开发的时候,大概百分之四十甚至更多的时间都在测试和 debug。 那 我结合自己加密做第一个产品时积累的经验,总结了一套 debug 方法论 规定权,但是经过我这一套组合权下来,基本能解决百分之九十五以上的 bug。 那 我们的核心原则就是十二个字,不动手。分模块,存版本,必 plan。 首先第一个不动手,也就是不改代码。我们的手只干两件事,描述问题,审查方案,改代码的事全部交给 cloud code 来,把自己当成产品经理, ai 才是那个写代码的程序员,除非你有十足的把握,否则不要给 ai 已经写好的代码故添乱,改动后逻辑一旦混乱, ai 就 不知道当前的状态了。第二个分模块, 也就是分模块开发与测试,不要一上来就搞大而全让 ai 写一个巨型的功能,尤其是涉及复杂任务的时候,拆开分模块做,做完一个测一个,通过了再继续,这样 bug 天然就被隔离了,不会出现牵一发而动全身的局面。 第三个存版本,也是版本存档加更新记录。这个就是一句话,用好 git, 每次让 ai 改东西之前,先 commit 一个版本,改完测试没问题了再 commit, 出了问题不要硬修, 用 colod 的 命令斜杠 rewind 回退。第四,必 plan, 必须用 plan mode, 这个是 colod code 的 灵魂功能,先让 ai 生成计划,然后人工 review 一 遍,确认思路没问题了,再让 colod code 去执行 bug 的 时候,打开 thinking 过程,审视 ai 推导逻辑, 看看它是否准确捕获了 bug, 是 否真正抓到了 bug 的 根本原因。如果它推导的方向错了,可以在它生成的计划里面,对应有疑问的地方添加你的 comment 来进行纠正, 而不是等它把代码改了再发现跑不通。另外,计划里面必须包含验证步骤,修复之后怎么确定好了,测哪个用力,这些都让 cloud 写清楚,执行完直接验证,不要凭感觉。接下来就是我们具体的 bug 方法,那以下方法可以独立使用,也可以组合拳使用。 我们的宗旨就是不管黑猫白猫,能抓住老鼠都是好猫。第一个描述法,这个是最基础也最容易被大家忽视的方法, 不能只是在 bug 的 时候扔给 cloud 一 句,这里报错了。那我这边呢,是建议大家把输入、输出、操作步骤、预期和实际结果全都说清楚,要给 ai 未够上下文。我的做法呢,是用这种结构化的描述,比如说我在什么什么模块点击了什么什么输入了对应的什么内容, 本来应该返回什么结果,但最后返回的结果是什么?然后把终端调试,生成了错误日期,一并贴给 cloud code, 这样基本上 cloud code 就 能精确定位到问题了。第二个图片法,这个是消除 u i 类 bug 的 利器,如果你遇到按钮点不了,布局错乱,或者是图片乱码等等问题,你可以截图圈出来丢给 cloud。 cloud 现在支持 m c p 图片理解, 像我用的 mini max, 它就有一个 understand image 的 mcp, 直接把图片给 cloud 看,比你描述半天管用的多,你会惊喜地发现, cloud 能够精准识别界面里面的元素,还能结合代码预测哪里写错了, 这个功能我用下来非常的让人惊喜。第三个就是诊断代码注入法,在关键节点放哨,有时候 bug 藏得很深, a i 猜半天也猜不准,这个时候我会让它在关键节点前后插入临时的输入输出打印,或者直接让它在模块页面加一个临时 u i 控件来重新加载数据。 加了这些哨兵之后呢,让 ai 跑一遍,把输出日置位给他,那问题的路径就非常的清晰了。这里要提示大家,就是一旦你的 bug 完成之后,一定要提醒 cloud code 自己删除这些调试代码。 第四个方法,我总结的就是他山之石可以供御,实在不行我们换个思路来 ai 它不是万能的,有的时候它自己卡住了怎么办?我这边有四个方法供大家参考。第一个直接告诉 cloud 参考域内通行的做法,直接让它去查官方文档,或者采用业界最佳实践来做,这句话往往有奇效。 第二个就是让 cloud code 自己联网搜索,让他自己把网上的解决方案给拉回来。除此之外,求助其他 ai 工具也是一个非常不错的思路。同一个问题,比如说 et 或者是加密难,他有不同的思路,那么我们就可以把他们的建议再喂给 cloud code。 最后一个就是切换大模型,有的时候换个模型,同样的描述,他就能给出更靠谱的方案,我们不要在一棵树上吊死。第五个方法,最效复现法,如果遇到这种 bug 特别复杂,可以让 cloud 剥离掉所有无关的逻辑, 它给你构造一个最小的测试案例,就测那一个点,那根音找到了之后呢?再回到原项目里面去改。第六个方法就是回归验证。一个 bug 解决之后,一定要让 ai 回归验证一下关联模块,确认这个修复没有影响到别的地方, 然后提交 get 记录,打 tag 或者是保留分支,这样以后出问题的时候能够精确地知道哪个版本是好的。最后一步就是我们的汇报闭环,那每次 bug 解决之后呢?我会让 cloud code 给我一个简短的汇报问题,原因是什么?修改了哪些地方?验证结果如何? 一方面做到我们自己心里有数,另一方面下次再遇到类似的问题,我可以直接翻对话记录,让 cloud code 快 速复用之前的思路。 总结一下,用 cloud code app coding debug 的 核心就是把 ai 当成听话又强大的工程师,而我们自己就是那个把握方向审核方案的架构师。用好 plan mode 结构化描述、图片理解 临时哨兵和借助外部智慧,我们就能做到手不动代码, bug 自己消失。这个是速查清单,大家遇到 bug 可以 按照这个清单逐一排查,最后祝大家 debug 顺利!


传统方案一句指令花零点零八元,优化后仅零点零零二元, token 成本直降百分之九十。养虾人实测三组数据,传统方案一句指令消耗二十万 token, 花费零点零八元, 优化后直接砍到零点零零二元。这个 coding plan 让成本力降百分之九十。三天实测从每天十二元压到一点三元。 支持豆包、 mini max、 kimi、 智浦、 deep seek 主流模型,也支持 open claw、 tray、 cursor 等主流工具。跟着我做,一共四步,第一步,订阅 light 套餐。 第二步,创建你的 api key 确认模型。第三步,以 open cloud 为例,把 api key 和模型名称填进去。第四步,在终端执行配置命令,然后你就可以直接跟他对话,一点不用心疼偷啃消耗了流程已整理好,留言分享!

我 word 编辑的时候我是权限全开的,就我不需要他跟我,他那 spec 写好了,我 plan 做好了,做好了之后我就丢给他,他有时候会见一些临时文件,他也会删一些临时文件,这种情况下 就他做这个非常危险的动作的时候,就是他会问你嘛,能不能授权或者杀何你?对对对对对,我觉得 copy 的 层面是完全可以,就想要提高效率的话,可能一个 copy 写个十分钟二十分钟,如果隔个一分钟过来问你一下这个能不能添个目录,能不能删一个什么临时文件, 我的建议就全给他得了。我跟刚哥的一些方案比较类似啊,就是我不会让自己成为一个 ai coding 的 瓶颈,就是全部权限都给他,全部让他去自主的去做任务,因为他写的代码让我批准,我也不能说 no 啊,因为我不懂啊, 因为我完全他就是不会写,完全就让他自己做,我们看效果就行了。我最后就不想用 ctrl, 原因也是因为经常让我 accept, 但其实我根本那些 no accept 我 也看不懂,我就不弄了。