刚才下面的妙码港比特币,好,现在我已经进来了,在这个内容里面啊,在 c c demo 里面,我们现在直接打开 costcode, costcode 的 话,模型我们就直接选择一个那个最高档的模型啊,今天这一节课花掉个二十美元差不多。 花掉个二十美元应该差不多,应该用不上,用不到啊,待会这个,呃,一些需求功能开发那一块可能用的多一点,豪横一把,给大家整体演示一下这个效果。花掉个二十美元, 我直接选这个 opus, 一 般情况下我会选择 haiku 跟这个 default 来去跟它沟通交流,然后呢 plan 这些呢,是用它去做,但我们就今天就直接上 opus 来给大家看一下啊。第一个呢,先我们来做规划,基于我们现在定义好的这个,呃,这个,这个 commands 啊,这我写错了,不是 command, 是 commands, commands。 好, 然后呢,我重新重启一下, 好, x plane, 嗯,这里我们就可以看到正式可以去来做我们的项目规划了啊,就我这里写的内容呢,这边就有,呃,不管是 plane 还是 future, 这里其实都可以去创建啊,比如说我再来一个,呃,这个名称你也可以自己去去建立啊,比如说这是 x plane, 我 们可以叫妙码 plane, 然后呢我们在这儿再建一个叫妙码 future 啊,就是我们待会儿要去做新特性分支的新特性开发的时候,我们可以在 future 里面再来去跟它探讨,好好这样去定义,那我们接下来呢,再来重启一下 再进来,好,这个时候呢,我们就可以看到有两个啊,一个是妙码 plan, 一个是妙码 future 啊,这个时候我们先来做一个简单的项目规划,规划什么呢?直接 做这个啊,这里不能够回车,我们先取消一下。好,然后呢我们先直接来 plan 啊, plan 什么呢?我们具体要去开发一个什么内容,比如说我现在来去演示一下。呃,这个排序算法怎么来完成啊?实现排序,呃,叫数组排序吧, 实现数据排序,这个时候呢,它其实就会基于我这一套标准功能拆解、性能优化,包括最终产出完整内容。来去规划啊, 我当前的项目里面其实没有东西的,它就会基于我刚才的提问来去帮我查找,然后呢去完成,就按照这个,按照我的这个提示啊,先拆功能,再考虑性能问题,再去产出最终的规划文档。 其实在规划这个公开课的时候还是倒是有点忐忑的,因为 c c 呢,基本上在国内它它的稳定性其实还是有点问题啊,希望我们整个顺畅,经常会挂。 它的整个规划的过程呢,其实就是基于我们的这一套标准啊, 当然这个比较慢,我们可以等它自己去先去规划啊。这个时候大家可以看到你希望用什么样的编程语言来完成排序,那我们肯定选择用 javascript 啊,选 javascript 算法的话,你看这个时候其实你就需要去做一个决策,这个就是我前面给大家说的方案的一个选型, 你任何功能其实都有,你要用什么语言,要用什么算法,你看算法里面基础算法、冒泡选择、插入排序、高效算法、快排、归并堆排序全部实现,它可以全部帮你做字,适应的话可以根据你的一个数据特征来选择最后的算法,全部全面,很全面啊,那我现在呢,就完成一个这个高效算法吧,比如说 好,那支持排序的数据类型有哪些?只有数字吗?还是有数字?还有字串?还是有通用对象?还是需要全部支持? 那你也可以自己来去选择。那假如我就只有数字啊,这个时候呢,规划就做完了,接下来过做完这个规划以后,按理说啊,接下来去帮我们把对应的这个呃规划文档输出到 plan 里面,输出到这个 plan 里面来去接下来做整个开发的一个工作。 那其实现在呢,还已经帮我们输出了啊,包括现在还在规划整个性能的优化方案,最终整个规划完以后,才会在最终去完成具体的开发工作。 这个过程呢,其实一般需要花费一会儿一一点时间啊,根据你的选择将为你规划 test script。 什么完成详细的规划文档详细规划文档规划完之后会帮我们输出啊?就比如输出到我根目录下面的这个 plan plan 里面, 我把这个先叠起来,现在项目呢,其实就只有这一个 c c 点 demo, 它完成以后帮我们输出文档输出。那现在正在去将这个排序的一个规划做完,做完之后呢,帮我输出出来。 这整个过程呢,其实就相当于过往。我们如果说,呃跟自己的 leader 或者领导去探讨啊,要去开发什么需求,它其实会做这样一个整个设计,设计完之后呢,把任务交给你,你去完成开发,对吧?这是整个步骤比较清晰的, 那我们等待它的输出,将最终整个规划的内容输出出来。输出出来之后呢,其实接下来我们就可以让它基于这样一套标准来去开发了啊,因为这个 plan 里面其实已经比较明确了,就是我要用什么语言,用什么算法,支持什么样的数据类型。 就给大家以这样一个简单的功能,来告诉大家这个基本的一个 coding 的 流程啊,是什么样子的。这个等它跑完之后,我们就开始进行下一个问题。当然呢,呃,我可以重新再打开一个窗口来给它去并行着来去演示啊。当然呢,这个它正在写啊, 写这个 array line, 朋友们可以看到这个 cloud 下面是不是有个 array 点 line 呢?你看是不是已经写到当前这个内容里面了?好,我们来阅读一下啊。当然这个命名可能有点问题,这个我们先不管,它在这呢,自己先, 因为是我随手写的,我就没管他了啊。好,同学们来看啊,这个数组排序的功能规划有哪些呢?第一点是整个项目的概述,你看目标实现一个排序语言,用什么算法范围,数据类型,是不是定的很死?同学们自己在写代码的时候,我不相信大家会按照这么标准的一套形式来去推进。 好,第一个功能拆解,你看,因为我强调了你必须做功能拆解好,他就帮我拆了。拆什么呢?第一步,先实现核心算法,第二步,再完成辅助排序算法 啊,在第三步,那个什么工具、算法、模块等等,以此类推,以此类推,统一接口层面。 你看,这设计的非常牛了啊,就是每一块都想的很详细了。好,这个功能拆解完成了,那我们接下来看到第二点,第二点我们说的什么项目结构,项目结构是什么样子?形态的结构,你看哪怕这样一个简单的功能,它帮我们设计了主入口设计类型的文档,设计了这个 utos 的 一些工具, 还设计了详细的测试,用力好,规划好了。第三个就是我们要想到的性能优化,在算法层面我们可以怎么去优化呢?比如说具体的优化策略有哪些? 有三数曲中选基准的这种可以适用于快速排序,还有呢尾递归优化也可以适用到快速排序里面,它的预期收益是什么?就是我做这个优化之后,我到底想要得到一个什么样的收益? 一二三四五说的很清楚啊,那如果说这个大家看不清的话,我打开啊,用这个马克当给他打开看一下,这个看的更清楚了吧。 好,我要做规划拆解啊,核心的要点有哪些?一二三四规定排序、堆排序等等,再到项目结构,再到优化层面需要考虑哪些点?一二三四五六等等。性能瓶颈有哪些性能啊?比如说地归调用的开销,这是有有性能问题问题的内存分配方面的,还有缓存我们要考虑啊,比如说随机访问的话, 怎么样去提升它的一个缓存的命中率,这也是我们需要考虑的。然后复杂度对比也有详细对比,快排规定排序、堆排序这些他具体的稳定性怎么考虑?自动算法的选择策略怎么去选择? 最后开发计划怎么做?第一步先做基础,第二步,先实现核心算法,第三步,统一接口,第四步,测试优化。你看这这个基本上就是,比如说同学们,如果说在座同学有 leader 啊,就是有,有做管理的同学,你这一套看起来是不是很清晰了? 有,有没有?这个在座同学有没有 leader? 有, 有前端 leader, 或者是这个呃项目的管理负责人的有没有?有的同学扣个一啊?那印证一下,平常你再去分配任务的时候,或者说给组员去拆解任务的时候,是不是这一套标准? 有的同学扣个一,应该有的吧,我们我们的这个课堂里面还是含金量非常高的啊,同学们含金量都非常高的。 嗯,对,所以说这一套规划文档出来之后,那么接下来我们就直接啊,没问题,就直接按照这一套标准来去开放。直接按照这一套标准,那我们其实呢,这个地方可能是刚才这在这个规划的时候有点小细节啊,我给你补一下了, 我们是应该放到 plan 里面,然后呢我们再针对于这一套新特性来去开发,比如说我们可以把它放到 futures 里面来完成具体的开发。好,那我们现在就可以完成整个这个内容开发了,比如说我们在 complex 里有个 future 的 具体的开发,对吧?这个我们叫具体的新特性开发 好。基于什么呢?基于 plan 的 规划逐步开发新特性啊,要,要严格按照当前项目的规范。包括哪些规范呢?包括包括 e、 s、 n、 t 规范啊?包括这个 pre t r 规范,包括 commit link 规范, 包括这个单侧相关的规范。还包括什么呢?比如说我们整体的这个拼写检查规范叫 c spell 规范, 让他去帮我们按照这一套规范来执行。好,好,那我们现在直接来直接写线,要吗 future 开始开发吧。好,当然了,我这里需要呃回推一下, exit 一下,我们重新重进一下,因为我这个是刚才才加进来的。 好,这个时候我其实就可以直接按照具体新特性开发来去帮我完成了。直接一回车他就可以开始帮我们做了啊,待会我并行让他做,再接着往大给大家去介绍后续的内容。但是在说这个之前呢,我给大家去介绍一点啊,就是说的这个 m c p 工具的,可以看到这个 m c p 我 现在打开了几个 m c p 呢?一个是 contact 七,这个主要是用来去 查询一些跟上下文相关的一些信息啊,什么内容的啊? m c p debug wiki 呢?是做当前你所用技术的一个规范文档的,比如说 debug wiki, 你 要去查 react 相关的一些细节都寄予这个 debug wiki 来做 web search 呢,能够相当于内置一个搜索引擎,让它去查不懂的一些资料,都可以寄予 web search 来去查询。 这个 playwrite 呢,当然现现在挂掉了 fill 的, 其实 playwrite 是 直接集成进来之后让它去帮你做集成测试的, 当然集成测试比较复杂,我们今天就不给他演示了,基于这个 playwrite 做相关的集成测试。我们其实在前面都跟大家说过,在很早之前我给大家专门讲过一些单测集成测试,端端端测试,当然这个应该是二三年的事情了,二三年,二四年的事情啊,这个大家可以回头来去看一下,这个文档 相对比较久远了,但是呢,整套内容从单测、集成测试,端端端端测试都跟他说过,这里不是我们的重点啊,好,就把这些全部选上打开就可以了,你的 m c p 就 没问题了,接下来我们就直接让他来帮我们开发回车。 好,接下来他就会按照我们整体的规划,按照刚才的这个规划啊,在当前项目中按照我的这个规划的一个顺序,一步一步来帮我做 好。那这个呢,我们就不管他了啊,我就给大家看一下这个平常在开发的时候,我的一个工作流程是什么样子的,基本上我到这我就解放了,我就可以去干别的了, 当然同学们可能比较好玩的同学到这个时候就开始拿起手手机刷抖音,刷 b 站,这个学习了,对吧?但是呢,我还没玩,因为我一般可能同时要开发两三个项目,这个呢,我们就把先放在这啊,它会根据我的整个开发新特性的过程和内容呢来去做开发。 好,那阅读了规划文档干嘛干嘛?你看它是一个 test 排序的实现,要实现快排,要干嘛干嘛,然后呢检查一下基础结构怎么样呢?开始拿去做了。 好,但是呢,因为我现在我这个工程是没有什么 e s link 啊这些 protea 的, 所以现在暂时没管它啊,但是呢,它说我们当前项目是空的,它会创建这个任务列表来去开发。呃,我这里呢可以简单创一个 protea 的 啊,那个 protea protea 创建一个 protea r c 的, 这个的话我就随便写一个啊,随便写一点内容,那就假设我的 type 是 四,剩下的这些呢?我们就随便按照它深层的来吧,啊?就直接按照这样子。 好,那接下来他就会按照我这套标准,我们待会看他写出来的是这个 preiter, 这一套是不是按照我们这套标准啊就可以了?他现在做什么抽象啊?这些东西呢?我们就让他自己去做。
粉丝6660获赞2.4万

coding plan 是 啥?俗称虾粮,其实就是 token 的 套餐,因为龙虾在每一步都需要消耗 token 消耗量大,所以需要有套餐才不至于花费太高。目前很多厂商都推出了自己的 coding plan, 国内的主要有字节,阿里、腾讯、百度、智普、 mini max, kimi, 还有其他的一些公司,价格不一样,支持的模型也有区别,大家按需购买。那是不是大厂的云主机只能用自己的 coding plan 呢?不是,但如果你的云主机在部署的时候使用的是大厂提供的 open cloud 镜像,那么有的大厂的云主机只能配置自己家的 coding plan。 那 么遇到这种情况,如果你想用别人家的 coding plan, 就 需要我们自己去配置了。接下来我来演示整个配置过程。先说一下我的环境, 我用的是阿里云的清量服务器,然后呢,因为我没有其他的 coding plan, 所以 我还是用的阿里云的 coding plan, 你 们可以拿这个作为参考,其他的 coding plan 配置也是一样的。 咱先到 coding plan 的 界面,你也可以看到有一个套餐专属的 api key, 这个你把它复制下来你会用到。还有 base url 就 有两种,一种是支持 open ai 协议的,还有是支持 iso project 协议的,两种去任一种都可以优先,我们就选 open ai 的, 然后这个下面它是 coding plan 支持的模型,任选一个,把它的名字给 copy 下来,它这个名字就叫它的 model id。 好, 拿到这么几个信息之后,我们就可以去配置 coding plan 了。 来到云主机的管理台控制台,通常这个控制台呢,你看点开它的管理界面,它可以在 ui 上就直接配置,但是这里呢,你看到它不能配置其他厂家的 coding plan, 所以遇到这种情况呢,我们就需要跳入到这个系统里面去,登录到系统里面去,进入到远程连接登录, 先输入 opencloud config 命令, 进入到了 opencloud 的 一个配置的流程里面。首先选这个 getaway 的 配置 local, 这个直接默认就可以了。然后选择 model, 这里是配置模型的, 因为它原声支持很多模型,但是呢,我们用的是 code plan, 所以 我们直接选最下面,下面有一个叫做 customer provider 这个选项,选好之后,这个 api base url 就是 刚才我们复制的。把这个 url copy 进去, 好回车,接下来它需要 api key, 然后我们再把 api key 复制进去, 接下来他会问你是兼容哪一种模式协议,那么我们刚才使用的是 open ai 的, 所以我们就继续选择 open ai 的 这种兼容就可以了。 接下来 model id 就是 刚才我们选择其中一个模型的名字,一定要用复制好的这个 model id 填进去,不要填错了,这里我们直接填的是 kimi 连五, 好回车它就开始验证,看到验 refiification successful, 那 就通过了。好,后面有个 anonote id, 这里呢,因为我用的是阿里,所以就直接叫做百炼, 你也可以去根据你的 coding plan 里边看一下它的 endpoint id 是 啥。最后呢,是让你填写这个模型的别名,刚才我们是 kimi k 二点五,那我们这里的模型我随便取个名字就叫 kimi 二点五,当然你不填也是可以的,就空着也可以,然后这样模型就配置完成了。 continue 好, 最后把这个网关重新启动一遍。 open cloud restart getaway restart open cloud getaway restart。 好, 网关启动成功之后,我们可以先进入到 open cloud t u i 这个命令,进入到一个 t u i 的 界面,这个界面可以快速验证和它模型开始对话,跟龙虾开始对话, 问一下 hello, 看他是否有反馈。好,他回答我们了,那证明配置是成功的,那么你也可以看到,在这个右下角显示了是 k m 二点五, 那我们再问问他,是不是真的用了 k m 二点五这个模型。 哎,他反馈了,用的确实是 kimi 二点五。好了,这样的话呢,你的 coding plan 就 部署到云端了,那么接下来呢?因为 coding plan 里面支持好几种模型,那么我们如何把其他的模型也配置进去呢? 你可以看到啊,在一些 coding plan 里面的文档里面啊,它会告诉你配置这所有的模型,它会给你一个接收文件,你把这个接收文件啊全部给拷贝下来, 包括这个简短的说明啊,都可以一起考。然后把这一段全部丢给刚才这个模型,告诉他,你说请按照这个文本这段话,把这个所有的模型都配置进去。 好,接下来我们的龙虾就根据你提供的文档自己配置其他的模型, 这块要花点时间。当然了,这块除了在 tui 里面,你也可以在 web ui 里面,或者是你的飞书已经配好了,你甚至在飞书里面跟 openclaw 去对话,把这一段对话全部丢给它都好。最后配置完成,它自动重启了网关。 好,我们可以看到这个网关全部都已经更新了,配置也都更新了,我们再来跟他确认一下。先问一下, hello, 看他是不是有反馈。好,他有反馈,他并且告诉你,哎,我这些模型都已经配置成功了,那我们来尝试一下换一个模型,那么这里我们会换 mini max 二点五吧, 直接跟他说,请帮我们把模型更换为 mini max 二点五, 看它是否能更换过来。 诶,成功了?好,你再确认一下,看它是不是真的成功了。好,这里面右下角已经显示了它是用的 mini max 二点五。那我们再问问它是不是真的 啊?你现在用的什么模型?看它的反馈啊。他说,我现在用的就是 mini max 二点五。好,这次 coding plan 就 全部配置完成了,大家看看还有没有什么其他问题,欢迎在评论区交流。

ok, 大家好,我今天给大家分享一下腾讯云部署 opencloud 以及对接飞书的整个应用的股权过程。我们新手首先登录腾讯云,在这里我们直接搜索 opencloud, 在 opencloud 搜索界面之后,我们这里有两个,一个是云应用一键安装,一个是轻量服务器,我们推荐大家选轻量服务器,点击立即选购,直接就会跳出来 轻量应用服务器,这里的 opencloud 的 应用模板选择 opencloud 的 应用模板选择地域可以选择亚太地区,选择套餐类型,直接选择入门型就行啊,相对来说一个月会比较便宜,新手大家可以先试用一个月, 在这里我们直接点击立即购买。如果说您是首次购买轻量服务器,在这里登录立即购买的时候是需要进行实名认证的,我们其他的都不用选,直接去立即购买就可以,这里忘了选择,我已同意立即购买, 他就会跳到一个订单的一个支付界面,我们去支付,先实名认证再去支付就可以了。那假设我现在已经买完这个服务器了,我们就可以回到控制台 啊,控制台这里我们点击清亮应用服务器,就会跳到我们刚才已经购买的 open cloud 服务器这里。那在这里我们相当于给 open cloud 已经买到了一套房子,也就是我们的腾讯云。那接着我们要给腾 open cloud 安装他的大脑以及安装他的嘴巴,安装大脑也就是我们大模型这里 我们选择应用管理,在这里,因为我已经装好了一个小龙虾,目前我的小龙虾是用的呃 deepsea 的 大模型和飞书的应用,那在这里其实也可以推荐大家用别的模型,比方说我们选择这里有模模型的计划, 有 cookie plan 和这批 api。 选择模型 api, 这里面有非常多的模型的选择,比如说千问、 deepsea、 mini max 等等。那比如说我们选择 mini max, 接着会让你输入一个 api k, 那 这个 api k 我 们从哪里获得?点击这里,它会有一个自动跳转到 mini max 的 开发。呃,开放者平台,在开放平台这里,你首先登录之后进来就会有这样的一个界面,它默认会有一个 api k 的 一个呃,界面,那不是复制这个 api k 的 密钥,而是要给它创建 tok。 创建 token 相当于我们花钱购买了 emax 的 token 值。我们可以选择一个比较便宜的,先试用一个月,连续包月往下拉,会有一个每天五百次的一个调用,直接立即订阅 好确认支付就可以了。在确认支付我们就支付宝扫码支付就可以了。假设我这边已经支付完成了,支付完成之后,他会在刚才我们进来的首页这里会有一个呃, tokun plan 的 密钥,跟这个样子有点像。点击 tokun plan 的 密钥,我们点击复制, 回到我们轻量服务器这里,把那个 tokun 的 那个密钥给它复制进去,添加应用就可以了。那怎么判断我们的模型有没有添加成功?像我这里, 那他如果是绿色的应用中,就说明他已经配置完成了,这是给小龙虾先配置模型。那第二步我们接入飞书。怎么接入呢?其实现在飞书接入会比我之前安装的时候简单很多啊,我们直接选择飞书,有一个快速配置,在这里有一个前往授权之后,他会出来一个二维码, 我们需要用最新版的飞书去扫描这个二维码即可配置成功,这是第一种方式。这个飞书的应用需要是个人的一个企业,我们直接扫码就可以配置好它的应用,这是第一种方式,快速的配置,手机上装最新版的飞书即可。 第二个方式,手动配置,它要填飞书应用的 app id 和 app secret, 在 这里去添加,怎么去找这两个数据?我们直接点击查看详情,就会跳到飞书的开放平台,在开发者后台这里, 我们可以选择自己的 open cloud 去填写它的,去找它的 app id 和 app secret, 那 在这里直接复制就行, secret 也是直接复制,制好之后,我们把它填到这里添加应用,判断它是否添加成功,也是 添加运行中就可以。那这里 scale, 我 们可以先先不管它,直接它会默认带几百个 scale 供我们应用。 我们回到飞书,在飞书这里,我们直接如果扫现在最新版的飞书啊,直接扫码之后呢?它直接安装成功,就会出现一个 open call, 那 需要强调的几个点,因为我现在已经配置成功了。需要强调的几个点,第一个,如果报错,大概率是你的模型配置有问题,也就是这里你的 api k 选择有问题,我们 不断地去重复,去调整我们的 api k, 这是第一个。第二个,很多人想说自己配完之后,在这个 飞书上找不到 openclaw 这个机器人,那怎么办?我们其实需要检查一下你的飞书是不是最新版,如果不是最新版的需要更新,更新之后我们直接去在这里去添加应用,在应用这里会有一个添加自己常用的应用,会有 自己新增的这个 openclaw 的 一个机器人就会出现,可以去选择以上这个 openclaw, 用腾讯云安装接入大模型和飞书的一个操作流程。

这期我们给 openclaw 接上大脑,我们用的是阿里云百炼的 coding plan, 里面包含了宽三点五 plus、 kimi、 glm 等八个模型,几分钟就能跑通。 首先进入到 openclaw 的 安装页面,具体怎么下载,网上教程很多,这里不再赘述。接下来就是安装向导,输入命令 openclaw on board, 接下来按方向键选择 y e s 回车,引导方式选择手动 回车。接下来设置为本地网关工作区目录,直接回车,下面选择模型厂商,我选择下面的阿里云百链回车。认证方式,选择阿里云百链的 coding plan 回车。接下来要获取 coding plan 的 api key, 打开云百链的控制台,登录进去, 找到 coding plan 的 我的订阅,下面复制以 sk 开头的 api key, 复制好后右击粘贴到向导里回车。下面需要选择模型, 我先选择的是第一个宽三点五 plus 回车,接下来一直默认回车, 直到提示是否配置聊天通道,先不配置选择 n o 不 配置技能起用钩子,这里按空格选中暂不配置回车,这里安装网关服务 回车。接着再回车,这里就基本配置完毕并进行对话了,这时需要多等一下,首次启动网关需要等一会就能对话。下面接入剩下的七个模型,在阿里的 callin plan 网页 把剩下的七个模型名称复制一下,在对话框输入,把阿里云百链的这些模型添加进来,并保存至 open claw json key 与主模型的 key 一 致,然后把刚才复制的模型名称复制进去发过去,等待片刻就会提示你已经添加到 open claw 点 json 里。 这里一定要强调两点,一是要写进 openclaw 点 json 文件,二是要表明和主模型 api key 一 致。下面输入命令,验证模型是否真正添加进去。 打开 power shell, 输入 openclaw models list, 现在显示的列表里有八个模型代表添加成功。

养虾人实测三组数据,传统方案一句指令消耗二十万, to 肯花费零点零八元,优化后直接砍到零点零零二元。这个 colding plan 让成本立降百分之九十,三天实测从每天十二元压到一点三元。 支持豆包、 mini max、 kimi、 智浦、 deep seek 主流模型,也支持 open claw、 tray、 cursor 等主流工具。跟着我做,一共四步,第一步,订阅 light 套餐。 第二步,创建你的 api key 确认模型。第三步,以 open cloud 为例,把 api key 和模型名称填进去。第四步,在终端执行配置命令,然后你就可以直接跟他对话,一点不用心疼偷啃消耗了。流程已整理好,留言分享。

我觉得现在最适合用这个 oppo 靠的模型呢,实际上可能是阿里新推的这个服务啊,这个东西叫这个扣丁不烂是吧?呃,为什么呢? 就之前吧,就是续费了好几个这种模型,然后呢?你续的不多,但它其实用量还挺大的,你看昨天晚上我就大概一个小时,我就把 kimi 的 那个十五元的 top 的 额度也就一个小时我就用光了。 我算了算,调用其实也不多,但是因为你在欧风靠的调用和你日常对话的调用是不一样的。今天我想打算试试这个阿里云百炼,简单说一下这个东西怎么回事啊?他其实就是把几个常见的这个模型给打包了,打包了以后有一个专属的调用地址和专属的 api, 来看一下它的指南。它是这样的,整合了这些顶级模型,然后还兼容主流的编程工具,就比如说我们 用的那些 id 类类的工具哈。如果你要是正常调用,他有的时候会限制速度或者限制这限制,那如果你一定想使好的模型,要么你去买会员,要么去升级,是不是他通过固定的费用?其实我算了算,应该是还是挺便宜的,虽然不至于到这个可调用的一折,但还是挺便宜。 然后它现在有几个基础的模型啊?这个千万三点五过年的时候推出的,很牛。据说啊, kimi 呢,也是刚推出不久,然后 mini max 当时那阵刚推出的时候也火了一阵。 glm 那 个五现在可以对标,他说可以对标那个叫什么来着,那个很牛的那个。 然后它有更多的就是千万三的 max 模型,这也是版本挺新的,二六年一月二十三号的,然后加上这些小模型啊,这无所谓,就是我们理论上如果你的调用次数差不多,那么你根据你的任务来选择不同的有特色的模型就可以了, 尤其是千万的这个和 kimi 的 这个都支持。图片理解费用上啊,首月七块九,其实你看的挺便宜,对不对?然后这个高级套餐呢,是三十九块九,就真的是特别便宜,但是价格上你看啊,首月七块九,次月呢是二十,也就是说他的正价是四十块钱,第一个月呢是便宜,然后第二个月呢是五折,第三个月就是正价。 呃,我猜两个月以后可能在这种东西上可能会有更多的爆发。呃,其实现在我我印象里火山就有这种类似的这种打包的这种服务,但是呢,一呢他的价格不便宜,二是他好像我查了查,他没有明确的说他支持那个 oppo 扣,这个呢是明确的说了他支持这个 oppo 扣,然后即使是最贵的这种 两百每月,那也真的是不算贵,因为你如果真的深度用了,你把两百的额度都用光的时候,那我认为你值得在这个上面花更多的钱。然后那个那天我还看到论坛上就有一个人说我除了租房子吃饭和日常开销,我把所有的钱都用来买陶坑上,哈哈哈,其实这是很有意思一件事啊,我觉得真的挺贵的。 我,我查了查我的用量限制,我觉得我用的不算多,但是其实也不算少,我其实在很多工作上都是在在那个詹妮的那个网页上去完成的,因为很多时候你要做调查呀,做一些文本的生成啊,那些东西他那个 pro 的 版本就完全能搞定了,因为我有个 pro 的 版本,但是如果按照他这个标准, 每五小时一千两百次请求,我现在是达不到的,但不知道我买了这个套餐以后会不会达到哈,我回头再测一测。那我认为新手呢,你就花七块九加上二十块钱,先用两个月, 对吧?然后当你发现不够的时候,你去升级那个就可以了,你就直接干到二百一个月呢。其实也没啥,二百块钱一个月也就是个电话费吧。我现在已经买完了, 买完了以后呢?他现在剩余天数二十八天,我不知道他为什么是二十八天,明明买的是一个月对不对?这个是不是他的 bug 按照当月天数计算的?那你们要不要搞到下个月再买二十八天?你看他是按照这个算的,上个月的二十六号到下个月二十七号对不对? 这个就不对了,这个非常过分啊,明明是一个月,所以我打算提前使光呢,呵呵。然后我们获取了这个东西啊,它有专属的 api key, 然后呢,怎么配置啊?这里面说明,我们来找说明配置, 看 open 框中配置这些东西,实际上不要被它这种东西吓到,如果你的 open 框现在正好用的状态, 你就把这段命令考下来。怎么写啊?我这就写了,我现在咱说说怎么配置哈,就首先呢,第一步就是修改配置文件,哪个配置文件呢?就是这个东西啊,但是呢,我们在 open 里可以直接跟他说,这是我上面已经配置完了,我重新演示一遍怎么配置,就跟他说修改配置文件啊, 然后呢?把这句 copy 过来啊,这这段啊,把这段 copy 过来,然后你可以把你的 apk 呢替换到这,我懒得打码,我也就不替换,放到这。然后呢?就这样呢,这个命令就搞定了,你回车, 回车以后就是我刚才的配置,那我已经配置完了,他现在就告诉我有这些可以用的了,然后同时它底下呢,还有一段,你可以直接考过来, 然后站到这,然后回时它就会自动把你这些东西都改好。看到没变更的载药就是什么呢?它其实就是告诉你默认模型变成这个,主模型 变成这个,然后移除了原先的什么什么,这些,就移除了原先其他的所有模型,然后把其他都移除了,我还有钱在里面。其中我认为比较好的几个,特别好的四个主流四个模型就是 kimi 的 二点五,对吧? g m m 五, 然后迷你 max 的 二点五,这个也不错,迷你 max 二点五。我发现他好像在写程序上更有优势。也是这样的,我的感受上啊,因为他的代码他理解的更快更好。然后这个是个多模态模型。嗯, kimi 应该是多模态吧,我记着这两个是多模态模型,如果你需要用到图片处理,尤其是处理本机的图片的时候,这两个模型非常好。 到了这步你的七块九已经发挥作用啊。至于接下来怎么用,那其实还是靠大家去想象。我之前因为这个模型的用量问题,我现在想都给他背地里的任务, 我现在都给他加回去,加回去以后我看看他这个调用的数量到底能撑多久啊?我每天会监控他的用量,我把他这个用量记进去吧, 非常好。我觉得整体来说这下就算完事了,至少我这个月应该不会特别为掏坑的续费吧?因为每次他如果出问题的话,你很难发现,除非你里面充特别多的钱。

好,朋友们好,本期视频我们一起来看一下如何部署腾讯最新开源的一个翻译模型,就是这个混元 mt 七 p 大 模型,那这款模型也是曾经在国际翻译比赛中夺冠的一个模型,下面我们一起来看一下如何去部署。 今天我们使用的是 facialize 的 这个算力方块平台,这个的话是专门为机器学习研究者打造了一个相当于一个算力平台吧,我们可以通过这个平台去完成整个的部署工作, 包括任何高薪人的工作都可以使用这个平台,那比如说像机器学习对吧?像大模型的部署和推理,还有类似的这个 comfort ui, 这些热门的应用都可以直接在这个平台去操作, 因为它预装了 docker, hansen, transformers 这些基础的环境,而且呢还有丰富的这个数据级管理,所以可以说是相当的方便哦。那这一次我们就以部署这个腾讯开源的混元翻译模型为例,好吧, 首先呢我们需要完成注册,那整个流程也非常简单,我们需要复制评论区的这个专属链接,这个链接呢它是可以配赠一百 g 的, 这个云盘额度还是比较方便哦,那你复制链接呢?打开浏览器,这时候我们点击右上角的开始使用,然后输入我们的手机验证码,就完成了整体的注册。 好完注册之后呢,接下来我们就可以进入平台了,可以看到这里有非常丰富的这个算力资源啊。这里呢我们选择租用一个 rts 四零九零的显卡,因为我们这个模型属于小模型,其性能要求并没有那么的强制啊, 那所以呢,我们可以看到,对吧?它拥有这个高性能的计算资源,我们选择好对应的这个实力,然后呢选择好对应的这个镜像, 注意看这里,其实他的所有的这个显卡的实力呢,都是已经帮助你安装好了预制的环境的,并且呢我们在创建实力环境的时候,还可以选择去自定义我们的镜像,就拿最近很火的 openclaw 小 龙虾来说,我们可以选择这个镜像,然后开始创建, 这时候就会根据我们当前选择的镜像去创建对应的实力环境,可以说是相当的方便哦,好,我们的实力启动后呢,我们可以使用 s s i 去连接一下这个服务器,那这里要提供清晰的我们的用户名和密码,我们只需要复制一个命令呢,就可以直接对它进行连接 内容,像 cursor, pacham 和 vs code 都可以直接连接,那这里呢,我就以这个终端为例,好吧,好,登录成功之后呢,首先第一步我们需要去下载这个回原大模型,对吧?那首先呢,第一步我们肯定是需要把这个模型给它下下来, 那下载模型呢,我们一般会从 hack and face 上去下载,这里呢,我们首先需要执行一条这个 hack and face hap 这么一个库,对吧?将这个库安装一下,通过这个库呢去进行安装好,我们安装完成之后呢,再设置一个国内的镜像,这样可以帮助我们快速的去实现下载 好,这时候我们可以看到就可以正常的去哎,配置好这个镜像之后,我们就会正常去拉取模型了,那首先我们既然有模型,对吧?那我们肯定是要哎把它放到一个位置,对不对?所以我们需要创建一个目录,然后创建好这个目录之后呢,给它加个权限。 那我们创建好这个目录之后呢,那我们再来查找一下,刚我们下载是不是成功了啊?我们可以看到,对吧?这个目录确定是下载成功了,那我们通过这个哈根斯坦林这个命令呢,去下载一下这个模型啊,下载到指定目录这里呢,注意的是我这里呢使用的是七 b 参数 f 八精度的版本,这样的话就可以既保证这个翻译的质量, 又可以降低这个显存的占用,可以说是呃比较好的一个呃参数吧,大家可以跟着我的参数来。好吧,那整个模型下载完了之后呢,接下来呢我们就 就可以直接进行环境配置了,那配置的环境这里的步骤非常关键哦,就我们的是 federate 这个平台的优势就体现出来了,因为它 federate 内置的 control 工具,它就相相当于已经帮助我们配置好了这个基础的环境,那我们只需要执行这种工具性的操作就好了, 比如说像我们在创建这个康大环境,对吧?创建一下我们这个还原的这个环境,创建好之后我们再激活环境,最后我们再安装一下这个模型训练的这个 transform 的 库,安装好之后我们再安装一个 大模型的需要的库。好,那我们将这两个库安装好了之后呢,那我们就可以去启动模型了,那这里可以给大家简单讲解一下这个大模型这个库,这个库呢是用于高性能推理启动的,它能够大幅提升我们模型的这个推理速度。 我们配置好了这个环境的这库之后呢,就可以去启动这个模型服务了,那启动模型服务的目的呢?就是可以让任何人都通过 api 的 方式啊,去和我们这个模型交互,就相当于我们刚刚进行的,对吧?啊?模型的这个下载又进行了模型的这个前置环境的配置, 对吧?那这里呢?啊,好处是我们不需要额外去下载了,他已经帮我们配好了,我们只要执行命令就可以,是不是非常方便,对吧?那啊,这个时候我们可以看到已经启动起来了,启动起来之后呢,这时候我们嗯可以直接通过 python 去执行一下这个 我们的这个训练好的这个模型,对吧?然后我们启动好启动之后我们可以看到,对吧?看到一个这样的八线端口,这时候我们再新开一个终端来测试一下它的翻译的这个啊,是不是正确,对吧?我们通过 cl 请求 可以看到,对吧?整个指令还是非常清晰的,我们通过这样的方式呢就训练好了我们的模型,可以看到是非常的精确,而且翻译的工作也是做的非常的准确,对吧?这就证明我们确实部署成功了,那你也可以尝试去测试这种哎,像英语翻译成中文或者长文翻译 都可以使用这个,而类似的模型再也不用去调反锁的 api 的 操作,对不对?那通过这样的方式,而且呢他不费 token, 我 觉得这是一个比较合理的方式。 好吧,那总结一下飞趣来着呢,平台有几下几个核心的优点,比如说像高级人的 gpu 资源,对吧?那飞趣来着呢?它其实本身来说,哎,是不需要让你排队的,算定的比较稳定,那像刚刚我们整个大模型训练和推理, 那效果基本上是秒出。第二个就是我觉得就是它内置了一些环境,比如说像 python, conda, docker, 那 其实 transform, 还有这些我们常用的这种啊,论文附线的这种环境,它基本上都有这种选项,给你 付费方式也比较灵活,开箱即用,你根本就不用担心。哎,我花了一个时间,对吧?那你这个安装好环境了,你就停掉了,是不是根本就不用担心?你不需要了,你可以直接把它退还了,那你再重新用一张,对不对?那非常的方便。那其实我用这个平台用了很长一段时间了, 我们可以发现,对吧?那其实它有一个专属的福利,就是你直接完成学生认证之后呢,就可以获得一个 rtx 四零九零的这个九点九元日租卡一张,对于论文复现呢,可以来说是妥妥够用的。用户呢,目前首充五元就可以获得这个 rtx 四零九零的一小时体验。 自己在嗯,去复现这种论文的时候,发现最大的问题就是容易被环境所困难,后面也是偶然间发现这个飞出来的, 他的部署是真的便捷省心。好,那视频最后我想说,无论你是想部署大模型的开发者还是研究者,对吧?非常 nice, 这是一个极具性价比的选择。好,那就是本期视频的全部内容了,我是小刘,我们下期再见。

昨晚,智普突然扔了个大招,距离 glm 负五发布才一个多月, glm 负五点一直接杀到编码能力暴涨百分之三十,得分从三十五点四直接跳到四十五点三。 cloud op 四四点六,才四十七点九,差距已经肉眼可见地在缩小。六个月前,这个差距还是十几分,现在只差二点六分,达到 cloud op 四四点六的百分之九十四点六。在实际编码场景中,这个差距几乎可以忽略, 有人甚至说应该直接叫 g l m 负五点五。还有用户测试发现, g p t 负五点三都没搞定的问题, g l m 负五点一直接解决了。看数据, s 大 愈减, bench verified 得分七十七点八,开元模型最高 turmnobench 二点零,得分五十六点二,超过詹姆奈三点零。 pro 擅长复杂系统工程和长城 agent 任务使用体感逼境 cloud opus 四点五,这是目前国产编程模型的天花板。说价格, cloud opus 按量计费每百万 token 大 概十五到七十五美元。 g l m 负五点一,通过 coding plan 使用 light 套餐,三美元起步,按量计费每百万 token 只要一元, 用 cloud 十分之一的价格,获得百分之九十四点六的体验。使用方式超级简单。如果你已经在用 g l m coding plan, 只需要找到配置文件,比如 cloud code 的 sighting store js, 把模型名改成 g l m 负五点一就行了。 一行配置无缝切换,支持 cloud code、 cursor、 open cloud 等主流。 coding agent 质朴也很坦诚,说了两个现实问题,第一,高峰期可能限流, 每天下午两点到六点,系统负债最高,编程任务会被优先保障,非编程场景可能会排队第二。高峰期消耗三倍额度,非高峰期只按一倍抵扣,建议错峰使用,体验会好很多。重点来了,现在到四月底, g l m 负五点一 在非高峰期只按一倍抵扣,这个福利期间用起来超级划算。三美元的 lite 套餐,日常开发完全够用。 pro 和 max 套餐适合重度用户,发布几小时内已经大量用户上手体验, x 上好评不断。 有人说稳定性比 g r m 负五好很多。有人说长链路 a 阵这任务终于不崩了,从三十五点四到四十五点三的百分之三十暴涨,不是吹的,是实打实的工程能力提升。如果你是国内开发者,不想翻墙用 cloud, 又想要接近 opus 的 编码能力, g l m 负五点一目前是最佳选择,尤其适合复杂工程任务和长城 a 阵开发。 g l m 负五点一国产编程模型的天花板编码能力直逼 cloud, opus 价格只要十分之一。邀请码在评论区点赞加关注,赛博杨千焕明天见!

我发现还是有人不会部署 openclaw, 今天一期视频就讲清楚 openclaw 的 部署方法和使用方法。 openclaw 是 有本地部署和云端部署的,那我们应该选择哪个呢?首先云端安装的步骤比较简单,你不需要懂代码,虽然本地的也很简,但是本地还有,这除了安装方式之外,还有就是说权限的问题, 小白不懂代码的话,有一些权限你不懂的安全隔离,我们的一些隐私有可能被 opencloud 获取到,或者是有其他的一些安全风险,所以我建议大家先从云端开始来,那云端又有腾讯云、阿里 云等等这几个云服务场上都出了自己的一键部署小龙虾服务器,今天我拿腾讯云的举例子,今天我就先介绍一下云端部署的方法,下一篇我会介绍本地部署以及其他宝藏的文件的配置,它是怎么样 去养的,下期我会深度的去拆解一下。首先腾讯云上部署,首先打开腾讯云的官网,这个地址登录,先买一台服务器,我们打开腾讯云的官网,首页就出现 opencloud。 云端一键部署,我们点击立即体验,点击立即体验之后有个立即部署我的个人助理,点击点击这个立即部署我的个人助理 三步点击完部署之后,会让你选择服务器买这个就行,而选择立即购买,你这都保持默认就行,然后支付,支付订单就行。支付完了之后,来到清亮云服务器的页面,来到这个页面,点击这个服务器,它已经把那个 opencloud 给你部署好了。 点击这个服务器来到应用管理,这是应用管理的页面,然后在下面去配置模型通道,你就 china, 我 们是要接飞书,还是接 whatsapp, 还是 discord, 还是微信啊等等,都可以接,包括 skill, 然后我们就来接飞书。首先打开飞书的开放平台这个网址,这个是已经登录的状态哈, 打开这个网址,点击创建企业自建应用,点击这个蓝色按钮,填写应用名称,应用的描述,点击蓝色按钮创建。 创建完了之后,然后第二步,你先知道这 a p p id 和 a p p secret 的 位置,再凭证基础信息,知道这个位置之后,待会儿我们复制,然后我们先来配置权限,点击权限管理,点击,点击这个批量,然后把下面这个代码完全复制,因为这个开通权限非常多,一个手动开通的话就太慢了, 所以大家直接粘贴我给的这个代码,直接导入就行,然后这个代码的话三连这个视频找我拿,导入这个位置,粘贴好这个 jason 代码之后,点击蓝色按钮确认添加。添加完全件之后,第四步,开启 机器人能力,在应用能力这块添加应用能力,机器人这块选择开启。第五步,开启长链接,在这个页面点击时间与回调,然后这个订阅方式,点击这个编辑的图标,然后选择长链接,点击保存, 把下面这几个时间添加机器人进群,机器人被移出群,消息已读,接受消息这四个添加,然后确认。 然后第六步,我们发布应用之后,我们对机器人做了任何修改,添加权限或者是其他的一些修改,你发布了之后才会生效。 左侧这个菜单,点击版本与管理。第六步,在非书开放平台的版本管理与发布,这个位置点击创建版本,点击完了之后 会让你填写版本号,然后写一点零,点零可以加上这个机器人的描述,往下滑有一个保存,点击保存,点击发布。如果你是个人的飞书的话是秒通过,如果你是组织的话,那可能需要组织去通过一下。第七步,在 opencloud 里面配置飞猪。我们在飞书创建完机器人应用了, 然后我们需要获取到这 app id 和 app secret。 我 们创建完企业之后,我们需要把飞书和 opencloud 关联起来, 关联的凭证就是 a p p id 和 a p p secret。 我 们来到凭证基础信息, a p p id, a p p secret 这块一会要粘到我们的服务器里面,配置上 channel, 我 们回到腾讯云服务器,在第二个通道点击聊天软件 qq, 选择下滑,选择非输,在这里输上非输的 a p p id 和 a p p secret, 然后添加并应用,然后你下面就会出现非输的这个通道,显示绿色的。现在非输 oppo 卡号就打通了,但是现在还没有配大脑,没有配模型。 好,我们先来配模型,我建议大家选 coding plan 的, 因为太费头肯了,我之前用的是 openroot, 我 用的是 cloud 模型,烧,我每天烧的太痛了,太贵了。配置是 kimi, kimi 太慢了,回复得也慢,经常还会有 a p i 数据限制。后来试了个 mini max 的, 速度还不错,而且也不会有那个限制什么的,所以我非常推荐 mini max, 所以 大家直接闭眼入这个就行,我已经替你们踩过坑了,打开这个网址,注册并登录往下滑选择计划,我选的是这个四十九的套餐,买完之后我们回到这个 mini max 的 开放平台,这块是有个 tokenplay, 我们点击这个投屏 pad, 如果你没有 a p i k 的 话,点击创建,如果有的话直接点击复制就行。然后我们回到腾讯云,在这个模型里面选择 mini max, 选择完 mini max 之后,你这块都是默认的不要动,然后在这里面填入 a p i k, 然后添加并应用, 然后你的 mini max 就 成功配置了这个小三角,点击有不同的模型,我们直接选最高的二点七的就行,默认就行二点七,现在的话我们就可以在飞书上跟 oppo pro 对 话了。小龙虾本身它没有太多的技能, 比较强的是它的 skills, 所以 我们需要给它安装上很多很多技能,这样它才能帮助我们干很多事,比如说刚刚安装好的小龙虾,它也没有什么浏览器的功能,或者不能帮我们抓热点什么的,需要我们配置 skills, 所以下一期我就会分享这些 skills 以及这个 skills 的 一些构成,包括 openclaw 的 一些心跳机制啊等等。我们必须要了解的是 openclaw 是 怎么样才能把它养强,下期我会着重从 agent 记忆系统、 skill 仓库等这方面去分,让大家把龙虾越养越强,越来越能帮我们干更多的活儿,帮助我们省更多时间。

随着 open core 的 爆火,调用大模型所花费的掏根数也随之水涨船高,如果你还在用 api king 的 方式,那么离破产可能只差几句话了,因此我做出了一个违背祖宗的决定,给大家带来国内四家平台 cookie plan 月套餐的对比。首先出场的就是我们的 mini max, 然后就是 g m l 智谱, 然后是火山引擎,最后就是我们的阿里百链平台。介绍完了这四家厂商,接下来就来介绍一下我们的规则说明。 我们仅以四家平台的月 coding plan 套餐作为对比,记住是月而不是季度或者是年。然后就推出我们的换算规则,换算规则就是一 p 等于十五次模型调用, p 就是 promote, 一 promote 就 相当于你使用 coding plan 套餐完成了一次完整的调用,而一次完整的调用在模型后台可能被切成了十几个任务, 有读取上下文,提出建议,修改建议,调用工具之类的就会非常的复杂。然后官方为了简化计费计算,就统一把这十几次连续的模型调用打包成了一次 promote。 然后我们再来介绍它的额度限制,它有第一种就是五个小时限制,一次额度就是你每五个小时达到了它的调用上限, 它就会限制你调用,然后直到这五个小时过去,然后它会再刷新额度,然后就可以再次使用,然后一个月就是这样一直重复。接下来就是周总额度限制,就是在五个小时的额度限制之上,你每次花费的 token 在 一周内累计不能超过它一周内的总额度上限。 然后就是月总额度,在周总额度限制的前提下,每家你每周所使用的额度不能超过一个月的总额度上限。如果你超过一个月总额度上限,那么你这个月就不能再用这个套餐了,因为它已经额度用满了。最后我再来提一下,我们的月是按每个月三十天来计算的。好了,接下来就介绍一下我们的第一家平台 mini max。 mini max 我 们看一下它是有六种套餐的,我们先来看最下面三种,从 star 每五个小时掉,我们的 promax 数也是逐渐长高的。 然后再看上面三种,有 plus 极速版到 ultra 极速版,它的价格也是这样递增的,然后它每五个小时可以调用的 oppo 的 次数也是在递增的, 但是它多了一个后缀就是极速版。极速版就是相对于下面三种套餐来说,它们模型的调用速度快了不少。然后我们总结了上面的价格和每五个小时的额度限制,我们就统计出了这样一个表格, 因为 mini max 只限制五小时额度,所以我们就通过一周大概等于三十三点六个五小时,推算出了它的周最大额度上限。然后我们再计算出一个月等于一百四十四五个小时,可以推算出它的月额度最大上限。 因此我们整理出了这张表格,然后就是它支持的模型定有 mini max 二点五、 mini max 二点一和 mini max 二。然后我们再来看第二家智普, g m l g m l 是 有三种套餐呢,只有 leader pro 和 max 版本。智普也是在国内 callenplan 套餐中它是最抢手的,每天早上十点钟刷新,你去看一看,其实很快货就会被抢空了,也不知道为什么,难道是饥饿营销吗?然后我们来继续往下看,相比于 mini max 的 每五个小时只限制一次额度,它增加了一层规则,那就是周额度上限。 既然有了周五的双线,因此我们可以算出每个月大概有个四点三个周,我们可以得出大致的月利润最大双线。然后我们再看它支持的模型,它 leader 套餐不支持 gm 幺五模型,然后其他所有套餐都支持 gm 幺五和 gm 幺四点七及其所有的历史文本模型。 接下来我们再来看第三家,也是我们的火山引擎,也就是豆包,它只有两种套餐, leader 和 pro 套餐。然后它跟前面两家比的话,不一样的就是 它不采用了 promote 来计数,它采用的是模型调用次数,但是在它的文档中也说明了它每一次调用也会花费大概十几二十多个不等的调用次数,所以我们也可以 理论上给它计算回来,这样就得出了每五个小时然后周额度和月额度的 promote 次数。然后可以看到它支持的模型是 豆包二点零, coder, 还有豆包 coder, 还有 g m 幺四点七,然后 d s c v 三点二,还有 kimi 二点五,支持的也是非常多。然后再看最后一个就是阿里一百链平台,它的套餐是和豆包其实一模一样的,然后它的收费标准还有额度上限都和豆包是完全一模一样的, 它两个不愧是相互对标的模型平台,搞的套餐都是一模一样的。然后再来看它支持的模型是千万三点五 plus kimi 二点五, g m 幺五 和 mini max 二点五,还有千万三, max 还有千万三, codenix 还有千万三, codenix 还建妙四点七,所以从模型的角度上来说,它还是略胜火山引擎一筹的。 我们介绍完了四个平台,我们再看下全平台的性价比对比。我们的性价比对比,采用它每个月理论上能调动的最大蓬勃的次数, 除上它的价格,我可以算出来多少 promote 美元,这样我可以计算出它理论上最大的性价比。然后我们可以看到,在这个排名中, mini max 家族可以说是遥遥领先,垄断了第一的位置,接下来就是我们 g m l 垄断了第二的位置,接下来就是豆包和火山引擎 并列第三名。好吧,这究其原因其实也很简单,因为 mini max 平台它只限制五个小时的调用额度, g m l 平台只限制一周的调用额度, 火山引擎和百联平台限制了一个月总额度,所以从理论上极限来计算,那么必然是限制越少,它理论上调用的次数就越高,所以 mini max 领先于 g m l, g m l 领先于火山引擎和百联平台。然后分析了极致性价比之后,我们再来看模型丰富度对比, mini max 中只有支持它的 mini max 的 三款模型,智普只支持它的 g g m l 家族, 然后火山引擎的话就支持豆包还有 deeptech gm, 它都支持。最牛的就是百炼平台了,它有八款模型,分别是千问系列,还有 kimi gm 幺五, gm 三七。 mini max 二点五,它可以说是把过年以来国产最好的四款模型都集齐了,也就是 我们的千问三点五、 plus kimi 二点五、 gm 幺五、 mini max 二点五,这可以说是过年以来最好的四款模型。 从模型丰富上对比,我们的百例平台有八款模型,我们的火山引擎只有五款,仙妙的话只有三款, 还有迷你 max 的 话也是只有三款。从模型丰富上对比,我们的百例平台遥遥领先。说完了模型丰富度和我们的性价比,接下来我们就推荐一下。推荐那当然是要为不同人群量身定制的,我们第一个就是为小白新入门的小白人群推荐, 每个月预算大概四五十块钱,我们就推荐他火山引擎和百联引擎的 live 套餐,他足够便宜,而且每个月有一万八千次的模型调用,也足够你入门了。 然后他的模型还很丰富,就可以支持你用多种模型,让你感受一下是不是新手小白,肯定都很想感受一下不同模型的效果到底怎么样,这是非常适合新手小白入门使用。接下来就是追求极致性价比的人群了,他每个月预算大概一百到一百五十元,我就推荐 mini max 的 max 套餐, 它的性价比最高,理论上来说是美元,可以调用三百六十三次 promote, 理论上每个月可以调用六十四点八万次大模型,所以它的价格也适中。然后性价比是最高的,就是最适合追求极致性价比的人群。 然后如果你如果是日常开发者,预算在一百五到两百元之内,那么推荐你用 g m l pro 或者火山引擎 pro。 g m l 的 理论上调用次数还有豆包的都是很多的,而且豆包上的模型也比较多,然后 g m l 五的编码能力也是非常强的,这样就推荐我们日常开发者使用。 如果你是,如果你是 vivac 的 重度依赖用户,那么就肯定是提高你的预算四百到九百了,那我们就推荐你用 mini max ultra speed 或者是 g m l max, 那么调用次数是有着最大的保障,同时还兼具着最最快速的响应速度,这样足够重度用户使用,不仅兼顾了量,而且还有速度,而且因为它有足够大的量和足够大的并发症,所以它还可以支持多团队使用,团队可 能买这样一个大套餐就够一个团队使用,但是接下来我们再看,如果你是一个疯狂的模型体验党,然后呢?预算大概在四百到两百元,那么肯定推荐你是百练的 excel 或者是 pro 套餐了,它有八款模型 可以供你选的,同时还有四款是国内最好的大模型,一站式可以体验多种 ai。 最后一种就是追求稳定额度的,他们就推荐火山引擎和百联引擎, 他们的每个月调用次数都有明确的上限,不像其他平台 promote 计算的模模糊糊,然后它还不会产生多余的额外花费,算是可预算可控场景,适合追求稳定额度的人群。这样一份 cookie plan 保姆级入门教程,你喜欢吗?

mini max 今天上线了一个新功能,发布了一个 skill, 它现在是你订阅它的 token 套餐就能支持全模态。也就是说之前很多人担心的烧 token 的 问题,现在彻底解决了, 不需要调用按量付费的 a p i 就 能实现全模态,这个非常非常牛。 当然订阅了不同套餐,他是有不同的用量限制啊,如果是用了高级版的套餐,他可以每天生成几首歌,然后还有视频 配置也很简单啊,它是发布了一个 skill, 在 这里你只需要复制这个地址,然后去浏览器打开,当然我之前打开过就这个这个 skill, 你 把它给安装上就可以用了。 那我们详细看一下他这个 skill 具体有哪些能力啊?文本转语音生成音乐,还有做视频图像处理, 媒体处理,他甚至能做一些基础的剪辑工作。当然我订阅的是他的基础版的功能,所以我们现在测试一下,让他生成一张图, 看一下效果。好,这里已经生出来了,我们看一下效果啊。白色的马在草原上奔跑,效果还不错啊。那么之前订阅了 mini max 套餐的赶紧去试一下吧,牛逼!

这个抠钉 play 疯了吧,一天只要几块钱?九亿次请求随便用,彻底解决 token 价格贵不够用的问题。 它按请求次数计费,每个月最多九万次请求,相当于十亿 token 的 调用量,价格却只有调用的一折左右。而且每个用户之间互相独立,不会因为高峰期降速,特别适合 ai 编程个人开发者, 支持豆包、 kimi、 智浦、 deepsea 等模型,还支持 cloud code、 cursor、 openclaw 等主流工具。操作也很简单,首先订阅 coding plan, 然后配置,以 openclaw 为例,执行这个命令就完成切换。余量在这里看, 每五小时刷新一次,目前周期内我已经用了百分之十六,再过一个半小时会自动从百分之零开始计,这模型量太管饱了。流程已整理好,需要的朋友留言分享。

最近这个 openclaw 真的 太火了,有人呢把它当成新一代的 agent, 也有人说呢,它本质上还是一个偏工具的 ai 助理。那我一开始呢,也是想抱着试试看的心态啊,把这个 openclaw 装到了本地,但是当我想要去接一下 whatsapp 的 时候, 发现根本连不上,那网上一搜呢,他们这个教程几乎都是清一色的使用飞书啊,钉钉啊, qq 这些,那很少有人去讲这个 whatsapp。 后来呢,我干脆不折腾配置了啊,我直接把这个 opencloud 的 源马拉到我本地,然后呢用 opencode 打开看了一眼,其实上面那个问题呢,并不复杂,改完之后呢,我的这个 whatsapp 也终于是连上了。那于是呢,我有一个想法,就是既然我们的这个源码是可以去更改的,那这个 opencloud 其实是可以被定制的。 所以说这期视频呢,我想跟大家分享一下我最近在做这个 openclaw 二次开发时候总结的一些经验。那如果说呢,你也想把这个 openclaw 变成更懂你的 ai 工具,这期视频呢,应该可以帮到你。 我现在用的是这个摩尔县城的 mtt ai book, 选它的原因呢,其实很直接啊,就是我想要在一台不折腾环境的设备上面,把 openclaw 这种偏工程的工具啊,完整的跑通。那 ai book 呢,它给我的一个感受就是,它把 ai 开发需要的环境直接做到了系统层面, 不管你是拉原码还是后面的配置模型和 skills, 基本上呢,就是开箱即用。那这一点呢,对于我们 ai 开发其实是非常重要的啊,因为像本地变异啊,依赖安装啊,模型调用啊这些事情,如果说环境本身不稳定很容易呢,就把人劝退了。 而 ai book 给我的一个感觉就是很多 ai 开发常用的工具链啊,环境啊,都已经提前给我们准备好了啊,所以说呢,我才可以直接开始干活,而不是先花时间搞这个环境配置。 那这是一个开源的 ai 编程工具啊,因为其灵活好用的特点,受到了广大开发者的一个喜爱,安装过程也是非常的简单啊,谨行命令,执行一下就搞定了。装完之后啊,我们来配置一下这个大模型,那这里呢,我推荐使用这个摩尔县城的 air cooling plan 啊,它这里的一个大模型其实是 gm 四点七, 一方面呢,它是一个国产模型啊,对我们中文提示词啊,工程上下文的一个理解啊,都是很友好的。另外一方面呢,就是背后是国产 gpu 的 一个算力支撑,整体的算力也是比较的稳定。 安装配置完毕了之后呢,我们随便去输入一段话,看到回复就表示安装成功了。接下来呢,我们去到 opencloud 的 这个 gitapp 仓库,复制它的 gitapp 地址,然后来到终端下载到本地啊,现在呢,我们就进入这个项目文件夹,然后用 opencode 打开它, 首先的话呢,我们需要去使用这个斜杠编辑命令,然后这个 opencode 对 整体的一个代码做下缩影,然后建立呢,它对这个项目的一个认知和行为边界 啊,可以看到这个速度还是非常快的啊,不愧是显卡公司对吧,速度体感一下子就上去了。那接下来我们就解决 whatsapp 连接不上的问题啊, 我们描述一下现状,让 open code 找一下可能的原因。 ok, 那 他现在呢,就已经定位到了具体的文件了啊,他说这里的网络请求是没有走代理的啊,这就解释了为什么我们本地是有魔法的, 可以去打开这个 whatsapp 的 外部端啊,但是呢,这个 openclaw 在 配置的时候啊,始终是拉不回来这个 whatsapp 的 二维码,点完之后呢,我们需要去验证一下,直接让这个 openclaw 帮我们去运行这个项目。那注意啊,这里和 openclaw 官网给到的一键安装命令是不一样的啊, 它是基于当前原码进行变异然后运行的。那因为我们这台 airbook 呢,它本身就预装了很多开发工具和套件啊,所以说在变异运行的过程当中呢,大家可以看到是非常的丝滑,包括一些 n p m 包的下载也是很快的。那现在的话呢,它就已经安装成功了。那接下来的话呢,我们做下配置 模型提供商,这里呢,我们选择这个 z a i 啊,然后这个模型我们就选择 g l m 四点七,那这里它需要去填入一个 api key, 我 们还是来到刚才摩尔县城那个 coding plan 的 页面啊,然后我们新建一个 key, 然后回到终端啊,粘贴一下就可以了。接下来的话呢,我们再去配置这个 channel, 那 这里我们就选择 whatsapp。 ok, 那 这里可以看到一个巨大的二维码,对吧?就表示呢,我们刚才 open code 它的一个改法是正确的。 然后呢,我们就用这个手机端的 whatsapp 进行一个扫描,填入 whatsapp 相应的一个号码就配置完成了。后面的这个 skills 呢,可以跳过啊,然后呢其他的一些 api 我 们也直接跳过。现在的话呢,我们已经配置完成了 open cloud gateway, 也是启动成功了, 我们去到这个 web 界面测试一下,比如说现在我桌面上有很多文件,然后我让他去帮我来整理一下,可以看到他很快呢就按照文件的一个类型做了一个规章,还是非常的不错啊。接下来的话呢,我们给他上点难度啊,比如说我们本地有很多发票文件,然后财务呢,让我们去找到上次购买 apple watch 的 那个发票 啊,放到以前的话呢,我们可能得挨个去打开比对,就非常的花时间。而现在我们可以直接让这个 openclaw 来做啊,就非常的轻松,它的速度呢非常的快。然后最后呢还给到了我文件的一个名字啊,效率非常的高。再比如我们在手机上面啊,跟他说每天上午九点帮我去统计 github 的 一个热门项目,然后呢做成简报推送给我。 那这个功能呢,需要我们自己去加一个 skills, 我 们需要去到这个 gitap 项目啊,我们可以去找到 news aggregator skill, 复制它整个文件夹到 open cloud 的 这个 skills 目录。接下来我们只需要跟 open code 说帮我们安装这个 news aggregator skill 啊,然后重启一下。那接下来的话呢,我们就去到 web 端,发现刚才的那个 skills 就 已经安装进来了,那同样的方法,我觉得大家可以去安装成百上千的这种你感兴趣的 skills, 对 吧?甚至呢,你还可以去啊,让这个 open code 来帮你写 你想要去做的一些 skills 啊,就是脑洞越大,其实这个东西是越好玩的。那到这里的话呢,你可能会发现一件事啊,就是这个 open cloud, 它真正有意思的地方,其实不在于它内置了多少功能,而是它本身就是一个可以被不断改造的工程底座啊。 不管呢,你是去接这个新的 channel, 还是加这个新的 skills, 本质上面呢,都是在做一件事情啊,就是把你自己的一个工作习惯变成一个啊,可以被自动执行的这样的一个流程。而 open code 在 这个过程当中呢,它起到的一个作用就是不仅仅是帮你写代码,更多的是帮你去 啊快速的理解一个陌生的项目架构,然后找到它能够去自定义的地方,非常高效安全的帮我们改出来。 顺带说一句,我对 ai book 的 一个真实感受啊,在 ai 开发这种场景下面呢, ai 原生笔记本,它的一个优势不在于参数, 而在于体校。那比起 windows 下面啊,经常需要去折腾环境,或者说在不同的工具之间来回切换,在这台设备上面,我们可以更加专注地去想,我们到底要改什么,怎么改这件事情本身 ok, 那 以上呢,就是本期视频的一个全部内容了,感谢大家的收看,我们下个视频再见, peace。

大家好啊,兄弟们。大家好啊,今天也是给大就是说更新一下这个阿里云百炼的这个限定 plan 的 一些情况啊。啊,这个我也是看到了,就是说别的 up 主发了啊,然后我也是因为我之前就已经包了这个套餐了,所以说我只有我们这边再 呃再去说一说这个情况啊。这个呃,百炼在之前啊,就是说前几天 应该是过年之后啊,它就推出了一个活动啊,就是说七块九啊,其实说你第一个月它只要七块九啊,它就可以买这个最便宜的这个啊,酷丁 plan 啊, 然后七块九它可以应用多少模型呢啊?可以看到它这边列出来了,有这个它阿里比较新的这个千万三点五 plus, 然后 那个 kimi 啊, kimi k 二点五啊,这个也是我们就是说编程非常常用的。还有一个就是这个 g i v m 五啊,这个 g i v 五应该来说还是呃最近发了一个很不错的一个模型啊,因为因为 g i m 五它 它的那个价格啊,呃,也不低,对吧?然后你要去买的话,它你要去买它的扣金 play 还是要抢,然后 就是说他现在这个 live 版本是变成,呃,打折是变成七块九了啊,你看到他上面有一个,呃,这边有个广告七块九啊,我之前就是呃大概呃三四天前吧,七块九买的,然后我们也是可以到这个后台看一下 啊,我是五天前买的啊,他比较有意思的是他这个剩余天数是二十八天啊,就是说,呃,我们在二月份买他是二十八天,然后他的一个套餐用量的话,呃,是这么一个情况, 就是每个月是一万八千词调用,然后每周是九千,然后每五个小时是一千二这样去刷新的。如果熟悉固定 plan 的 话,大家 啊对这个东西应该很熟悉了啊。然后这 kimi 的 话好像是,呃呃, kimi 也是差不多吧, kimi 也是这样按这种模式来记的啊,但 kimi 可能没有他这个给的多啊。 然后他这里面给的模型的话啊,我们可以看到他这个,我们在这个阿里云百联的后台啊,这边有个使用指南啊,你点的话你就可以看到他可以支持的一个模型啊,然后他这边支持的模型主要是这个千万三零 plus 的, 然后千万三 max 二零二六的这个版本,然后, 呃。还有什么扣的那次啊,这些我们都不看了啊。 g m 五好 kimi 的 k 幺零啊。然后然后这个啊,他这个,呃。首次购买是七块九啊,然后 续费啊,首次续费是二十块,也就是说,呃,你要是二十七块九,你就可以用两个月啊,你可以看到我们在这个续费界面上点一点啊啊,你可以看到他是二十块啊,结束说我下次续费是二十块钱 啊。然后,呃,那我们再来说一下这个这个千万本身的这个模型情况啊 啊,我个人感觉这个千万二点五三点五 plus 啊,在这个编程一些编程工具里面,比如说我比较使用的时候 code code 和 word code 比较多嘛啊? code code 和 word code 里面使用的这个效果,我觉得这个千万三点五 plus 是 不太行啊,有一说一是不太行,就是在编程方面不太行。呃,不知道为什,呃,不知道是不是他跟这个这种编程工序的一个适配问题,还是啊,什么情况?其实我觉得他好像 整个的这种策略上面啊,他不是很激进,就是比如说我让他做一个事情可能要消耗消耗很多这个头肯的啊,就是说他的工工作量比较大的这种情况下,哎,他会做一半就不做了,好像就问我说啊,要不要做啊,什么什么,而且他呃整个就是前后端啊 啊,经常也会呃改出 bug 来啊。这个这个是呃我不太满意的一个地方啊,就是这个相对于不是相对于这个 mini max 来说的啊,因为因为我平时这个 mini max 是 用最多的一个模型啊 啊,当然当然呃,你如果跟 g m a 五比的话,这个 mini max 我 我个人的使用的一个感觉上是不如 g m a 五的,哎,也是不如这个 kimi 的 kimi, kodan, 这个是都是,我觉得应该是至少在我的一个使用场景下啊,我觉得这样的模型肯定比 mini max 好, 和千万三点五的话,我感觉都不如 mini max 啊。当然这只是我的一个主观的使用感受,它现在它整个的一个套餐包,因为因为你包含了这么多模型啊 啊,除了 mini max 之外主流的这些模型都有了啊,对吧?而且 mini max 你 可以在很多的这种啊,比如 open code, 他 都有免费的额度可以用啊,所以说你包了这个七八九的套餐,你可以用这么多模型,对于这个初学者来说啊 啊,我觉得是非常友好了啊,这也就是为什么我我想录一下这个视频的原因啊。我觉得说你如果现在现在想去尝试一下所谓这个 fcc 啊,我觉得这个包是非常划算的一个 你的选择啊,就是如果说你要想要收费的话啊,免费的话还有很多,我们就不谈了。那下面这个视频的下一个部分啊,我们来讲一下啊。嗯, 在这个 open code 和这个 color code 里面,如果说我们已经买了啊,在这两个工具中,好如我们如何去配置啊?没事简单说一说啊,就是用这个 c g switch 这个软件啊。 啊? c c switch 这种软件,这个 c c switch 是 这个软件的话,就是我们在这里面可以可以去修改 kol 的 和 opencode 的 一个配置啊。啊,我个人觉得这种方式是最方便的,比如说我们这边配置一个阿里云百联啊,阿里云百联,然后, 嗯,可以看一下我们这边配置的阿里云摆列,然后我们把这个摆列的,呃,因为欧盟扣的,我们可以使用这个欧盟 ai 的 这个兼容接口啊,然后我们就把它这边这个 api key 啊复制出来,复制到这里,然后地址的话就填这个这个地址啊, coding javascript, 阿里云 c s, 然后这个,这个,呃, open ai 的 一个地, open ai 兼容的一个地址,然后模型这边你就可以,你就可以自己配了。就是说,呃,比如说我有 g m v 五把它配进去, kimi 配进去,然后这四个模型我把它配进去的地,其实说直接 直接保存啊,保存完了之后就可以可以了啊。然后 然后在这个 cloud 里面的话是,呃,是这样的, cloud 里面的话就是我们也是配置一个这个,然后呢? cloud 里面它的一个地址不一样啊,它的请求地址是这么一个地址,就是它是一个 cloud api 的 一个端点啊。呃,这个在我看一下,在这个使用指南里应该是有的, 好,可以看到使用在哪里。其实他这两个地址给了 cloud, 你 需要用这个 s o b k 的 这个短点地址,然后那欧美 i, 你 可以用这个欧美 i 的 这个金融地址啊, 嗯,然后这个模型的话我们就这么配。当然你,你比如说你要用 g l v 五,你可以把这里面的这个 g c m 就 可以了 啊,就可以了后配置好了之后啊,配置好了之后我们就可以在这个我们先看 open code 啊,就 open code 的 里面你就可以切模型了啊, open code 的 里面我们打开之后, 呃,输入这个 modos 的 这个 mini, 我 们就可以找到这个刚才配的啊,比如说我们结尾我们配的是二零零百链的这个啊,这个我们就有了,好, kimi 啊, kimi, 二点五,这个也是二零零百链的,这就 ok 了。然后我们再来看一下 cloud, cloud 的 话你就不需要切模型了,因为 cloud 的 话它是就是说默认你要去呃,把这个,把它这个配置给激活啊,就是说我们在这里要起用,起用它之后啊,我们是不需要做什么额外的操作的 啊,它这边就已经使用千万三点五 plus 了,应该看到使用的是一个,呃,千万三点五 plus 是 说如果你需你要用这个配置,你就是把它激活啊,就可以了 啊。所以用 c g switch 来去配置这些工具的话,相对来说还是比较方便的啊。

如果你最近也在用 open cloud 跑项目,那么我想知道,这个月的 a p i 账单你看的心疼吗?是不是跟我一样,用的时候有多爽,付钱的时候就有多肉痛? 明明只是让他写了几个小项目,改了几版代码,成千上万的 token 哗哗就没了,月底一算账,几千块钱直接打了水漂。别慌,今天这条视频,我把目前全网主流的 callin plan 套餐都给你找来了。 从七块九的入门尝鲜到重度开发的旗舰套餐,哪家性价比最高,哪家不抢就能买,哪家最适配你的常用工具。看完这条视频都能明白,建议所有开发者先点赞收藏,免得要用的时候找不到了。 首先第一个也是目前入门价最低的之一,腾讯云大模型 coding plan。 腾讯云这个套餐核心优势就是两个字,便宜。 mate 套餐日常价四十块钱一个月,现在活动价首月只要七块九。 pro 套餐日常价两百块一个月,活动价首月只要三十九块九。 这个价格对于想尝鲜的朋友来说,几乎是零门槛。用量方面, lite 套餐每五小时最多一千两百次请求,每周九千次,每月一万八千次。 pro 套餐直接是 lite 的 五倍,每五小时六千次,每月九万次请求。对轻度用户来说, lite 的 额度完全够用, 重度开发者的话,买 pro 也能顶得住。模型方面,除了独家支持腾讯的混元全系列模型,还接入了 gmm 五、 chimi k 二点五、 mini max m 二点五这些主流模型、主流编程工具呢,几乎全兼容,像 opencloud、 coldbody、 cursor 这几个直接就能用。 唯一要注意的是,这个优惠价每天十点限量开,抢手慢,无想上车的朋友要定好闹钟。 接着第二个,阿里云百炼定制 plan, 阿里这个套餐跟腾讯的定价体系差不多, mate 套餐日常四十块钱一个月,新客首月十块钱。 pro 套餐日常两百块钱一个月,亲测首月五十块。用量上, pro 也是 light 的 五倍,跟腾讯持平。它的核心优势,第一是独家支持阿里自家的千万全系列代码模型,尤其是千万三 cold plus, 这个在代码生成和工具调用上的表现大家懂的都懂。第二呢,是对阿里云的服务器生态适配拉满,如果你是用阿里云服务器部署 opencloud 相关服务,用它会非常丝滑,而且配置教程很完善, colude code、 client 这些工具都有手把手的接入指南。不过呢,缺点跟刚刚说的腾讯一样,优惠价每天限量抢购,早上九点半开抢,热门时段基本很快就售清了。 下一个字节跳动的火山引擎方舟 coding plan 字节。这个套餐最大的亮点就是独家支持豆包系列代码模型,尤其是在国内代码模型里属于第一梯队的豆包 seed code, 而且现在订阅还能解锁自接刚出的 ark cloud 跟 open cloud 完美适配。价格方面, mate 套餐日常四十块钱一个月,限时特惠,首月九块九。 pro 套餐日常两百块一个月,限时特惠,首月四十九块九。 用量上, light 是 plud pro 的 三倍, pro 是 light 的 五倍,完全能满足重度开发需求,模型生态也很能打。除了豆包全系,它还接入了 kimi k 二点五、 glm 四点七、 deep sick v 三点二这些热门模型支持手动切换,也能开 auto 模式,智能调度,简单任务用轻量模型省额度。 复杂任务呢,就用旗舰模型保效果,非常智能。而且它对 collude code 的 适配做的特别好,翻翻教程非常详细,新手也能一步到位部署,不用踩坑。 第四个,百度千帆 coding plan 先说结论,百度这个套餐绝对是新手常先的性价比之王。 mate 版首次购买只要七块九,一个月首次续费二十块,常规也才四十块。 pro 版首次购买三十九块九,首次续费一百块。跟腾讯视频用量上, mate 是 每月一万八千次,请求 pro 每月九万次,跟腾讯云一样完全够用。最关键的是它对 opencloud 的 专属适配适历从配置文件怎么改 到 base 五 r l api key 怎么填,一步一步教新手,照着做就能搞定,完全零门槛。模型方面,默认用 kimi k 二点五,同时支持 deepsafe v 三点二、 g l m 五、 mini max m 二点五这些主流模型。唯一的小遗憾就是不支持百度自家的文星大模型,不过不影响日常使用。讲完了腾讯、阿里字节、百度四个大厂,下面我们来看看垂直大模型厂商的套餐。 第五个,先说智普的 g l m coding plan。 智普这个套餐核心就是冲着 g l m 大 模型的用户来的,如果你是 g l m 五、 g l m 四点七的重度用户,选它准没错。 grm 五在 coding 和 agent 能力上已经做到了开源模型的搜查使用,体感非常接近 cloud ops, 用来跑 open cloud 的 复杂任务,效果特别好。它的套餐分了三档, light pro max light 是 cloud pro 的 三倍用量, flower 是 light 的 五倍, max 是 pro 的 四倍,能覆盖从入门到重度开发的所有需求。 而且它支持智能调度、简单任务自动用轻量模型省额度,复杂编程自动切旗舰模型,非常省心。价格方面, mate 按月是四十九块一个月,按季更划算,一百三十二块一季度。 pro 按月一百四十九,按季四百零二。 max 按月四百六十九,按季是一千两百六十六。唯一要注意的是,它也是每日限量供应,每天十点补货,想入手的要卡点。 第六个是 minimax coding plan, minimax 这个套餐最大的特点就是档位多,选择灵活,从入门到顶级发烧友都能选到想要的档位。标准版分了三档, starter 二十九块一个月,每五小时四十次。 prom plus 四十九块一个月,二点五倍 starter 用量。 max 一 百一十九块一个月,七点五倍用量。还有极速版,从九十八块到八百九十九块, 满足高病发极速响应的需求。套餐的核心优势呢是 mini max 自家的 m 二系列模型,它在代码生成和工具调用上表现很稳,尤其是上下文的代码理解效果很不错。 缺点也很明显,只支持自家的 mini max 系列模型,不支持第三方模型。如果你只用 mini max, 选它没问题,想换模型的话就不太方便了。 接着第七个, kimi 编码相关权益这里要跟大家说清楚, kimi 其实没有单独的编码 plan, 它的编码功能是包含在 kimi 会员体系里的。 会员分了四档,从四十九块一个月的 indent 到六百九十九块一个月的 lego, 不 同档位对应不同的用量限额。优势在于 kimi k 二点五的超长上下文能力,这个不用我多说,用过的都知道,处理超大代码库,超长文档效果特别好。 缺点也是只支持自家的 kimi 模型,不支持第三方,而且不是专门为 coding 场景做的套餐,针对性不如前面几家。 最后一个,快手 quick cat coding plan 这个套餐可能很多朋友没听过,它是快手万晴平台出的,核心是自家的 cat code pro v 一 模型, 这个模型在 a a 榜单的非推理模型赛道拿过第一,前端生成的美感和实用性做得特别好,如果你是前端开发者,可以关注一下。价格方面,入门的 mini 套餐日常二十九块一个月,限时特惠,首月八块八,每五小时四十次。 pro max 最高的 max 套餐二百四十块,每五小时一千次。 pro max 重度开发也够用。缺点还是只支持自家的 cat 系列模型,不支持第三方,生态丰富度不如大厂。好了,八家套餐给大家说完了,肯定有朋友会问,这么多套餐,我到底该选哪个? 别着急,接下来我给大家一个保姆级的选购指南,分四个维度,看完你就知道自己该充哪个了。第一个维度看你的使用强度,如果你只是想尝鲜体验,每天用一到二小时,属于轻度用户, 直接闭眼充七到十块钱的入门套餐就行。腾讯云 night、 百度千帆 night 首月都只要七块九, 快手迷你首月八块八,火山引擎 mate 首月九块九。这些套餐的月度额度足够你每天跑五到十个中等复杂任务,性价比直接拉满,就算踩坑也没什么损失。如果你是重度开发者, 每天要用六小时以上,或者多终端多实力同时跑 open pro, 直接上 pro 及以上档位。 比如说腾讯云、百度千帆、阿里云、火山引擎的 pro 套餐,每月额度都是九万次,请求是入门款的五倍,还支持更高的开发, 多项目同时跑也不会限流,完全能满足重度开发需求。第二个维度看你的模型偏好。这个很简单,你平常用哪个模型最顺手?就选对应的套餐。常用混元选腾讯云, 常用千问选阿里云,常用豆包选火山引擎,常用 timi, 上下文选 timi, 会员常用 mini mess, 直接充他家的套餐。大厂的套餐基本都支持多款第三方模型,而垂直厂商的套餐大多只支持自家模型, 大家按需选择就行。第三个维度看你的工具生态。如果你是 cloud code 重度用户,优先选火山引擎方舟和阿里云摆列, 这两家对 cloud code 的 适配最完善,官方教程最详细,不用自己踩坑。配置,如果你是 qn code 的 用户,直接闭眼充阿里云百联原声适配体验拉满。 如果你是纯纯的 oppo pro 新手,优先选百度千帆,官方直接给了 oppo pro 的 专属配置试例,照着填就能用。第四个维度看你的预算,预算十块以内尝鲜腾讯云百度千帆的 light 套餐,七块九,首月首选, 预算五十块以内,月度稳定。用阿里云、腾讯云、火山引擎的 light, 续费款二十到四十块钱,一个月完全够用。 预算,一百以内,重度使用大厂的 pro 套餐,首月款三十九块九到五十块,这个区间性价比最高。最后跟大家总结一下, open cloud 这波热潮确实把 ai 编程的门槛拿到了前所未有的低, 但也让很多开发者踩了 api 账单的坑。而 coding plan 的 出现就是用包月订阅的方式,把我们的开发成本直接锁死, 让普通开发者也能毫无负担的用上最顶尖的 ai 编程工具。当然也要提醒大家,这些套餐的首月优惠基本都是一个认证主体,只能享受一次,而且大多不支持退订退款,大家入手前一定要看清楚规则,按需购买, 别盲目冲最高档位。好了,今天这期 coding plan 就 介绍到这里,欢迎大家和我分享。你用 opencloud 最多的场景是什么?你最看好哪家的 coding plan? 如果你还有什么私藏的高性价比套餐,都可以打在评论区一起交流。如果觉得这条视频对你有帮助的话,也别忘了点赞、关注、收藏、 转发给你身边正在被 a p i 账单折磨的开发者朋友。后续我还会持续更新 opencloud 的 使用技巧和避坑指南,我们下期见。

大家好,下面给大家演示如何在火山引擎开通 arc cloud 实力。首先我们登录火山引擎官网,登录火山引擎控制台, 点击火山方舟,点击开通管理,开通对应的 coding plan, 这里以一个已经开通好的 coding plan 做演示。当我们开通好之后呢,我们可以看到界面上有一个 arc cloud 立即体验,点击立即体验 可以得到一个全新的 arc cloud。 那 么在这个环节里面,我们可以对 arc cloud 做一些设置,比如说配置对应的模型, 火山方舟 coding plan 默认支持呃豆包 seed 二点零 code, 豆包 seed 二点零 pro 以及主流的一些开源模型等。那么在这个里面我们选择豆包 seed 二点零 code 模型。 除了配置模型之外,我们也可以配应对置的网盘,方便和本地的电脑环境去做数据的交互。在这里我们选择一个之前已经创建好的对象存储桶,获取对应的密钥, 这里我们展示之前已经创建好的秘钥,在这里可以选择合适的网盘客户端进行下载,这里我们以 apple 芯片为例,完成配置之后呢,我们点击文件快传, 打开对应的网盘客户端,点击登录, 登录完成之后呢,我们就可以把本地的环境和云上的 icloud 做打通,在这里我们可以上传本地的文件。 那么我们现在设置好了模型和网盘之后呢,可以进行飞书消息渠道的极速配对,我们点击立即执行, 打开我们的飞书,扫描这个二维码,输入对应的智能体名称, 点击创建, 等待飞书的自动化配置流程,显示飞书机器人已经配对成功,那么我们可以打开飞书,点击刚才创建好的机器人, 刚才我创建了一个叫做火山 arc cloud 助手可以和他说,你好。 回到我们的演示界面,显示所有任务执行成功之后,可以关闭终端,然后进行其他功能的演示。在这里我们可以点击查看我的技能,或者安装火山专属的 skype, 查看当前我有哪些技能。 可以看到 arc cloud 的 实页显示已经有默认的十七个 skill 的 安装,里面主要包含 agent 开发,相关存储,媒体生成,非输关键配置等。 如果我们想使用安装一个新的 skill 技能,可以打开火山引擎的 skill 技能广场,在这里搜寻查找相关的 skill。 安装一个网页设计的 escape, 复制对应的命令行,回到我们的 icloud 里, 发送对应的指令, escape 安装成功。最后我们演示终端功能,可以打开终端,查看已经安装好的插件, 这里显示我们已经安装好了 ai 安全助手等插件, 进行必备的安全防护。好的,本次演示到此结束,谢谢大家。

哈喽,小伙伴们,今天再来录一个快速的那个关于小也是小龙虾的视频啊,这次我们讲的是那个阿克洛,火山方舟的阿克洛,嗯, 怎么说呢?呃,上一次用的是那个腾讯的那个,呃,服务器的壳,然后还有 adp, 这次我们来看一下火山方舟的阿克洛, 嗯,这么说吧,这个我现在用下来,其实火山方舟的这个阿克洛它一方面出的比较早,一方面它的功能比较齐全啊,我们可以看它其实, 嗯,首先我们进到那个火山方舟,就火山引擎这边,然后你进去之后到那个 agent 应用级平台里面找这个阿克洛,地址就在这里啊,地址实际上就在那个那个 control, 呃, mikino n mikino engine 里面的 arcrot, 对 吧?现在是什么样子?他现在其实就是你买了那个 火山方舟的 coding plan, 他 就能送你那个,他就能送你叫什么?那个 arcrot 现在是有活动的,对吧? 这还是不错的。总体来说,呃,只要你买了这个 coding play, 现在大现在几家都是这样,你只要买了 coding play, 他 就送那个,他就送叫什么那个啊。然后关于那个火山方舟的那个, 那个 coding play, 其实我是有那个推荐码的。好吧,到时候大家可以看一下。因为我的推荐码进去,呃,现在是要抢了,现在是要抢,所以说有点尴尬。 套餐,那你如果是能早上能用我的推荐码,然后进去抢的话,你可以打个九折,也就是正常的话,嗯, 第一次应该便宜一点,但是是要抢啊。对,我这边有,我这边是有限时,限时邀请的。这个 coding plan 是 什么呢? coding plan 其实大家都应该比较熟的,就是在一个打包价, 对,你就一个打包价下面的那个使用它的那个 api 扣扣顶,然后我这边能邀请你们,然后 九折用户是用首单,整个订单一次性订阅多月套餐相相比那个就便宜。就一开始你如果用你觉得比较用的比较多的话,我觉得其实是用那个。呃, coding plan 是 不错的啊,但是现在是要抢有点尴尬好吧。嗯,就是现在每天早上十点抢。嗯, 你看啊,我像刚才 callin play 免费解锁阿克洛,好吧,就祝大家从这里就可以订阅啊。第一个月是便宜的,我记得, 然后回到这个阿克洛这个平台,我们来看,就是你进了这这边你可以创建一个阿克洛。对,有轻量版标准版,但是,但是你如果买了那个 callin play 的 话,那个 你就现你,你现在就能送啊,但是他就算你买了 callinplay, 你 其实还是可以再把自己的 cross 那 个升级的啊。 cross 升级,那 callinplay 送的这个清亮版你,你可以升级到那个升级到标准版,对吧? 嗯哼哼,这个标准版就是算力多一点吧,但是我之前的那个我记得清亮版里面也送防护的好吧。 嗯,我现在我现在用的那个这个阿克洛里面呢,可以看啊,他有模型配置,模型配置默认就是送有 cody plan 的, 阿克的 latest 就是 这个是自动的,下面你可以选这几个模型好吧。嗯,其实主推的话就是迷你 max 二点五和 kimi 二点五好吧, 然后他其实呢也有数据备份。嗯,这个就是做的比较界面比较简洁吧, 那么我自己被封了一遍,上次也被,然后那个手动也被封了一遍,然后他呢?有恢复出厂设置的,但是恢复出厂设置就是会清空所有数据,就相当于初步化了嘛,然后他现在这个做的比较好,有一个终端啊,就是你可以看到那个,就是就是你就当自己有一个服务器了吧,然后能够在这个页面上有个终端。 ok, 这里 a t u s 你 可以看到,嗯,就是它这个有你,你可以输入命令,然后就等于在你平常的误误班图的 v p s 里面,你可以看到这个整个阿克拉的啊,就 overclock 里面那个后台的情况,好吧。嗯, 哦,对吧, 你可以看到啊,这个这个功能我觉得做的比较好,其实就是现在腾讯没有,但是那个火山帮都自带了,这个等于是默认的终端里面还是用的到的,因为有时候还是要用点命令。好的。对,然后可以看新的,现在有新的小程序啊,就是有微信,微信我已经接入了,大家可以可以看一下, 然后我现在的整体的微信,对,我在里面已经,我在里面已经那个弄好了,看到吧?就是就等,就就等于在你的整个列表里面他是有一个微信的, 还有他是有一个微信的,那个机就是专门的机器人,他但他但大,大家可以看到啊,他里面是有一个, 它里面是有一个叫,对,有一个叫莫威的,这是我自己改的名字啊,大家可以看,这其实可以改,它原原本就叫微信 colobot, 到时候你可以把名字改掉,那个也可以改掉,然后可以把它置顶,然后专门用于接收 colobot, colobot 的 消息,对吧? 对,你可以在微信里面输入,微信里面还是和昨天一样的,他有一个原声的语音,比如说我在这边说一下,你能听得到我说的话吗? 然后他就能微信原声识别语音了,同时也可以配置飞速企业微信和钉钉,对吧?那个怎么说呢?那个钉钉里面是是可以上传文件的,钉钉的 im 那 个原声呢?是可以上上传文件。哎,这是文字聊天,你可以输入。 哎,有点尴尬,昨天还行的,今天怎么就好像突然不行了?嗯,听得到我说话吗? 昨天我去的时候他这边,哦,对的,微信的那个腾讯云的上面可以啊, cloud 不 行。对,我想起来了,不好意思,忘记了,那个腾讯的那个是可以,这个微信这边它里面就是没有,没,没有自带那个。嗯, 哦,但是他可以转文字,对吧?听得到我说话吗? 嘿,这个就是微信原声支持的。这个我也觉得不错啊。不好意思,搞错了,就是它是能够,呃,使用微信的原声的那个语音转文字的,好吧,这个这个功能也不错啊。好, 嗯,证明说你现在装了哪些技能? 对,其实它已经就是有一些微信原声的功能,我觉得是不错的。嗯,好吧, 等一会回去看吧。然后现在可以看啊,继续看下去。他那个火山方舟的这个页面,就管理页面上他是有一个文件快传的,这个文件快传需要装一个需要装一个,那个 叫 tos pro, 这个是不?这是个网页插件,他,你,你是可以上传文件内容的好吧?嗯,就是你可以把你需要的大大的文件通过这个上传上去,就我之前有一个, 我之前有一个叫什么,呃,那个那个那个 skills, 我 就把它上,我就把它上传上去了啊,然后让它在里面读它的 skills 的 这个文件夹在哪呢?可以看一下中大 那 skills 的 文件夹,实际上在。哎,算了,直接问他吧。 t o s t o s。 那 个网盘配好大家,你在这边可以看到啊,轻微四筒,哎,你可以问他,好的,轻微四筒 什么地址,也就等于是他给你挂了一个网盘进去。好吧,你等于在整个阿克劳里面是可以用的,我们可以看一下,其实在飞书里面你也能直接用。对,就是等于我在飞书里面同步也可以使用它。 我来看一看吧。我的飞书在哪里?我的飞书的机器人。我的机器人在哪里? 我阿克伯。对,他这里就能上传文,他这里就能上传文件了,因为我装了一个,那个特别有意思。我装了一个,我装了一个,叫什么? 那个麦当劳的 m。 呃,那个那个 skills 他 就能帮我点麦当劳啊,之前之前我尝试了一下,没付钱啊,还是蛮有意思的,你可以点麦当劳。嗯,对的, 你可以在飞书里面上传那个一个很大的文件,然后同样的这个功能就和这个这个文件快传是一样的。好, 这里我要说一下这个功能是不错的配置网盘,也就是说你如果在页面上不配置网盘的话,你可以在非洲里面上传。哎,微信里面其实也是可以上传,只不过微信相对反一点,对吧?但是现在微信的那个,呃,电脑版上面还还没更新,等更新之后他就能你就能看到这个了。嗯, 你看刚刚我问他的问题,阿克洛的那个 tos tos 桶已经挂勒下来,他在我 space 下面,在这里你可以你可以设置设置一个人格,就是你可以设置他的一个人格。配置人格啊,你查看我的人格, 然后你就他就我当时当时配置的是一个,呃, 我当时配置的是个个人助理 对,当时配置的是个个人助理,然后他这些都是都是火山方舟里面帮你预配的。预配好的一些 sao 就是 已经帮你把那个注入,呃。防止注入歧视病毒,呃。投毒啊,什么都已经帮你做好了,就其实就等于预设了一个那个安全的,呃。 就就是就是安全防火墙吧。好吧。这里你可以设置定时任务,这个定时任务就是就是那个 open core 原版里面的 chrome, 这个 chrome 就是 你可以设定每天要干些什么东西。好吧,你比如说你追踪一下看看。就是我可以自己设那个, 呃,定制任务,然后我也可以比如说我加一个世界新闻,对吧?你看你弄好之后它就会实时帮向你播报每一的那个每一每每一的冲突的最新新闻。 每天早上, 每天早上八点,晚上 试一个吧。黄金价格,帮我试试追踪黄金价格,哎,看它怎么弄。这个就是就等于在那个 hobbies 里面就会设定好任务,或者说在 chrome 设定定时任务,应该是 hobbies 里面是会告诉告诉你的, 然后这边也有就是原来在那个 open core 里面的一些命令系统状态啊,其实就那个就等于命令行码,它都帮你做成了快捷键,对吧?查看计划工具列表,你看一下工具列表,就是啊,就是就是,命令行码,就是我之前做的一个视频里面的 matrix 里面这个命令行都有。 好吧,然后这就是最后说一下这个非常重要的一个,就是 skills 的 功能,它里面预置了很多的那个功能,呃, skills, 然后你可以在这里面点击,点击之后,呃, 点击之后它就会帮你安装,然后你也可以看一下,你也可以看一下自己的查看我的技能,对吧? 嗯,我一般性其实用的比较多的就是那个像文档 o c 啊或者 markdown 啊,你可以跟他说他其实还是从 find skill 这个网页里面,因为火山的那个 skill 没有没有用,那个叫什么? 呃,没有,火山的 skill 没有用,那个就是个可拉赫的那个他自己的,而是他自己做了一个叫 find skills, 可能会更加安全一点吧,他会做,他会做一次那个筛选。嗯 啊,对了,我这里写了嘛,啊,这刚刚查出来的嘛, tooth list 嘛,这是帮我追踪黄金价格就已经出来了。定时任务? 是啊,定定定时任务在这里设置啊,刚刚的事啊,重复其提醒大家可以自己去发掘,就等于实际上是一个智能一等, 然后这些都是飞速的工具啊,这些,然后那个也是你可以就等于是个可生化界面了,然后就能看看我我自己装了什么技能。其实一般性一开始推荐大家的话, 那个 skills skills vetter 是 一定要装的,就是那个审审核,那个审核叫什么?审核 skills 的 skills, 然后还有一些那个固定的什么 o c 啊, pdf 啊,是可以装的。呃,还有那个什么 像联网搜索我觉得也是可以装的啊。这这些是我自己装的 skills 啊, contract review 是 我自己写的那个合同省略对吧?你装进去麦当劳的 order, 你 其实你在里面可以搜得到,然后 self improvement, 持续自我学习。 skills better 就是 安全审核, 对吧?这些东西,这些是工作需求呢,它是预预设的 final skills 就是 我刚刚说的这个 final skills imagine generation 是 用那个火山的里面的那个 c g m 的 身图。好吧,斯莱卡就是预制这些预制的我也不设置,其实这个是本地的。嗯,他其实装了个设置 x n g。 哼,其实我自己也可以动一口,到时候觉得还蛮有意思的。好吧,就是,所以说其实在火山的引擎里面这个 rcl 就是 可以一键部署,就很简单。 第一步,到时候用我的那个邀请链接,你用我的邀请链接去申去那个购买那个 coding plan。 就 一开始现在的首单优惠。其实是我看看啊,首单优惠 啊,就就就一。这个是,原来我买的是九块九的时候,这两百,一开始是四十九块,但是现在大家要抢就是要在那个,你如果能有我的邀请码,每天每天早上十点抢吧。好吧。嗯,这个都不给订阅了。嗯,好尴尬,因为要抢。嗯, 可以看看活动规则嘛。嗯,每天早上去抢好之后呢,你就能在火山引擎里面, 火山引擎, 对,在你的开通管理里面你就能看到你有一个叫 coding plan, 然后我买的是那个 pro 版, 对吧?我当时买的活动比较多嘛。然后你可以就是利用这个 coding plan 去做嘛,那就可以要继续继续做你的事情,继续用嘛,里面这么多模型可以你选择 auto, auto 的 话就在里面配置,那个就是我刚刚在那个页面里面配置的, 这个配置模型里面就是阿阿扣的 latest, 就 让他自动选就可以,你也可以指定,好吧。嗯,总体来说就是这样了,欢迎大家去买他的 coding plan, 尝试他的 coding plan, 然后就使用一键部署的阿克隆。嗯,他这个很简单。就是就是就是你买好 coding plan 之后他就有了,然后你这个这个二十九是本来就送的,然后根据自己的需求去 失去配置。不懂的话可以,其实可以问问题反馈,你也可以看它的教程,这里面有教程查看帮助文档,还是我觉得比较全的。嗯,好,谢谢大家。

送外卖赚钱买托肯的第六天,今天可以给大家一些很实用的建议了,就是我们不是知道这个呃托肯消耗太大了吗?所以使用这个 cookie plan 的 套餐,但是你在使用 cookie plan 套餐的时候,你一定要注意,第一步让你的这个小龙虾啊,先给你部署一个本地的 极小的模型,比如说千万的零点五 b, 为什么?因为在你使用这个克林布兰套餐的时候,它是有速率限制的,比如说在几个小时啊,或者说一天一周之内,你使用多少的这个托肯啊,或者说消耗多少次的对话的机会,它会给你限制。限制之后你发消息过去,或者说, 呃,反正就是他跟你没办法交互了,你如果使用到这个程度,你就知道了啊,一旦达到了临时的这个限制,你无论发什么,又或者说他做好了什么,他都没有办法跟你交互,这期间你的 api 调用是被停掉的,所以这个时候我们需要在本地部署一个免费的极小的模型来用做这个 简单的回复啊,不指望他干活,只是在这个临时扣定不烂套餐的 api 达到限制的时候啊,让他还能回复我们,并且接收我们的一个信息, 这个是非常实用的。第二个就是一定要把这个信息存储记忆存储给做好,因为小龙虾很长,就是经常大家可能是啊,要去让他做一些事情,或者说突破一些限制,他容易把自己给作死掉,我的小龙虾都已经死两次了, 还好我提前做了这个记忆备份,做了这个记忆记知识库啊,这个记忆库我一上来就把这个记忆库和知识库给搭建好了,也就是我的小龙虾死了之后,我等于是把它的记忆, 哎啊,我我他死了以后,我是给他一键恢复出厂设置那个格式化了啊,就是那个,呃,抖音的阿克可乐,他里面那个 可以直接格式化,格式化之后他不是就什么记忆都没有了吗?但是我由于提前备份好了这个记忆,那么我一键倒过去就行了。如果你不想养虾,养的前功尽弃,你一定要把这个记忆库给提前建好。我当时其实都蹦出来了一个灵感,我说要不要做一个这个,呃, 火葬场或者叫炼丹炉,你像人死了烧出来是骨灰,那小龙虾死了以后应该烧出来是他的记忆结晶呀,那么这个就是非常实用的功能,你像当前很多人 他讲什么啊?龙虾是病毒,之前是上门安装龙虾,现在有上门卸载龙虾,那我觉得其实复活龙虾他是一个更大的需求,因为很多龙虾养着养着就死掉了,或者说啊动不了了。那么你如果有这个 龙虾炼带卤,对吧?把它原本养的这个既精华给凝练出来,然后又出来一个,新开一个龙虾,你直接把它一键倒进去就可以了。 由此我们也可以衍生出一个新的商业需求啊。就比如说,呃,现在当当下大大家都在这个养龙虾,但是理论上啊,只要有一只龙虾, 他从零到一百这个路走完了之后,那么全球的龙虾都可以一键从零到一百,大家能理解这个意思吗?这个 ai 时代就是这样,你只要有一只龙虾从零到一百,你给他训练好了,就比如说从小学到博士的这个阶段,他走完了, 那么全球的龙虾按理说都可以一键实现呀,那后面可能就会衍生出这个卖这个特定的记忆库,或者说携带了特定的这个龙虾啊,我觉得这是非常好的商业模式,你像我现在我自己的工作中有需要用的,可能需要龙虾有特定的知识库, 我自己又不会训练,又或者说不想训练,就像软件时代,有很多软件,但是有成品的,你不是更省事吗?对吧? 这是我养虾六天总结出来两个啊,特别实用的东西。第一个就是你如果使用的是扣丁破烂套餐,一定要部署一个,提前部署一个免费的本地模型啊,防止他回不了话。 第二个呢就是,嗯,要提前把这个记忆库给备份好啊,最后给大家汇报一下,其实我这两天比较纠结这个,我的这个阿克克罗他一个,他没有欧文克罗原版的那个心跳功能,但是我发现啊, 我给他调整好之后,我的这个小龙虾他似乎还会骗我了。你看他一直在给我发这个心跳报告,但是我怀疑他并不是自主在后台运行的时候给我发送的,而是可能写了一个什么编程,自己在糊弄我,他虽然一直在发,但是我感觉这是糊弄我,并不是有意识的在发的。 今天就到这,大家可以点个关注,我会持续分享送外卖,赚钱买头等我给龙虾打工啊,这个日常我也会把我养龙虾的这个经验持续多分享,感谢大家支持!

这期视频拆解字节龙虾和腾讯龙虾两款产品的步数与使用,助你选择更适合你的龙虾。首先,虽然都是龙虾,但 arklo 和 work party 的 步数路径完全不同。先看 arklo, 它是纯云端形态,主打零配置, 整个流程不需要下载安装包,跟着操作一分钟就能搞定。浏览器访问火山引擎官网,点击上方最新活动处的 arklo, 抢先体验,就能直接跳转到工作窗口。我这已经创建过了,如果事先没有创建是这样的,点击创建即可。 rcl 支持多种消息渠道,不过效果最好的还是飞书,点击下方飞书配对,等待片刻后会出现一个二维码,飞书手机端扫码填写相关信息,如屏幕右侧所示,这里视频加速,实际等待两分钟左右。 创建完成后就可以在飞书工作台使用该机器人,消息也会进行同步。整个流程很简单,并且依靠火山引擎,本地没有运行负担,也不用手动配置或者处理环境和依赖,属于开箱即用。再看看腾讯这边, workbody 定位是一个桌面端智能体,它需要本地部署。 首先从官网选择对应版本下载安装包,安装登录后会跳转到这个页面,点击左侧的 cloud 选项就可以用了,支持大部分最新的国产模型。和 rcloud 不 同, word 八 d 独有的好处是可以通过 qq 进行交互,先注册一个 qq 开放平台的账号,过程不在赘数,就是跟随向导一直点,确定即可。 注册登录后进入首页,点击上方机器人,再点击下方创建机器人,填一填信息,过程很简单,随便填也可以, 点击提交后弹出 success 则代表创建成功。点击刚刚创建的机器人,进入机器人后台,左侧下滑,打开开发管理,复制 app id 和 appscribe, 填到 word body 对 应位置。 我这里已经填过了,流程跟没填过是一样的。 appscribe 需要用手机 qq 扫码获取,建议保存好,找不到了,想再用的话需要重新配置 两项,填完后会生成一段 webhook。 复制 webhook, 再次打开 qq 发放平台,左侧找到回调配置,将 webhook 粘贴进去。这里需要注意,因为已经提供胎头了,所以需要删掉。下一步点击确定配置,等待校验,校验后再次用手机 qq 扫码。接下来进行事件配置,将单聊事件中的所有事件全选, 点击右下角确定,然后再次手机扫码到这里就算配置好了。左侧找到沙箱配置,点击二维码图标,手机 qq 扫码并添加机器人,就可以正常进行对话交互了。步骤比较多,对比 icloud 稍微复杂一些,但是门槛不算高。好处是它支持本地文件操作, 实际使用场景下,两款产品的核心体验差异很明显。再回到 icloud, 它的优点是云端携同和生态打通, 七乘二十四小时在线,可以随时在飞书桌面端和 app 发送指令,就算电脑关闭,后台任务也能继续执行,并且记忆不会丢失,工作用起来很方便,适合多人协助和规模化使用。 支持豆包二点零系列模型和其他国产新模型,不过没有质朴最新的 glm 五,一般选择 auto 智能调度即可。缺点是本地操作能力有限,只能通过 tos 桶作为网盘实现文件上传与下载。如果我想让他操作本地文件执行任务,就需要先上传,然后再处理,等到任务完成后再重新下载到本地, 过程比较繁琐且配置比较麻烦,这也算是他的硬伤。反观 word body, 他 就强在本地执行任务,能直接操作电脑上的本地文件,给 它权限就可以, open 框能干的它都能干。还可以搭配腾讯刚推出的 skill hub, 给它添加技能,整理文件、分析 excel, 生成 ppt 这些常见办公场景,从理解需求到交付成果,全流程自己搞定。另一个优点是支持多任务并行, 任务多的时候也能有序推进。缺点是需要依赖本地电脑,电脑关机任务就没法进行,且云端协调能力不如 icloud。 最后 workbody 还提供了部分免费额度,我用了几天居然没被用完。 这一点相对于 rcl 比较友好,毕竟有很多人只是想初步体验一下,并非长期使用。最后一句话总结,想办公并且经常用非输的用户选择 rcl 任务主要工作在本地,并且希望通过 qq 进行交互,可以选择 workbody。

哎,你有没有想过拥有一个完完全全属于你自己的 ai 助理花的钱呢?可能比你每天那杯咖啡还少。今天啊,咱们就来揭秘一下,怎么轻松把它搞到手。 这么说吧,如果我告诉你,每个月就花个二十九块钱,也就是一顿午饭钱,你就能拥有一个超级强大,七乘二十四小时线上,而且还不用翻墙的 ai 助理。你是不是觉得我在吹牛?哎,这还真不是幻象, 有一个叫 open cloud 的 开源项目就能让这事变成现实。今天啊,我就把这个独家秘籍分享给你,整个过程啊,简单到你不敢信, 是不是已经有点迫不及待了?好,那咱们就别光说了,直接上手跟着我六分钟,就六分钟,我们就能在云端把它跑起来。准备好了吗?我们开始 第一步特别简单,就是给你的 ai 在 网上安个家,你去阿里云这种地方买一台清亮应用服务器就行。哦,对了,记得啊,一定要选那个已经预装好 opencloud 的 应用镜像,这样最省事。 哎,这个有个重点听好了啊,这个服务器的内存啊,至少得是二 g, 这一点你可千万别省,不然你的 ai 跑起来可能会卡,那就体验不好了。记住,二 g 是 最低门槛。 好了,服务器买完之后出场就更简单了,人家云服务商都帮你把路铺好了,你只要点进应用详细页面,跟着那个一二三的步骤,点击下鼠标,这事就办完了。 ok, 最后一步,也是最关键的一步,就是给咱的 ai 大 脑加燃料,也就是配置一个 api 密钥。那问题就来了,上哪找又便宜又好用的燃料呢? 别急,这就要说到咱们今天的独家秘籍了,一个叫做 coding plan 的 神奇玩意儿, 你可以把这个 coding plan 想成什么呢?嗯,就好像是给你的 ai 大 脑办了一张手机卡,还是那种无限流量的月度套餐。这么一说,是不是一下就懂了?按月付费,本地直联,没有漫游费,想怎么用就怎么用。 那用这玩意儿的好处简直不要太明显!首先,便宜,便宜到什么程度?一个月二十九块钱起。其次,快,不用开什么 vpn, 国内网络嗖嗖的,延迟超低。 最后,选择还多,你定一个套餐,好几个 ai 大 模型就能随便你换着用,简直太爽了! 你可能会想,听着,这么好,设置起来肯定特麻烦吧?完全不会!我跟你说,不管你用谁家的服务,来来回回就这么三步,买套餐,拿到密钥和地址,然后把这两东西填到配置文件里,最后选个你喜欢的模型搞定。 那么市面上这么多家,到底哪家的手机套餐卡最适合你呢?来,我们快速对比一下几个最热门的, 来看这张选购指南。如果你喜欢尝鲜,想玩遍各种不同的 ai 模型,那阿里云有八个以上模型绝对是你的首选。 如果你像我一样有点懒,希望系统自动帮你搞定一线,那火山引擎的 auto 模式就是为你准备的。当然了,如果你追求的是一个极致性价比,那没得说, minimax 二十九块钱包月,闭眼入就对了。 这句话真的说的太对了,你仔细算算每个月省下来的那点 ipi 费用,跟你每天被那些重复无聊的工作浪费掉的时间比,哪个更重要?这笔账啊,其实咱们心里都清楚。 当然了,再厉害的技术,有时候也难免会闹点小脾气。不过别担心,万一真出问题了,我这也给你准备了一份快速排错指南, 如果你辛辛苦苦把 api 秘笈都设置好了,结果一运行,诶,报错了,先别慌,也别砸电脑,十有八九就是下面这三个小问题之一。 来,跟着我检查一下。第一,那个 base url, 你 看看最后是不是带了杠勾定杠这个小尾巴,大部分服务商都要带的。第二,模型名字你是不是从官网一个字儿一个字儿复制过来的?差一个字母一个大写都不行。 第三,也是最多人犯错的那个 api 密钥前面的 s k space 杠这部分你是不是给漏了?赶紧看看。如果你是个高级玩家啊,还想玩点花的 opencloak, 甚至允许你再配置一个备用的服务商, 这样以来啊,就算主力的偶尔罢工,备用的也能马上顶上,保证你的 ai 永远在线。 好了,说到这,你发现了吗?拥有一个私人 ai 助理的门槛,现在基本上已经可以说是没有了。 二十九块钱,你想想现在二十九块钱能干嘛?可能就是两杯奶茶的钱,但现在呢,你可以用它换来一个全年无休七乘二十四小时待命的 ai 伙伴,帮你写邮件,做研究,处理各种烦人的工作,这简直太划算了! 好了,方法工具,所有的钥匙今天我都交给你了,现在就轮到你了,你会用这把钥匙去开启一个怎样的新世界,去创造点什么好玩的东西呢?我很期待以上,你 get 了吗?