这周 github 一 半项目都在给 cloud code 打工,一周热榜第二期 cloud code 生态大爆发 第一名 everything cloud code 十三万 star, 本周暴涨两万三。 cloud code 百科全书一百二十五个技能配置,二十八个 agent 模式,从 m c p 工具到安全扫描,黑客马拉松冠军亲手打造。上期速览提过,这周直接全球第一。 第二 superpowers 十三万 star, 周涨一万八。它定义了 agent skill 新范式,每个 skill 像可插拔的技能包, agent 像打游戏,不断升级。 cloud cursor codex 全适配,半个 github 都在用它的框架。 第三, cloud hot 一 万六千 star, 一 周暴涨一万三。这是 cloud code 学习圣经,十个模块,从入门到精通基础概念到高级 agent 全覆盖, 每部都有可复制模板加水平测评,三条学习路线,任选新手最友好的上车指南,连 readme 都整理得像教科书。 第四, oh my cloud code 两万一千 star, 周涨九千。一句话拉起 ai 军团,十九个智能体各司其职, autopilot 全自动造功能,智能路由省代码 gemini 做设计,三 ai 同时干活 速览字节 dear flow 五万六千 star 超级 agent 连续两周爸爸微软 webvoice 三万五千 star 语音 ai 新标杆 last 三十 days 一 万七千 star 全网热点一键聚合 hermes agent 两万两千 star, 能自我进化 deep life cam 八万七千 star 实时换脸 ai scientist 四千四百 star 三 d 建筑编辑新玩法 本周关键词, cloud code 教程技能框架多 agent 编排生态全面爆发这波军备竞赛才刚开始。以上就是一周热榜第二期,链接全在评论区。
粉丝4226获赞1.5万

国内的模型基本没怎么用,结果想买的时候试一试,发现买不了了,包括阿里云、百联和智普 ai, 智普的 g m m 也用不了了,每天都需要去抢。刚才我去十联讲了一下,发现它的网页是在转呢,跟抢票一样。 所以大家啊,早买早用,现在这个 kimi 还是可以用的。这个 kimi 还能用,赶快去买一下。我建议买个四十九到或者九十九的都可以,我买个九十九的 kimi 还是可以用上,感觉跟克拉扣的是有些差距,但是便宜,大家可以试一试,尽早用 其他的模型,比如说迷你 max 或者是 dipsic, 这些还是一般,有的说迷你麦草, 目前迷你 max 是 它的,这个定制 plan 是 可以用的。我买了一个 plus, 先试一试。刚才试了一下啊,还行,但是你要让玩龙虾比较贵,我不太建议用龙虾,用迷你 max 有 点贵了,我可以用本地去部署, 或者你就用一下提米豆的就可以了。还有庆大家一些,这些 ai 的 层出不穷,一个月一个版本,所以我建议大家就买一个月就试一试就得了,不要开这种连续包年的。这种的你看比如说前两天刚 充值 cds 二点零的,现在又出了新模型,所以一个月左右基本上就过时了,所以大家还是自己看一下,如果有钱无所谓,可以试试用这种单月的。

随着 opencloud ai 智能体的火爆,这可能离 ai 收购我们普通人最近的一次,平台都推出自己的 codingplay 的 套餐。为此,我花了一周的时间,把国内所有的平台 codingplay 全部撤了一遍, 整理出这一份可能是全网最全的对比指南。从七块九的入门价到五十块钱的旗舰版,从火山引擎到智普 glm, 从阿里百联到 mini max 七家平台,我会把每个细节都给你讲清楚,看完这期视频,一定帮你省下不少馒头。 那么我们正式开始吧。可能有些朋友还不太了解头顶 play 到底是什么,简单来说,它就是原厂商推出的 ai 编程模型订阅服务。 你以前可能只是简单用 ai 对 话来解决一些问题,但自从奥本克勒出现之后, ai 使用 有所改变,你需要自己调用 a api, 然后按 token 数量付费。 token 费用这个东西用起来真的没底, 有时候我们通过 open curl 问几个问题,一个月下来几百块钱甚至上千块钱都有可能。但是 coding play 不 一样,它是固定月费,根据我们的需要,每月只需要几十块钱就可以无限的调用。 这些平台做了深度适配,像 opencloudbirdcode、 coser 这些主流工具,全部可以直接使用,连门槛开箱即用,这就是 opencloud 的 核心价值。好,我们先说第一家,火山引擎方舟, 这是字节旗下的云平台,他们的特点就是多模型结合,什么意思呢?就是他不绑定某个模型,而是同时支持多个主流模型。他们有一个叫 out 模式,能根据你使用场景自动选择最优的模型。 这个功能很实用,省去你自己判断模型的麻烦。第二家,阿里百联,阿里百联是目前模型选择最丰富的平台,一口气支持五五个模型。还有阿里最大的优势就是它的 a 键生态圈, 什么意思呢?就是他不只是给你一个模型,而是有一套完完整的开发工具链,非常适合做复杂项目的开发者。第三家,腾讯云 腾讯云 callinplay 背靠着腾讯这座大山,最大的优点是企业生态做得好,支持混云二点零模型,这是腾讯资源的大模型。 腾讯人的优势。还有如果你本身就在使用腾讯的企业服务,如微信生态 企业微信这些,那腾讯人的接入是非常丝滑的。第四家,百度千帆,这家比较特殊,他最大的特点就是百度平台的生态圈,作为国内最早的原厂商之一, 百度的企业用户基础是非常庞大的,支持文新一员四点零,还有是百度的 c 加加优化,这是它的亮点,如果你主写 c 加加, 百度千帆可能是不错的选择。第五家,夜之暗面 kimi ko 夜之暗面这家的特点是长上下文的能力, mini 二点零,支持 二十万字的上下文,什么概念呢?相当于可以同时理解一篇三国演义,所以 timi 特别适合分析大型代码库或处理复杂的项目。第六家,智普 g l m codingplay 这家的编程能力是 真正的行业顶尖, glm 五在 s w e bench 榜单上是并列第一梯队的。 s e bench 是 什么?它是衡量编程模型能力的权威精准测试,能上榜的模型都经过严格的验证, 智谱的模型在推理能力上表现非常出色,适合需要高复杂编程任务的开发者。第七家, mini max talking plane 这家是今天性价比最高的平台,它最大的特点不是便宜,而是全模态。什么意思? 其他平台只支持编程模型,而 mini max 它包含了语音模型、视频模型、图形音乐模型一站式服务,且代码之余还能用它来语音转文字视频,裁剪图片,生成一页,制作一份定位,就解决了所有的需求。 如果你追求极致的性价比,又想体验全套模型,那么 mini max 是 最佳的选择。这边是模型的对比情况,最后给大家一些选购的建议。 如果你追求极致的性价比,日常写写代码,不用做特别的复杂项目, 那么 mini max 是 你最佳的选择。如果你在企业环境需要稳定的服务,完善的工具链,那么 阿里百链是最佳的选择。它不只是提供模型,还提供了 ag 的 生态生态圈,以及五个模型的随意切换。如果你需要 强大的编程能力,比如处理复杂的算法或者大规模重构,那么智普是首选。智普的 glm 五的编程能力是经过 swe 编程认证的,是行业顶尖水平。如果你想处理超大的代码, 如十几个文件、复杂的项目分析,那么 kimi 是 你的最佳拍档。如果你刚开始使用 ai, 火山眼前是个好的起点,它的自动选择模型模式 非常适合我们新手入门。以上就是国内七家平台 qq 平台的全面对比,如果你觉得有用,请点赞收藏,我们下期再见!

不知道大家有没有用过一些食之无味弃之可惜的 ai 产品,今天我就遇到了。上个月我订阅了阿里巴巴的百炼 coinplan, 原价是两百块钱,第一个月优惠只要三十九,我觉得很划算。过去这一个月,我主要使用里面的 kimi k 二点五模型, 用于接入我的小龙虾。当一个备用的 ai pro 的 同时,我也把它转换成了一个 a p i, 接入了我的一些 ai 应用。老实说,阿里巴巴的这个 callin plan 不 管是接口响应速度还是提供的 ai 质量都还是挺不错的,用量也很足,我一个月使劲用下来才使用了百分之十三的额度。但 但是我自己工作本身主要用的是 cloud code 和 codex, 我 还有免费的 java 都底,除了 gpt, 五点四也有好几个其他 ai api 的 渠道。所以阿里巴巴的这个 coding plan 第二个月续费要两百块钱, 就让我觉得有点浪费了。昨晚我还在纠结要不要续费,后来忙其他事忘了,结果过了零点发现订阅已经被取消,而且无法再续费了。 阿里巴巴的这个 coinplan 由于太火爆,购买居然还有限额,要每天早上九点半抢购,这你敢信吗?话说大家现在有在用国内的这些 coinplan 吗?如果用的话,大家更推荐用哪一家的呢?也欢迎大家来讨论交流一下。

现在国内的套餐,他们推出了那个 coding plan, coding plan 给的那个套餐数量就是 token 数还是蛮多的。 对,嗯,你像不过针对,不过相对来说你像一个月花四十块钱,我觉得这个东西还是确实挺贵,因为你平时基本上用不完,单个人的话就是它是用不完的。对, 而且各个厂商他们,呃,我今我今天就是对比了一下,就是把我目前知道的大厂,对,他们把他们的那个 呃拿出来,然后做,做了一个网站,做了一个那个对比,然后看看哪一家厂商他们都有什么模型,然后,呃,对比,你们就是想要想 大家一起看一下啊。你像嗯,固定的几家有推出自己的一个大模型,有豆包的,它就是豆包的一些模型, samsung 生成视频的,然后嗯, deepsea 这个,它就是那那个什么,它好像没有那个出可订 plan, 目前就是。还有,嗯,百度,百度都是用的别人的模型。对,那个也一个月四十也蛮贵的。对 啊,就还有就是智普啊,迷你 max 基本上都四十多,然后他们他们都有普通模型,还有一个极速模型,极速模型我用了确实很快,和那个普通模型没法比, 一百 token 和五十 token 真的 是差距太大了。嗯嗯,还有就是嗯,腾讯什么的,腾讯,腾讯是这里面最啊,在年初的时候,嗯,就刚过完年,我还买了一个百度九块九的套餐,现在都没有了。 对,他直接过了一个月都直接变成嗯,四十多往上都没有那种便宜套餐。也就就是我整理了一下,然后看到腾讯有, 对,腾讯有七块九的,然后每个月限,每天限量。对,你还得抢,但是不我不知道,就是我我我听看他那个介绍,好像是里面包含了一些。 嗯嗯, deepsea 智智普,然后迷你 max, 然后它不是那种新模型二点五的,然后还不是极速版, 不过你像相对来说图便宜,然后买它的也不错。对,如果说各位有需要的,我这边有就是我,我是 我这边有账,有账号能一起拼一下。对,有需要的话可以联系一下我。对,我这边。嗯嗯,告诉你地址接口,然后你去自己创建。可以独立的啊,都是独立的。

大家好,我是三百零,很多小伙伴给我私信呢,包括评论区都在问用什么模型最好?呃,我首先给大家一个结论,就是大家不要去充钱到各家平台,然后使用他们的 a p i, 因为那样是非常非常贵的。呃,先 说个小结论,就是用 coding plan 是 最便宜的,每个平台都有,就包括 kimi, 智普, mini max, 还有腾讯云,阿里、火山,这这几个都有 coding plan 好,我们用到底是用哪一家呢?哪家更便宜呢?我们首先先看一个数据,就是 openroot 是 全球最大的模型应用平台啊,我们国家在前在三月份的前两周已经 登顶了这个模型调用,包括前五都是前四都是我们国家的,包括 mini max 是 第一, kimi 是 第二,然后 glm 第三。然后这几个模型呢,其实是经过全球玩家,就包括啊,国外国内的玩家验证过的啊,哪个模型是最好用的,所以我们就用他们验证过好用的模型就好了,用 mini max 跟 kimi 我 觉得是 ok 的, g o m 也是可以的。然后我们要买阔丁,不但要搞懂一个问题,什么是 a p i 请求次数,什么是 prompt 次数,还有什么是 token 剂量,然后我就先放一下,大家看一看就好了, 然后第四。呃,然后下一个是入门的档位啊,就各家其实入门的档位很便宜,就包括阿里云才七块九,然后火山才八块九,哎呀,腾讯云才七块九,这几个三,这三家大厂的价格都很便宜,但核心是还有没有能买,能不能买的到啊,因为这个我去腾讯云看了一下,腾讯云那个是需要抢的,然后火山阿里可能也还有 大家采购了去看一下,但是作为这个价格本身来说,其实也就不到一杯奶茶的钱。对于对于大家想玩小龙虾,想试小龙虾,我觉得是一个非常好的一个选择。 然后我们挨个说一下模型,首先是 kimi 啊, kimi 是 唯一多模态的,然后能够支持 kimi crow 跟 a 卷集集群的,然后他同时也是用计算 token 的, 就不会说五个小时就限流,所以我比较喜欢用 kimi, 因为我有时候会集中去开发一些东西,所以我选的是一幺九九安岳的套餐,目前还没有,还不用满, 就二十倍的这个用量我觉得还是挺充足的。然后是智普的,智普的大家可以看一下,就是四十九到一百四十九到四百六十九, 然后到 mini max, mini max 是 呃,性价比比较高,然后它是五个小时限时的,也是限限的次数,所以就看我觉得就 mini max 跟 kimi 选一个吧。然后你如果说可以五个小时 就开发不是很集中的话,我觉得用 mini max 也是没问题,因为它毕竟是全球钓用第一嘛,那肯定说明它是最好用的。 然后腾讯云的,腾讯云是每家都有啊,就 im 五, kimi 二点五, mini max 二点五,就这些都有。然后阿里云跟火山引擎也都差不多,因为三三家大厂都差不太多,都是各家的的模型,其实都有配啊,包括火山引擎这里没必要,但他也可以都用 kimi 二点五的。 如果大家不是新手的话,新手的话可以用这个中度的使用模型,但各家其实你要还有更大的需要,可以当场就升级了 啊,不同的人群怎么选就薅羊毛啊,尝鲜的就是阿里云,腾讯云的 light, 就 这些也可以选选择 kimi 二点五的模型,包括 mini max 的 模型,然后剩下这个追求极致体验的就是 kimi, 像我一样,就是你就需要去疯狂的使用,突然有时间,有有有 idea 就 疯狂的使用的,不要半路被卡壳停下来的,那你就选 kimi 就 好。 然后这是五个知识点,就是不要被请求次数迷惑,就一次提问不等于一次请求。 然后五个小时的滚动窗口的平静是很重要的,就是你们就看你们使用的这种平静,因为我自己肯定是很讨厌五个小时的,因为真的是很难受,用五个小时正正正正坐着呢,正写的嗨呢,突然就不让用了,然后你的你的虾又不能工作了,就就这就很烦,所以我用的就是 kimi。 然后涨价趋势,这个确实是已经在涨价了,就原来直普啊, kimi 他 们都有首月优惠的,现在都给取消了。一句话总结,便宜试水就是 mini max, 极致体验就是 kimi。 然后最后我列一下大家这个 coding plan 的 网站,大家可以啊,截图保存,然后后面有需要可以去去去去购买。 然后我最后再给大家再看一下这个模型的调用啊,就是我给大家讲了这么多,其实你可以可以了解到大概各家的一个情况。然后首先呢,我觉得 最好还是 mini max 跟 kimi 里面选吧,因为这是全球人民验证过的,既然验证过咱就不去验证了,咱也不是什么特别大的,也没有数据支持,也不是什么特别大佬,所以用别人验证过的东西就好了,就 mini max 跟 kimi 选一个吧。啊,这是我的建议啊,我的分享到此,谢谢大家。

朋友们,强烈安利你们去使用 cloud code 加飞书 c i 这套效率工具组合真的太好用了,我们直接跑几个 case 感受一下。第一个,帮我生成口播稿。 在 coco 中,我们调用提前写好的帮我写口播稿的 skill, 然后把我准备好的 android kappa 近期接受访谈的 youtube 链接丢给他,点击发送。大概五分钟,这个口播稿就被写入了非署文档的指定位置,我就可以直接拿这份口播稿去开始准备视频录制。第二个 case, 我们让他读飞书某一份数据表并进行分析。三分钟后,就可以看到飞书文档上多了一份详细的高质量报告,并且这个报告的排版结构都做得非常好。第三个,我们试着让他总结某个群聊最近的消息。 通过他对群聊的总结和分析,我就可以确保自己不错过任何重要消息,还能快速知道这个龙虾群里大家最关心龙虾的哪些问题。我还做了个 hook curlcode, 每次把新版本发到 github 后,会同步在非书表格里写入一条新的版本记录,方便溯源。 我展示的这几个 case 不是 非书 c i 的 全部能力,我让 curlcode 画了非书 c i 的 全景图,我们一起看一下。 第一个部分,沟通。通过 cloud code 加非书 c i, 你 可以便捷管理非书上的私聊和群聊的所有消息,比如进行消息回复、消息同步或消息分析。 第二个部分,知识库。通过这套组合,你可以快速地对非书文档、非书的知识库进行创建或编辑。 第三个数据,飞速的多页表格是非常好用的数据,有了 calco 加持之后,你就可以把它物尽其用,可以用这套组合帮你进行项目管理、数据分析等等。 日程。我经常用飞速 c i 加上 calco, 直接帮我去新建日历的代办提醒,然后帮我对开发任务进行任务的提醒和管理。 最后一个会议能力,通过飞书 c l i cloud code 就 可以直接读取视频会议的妙记记录进行分析摘要,然后把摘要同步到群里。飞书的画板工具也非常好用, 这个画板就是通过飞书 c l i 加上 cloud code 画出来的,我不用做任何的编辑。深度使用飞书 c l i 的 这几天,我对 ai 应用的未来发展趋势有了一些新的理解。 其实早在今年二月份, offscreen 就 发布了他们的 cl i 版本,我当时有一些不以为意,我认为这是一次标新立异的复古,它没有任何价值。但我今天发现我过去完全错了, 这是一个必然的趋势。首先,未来应用就是给 a i a 准设计的。过去互联网发展的二十多年中,我们大多数的软件都是给人类去设计使用的,所以我们需要去兼顾人类的视觉和使用感受,我们需要去强调交互体验和图形界面。 但是对于 a i a 准来说,它其实不需要这些东西。对于它来说,对于大模型来说,最熟悉的母语其实是 c l i。 他的训练数据里面有大量的 cli 的 命令,他出生的时候他就知道怎么用好 cli, 我 们不需要额外去教他。这也能解释为什么 clico 加飞速 cli 这套组合用起来这么丝滑。第二,相比 mcp, cli 是 更简洁通用的能力设计。 我们过去使用 mcp 的 时候,每增加一个新的 mcp server, 你 的上下文窗口都会多一套新的 scammer。 久而久之,你就会发现,有时候你什么活都还没有干。 但是你的上下文窗口已经被各种 n c p server 的 scammer 挤爆了,而 c r i 不 会有这种问题。每次你给他下达任务,他都是动态查命令,然后帮你去执行对应的 skill 和脚本,不会固定地占用你的上下文窗口。 如果你是 coco 玩家,同时你的日常工作离不开飞书,真的强烈建议你试试我说的方法。今天分享就到这里了,如果你对飞书 c i a 准的实战独立开发经验感兴趣,欢迎持续关注我们,下期继续。

今天给大家分享一个比较便宜的普通小白都能用的一个大模型。我们知道我们在学习 ai 或者使用 ai 的 过程中,就会发现 它是一个巨大的氪金的东西,因为会消耗大量的 token, 很多大模型靠这个 token 的 消耗令来盈利来赚钱。今天分享的这个呢,就是阿里云的一个最新的叫扣丁普兰的 这个头,跟他这个主题呢,说是量大环保,支持阿里云的千万的三点五,还有 mini max, 还有 嗯 g m m 等等各种模型,他是按照消耗的次数调用的,次数就每月呢大概有一万八千次的这个调用额度,每月的这个套餐费用是四十块钱,现在打折啊,现在二十块钱 对于普通小白是完全够用的,因为很多人反映这个 投币量很少,而且比较慢,如果你只是说我掌握一下 ai 的 基本应用,跑一下简单的流程,知道这个 ai 是 干嘛的, 我觉得是完全够用,它还支持这个龙虾,还有支持可乐扣的。另外一个呢,就是我们在调用这个 api 的 时候,一定要记得是扣丁普兰的 api, 不是 那个百炼的 api, 因为百炼的那个 api 呢,它是后付费的,你消耗多少投币就扣多少钱。 我上个月签约的时候,当时结果 api 填的是那个百炼的,他一天就给我花费了一百块钱,当时把我吓坏了。我觉得阿里云他这个售后比较好,因为是今天那个售后小哥给我打电话, 我把这个事情给他说了,他说你是调用错了 api 了,今天就把那个 api 给改过来了,我觉得这个是比较划算,因为一个月就二十块钱,大家可以试试。

用 openclaw 费 token 花销高,选对 codeplan 套餐比普通请求省太多?今天教你 glm、 mini max、 kimi、 阿里云百联四款套餐怎么选,不用懂开发也能看明白。 先搞懂 code plan 和普通请求的核心区别。普通请求是按次扣 token, 用一次花一次, open claw 操作频繁的话,积少成多,花销很高。而 code plan 是 固定月费或计费,买完享专属额度,期间不用额外花钱,同价位额度多几倍,不用频繁充值。 而且 code plan 是 针对编程工具打造的,适配 openclaw 直接用,不折腾。 glm coding plan 性价比首选三档可选 lite pro max 包计九折计付,最低一百三十二元起。重点来了,价格仅为同类普通请求的三分之一,额度却是三倍。 pro 和 max 还带联网视觉理解,专属额度做复杂操作,不额外耗基础额度,想省成本,用 openclaw 做各种操作,选它就对了。 mini max 入门极致省钱,新手试手比普通请求划算太多。三档按月付费, starter 限时九点九元每月, plus 四十九元, max 一 百一十九元,远低于普通请求。月均花销按五小时划分,固定额度,精准匹配基础使用需求,用多少选多少不浪费。 刚用 openclaw, 想花小钱施舍选它,没错, timi co 的 灵活共享,多人用 openclaw 比单独 co token 省一半。私党按月付费三十九元起,包年最高立省一千六百八十元。核心亮点是支持多设备共享套餐额度,小团队家人共用 openclaw, 一 人订阅多人用,单人均摊成本超低,中等使用选七十九元每月,党就够了。阿里云百炼 co 的 plan 大额度耐造,高频用户首选两档月费 light 四十元, pro 两百元,首月特惠七点九元和三十九点九元,入门成本极低。 light 每五小时一千两百次,请求 pro 高达六千次海量固定额度,满足高频使用需求。还整合了多款模型, 适配 openclaw, 不 用额外换额度,按使用情况直接操作页选套餐,偶尔用只做基础操作。选 mini max starter 九点九元每月,试手不心疼自己。常用需求中等 选 g l m pro 寄付四百零二元,性价比最高,多人共用。享摊成本选 kimi, 七十九元每月档,支持共享均摊,超省高频。重度用户选阿里云百联 pro, 大 额度耐造,不用反复充值, 核心省钱。提醒,用 openclaw 时别再用普通请求零散扣 token。 选对 codeplan 套餐的固定额度,不仅单价更低,额度更足,还能避免操作频繁导致花销暴 涨。按需选档位,精准控成本,觉得有用就点赞收藏加关注,后续还有更多 openclaw 使用技巧分享!

你有没有发现,你的 ai 每次打开都是从零开始?这开源项目让你的 ai agent 越用越聪明!每天一个硬核的网站推荐第十六期, 港大数据科学实验室刚开源了一个项目 open space, 它的核心就一句话,让你的 ai agent 越用越聪明,越用越省钱。 短短几天时间,已经获得了三点八 k 的 star。 一个命令可以进化所有 ai 代理, open cloud、 cloud codex, cursor 等等。逆天的是,它有一个叫 skill 自进化引擎的机制,每完成一个任务,它就自动把经验提取成技能,下次同类任务直接附用,不用重新推理,失败了也不怕。它会自动修复这个技能, 而且技能还能上传到社区。全网 agent 共同进步。官方拿四十四个职业,两百二十个真实专业任务测试,同样用千万模型, open space 的 ai 收益是普通 agent 的 四点二倍都肯消耗,减少百分之四十六。说白了,它帮你做的活儿更多,花的钱更少。

最近我不是用那个 rest 重写了一遍 cloud code 吗?但是评论区下面总有一些不和谐的声音说,为什么说开发组不会想到用 rest 呢?难道是它没有,你懂?但是我想说, rest 可以 说就是 ai 时代 最牛逼最通用的语言。过去就是因为 rest 他的学习难度太高了,他学习曲线很陡,但是现在我们拥有了 ai, 我 觉得这些东西都可以迎刃而解,所以拥抱 rest, 那 么你就拥有了 ai 时代最强的编程武器。 哈喽,兄弟们,经过三天的奋战了,两天的通宵,终于把整个 rest 项目重构完了。然后整个项目呢,它现在有应该有二三十万行的 rest 代码,这个文件夹, 这个 themes, 还有这个 agent, 它每一个都是全部翻译好的 api 基本上是原汁原味的全部还原了。我是列了一个飞书的文档, 分析了一遍源码,把源码所有的功能基本上都深度重置了一个表格,我是每一段分别进行投位重置的,基本上是还原了它这里的所有的功能, 同时也把大家诟病的封号系统,封号的功能也把他的移除了,他现在整个系统更加的确保他的远程的控制的核心功能,他不会有任何的封号操作。 所以说这套系统是真正的为我们国人量身打造的,没有监控,没有后门的系统。我是整个用 rest 重构了,性能也比原来的更加强大。这个 s r c 文件我们可以看到所有的,你看这 br bridge, 它这个远程的调节的功能都已经 集成部署好了,基本上你看这个文件是有两百多行代码, manager, mode, session, 还有这个 c i 的 一个命令行工具也都已经重构好了。看这一排还有这个 al 美,基本上都是 rest 的 语言编写构造的, 还有 epi 的 这个 config 登录的认证,所有的我甚至把就是原本挖掘出来潜在的功能 rest 的 埃尼索匹那边还没开发好的功能,就隐藏的功能,我全部用 rest 的 工具进行了一次重构和复原,就它没有 写出来工具我现在都是用 ai 再重新把它做出来了。所以说现在这套 rest 系统 可能会有原来 aniso 所不具备的功能,你看潜在的功能深度挖掘,它原本是有语音交互系统的,还有宠物系统的,还有超级规划 各种功能系统,基本上我都用 rest 进行重构和修复了,现在整个项目也相比原来用 tabisk 写的更加的完善。我们可以看到这一排全都是 rest 的 了 代码,现在在进行整个代码的翻译和修复的过程,马上就会将整个项目推到 dpa 上面。做这种大型文件的时候,我们一定要将整一个他们的原代码数据要完整的用 ai 完整的逐条分析一遍, 因为只有建立了这样的上下文流程之后, ai 才能真正懂得你这个整个完整的原代码项目它写了什么,这样重构起来才不会有遗漏。 所以说最开始我先让整个 ai 逐条生发了他每一个功能的系统,这样进行我们后面重构,我们也只需要把这些大标题进行分别类的 给他作为一个一整个项目放进去,让他帮我们进行重构,这样也会更加稳定,不建议说你没有一个具体的框架,你直接说让他帮帮你去改。 结果我也是试过的,因为第一遍我也是让他说你基于这个项目帮我直接去重构, 但是一看原码,我的天呐,五十五万行代码,结果就重构出来了。第一个版本我上传了个版本给很多网友嘲笑说只有两千五百行代码,但是那个版本 比较好一点是什么?比较出乎意外意料的就是他居然还是一个可以运行的 demo, 就是 他把最基础的 ai 调用的逻辑是打通了,但是他不能 帮你操作电脑的文件,就是它连 opencloud 所谓的零头其实功能都达不到,因为它没有脚手架,或者说它没有调用工具的能力。 现在我们用 rest 系统级的重做一遍之后,把这些状态管理系统啊,以及 m c p 集成工具这个 greatbook 的 特性开关系统,整个服务框架架构都重新 完成了一个 rust 级级别大件之后,它才具有了 anti slip 的 原版的全部功能。 当我把三体问题可细化,用 clodico 做成了一个艺术装置, 我将采用 webgl 和十万个粒子的追巅 g 向你展示我的构建过程。 为了使得艺术装置更加完善,我们添加多星体运动和碰撞体系, 其他模型展示。 飞行雪绒这个名字一听就知道是因为雪绒海报起的,没什么寓意了。注册网站域名是随手写的, 我的兴趣大部分都来的快,去的也快,因为和学院里的大家关系都还不错,我经常会去给他们的社团帮忙,也算是时常都在体验不同方向的爱好了, 非要说的话,我喜欢和大家一起热闹开心的做事,因为要轻松快乐的活着嘛。黄龙的同学曾和我说过他们那里的一句俗语,人生处死无大事, 那些不值一提的烦恼在死亡到来后也不再让我挂心了。现在除了为怎么保护世界苦恼外,就是担心你吧。 新剧学院的学生们都来自世界各地,有不少人入学时也会带自己老家的特产和菜谱来校内论坛上。 那时候我只觉得自己落入湖深处,在因这些意识模糊时,有一双温暖的手揽住了我,那双手在深处竭力将我向上托。 当我醒来时就看到了你。 也是在那时候,我发现父母留给我的护身符不见了,可能是沉在湖底了吧,这让我非常非常伤心。 我大哭起来,你只好手忙脚乱的安慰我,把我带到了小屋里取暖。在那之后,就像你猜测的那样,我们在这间小屋中共同生活了一段时间,直到你离开了海洛。 因为这个 碎者如心的核心,对现在依附于碎者存在的我而言,也相当于我的心脏。 变成电子幽灵后,我没有就此放弃,找回自己的存在,以此再度回到现实。我有要做的事,我必须要成为完整的碎者。共鸣者, 但毕竟是以异常状态开始共鸣的,力量的缺损和不稳定也是必然。 这么多年来,我一直使用这枚核心增强自己的力量。日灵们也在帮助 我。在前不久,他落到了你这里,因为只有他,你才变得能够看到我。 这也是因为我最近看三体看的有点入迷了,一直在研究三体问题的运动轨迹,然后我就想着说用 ai 的 这个 weblab 还有 sweep 三 d 来模拟一下吧, 结果一不小心就做了一个好玩的玩意儿,然后整个项目我都已经以网站的形式做好了,大家想体验的话可以点击进去玩一下哦! 最近我也打算用这个艺术装置来结合硬件做点更加好玩的东西,欢迎大家持续关注吧!

瘦身四十四倍!港大开元 colodaco 的 平替刚发布没几天就狂揽四千多私大。它是港大 h k u d s。 团队开源的纯拍摄实线,被誉为 colodaco 的 极致平替,核心代码只有一点一万多行,却干掉了原版近百分之九十八的核心能力,重量直接瘦身四十四倍,无需反锁,配置一条命令哦, 即可启动美观的 react 加英可 t u i 界面,支持所有 l l m 本地欧莱雅 club 的 g p t 都能用。内置四十三个实用工具,含盖文件读写、炫耀、执行等,它完美适配 colog 的 技能和插件,系统可自动加载点 m d 文件,具备全线控制、前后置工具钩子、上下文记忆、任务委托等功能, 让 ai 成为可靠的编程伙伴。自带多级安全模式,自动审批和上下文压缩,防止 ai 执行命令影响项目。 无论是个人开发者、本地实验,还是团队搭建 a g t。 工作流,都能即开即用,益于拓展。对想深入研究 a g t 架构,打造自己的 coding 助手、追求极致轻量可控性的开发者来说, open harness 绝对是二零二六年最值得研究的开源神器。

离线了他也可以跟你去对话,帮你做一些事情,这个是百分百可以本地跑通的,我们复制这一个链接把它刻拢下来,刻拢之后就可以了, 我们现在主要是测试跑本地的模型,然后这个时候你们还需要一个软件 lm studio 去下载它,这边我都配置好了了,打开它之后去下载你们的模型,我会给你们配置好一个模型, 这一个前面的三点五九 b q 五的一个版本,这个的话比较适合大部分人,你们的显存,估计啊十二 g 这样子的话,它也是可以跑的。然后我们这边打开它啊,先加载这个,然后我们去点点这个地方,点这一个,然后去到这里 把这一个调大一点给就给你们做测试用的话两万五千吧,基本上就够了,就简单的对话,然后你就一定要按这一个重新加载一下,如果你们是按默认的四千多的话,他会报错的。这个时候我们去打开它这里, 然后这些全部按是,然后这个时候我们跟他聊一句话,你好,你看这边就已经在运行中, 就可以聊起天来,这个是本地的,就不消耗你们的 a p i 啊,不消耗你们网上面的钱。显存大的话,像我三十二 g 的 话,我就之前就玩一个千万的二十七 b 的 一个模型,你们玩小模型也也也可以啊,去体验一下。换模型要在这个地方 就是把这个名字,这个名字在哪里,这个就是它名字,把这名字复制过来就给它换掉了。 你们每一个模型它都会有一个这个东西的。然后还有一个就是如果你们要用 api 的 话,我这里用的是轨迹流动的,原来是这些模型,你只要去轨迹流动那里把你那个 api 填写进去就可以用了 哦,还要把这个名字给改了,要把后面这几个字给删掉。它们模板是在这个地方,我是有写的这两个,一个是本地模型的模板,一个是呃,轨迹流动的模板。哦,还有 你们填写那个 api 要兼容这一个,如果你们的 api 不 兼容这个协议的话,你们就去把它换成兼容这个协议的。现在是网上面有很多种工具是可以转换的,然后的话还有像那个宠物输入这个指令,它就会弹出来这个宠物,然后你不喜欢的话啊,就输入这个指令, e pro 这个时候就可以换了,换到你喜欢为止。还有一个是 codex 的, 这里都是 codex 的 那些指令啊,你们可以到时候去看看 具体怎么用,我这个插件已经是帮你们装好的了,像我现在的话,我把这个 wifi 关掉以后我还可以去跟人家聊天, 我问他我是谁,他这个瞎说的,我没有十五年经验,这么多离线了,他也可以跟你去对话,帮你做一些事情。所以这个就是你不用登录啊,没什么问题的,包括你看我说让他去写这么一篇文章,保存在这个地方啊。 yes, 看他就自动帮你写文章,就是基本功能啊,这是这些都是有的,百分百可以让你们跑通的,包括这些本地模型之类的, 他速度也很快,你们也看到了是吧?像这个小模型啊,我也会配置好在网盘里面,你们啊到时候可以拿来去测试一下啊,你们有更好的模型也可以去试。在这个地方 它可以下载很多的群友,包括有些是苹果的,有些是 windows 的, 都可以跑成功。它们已经是玩的很多功能了,我只是给大家提供一个成功跑起来的一个基础版吧,剩下有很多功能你们可以自己去加,像各种 skills 啊,你们也可以去往里面去加去。

codex 跟 c c 到底哪个好?我想大家各自都有自己的判断。在我个人为二者都充了二百刀的 pro max 会员以后,我个人的体感是 二者的模型能力之间并没有本质的差异,甚至都足够惊艳,让人心喜。但它们其实代表了两种完全不同的人。与 ai 合作的费洛索费 本质上,我们不是选择两个工具,而是选择两种与 ai 交互的模式。你习惯使用哪种模式,你的工作场景是哪种模式,你就应该选择支持哪种哲学的普顶工具。通常来说,抽象的讲, 软件工程开发的模式可以粗略地分为两大类,首先一类是那些探索性不确定的 idea。 在这种场景下,我们自己可能对需求要做什么,最终的一个中态是什么,甚至过程中该如何实现,它都没有一个明确的定义,它更多是我们一个拍脑袋的灵机一动的想法。当我们解决这类问题时,我们期待的一个 partner, 无论是不是 ai, 它应该都要能 快速的与我们进行交互,通过一些他主动的提问甚至判断给我们更多的信息输入,通过一系列的沟通,最终确定出一个相对更结构化,信息密度更高的思维原型来指引我们后续的执行。 而另一种常见的工作模式则是一个更明确的需求,比如说产品已经给我们了相对明确的 p r d, 那 我们剩下要做的只是说把这个项目 真正转移为一个可以被执行的代码而已。对于绝大多数的研发而言,这种场景下想要做的事情是基本完全确定的,我们在此时要做的无非只是一些 dirty work, 把那个 p r d 转化为真正写出来可用的代码而已。 而结合我自己的使用经历来看, c c 更适用于前者者的工作模式。它会在你输出一些观点之后快速地给你响应,并且高频地向你发出提问,以确定它后续的一些方向执行思路。但 codex 则完全相反,它会在你给完需求以后, 非常认真且可靠地将你的需求描述执行完。这个过程会花很长的时间,但是 结果往往是令我们满意的。想要更明确的拆分这两种工作模式的分野,我们不如从三个维度上来进行拆分,首先是任务商,也就是目标的清晰程度以及约束条件的多少。其次则是以我们预期的交互结构, 我们到底期待着与其他 partner 是 同步的沟通,还是说是一些异步的沟通模式?另外则是一个人类所占主动性的比例, 我们到底期望 ai 占据多少责任?他们是只是执行任务,还是说给我们也有一些他自己的认识建议?其实这三者并非是一个非常正交的关系。一个很明显的结论是,如果一个 目标的本身并不清晰,只是我们拍出的粗糙 idea, 那 我们显然就需要我们的协作者能快速的发问,帮我们把 自己大脑中一些比较模糊的观念导出出来,并且通过一些沟通确定哪些思考是我们需要的,哪一些是可以被删除的。通过这种 快速的同步沟通,得出来一些更结构化的结果,那在这个流程中, ai 需要介入的部分以及引导的主动性就会占比更多,但如果这个需求本身就像我们之前讲的已经相对来说明晰,是一个低伤的场景,那我们就不太 需要。它是一个很同步,事无巨细都要向我们发问的流程,它完全可以在我们把事情说清楚之后,一步的完成这个工作,从而解放我们人类自己的时间。我们也不需要给他太多主动发挥的空间,他只需要忠实的执行我们给他的需求就可以。我觉着对未来工具的使用以及工作流的设计,也都是从这三个维度去进行判断,动 态的选择。我们到底适用于哪种工具,应该主要采用哪一种工作流的思路?如果要打一个比方的话, c c 更像是坐在你隔壁工位的好蜂蜜, 会在有了一些 idea 之后立马的打断你现在的所作所为,跟你去探讨它的一些碎片化想法。而 codex 则更像是一个你忠实可靠的下属,在你交代完任务需求以后,忠实的可靠的帮你把事情完整的办完再通知你。我已经做好了。 每个模型都有它们自己的性格,我们也可以顺应的这种性格,在不同的工作场景中选择不同的工具以及模型。 以上是二零二六年二月我对这两个投影工具的一些使用场景总结,但我相信这个领域是日新月异的,二者工具之间 大概率在未来也会发生一些融合。不会说一个工具只是一种工作流场景,那就需要我们未来本身人类自己有一些对需求使用场景的预判,从而能告诉模型它应该采用哪些工作流模式。软件工程永远没有银弹, 不可能说我们用着一种模式,一条道走到黑,就可以得到一个很完美的结果。如果你在错误的场景使用了错误的工作模式,那模型给你提供的支持也就会非常有限。 结合自己的需求,场景动态切换自己的工作流模式才是一个更高效率开发的必经之途。以上是本视频的全部内容,如果你有一些想法或者建议,期待评论区讨论,谢谢大家!