卧槽,龙虾爆火你可听闻过螃蟹? zarryclaw 是 一个用 rust 写的开源 ai 助手基础设施项目,快速小巧且完全自主的 ai 助手配备要求小于五 m b 内存,比 openclaw 少百分之九十九的内存重点比 mac mini 便宜百分之九十八。一分钟内即可 完成部署,安装 zero cloud 到使用只需一分钟,龙虾可以做的螃蟹也可以全部做到。代码生成,数据分析文档处理任务自动化研究处理客户机器人内容创作。它是一个 rust 写的 agent, 主打清亮快启动,可插拔模型工具消息渠道都能换。
粉丝2.2万获赞20.7万

今天我们来聊聊 zero claw, 一个号称零开销零妥协的 ai 基础建设。咱们直接看数据,这一比对,差距简直不是一点半点,完全是数量级的碾压 哇!你再看这个启动速度,不到十毫秒,这是什么概念?快了四百多倍啊!看到这你肯定会问,这怎么可能呢?这么大的性能差距到底是怎么做到的?答案就在于它的核心架构,一个万物可插拔的设计,而这完全是用 ras 实现的, 这个关键特性就叫 tray, 你 就把它想成是软件上的 usb 接口,什么都能往上插。 所以你看,从 ai 模型到内存,每个核心系统都是一个独立的模块,想换哪个就换哪个, 口说无凭,咱们来实际操作一下,就换个内存后端,看看有多简单好,假设你的配置文件里,内存后端用的是高性能的 sql lite 数据库,现在我们不动代码,只改这一行配置,把它换成简单的 markdown 文件 搞定,就这么简单,一行代码都不用改,更别提重新变异了。这种强大的灵活性意味着什么呢?就是部署和设置过程会变得超级简单, 到底有多快?你看就这三步命令就能把它跑起来。所以总结一下 zero claw 给你带来了什么?超清亮闪电启动完全可插拔,还不怕被厂商绑定?这就回到了它的核心理念,零开销零妥协,随时随地部署,随心所欲替换。 好问题来了,当你的 ai 基础架构能做到这么便宜、快和灵活,这会解锁哪些全新的玩法呢?

更清亮的 zero claw 来了,但是现在不建议你用在过去的这个一个月里啊。 open claw, 呃,以以前也叫 mot claw, 呃, cloudboard 改名改了很多次啊,呃,简直是火遍了天啊, 现在几乎成了开源 a i a 政策的代名词啊,有各种各样的玩法,相信你也听到了。但是呢,它也有一定的问题啊,主要的问题呢,就是,呃太重,太大, 它采用了 note g s 的 这个运行时资源消耗比较大,那部署呢?比较臃肿。于是呢,就有好事者呃,用 rest 重新写了一遍,起个名字呢,叫 zero claw, 就是它所有的代码都是由 rust 来编写的。它的设计哲学呢,非常直接,也就是极致的性能,极低的资源利用,无缝的模块化替换。 它最突出的特点呢,就是轻量化。那对比 opencloud 呢,需要内存需要呃,一 g 以上,而 zerocloud 呢,只要小于五兆就可以,那启动时间 opencloud 差不多要五百多秒。而 zero cologne 呢,启动只要十毫秒。那对于部署成本呢?用 open cologne 呢,可以,你可以用一个 mac mini 要四千多块钱啊,或者你用呃云端的方案, 腾讯云或者阿里云的轻量服务器,一年也要几百块钱。而 zero cloud 呢,它可以运行在任何的设备上头,甚至很小的那种树莓派啊等等,这些都没问题,因为它消耗的资源非常少, 所以你可以把它作为一个嵌入式的,把 zero cloud 呢,作为一个嵌入式的这个 ai agent, 比如说嵌入到你的智能家居的设备里面。其实刚刚说了一大堆好处啊,我跑了一下,目前建议呢, 如果你不是即刻,现在还不建议你用,因为我在跑的过程中呢,其实发现他目前还不是很完善。另外啊,自由可拉呢,在安全性方面做了加强默认的方案呢,都是低于较高安全策略的, 其实这个是对于生产环境来说是好事,也就是说他不是一个开盒即用的产品,比如说他默认是不不允许互联网访问的,所以啊,初识配置还是比较复杂,由于肌肉可乐他 这个轻量化的这个特点呢,其实他为我们做介入式的 ai 智能应用提供了更多的可能性,但是如果你不是即刻的话,建议大家可以先持续关注就好。 好在这个项目呢,更新非常频繁,我相信呢,呃,在呃不久的将来呢,他会呃做的越来越来越完善。

本周 get up 热门项目排行榜出炉,值得一提的是,本周前三名非常有意思,一定要看到最后排名前二十的项目里,超过一半都在主打本地化、个人数据主权和极致资源效率。这已经不是一个趋势,而是正在发生的关于 ai 形态的深刻革命。我们来看榜单。 第二十名, awesome, open call skills, 拥有超过三千个社区技能。第十九名, electric band, 一个用 type script 和 button 构建超小型桌面应用的新框架。这两个项目一个代表生态扩张,一个代表工具革新。第十八名到第十六名是一组解决具体开发痛点的工具。 get it done, 专门对抗 ai 编码中的上下文腐化问题。 fluxa, 一个自托管开源的 disco 替代品,以及 antropic 官方的 skills 仓库,提 供海量的官方技能视力。它们的共同点是都在为更复杂、更自主的 ai 工作流铺路。第十五名到第十一名,我们称之为基础设施建设组。这里有运行 ai 生成代码的安全沙盒 daytona, 阿里巴巴开源的超轻量向量数据库 zevix, 以及自动移除模型审查的工具 heretics。 它们的出现意味着 ai 应用正在从玩具走向严肃的工具。 heretics, 它们的出现意味着 ai 应用正在从玩具走向严肃的老面孔了, 它们构成了 ai 辅助开发的核心生态。 nano bot, 那 个代码量只有四千行的超轻量助手 open code, 新标超十万的明星 ai 编码代理超级技能库 anti gravity, awesome skills, 还有方法论层面的 superpowers 和 everything cloud code。 这些项目本周依然在榜,说明市场对成熟可附用的开发方式需求极其旺盛,它们不再是新奇玩具,而是开发者工具箱里的标准件。第四名, voice box 一个由通一千万克隆三 tts 驱动的开源语音克隆工作室。它的上榜标志着高质量的语音合成和克隆技术正在以极低的门槛向所有开发者开放。第五名, world monitor, 一个 ai 驱动的全球实时情报仪表盘, 它展示了 ai 在 信息聚合和态式感知方面的强大能力,将新闻、地源、基建数据整合在一个界面里。接下来是本期重点的前三名。第三名, piccolo 如果说前面的项目还在谈清量,那 piccolo 就是 在追求语量。它由归宿科技推出,核心目标是把一个功能完整的 ai 助手塞进成本仅十美元的硬件里,内存占用要低于十兆,启动时间约一秒。 为实现这个目标,项目团队用构语言进行了彻底的重写和自取。它的意义在于将 ai 助手的部署成本压到了一个前所未有的低点,让边缘设备、嵌入式场景大规模接入 ai 成为可能。这是一场关于成本的革命。第二名, zero cloud。 如果说 pickleclove 是 成本革命,那 zeroclove 就是 效率的极致。它用 rust 语言编写,追求的是零开销、零妥协。官方数据显示,其内存占用可以低至五兆以下。 rust 带来的不仅是内存安全,更是接近底层的执行效率, 这让它在同样低成本的硬件上能挤出更多性能来处理复杂任务。 zero core 和 picker claw, 一个用 rust 追求极致效率,一个用 go 追求极致轻量。它们从两个技术路径共同定义了下一代微型 ai 基础设施的标杆。第一名 open claw, 这位常驻冠军本周依然稳坐头把交椅。它不再需要解释是什么,我们需要看它为什么能持续霸榜。 核心答案是两个词,数据自主和生态扩张。在隐私焦虑日渐增长的今天,数据完全私有、本地运行已经成为最硬的卖点。同时,它支持从 whatsapp、 telegram 到 imessage 等几乎所有主流通讯平台。 这种万物皆可接入 ai 的 平台化能力构建了强大的生态壁垒。当其他项目还在秀技术肌肉时, open club 已经建立起了一个由开发者、技能创作者和终端用户组成的繁荣社区。它赢的不只是技术,更是生态和标准。总结一下,本周榜单清晰描绘了一个未来图景, ai 正在疯狂的瘦身和下放,从云端走向本地,从大型服务器走向十美元的硬件,从数据不可控走向完全自主,这背后是隐私需求、成本考量和网络延迟共同驱动的必然结果。 这场轻量化浪潮最终会如何重塑我们与 ai 交互的方式?当每个人口袋里都有一个完全是有能力不弱的 ai 助手时,又会催生出什么样的新应用? 欢迎在评论区分享你的看法吧。好了,本期内容就得的老规矩,评论区留言榜单,我会将整理好的排行榜私发给,别忘了点赞关注我是赛博笔记,我们下期见!

open curl 爆火后,模仿者扎堆,五款热门正人体,八仙过海,但百分之九十都是滥竽充数,普通人根本就分不清,所以别再跟风乱装正人体了。一文分清 open curl 就 有 curl, 到底谁能用谁是自然税,避免白忙活了。 open curl 火了,全网全是 curl 的 仿品, joe curl、 pico curl nano curl 扎堆冒出来了,看着都很厉害,实质一半是废材,根本就没法用。 普通人跟风下载,要么就卡到崩溃,要么就泄露隐私,白花时间还踩坑。我们先看 open curl, 大 哥中的大哥,生态是最完善的,能干活,但初期安全有点漏洞。我们先看 open curl, 极致轻量化, 无噪音就能跑,老旧设备也能用,但是极度依赖云端隐私,就是个黑盒,用者心惊胆战。 pico pro 端侧运行互联网,隐私拉满,但是复杂的操作他做不了,跨应用任务直接卡死,只能干杂活。 那容更绝了,核心代码才五百行,路由器都能跑,但是自己要变功能,普通人根本就玩不转的,只有技术大牛能折腾。 还有一款 menu bot, 号称强化版的 open core, 记忆强,部署简单,但是超级耗算力,比 open core 费了两到三倍, 而且还要高权限,隐私全暴露了,核心代码还不全开源。所以看似这几款各有特色,实质大多是凑数的,真正能打能落地的就没几个,普通人怎么选呢?划重点, 日常轻度使用的选 pico, 不 花钱不费电,应付琐碎事情足够了。那专业办公的企业用的当然选 open color 或者肌肉 color, 虽然费算力,但靠谱能干活呀, 即刻想支腾。再是 non core, 普通人千万别碰啊,纯属给自己找麻烦。这人体大战不是卷参数,是卷能不能干活。现在大多仿品都是套壳的,根本没有真正的这组能力,离真正的 ar 插座还差得远嘞。

嘿,咱们聊聊 ai 代理。其实啊,选它就跟买车一模一样。你想想,你走进一个车库,你不能光问哪辆车最好,对吧?你得先问自己,我到底要干嘛去?是要去赛道上飙速度?还是要翻山越岭搞越野? 又或者,你就是想要一辆超级省油、保养不费心的家用车?好了,那现在就跟我一块儿走进这个高科技车库,咱们来好好瞧瞧这四款风格完全不同的座驾,看看哪一辆才是你命中注定的那台。 咱们先来看看第一辆车, open call, 你 可以把它想象成一辆配置拉满、马力超强的赛车。 它的生态系统可以说是最全的,功能多到你眼花,甚至还能通过它的 note i 架构远程遥控你手机的摄像头和 gps, 厉害吧?但你懂得,这种高性能猛兽对场地要求高,而且油耗也惊人。 接下来看看 nanobot, 这辆车呢,更像是一台被精心调教过的改装车。它的核心代码特别干净,就四千行,性能又高,里里外外都透着一股清爽。 所以它特别适合那些喜欢自己动手,快速验证想法的开发者和研究团队,这绝对是一台完美的项目车。 好,现在我们来看点硬核的 nano claw, 这可不是什么普通车, 这是一辆为了绝对安全而生的装甲车。它的设计哲学就是安全第一,用了操作系统级别的容器化技术,说白了就是给你的核心任务和敏感数据造了一个刀枪不入的移动堡垒。 最后是 zero klo。 嗯,如果说 open klo 是 喝着九十八号汽油的性能怪兽,那 zero klo 就是 一辆超高效的电动赛车, 它天生就是为速度和效率而生的,资源消耗低到吓人,而且它的核心是用 rust 语言翻译的,这就意味着它的零件特别耐用,长期来看,兼容性好,维护起来也省心。 好了,四位选手咱们都认识了,现在是时候来点真格的了。第一项路测,咱们就掀开引擎盖,看看他们的马力与油耗,也就是在真实世界里的性能表现和资源消耗。 你看,数据是不会骗人的。瞧瞧这张表, openclo 这台高性能引擎,哪怕只是挂着空挡停在那儿,都能吃掉最高一点五 g 的 内存,简直是个油老虎!那 zeroclo 这辆电动车呢?内存消耗居然不到五 mb, 冷启动时间更是不到十毫秒! 我的天,这差距都不是一点半点,是好几个数量级啊!这一张图就更直观了,这简直是一道鸿沟。 你想想,如果是在需要大规模部署的云服务器上,这种效率差异直接就决定了你的运营成本到底是天价还是白菜价。 好了,接下来咱们把这些车开上路,去复杂的数字高速公路上跑一跑,看看它们是怎么接入互联网,这个智能交通系统又是怎么驾驶和控制浏览器的。 哎,这里就有意思了,两种完全不同的驾驶哲学, open clone 呢,就像是配了最顶级的 gps 系统,它用一种叫羽翼 g a m 的 技术,能特别精准地读懂网页上每一个交通标志和路牌到底是什么意思。 而 zero clone 呢,它更像一辆全地形越野车,压根不依赖地图,它把网络协议和页面渲染给彻底分开了,所以不管路况多复杂,它总能找到那条最直接最高效的路。 好了,现在到了最要命的环节了,安全测试。在 ai 代理的世界里,一次碰撞的后果,那可能就是灾难性的,这就要看车辆的被动安全特性到底过不过硬了。这可不是演习啊, open claw 就 真的遇到过这种危机, 一个高危漏洞,能让黑客远程在你的系统里执行代码,这就好比你开着车在高速上飞驰,结果黑客从千里之外就把你的引擎盖给掀了,后果简直不敢想。那么问题的根源到底在哪呢?其实就是安全设计的理念不一样, opencloud 的 全线审批,就像在路口站了个交警,抵他点头你才能过去,但这个交警是可能被骗的。 而 nanoclaw 和 zeroclaw 呢?它们用的是物理级别的安全控制。 nanoclaw 的 仍气隔离就是一台装甲车,而 zeroclaw 的 瓦氏砂合和内存屏障,就好比是安全气囊加防撞梁,甚至是物理路障,自动就把非法操作给拦下来了。 这在安全区里就叫降维打击,根本不是一个量级的对抗。正如这句话说的,真正的安全不是靠那些脆弱的应用层代码来保证的,而是要深深地扎根在操作系统的底层结构里。这是一种从依赖规则到依赖物理的根本转变,完全是两个思路。 好了,所有的测试都跑完了,现在咱们回到最开始的那个问题,到底该选哪辆车?其实答案很简单,这完全取决于你的任务和你准备要跑的路。 如果你的任务涉及到金融交易,或者要处理特别敏感的客户数据,那安全就是你的命根子。这时候想都别想,娜娜,靠这辆装甲车就是你的唯一选择。它的容器隔离能确保万物一失,给你的数据隐私一个堡垒级的守护。 但如果你是那种我全都要的超级用户,希望一个工具能搞定所有事。比如说在物流行业,需要快速部署、高效处理各种任务,那 openclaw 这头巨兽肯定最对你的胃口。不过你得记住了,要时刻盯着它的油耗和安全警报。 对于那些搞学术研修或找需要快速迭代想法的初创团队来说, nano bot 这辆改造车就是最佳拍档。它的代码又干净又透明,你想怎么改就怎么改,能让你最快速度地打造出你想要的原型。 最后也是最关键的,如果你再做一个要服务成千上万用户的萨斯平台,或者想在互联网编剧、计算设备上部署 ai, 那 每一分钱都得算清楚。 zero claw 这辆超高效电动车,它甚至能在一台十美元的树莓派上流畅运行,能把你的服务器成本呛到最低,还能提供毫秒级的响应速度。所以你看,咱们绕了这么一大圈,结论到底是什么? 关键其实不在于找到那辆最好的车,而在于作为一个系统架构师,你要为你的任务找到那辆最合适的车。 这一切的背后,都指向一个特别核心的工程学原理,叫做权衡。选 ai 代理本质上就是一个战略性的工程决策, 你得在功能、性能、安全和成本之间找到那个最完美的平衡点。这可不是一场跟着别人焊好的选秀比赛, 随着技术的发展啊,这些 ai 代理正在从一个冷冰冰的工具,慢慢变成我们身边不可或缺的 ai 驾驶员,甚至是智能队友。所以真正的问题来了, 当他们已经准备好接管方向盘的时候,你的团队、你的组织真的准备好把钥匙交出去了吗?

你们知道 open call 被抢劫了吗?自己都还没有长大,还没有满十八岁的,都未成年就已经怀孕生娃,已经生了一堆娃了,你看人红是非多, 没办法,外面一堆人在排着队追他的。下面我们就来看一下 open claw 的 子子孙孙,盘点一下 open claw 他的家族有多么的庞大。首先啊, leather bottom, leather claw, leather claw 派克克拉迷你克拉马克克拉, jeff 克拉艾伦克拉。哎呀,实在是太多了,我数都数不过来了。但是啊,这些子子孙孙里面啊,我比较看好的有三个吧。第一个, 莱茵博特,莱茵博特的话,目前它的社区活跃度应该是最高的。另外啊,莱茵博特的作者已经基于莱茵博特开发了一款应用,叫 fastcode, 这个 fastcode 啊,顾名思义啊,就是帮助程序员或者是普通用户啊,快速去理解一个项目的人代码。 第二个, java, java 的 话是基于拉斯语言开发的,它的整个体积啊,以及它的运行环境啊,对这个硬件资源要求是最低的。然后它的启动的速度啊,也是最快的。其次,在整个 拉斯家族里面啊,这个 java 它的社区应该是最活跃的。第三个, 拍个 call, 拍个 call 的 话是基于构语言开发的过敏实验,构语言在病发这个方面是比较在行的,所以它的体积和对应激资源的依赖啊,也是非常小的。 并且的话,他针对于这种单拼机啊,也是做做的很大优化的。所以啊,这个拍个酷乐的话,他在整个因为他这个拍酷乐作者呀,就是做硬件的,所以说如果你想做硬件周边的一些产品的话, 拍个酷乐我觉得是可以考虑的。经过这么一闹啊,我大概谈一下我的几点看法和体会吧。首先啊, 你要么就是做一个卖铲子的人啊,你看 oppo cola 这么火啊,那么你一旦有这种想法,生意头脑啊,你就立马可以去 卖这个 oppo cola 的 周边啊,你看前段时间关于 oppo cola 的 一些硬件,电脑硬件,像 mac mini 还有定制化的一些小电脑,都卖的很火啊,有的人赚的盆盆满钵满啊。 第二个,那就是如果你在某个行业里面有一定的这种行业精英啊, 是可以立马去基于这个 open core 去做一些行业的定做化解决方案,这个其实已经有人在往这方面在开始了,并且已经有人做的挺好,好像一个月就赚了十几万美金啊。 第三个,你要是真的一点行业经验都没有啊,那么你就可以用这个 ai 啊, 快速去学习啊,哪怕你在某个行业没有这个行业知识啊,但是你也可以去跟这个 ai 快 速深入去理解一个行业,这个 ai 会很快的 告诉你怎么去学会这个行业里面的一些最顶尖的知识啊。所以啊,你不用非常懂啊,你只要知道商业模式,知道怎么去运转,怎么去运营就可以了。至于这个产品怎么开发,现在不需要你写代码, 外部 call 的, 用 ai 帮你做执行就可以了,用 ai 帮你写代码就可以了,你只要快速用 ai 把产品快速做出来,然后快速去市场上面去检验,快速去市场上面去运营,快速去拉几个客户体验一下,检验一下客户 愿不愿意买单,所以啊,我们不要出那个 open core 这么一个非常火的东西,就只知道搞技术,我们应该要培养自己的商业头脑,大家说是不是?

还在被 open cloud 的 内存占用逼疯,还在忍受 agent 响应慢的煎熬, rust 编写的 zero clouds 重磅开元,直接给 ai agent 框架来了波降维打击,轻量高速高适配,堪称开发者的梦中情架。 曾火遍全网的 openclock, 靠着易上手的生态圈粉无数,可一到生产环境就拉跨。 note g s 运行时内存告急,二 g 内存都能直接溢出刀刻镜像,几百 n b 边缘设备根本跑不动,高病发处理时延迟拉满,实时需求完全满足不了。 而 zero cloud 不是 简单复刻,而是用 rust 重新定义了高效 agent 这份硬核实力,直接用数据说话。二进置体积从二十八 mb 压缩到三点四兆,直接缩水八倍,启动时间从五九十八秒变成顺势启动,能启动快到离谱, 内存占用从一点五二 gb 骤降至七八兆,差距高达一百九十四倍!这哪里是优化,简直是维度碾压 百分之一百!纯 rust 编写的 zero club, 把语言优势发挥到极致,零运行时开销,编印后直接运行,没有 note cosmos 的 臃肿, 一拖 tokyo 异步运行时高并发消息轻松处理,毫秒即响应,超丝滑。而 a i i 内存管理机制,彻底杜绝 g c 卡顿和内存泄露,生产环境稳到离谱。 更贴心的是它的超强适配性, tradebase 的 插件化架构,实现真正的热插拔换 l l m, 后端加消息渠道,改个配置就能搞定,零代码修改超省心。 c l i kilogram discord slack imessage, 全平台原声支持,即刻调试,个人助理办公生产全场景覆盖。 最香的是它极致轻量化便携产物小巧老旧,硬件、边缘设备都能流畅运行,用更便宜的 v p s 就 能搞定部署,大大降低算力成本。底层轮浮式设计,让模块高度接口像搭积木一样就能组装专属 agent, 坚固性能与定制化。 如今, ai agent 的 竞争早已不是拼功能,而是拼工程能力。 open cloud 完成了普及使命,而 zero cloud 则开启了 ai agent 框架的高性能时代,用底层重构实现资源集约,让少资源高产出成为现实。 如果你是开发者,正在寻找生产级 ai agent 框架,这款开源的 zero cloud 绝对值得星标关注我解锁更多 ai 开发硬核工具和实战技巧。

open curl 你 配置成功了吗?号称零内存的 zero curl 来替管了 open curl 像一个超级工厂,但不安全,太次配置。 zero curl 纯 rust 打造,绝对的性能刺客,内存占用直降百分之九十九,只需要五兆就能跑起来, 几十块钱的低端设备照样起飞,且自带安全沙盒。巨无霸工厂对比特种部队,这一波你占谁?我们最近在对 zero curl 进行深度研究,请持续关注我,后续分享更多细节。