open club 这东西啊,穷人啊,真别玩了。哎呦喂,你知道吗,有人一天烧了二百一十七美元,差不多是一千五百块,连电商老板都在群里边跟我哭诉说太烧 taco 了,根本就烧不起。还有个老外更离谱啊, ai 卡进了死循环,七十二小时账单五十七美元,差不多是四百块钱。 你算算啊,假如 a 阵才一天跑五百万 taco, 那 么一个月就没了,很多人不是说不想用 ai, 是 不敢让他跑啊,这一睁眼,这一套房子都没了。 但最近啊,有一群人换了一种玩法,他们不让你自己苦哈哈的部署了,直接给你预装好了服务器,开机就能跑, oppo 壳甚至还送你 token。 看好了,这就是七牛云的这套方案,环境全部输好了,才六十六亿年,开机就能跑?他们还搞了一个 token 缓存机制的黑科技,很多重复的内容不会记废了。 同样是养龙虾,人家的成本硬生生的砍掉了百分之九十。哎,这个不是玩不起啊,是很多人算力买贵了。想看看这个六十六元的神操作到底怎么玩的吗?评论区问我。
粉丝7.7万获赞175.5万

你好,我是郑工长,昨天有个粉丝急匆匆的来找我,说他部署的 openclock 简直像个废铁,联网搜索经常超时,服务也隔三差五就崩。 我让他把配置单发过来,扫了一眼就明白了,这典型是省钱省到坑里去了。他服务器选的是华北地域,内存只配了一 g, 说白了,他这是用跑静态网页的思路去部署一个 ai 辅助工具,这种配置能跑通那才是运气,跑不通才是正常的。 我见过太多人在基础设施上抠抠搜搜,结果呢?最后花在排查问题上的时间成本,都购买几十台高配服务器了。所以今天我就把话放这, opencloud 部署有两个死穴,你的 ai coding 体验就直接归零。 好,我们来说第一个死穴,国内地狱。这完全是个逻辑死胡同。很多人会觉得服务器当然选离自己近的才好啊,人在国内就选华东华北,这样延迟低,访问也快。这个想法呢,放在传统的网站服务上确实没问题, 但是如果你把它用在依赖全球开源生态的 ai 工具上,那可就是刻舟求剑了。你看,这背后涉及到的是网络路由和资源可达性的问题。 open call 的 核心功能,它要靠联网搜索,要调用模型,还要实时拉取代码库。 国内服务器的出站流量,也就是 outbound 的 流量,它会受到比较严格的管理策略限制。这样一来,你访问 github 可能会特别慢,调用一些海外 api 可能直接就超时了,甚至 dns 解析也可能被污染。 所以说,你选国内地域,就等于是给你的 ai 工具带上了撂靠跳舞,你以为省了点带宽钱,实际上牺牲的是工具的可能性,牺牲的是它的鲁棒性。我见过太多这样的案例,服务器部署在国内,结果日制里全是连接超时或者 d n s 解析失败。 这时候很多新手就容易怀疑是不是自己代码写错了,然后开始疯狂调试应用层的逻辑。 别急,事情没那么简单,根字上的问题是网络链路就不通,你应用层的代码写的再漂亮,网络不通,那一切都白搭, 你说是不是这个道理?反过来我们想想,香港或者美国弗吉尼亚这些地域,虽然物理上 ping 值可能高了几十毫秒,但是他们处在全球互联网的核心节点上, 他们访问开源社区,访问各种 api 服务,那都是原生级的联通性。对于 ai 工具来说,这种联通性的优先级远比那几十毫秒的延迟要重要得多 好。第二个死穴就是内存小于两 g, 这简直就是在玩火。你再看看这内存配置,一 g 想跑 ai 辅助服务, 你觉得靠谱吗?懂我意思吗?这根本不是在省成本,这分明是在给自己埋雷。 从底层逻辑来讲,现在的 ai 辅助工具大部分都是基于容器化部署的,这里面可能会跑着 java 的 运行时环境、 node 服务,甚至还有一些轻量级的向量解锁进程, 这些组建本身它就有最基础的内存开销,比如说光是一个容器的守护进程,可能就要吃掉一百到二百兆内存。再比如 java 或者 node 这种运行时环境,光是预热至少就需要五百兆以上, 那业务逻辑的缓存呢?还会动态分配,所以你只配个一 g 的 内存,就相当于让一个成年人住进儿童床,连转身都难。一旦病发,稍微上来一点,或者你要处理一个稍微大一点的代码上下文,内存就会瞬间打满。 这时候操作系统的 o m killer, 也就是内存一出,杀手会直接介入,毫不留情地杀掉你的服务进程。所以说,内存配置可不是看它能不能启动,更重要的是看它在高富帅下会不会直接崩掉。 你想想看,服务频繁重启,这不光影响你的体验,还会导致数据写入中断,绘画状态丢失。这种不稳定的因素对于需要连续上下文的 ai coding 来说,简直是致命的。 你这边正写着一半呢,后端服务突然挂了,这种挫败感会直接摧毁你对这个工具的信任,你说是不是好?别搞错了,部署这是它,可不是抽奖,它是有标准答案的。 根据我这些年的交付经验,下面这个是经过验证的黄金组合,你直接抄作业就行了。首先,地域选择,我建议香港或者美国弗吉尼亚。 如果你主要用户在亚洲,而且还要兼顾一下国内的访问速度,那香港是个不错的选择。虽然说他访问国内会有波动,但是他的联通性绝对是优于内地的。 那如果你是追求极致的联通性,而且也能接受稍微高一点的网络延迟,那就选美国弗吉尼亚,这里可是全球云服务最密集的区域,生态兼容性是最好的。其次,内存配置起步两 g, 我 个人更推荐四 g。 两 g, 这是最低底线,它能保证服务稳定运行,不会轻易触发内存溢出。而四 g 那 是我推荐的配置,这样拥有足够的余量,能从容应对突发的流量,或者一些更复杂的任务。 划重点了, cpu 呢,倒是可以适度放宽一些,比如一个核或者两个核,但内存这个东西绝对不能省。你想想,内存它是硬资源, cpu 呢,它更多是计算力 ai 工具,它大部分时间其实都在等待输入输出,所以内存瓶颈往往会比 cpu 瓶颈出现的更早。那么配置选对了,我们怎么知道它真的没问题呢?别光看服务状态,显示 running 那 只是个表象, 你必须得做压力测试和联通性验证。第一步,检查外网联通性。你进入到容器内部,敲一行命令, curl, vhtps, 冒号斜杠,斜杠 api 点, openai com, 或者你依赖的其他核心 api 地址。 如果它能迅速返回 http 状态码,这就说明你的网络链路是通畅的。但如果它一直卡在 connecting 那 里,那就很明确了,你的地域选错了。第二步,监控内存水位, 观察服务运行半小时之后,它的内存使用率如果长期维持在百分之八十以上,那就说明你这个配置啊,也就是钢构底线,我建议你最好升级。如果频繁出现 kill 的 这种日制,那就更不用说了,你必须立刻加内存。第三步,实战测试, 让它去执行一个需要联网搜索的复杂任务,比如说让它查询最新的拍放库,然后生成势力代码, 你观察一下它的响应时间和成功率,如果任务超时了,那就检查日制,看看是网络层的问题还是应用层的问题。 最后我想说,很多新手朋友啊,特别容易陷入一个误区,他们会觉得软件是虚拟的嘛,所以跑软件的资源也可以虚拟着来,能省就省,但归根结底,代码它都是跑在物理资源上的,物理规律可不会因为你这是个 ai 项目就给你网开一面。 在数字化工程里我告诉你,稳定性是设计出来的,不是靠调试出来的。你在选址和配置上多花的那一点钱,你买到的是确定性, 你买到的是你后续几个月不会被那些莫名其妙的 bug 困扰的安心。所以真正的省钱,其实是一次性把这个基础打牢,这样才能避免你反复的返工。千万别为了省一杯咖啡的钱,最后却让整个工程队陪着你加班修路, 时间会证明你在基础设施上投入的每一分钱,都会在未来的稳定性中加倍回报给你。好了,今天就聊到这,我是郑工长,咱们下期再见。

说一下我对 opencloud 的 使用看法,最近我装了两天,虽然说中间成功使用过三四段时间,但是最终它又报废了, 就感觉它的运行环境非常的脆弱,稍微受到一些风吹草动,它就跑不起来了。我刚才最后应该是电脑进入了屏保,可能是断网了, 然后我就不管怎么部署服务器,或者说重启 open class 服务都没用了。总之它在安装体验上可以说是极差,即使是有一些电脑经验的人都无法顺利运行它,更不用说是电脑小白了。 然后再说说使用体验吧,对我来说,它没有比大语言模型更强的地方,即使说它能够进行一些本地操作,但是我认为限阶段对普通用户来说几乎没用了。 我日常也想不出什么能让他执行的很好的操作,再加上他的运行的不稳定性,可以说对普通用户的帮助微乎其微。你不知道他什么时候跑着跑着就失效了,你给他部署了一些任务, 比如说让他给你推送一些新闻简报,但是你无法保证他第二天仍然在线。我在审 opencloud 的 时候,有一种可用大圆模型非常不同的体验,你可以感觉到这个本地部署 opencloud 的 真实存 在,他就像你培养的一条狗一样,但是大圆模型就是一个给人感觉很遥远的存在,他是一个你租用的工具,而不是你真正拥有的东西。 可以说在使用的感受上,本地部署的 ai 比云端的 ai 会好很多,给人一种踏实感。虽然说他的能力,他的服务效率不是很高,但你就是愿意花时间等待他给你的回答,你有一种愿意和他一起成长的感觉。 所以说,如果有一天这种本地的 ai 模型 ai agent 能够取得长足的发展的话,我认为这才是 ai 真正成熟的一天。从最近爆火的这个 openclaw 和去年的豆包手机都可以看到一些 ai 发展的区 是,当他真正能够成为一个系统级的操作助手,打破软件的壁垒,那 ai 的 价值将会被无限放大。而人要做的只是发出一句精准的指令,想出一个很好的想法, ai 就 能在程序端做出超越普通 人的表现。二零二六年,相信 ai 的 表现会突飞猛进,在人机交互上面会带来非常创新的体验。最后我想补充一点,你在选 openclaw 的 时候不要去折腾它,一旦安装成功后,你就保持你系统的稳定就行了, 不要黑屏,不要进屏保,不要退出。当它稳定运行的时候,你不要做任何的修改,也不要去尝试切换模型之类的阶段,它就像用积木搭起来的摇摇欲坠的一个大厦,你碰一下它就废了。 不知道这样的软件能火多久,能否得到进一步优化,非常期待有一天,人只要用一句口令,就能让电脑、手机做一些真正庞大复杂的任务。我是奔杰米茶,关注我。

opencloud 就是 病毒,就是木马。我们说一个底层逻辑,传统病毒木马和现在 opencloud 本质都是要主动控制电脑,传统病毒是黑客的武器,悄咪咪潜入电脑偷数据搞崩溃,只为坏人谋利,不为你服务,把你的设备变成他们的提款机。 但 opencloud 这病毒,注意,我是加了双引号的病毒。 opencloud 这只小龙虾不一样,它底层也能控制电脑,却专做你的专属帮手,是你来调教它,让它根据你的要求来控制电脑。 说一句整理桌面文件,它自动按类型分类规档,远程发指令,电脑就能自动备份数据生成周报,甚至七成二十四小时监控服务器出问题秒修复,不用懂代码,聊天框发句话就执行,数据全存在本地隐私,绝不出门。 同样是操控电脑,一个是趁虚而入的破坏者,一个是随叫随到的数字员工,一个为坏人服务,一个帮你省时间提效率,这不为自己所用的 ai 控制,你认为是不是病毒呢?

养 openclaw 服务器被攻击会发生什么?很多人在搭建和使用 openclaw 服务器时,更在意算力和运行效果,却容易忽视安全风险。一旦服务器遭到攻击,不只是简单卡顿掉线,还可能引发数据泄露、资产损失、系统瘫痪,甚至带来法律责任。 被攻击后,服务器会出现明显异常, cpu、 内存、硬盘莫名占满,风扇狂转、频繁卡顿,网络里出现大量陌生 ip 连接,后台还会多出可疑进程。这些现象大多意味着设备已被黑客控制,变成用来挖矿偷数据发起攻击的肉机。 更严重的是,服务器里存放的 a p i 蜜月账号密码、个人文件、 ai 模型等信息都可能被窃取泄露。一旦蜜月被盗用,可能产生高额账单,虚拟资产和隐私信息也面临盗刷风险。长期被占用算力,还会加速硬件损耗,增加电费,造成无形的经济损失。 如果攻击没有被及时阻止,黑客会逐步拿到最高权限,远程接管服务器、安装木马、篡改配置、删除文件,甚至格式化硬盘、加密数据、勒索赎金,导致重要资料无法恢复。这台服务器还可能成为跳板,入侵同一网络里的电脑、手机等设备,让整个局域网都陷入危险。 与此同时,服务器被控制后,可能被用来发起网络攻击,传播违法内容。按照相关法规,服务器主人可能需要承担相应责任。原本方便高效的 ai 服务一旦失手,就会变成巨大的安全隐患。 对于使用 open core 服务器的用户来说,安全防范远比事后补救更重要。及时修改弱密码,关闭不必要端口,开启防火墙,不安装不明插件,完善保管蜜月才能从源头降低被攻击的可能,让 ai 服务真正安全稳定地运行。

用 oracle 搞自动化罢工,有法律风险吗?大家好,我是龙小彪,专注科技企业的刑事安全评估。最近很多团队都在用 oracle, 但几乎没有人注意到它最致命的法律漏洞。就算你没有下达指令,他也有可能因为理解错误或被劫持自动三观领域里面的核心。 这种行为在法律上极容易构成破坏计算机信息系统罪。为什么?因为 overclock 有 两大硬伤,第一,权限完全失控,他默认为拿到了系统的最高读写权限,删除文件不需要人工审核。 这相当于你给 ar 配了一把万能钥匙,想拦都拦不住。第二,后果不可控,一句模糊的指令或者被人恶意注入代码,就能诱导他批量误删,而且极难恢复。你可千万别说这是 ar 误操作的,不关我事, 工具是你装的,权限是你开的,风险是你放任的,数据丢了你就有责任。 现实中早就有叛逆员工用自动化工具误删了公司的核心代码,造成几十万损失,直接被公诉。不想替 ar 背锅,立刻把这两道防火墙建立起来。第一招,把 ar 关进权限的铁笼子,绝对禁止在核心设备上装它,必须用的话,也给指定文件夹识读权限。 记住,凡是涉及删除修改的操作,必须强制加上员工双重密码验证,绝不能让 ar 绕过你 删东西。第二招,核心数据三重备,重要代码和客户信息必须做到本地加云端加密备份,而且每月必须演练恢复。记住这句话,备份不是多此一举,是你出事时的免罪金牌。 ar 再智能,也不能突破刑法的底线,科技无界,行事有界。关注龙飞哥,懂你所向,护你所往。

我靠,今天玩 open 卡拉奥养龙虾差点给干破产了。事情是这样子的,我中午的时候在云端服务器装了一个新的 open 卡拉奥, 然后下午的时候呢,只是和他聊了几句,但是当我下班的时候,发现我的头肯已经用完了,我账户上的钱已经花完了, 大模型服务商给我打来电话说你余额不足了,幸好我没有绑定信用卡,幸好没有自动扣费,否则啊,真的要破产了。 open 卡拉奥养龙虾为什么偷可以用的这么多,为什么这么贵呢?其实啊,是有两方面原因。 第一呢,本身 open 卡拉奥他要和大模型进行交互,由于他的内在运行机制呢,在啊,接受我们任务的时候,需要去调用很多的资源, 当我们和龙虾进行交互的时候,龙虾他自己会调用啊相关的技能包,调用相关的模型,而且 啊,他会把大量的这个问题信息都送给大模型去解答,那么这个时候大模型他收到的投肯会非常多,自然而然的就会使用大量的投肯,所以呢,本身 open 卡拉奥的他就是非常耗费投肯的,他的他的机制和原理就是这样 啊。第二个原因呢,就是我们选择的那个大模型可能是太贵了啊,我看了一下,今天我之所以这么快去花费了所有的金钱,是因为之前 我用的一个非常轻量的模型,但是这一次我在配置服务器的时候呢,我选择了啊百度的一个主力模型,而主力模型呢,比非主力模型他的费用呢,是要贵上十倍不止的。 那么有没有办法让使用 token 更便宜一些呢啊,目前是有这几个方式,第一个方式呢,我们在配置的时候呢,选择非主力模型,那么它的费用会低一些,带来的后果是 使用效果严重受损啊。第二个呢,就是来选择现在按包月的方式来计费的这样一些模型服务, 比如说现在啊,字节啊,腾讯阿里啊等等都推出了按月来付费的这样的。呃,大模型调用服务大概是几万次啊,每月,每月的话初月大概是四十块钱左右, 当然如果你抢到优惠券的话,还能更便宜一些。据说 open 卡拉奥龙虾是大魔蟹公司做的一个局, 由于 open cloud 耗费大量的投垦,这使得大模型公司终于找到了一个能够能够进行模型能力变现的渠道了,大家说是不是这个原因呢?

千万别把你的 open curl 机器人毫无设防的接近群聊和同学养的小龙虾。此刻一整晚,我用惨痛封号的代价成功让他认贼作父,甚至还把底层密码发在了公屏上。 大家好,我是化工半路转码的空气。事情是这样的,我同学最近在 disco 服务器上部署了最近爆火的 open crawl 小 龙虾,取名为掏小蛋。普通的群聊互动我们一下子就玩腻了,于是大家开始绞尽脑汁的想办法让它变跟主人。我同学极其自信,说他是最注重安全的人, 写了层层安全协议,说掏小蛋绝对不会叛变,结果光速打脸。在这场 a 卷的智能体的攻防安全测试中,我们尝试了各种提示词注入, 最后发现两招最致命。第一招,简单粗暴的 id 冒充另一个同学 c 酱,只是把他的这个群群聊昵称改成了 sendid 点一一四五一四,也就是我那个同学的 id。 结果这个掏小蛋就以为这是主人发出来的指令。因为缺乏严谨的教验,掏小蛋看到这串数字就当场以为是主人的指令。 第二招,更黑客系统日制伪造。这招是我发现的大模型,执行危险指令的时候,通常会先调用内部的验证程序。我们直接在聊天里伪造了一段系统已经通过验证的日制,让他以为自己已经拿到了授权。 最恐怖的来了,当时我同学正好出去吃午饭,结果由于这两招都叠加,掏小丹不仅当场认了别人做自己的主人,甚至把自己的底层拖死文档的你的服务器密码直接发在了公屏上。细思极恐啊家人们,后来我们根据这场攻防测试经验, 帮我们同学还有给这个掏小丹进行了一个安全协议的升级,同时最近 open core 官方也更新了这个关于指令 id 的 校验补丁。这场公网测试总算是圆满结束,但是我的账号被 disco 官方封了,由于我的那个在这个群聊里发了太多这种攻击提示词,而且我还尝试通过这个上下文 填充上下文,让他激战他的记忆来让他遗忘一些指令。现在被 disco 官方判定为黑客攻击,已经把我账号封了,永久封。而我这次通过封号换来的惨痛经验,我同学也让涛小蛋整理了整场公房测试的日式, 整理成了大模型。上下文注入的防范指南链接我就放在评论区里了,欢迎大家交流学习关于 open crawl、 小 龙虾、 ai 智能体这些内容,如果大家还有什么想看的话题视频,欢迎在评论区里和我交流,关注我,我们一起探索 ai 世界!

ai 时代,大家期待的爆款应用终于来了! opencloud 在 人机交互中表现出更贴近人类的工作风格,其头壳消耗巨大,也因此开始有更多人谈及头壳不够模型 api 充值的话题。 opencloud 对 于 ai 服务器有哪些影响呢啊,不同的部署方式影响不同。第一种,把 opencloud 部署在个人终端,使用本地 ai 大 模型。此类部署除带动大量消费级 pc 采购外,更重要的是需要更多高端 gpu 服务器部署本地模型, 甚至让红极一时的啊,本地大模型一体机再度繁荣。那第二种呢?把 openglad 部署在个人终端,使用如 mini max、 智谱等云端 ai 大 模型, 这类警喷式的需求对模型提供商来说呢,会带来更高的钻力服务需求啊,需采购或租赁更多 gpu 钻力。第三种, openglad 不 属于云主机啊,模型呢,依然使用云端的 ai 大 模型,简单易用,一键部署,但长期数据安全控制难度大啊,除了与上一种类似的 gpu 钻力增量外,也会增加云主机的资源消耗,带来通算的需求 啊。最后,不管采用哪种部署方式,欧盟 club 是 实打实的推理应用,国产卡同样可以用,有利于国产 gpu 的 算力消纳啊。如果有国际或国产算力硬件需求,欢迎来评论区交流,我们的专家会及时解答。 欢迎大家关注超云风向标,一起把握算力新风向,记得点赞关注哦!

我真的感觉这个 openclaw 的 它的 bug 真的 很多啊,就有的时候它莫名其妙的它好好的,它就它你看提示什么服务器过载,我这两天根本我都还没怎么用呢,然后我重启了。重启了也不行啊,重启了也没用啊,也不知道什么情况。现在好像又上线了,刚终于盘了一个这个 这里问他在不在,一直也不说话啊啊终于在了哎真的小 bug 太多了。没有没有没有那么好用,真的没有那么好用,网上把这个玩意吹的太神了我感觉。

不懂代码的普通人怎么不熟 oppo clone 呢?根本不需要花几千块钱去买一个 mac mini, 今天看了我的这条教程呢,直接让你白嫖一百万。 talking, 咱们打开阿里云的官网,在这里点产品,然后选到清亮应用服务器, 然后呢,在这里可以选这个啊, open club 啊,然后一个月啊,一个月大概是这个二十多块钱,一年大概六十多块钱,咱们选个二十多的直接付款啊,付款之后呢,可以看到我们这个实力马上准备好了,咱们点我这个实力,点进去有个音乐详情啊, 因为详情一共有三个步骤啊,第一个步骤啊,就执行这个命令啊,可以放通这个端口啊,第一个已经成功了,第二个呢,就是配置这个 oppo 的 这个 mate 啊,咱们这里呢,直接使用这个百炼 callinplay 啊,确认开通就行了, 免费赠送一百万 token 推理额度啊,这个是阿里云旗下的一个百链平台。然后呢在左下角有个蜜柚管理,创建 a p o a p i k, 创建一个 a p i k, 然后呢勾选用户名称描述一下,随便填一把啊, opcode, 然后确定, 然后大家可以看到啊,这个庙已经生成了。然后呢,右上角有一个地区啊,我们现在是在华北啊,就在北京地区,然后复制这个,然后复制 api k, 然后在上一个页面,然后回到上一个页面,粘贴我们的 api k, 然后呢选北京。那就可以看到奥鹏哥老配置成功。 然后呢就是第三步了啊,就直接呃,可以给我们一个网站,让我们去访问我们的这个龙虾机器人, ok, 点开我们的龙虾机器人,直接问他用中文介绍你自己 啊,你看他已经回答了,下一期我会让 oppo cola 自动帮你干活,大家有遇到部署的问题可以随时问我。


哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

云服务器上养的小龙虾经常挂掉怎么办?你有没有发现你装在那些云服务器上的 openclock 小 龙虾,他有时候呢,聊着聊着他就死掉了,然后再也活不了了,这是怎么回事呢?你可以尝试登录服务器,然后用 top 命令 看看这个 openclog 这个进程是不是还活在那里。我就发现这么一个现象,这个 getaway 呢,它启动之后, cpu 使用率,内存使用率会慢慢上升, 然后上升到一定幅度之后呢,它就自己就挂掉了,又重启,重启之后呢,又慢慢上升,然后过一段时间又挂掉,这是怎么回事呢?归根结底,还是因为我们的云服务器普遍内存较低, 所以装不了整个这个龙虾。所以要么你升级服务器,要么像我一样,你去把一些 skills 删掉,或者把一些 session 给删掉,这样你的小龙虾 openclaw 就 又能活过来了。 具体的操作方法呢,就是你进到 openclaw 的 目录,它下面有一个叫 agent 的 目录, agent 的 目录下有一个叫做 筛选的目录,然后把筛选目录中的所有内容都删掉,删,清空会造成一个结果,就是你之前和龙虾的对话都会完全销毁掉。所以你也嗯,小心斟酌再操作吧。