粉丝349.2万获赞7402.4万

近期,俗称龙虾的 ai 智能体 opencloud 异常火爆。在深圳腾讯大厦楼下,可以看到排长队等待领号协助安装龙虾的人群。一些地方政府也开始放水养龙虾,最高补贴达一千万元。 然而,一个月前,工业和信息化部网络安全威胁和漏洞信息共享平台就发布了关于防范 opencloud 开源 ai 智能体安全风险的预警提示。三月十日晚上,工业和信息化部专家再次提示,尽管龙虾智能体已经更新到最新版本,能修复已知安全漏洞, 但这并不意味着完全消除安全风险。在调用大圆模型的时候,可能误解用户指定的内容,导致执行、删除等有害操作。使用被植入恶意代码的技能包可能导致数据泄露或系统受控, 因为将实力暴露于互联网使用管理员权限、铭文存储密要等配置问题。即使升级到最新版本,如果不采取针对性的防范措施,依然存在被攻击的风险。我们呼吁党政机关、企事业单位和个人用户要审慎使用龙虾等智能企。任何网络产品的安全使用, 除了及时进行升级更新外,还必须坚持最小权限、主动防御、持续审计的原则。在部署时,要优先从官方渠道下载最新稳定版, 一定不要将龙虾智能体实力暴露到官网,并且限制访问原地址、使用强密码或证书硬件密要等认证方式。严禁使用管理员权限的账号,只授予完成任务必须的最小权限。对删除文件、发送数据、修改配置等重要操作进行二次确认或人工 审批。党政机关、企事业单位和个人用户可以结合网络安全防护工具、主流杀毒软件进行实时防护。要定期关注欧风少官方安全公告、 工业和信息化部网络安全危险和漏洞信息共享平台等漏洞库的风险预警,及时处置可能存在的安全风险。

哈喽,下班了,今天我们来聊聊 openclaw, 我 觉得有必要啊,因为太热了这个话题,我想给它降降温, 为什么呢?因为这是一个在 getop 上引起广泛关注的一个项目,而且目前各家云厂商都上线了相关的云服务器,支持大家去部署这个产品。那么这个产品怎么定位哈?它其实是一个 个人助手,或者叫一个通用型的 ai agent, 它可以接入,比如说一些计时通讯工具,你可以通过这种计时通讯工具给它发消息,然后它呢帮你调度一个云端的电脑,或者是你本地的电脑,它可以完成一系列的任务。 那么我一开始看到这个产品的感觉,就觉得它跟 coldbody 这种产品非常非常的像,为什么呢?因为它们都是通用 agent, 就是它可以通过调用电脑里的各种工具, ai coding 的 工具,或者是电脑里的一些网页浏览的工具,通过 m、 c, p 等等,它可以去完成很多的任务。 当然因为授权范围的不同,它肯定是比 cloud code 或者 code body 编程类的工具,它能做的事情更多,而且它的主动性更强。 举个例子哈,你可以在你的一些即时通讯工具上直接说,你帮我发一个什么样的文档给谁谁谁,他可以直接执行。那你帮我把这次会议机要转成一个非常清晰的文件,帮他变成一个网站,他也可以非常快速的完成。 甚至是你可以跟他说,你调用这个电脑的录屏功能,帮我做一个什么样的 ppt, 它也可以完成。所以就是当你给 ai 配了一个电脑的时候,而且这个电脑它拥有所有的权限,它跟你的权限是一样的,跟人的权限是一样的时候,那它可以解锁很多的能力。 当然这里面有两个核心的概念,或者说核心的机制,让它跟 ai coding 的 产品有本质区别。第一个叫 gateway, 就是 相当于一个调度中台,它可以在这个调度中台上 接收信息,接收完以后分配任务给到不同的电脑中的工具,然后哎完成最后交付。那它是一个调度中台,那这个调度中台就可以实现一个 实时在线,就是二十四小时一直在线,它可以保持着这种这么一种激活的状态。那这也是为什么你说它可以持续不断的收到你的消息,就是因为它是持续在线这么一种状态。第二个非常关键的机制呢,叫做 heartbeat, 叫心跳机制,类似于给了 ai 心跳,让它可以跳动起来了。它什么意思?它每隔一段时间它会去扫描一下这个系统里有没有新的需求进来,比如说你的邮箱 有没有收到新的信息,比如说你之前有没有设过闹钟提醒,比如说每天八点去帮我扫一下整个今天的 ai 行业的资讯,或者是每隔一段时间我要去看一看有没有新的任务给到我。通过各种即时通讯工具,我就可以开始激活 ai 干活。 所以你从这里可以看到他有一个非常主动的一个机制,他会主动去扫描,他会实时待命,主动扫描,所以这个就跟像 coldbody 里你跟他去做交互, 拿到一个任务,完成一项工作就有很大区别,他就是处于一种实时待命的状态,而且会主动接到信息就开始干活,所以这个就是一个本质上的区别哈。 但是我觉得这个东西我为什么前两天没讲呢?就是因为我觉得它跟这种通用型的 agent ai coding 的 工具没有本质上的区别。假设说像 cloud code, 像 code body, 它们如果也想做一个类似的功能的话,实际上是完全可以做到的,只要给 ai 更多的授权就可以实现。 或者说你只要再弄几个移动端的交互的方式,你也可以在移动端指挥你的本地电脑完成这样的工作,其实没有一点难度。那为什么 大家都没做,为什么就只有这个 open cloud 在 做这件事?我觉得是大家对安全和效率中间怎么平衡的一个考虑, 就是你到底给 ai 多大的授权?我们知道它的上限其实是非常高,可以完成很多任务,而且很多任务上是超过我们自己的能力的。那这种情况下安全的问题怎么考虑?比如说现在如果是 这个东西被劫持,因为他有权限很高,那如果一个一个一个不法分子告诉你的电脑,说把这个人的电脑的内容全都删了,或者说把这个人的电脑中关于什么什么的内容发给某某邮箱,那他就可以实现了, 它就可以实现对你电脑的一个操控,对你个人数据和隐私的一个操控。所以其实这种安全问题是非常重要的一个问题。之前大家说中国人可能不在意自己的隐私,愿意拿隐私换便利,那接下来 ai 时代 那生产力是非常高的,这个上限是非常非常高的,那你愿意把你的安全拿出来多少去交换这种生产力的上限?我觉得这是一个摆在我们每一个人的面前的问题。因为 ai 的 能力现在 不是技术来去束缚的,而是你的这个治理的原则束缚的。你到底要给他多大的授权?你相信他到什么样的程度?你愿意给他几千块钱,让他帮你买东西,对吧?这样的一些问题,我觉得可能都是我们接下来要考虑的一些关键的问题。 我之前觉得像 coldbody 这种产品已经非常够用了,在我们的日常工作中哈,当然我也不满足,因为我前两天还在说怎么给 ai 更大的自主性,让它自己去跑这个 a 阵的能力。但是对于这种 openclaw 这种形态, 我自己心里目前还没有完全接受,当然我可以接受一个新的电脑去做一些尝试,但是因为他现在还有很多问题,比如说 token 消耗非常大的问题,比如说这种安全不可控的问题,所以我觉得目前不是一个非常理想的形态。当然最后 可能再往前走一下,很多产品也会去考虑这些问题,会给用户更多的选择,然后给用户。我觉得现在用户已经很很很少有能力去控制自己的这个数据的安全了。但是我们在这个 ai 时代到底要在 ai 面前变得这么透明吗? 也许有一天你会发现你让渡的这个权力本身可能比效率更重要。对,最近我在考虑这个 ai 时代的权力,到底我们要给 ai 多大的权力? 如果他的能力已经非常非常的高了,如果他的加入到人类社会中,真的已经能够给人类带来非常非常多的注意的时候, 我们愿意给他主体性,我们愿意给他授权吗?我们愿意给他权力吗?我觉得这些都是一些要考虑的问题,跟大家分享这么多哈,我觉得这也是一些非常非常前沿的命题,有机会再跟大家探讨,拜拜。

做到这几点的话,咱们就可以放心地使用 openclaw 来学习制冷铁。最近 openclaw 的 漏洞闹得挺凶,有的公司名利禁止不允许在办公电脑上安装 openclaw, 很多人一看新闻就慌了, 这东西还能不能用?是不是一安装就中招了?要不要马上卸载?我们来客观的说一下这个事啊, 漏洞是真的,但也没必要恐慌,尤其是咱们普通人,还有学生或者是那些初学者,因为你基本上碰不到这样的风险。他这个漏洞到底是什么呀? 就是主要出现在早期版本里面, open 全线过高,然后可能会有令牌泄露,还有远程执行的风险。 重点是这些风险它是有前提的,它真正的危险的场景是这样的,就是把 open 部署在工网上, 然后就是用它来处理一些高隐私高敏感的数据,还有就是用来呃,用它来跑那个涉及到跟钱相关的一些自动化脚本。 还有一种场景是用管理员权限按乱安装插件,然后呢,乱点陌生链接。如果你只是在你的电脑上学习测试的话, 这种情况基本上有漏洞也影响不到你,因为黑客如果要利用这些漏洞,他是有一些门槛的,首先得你去点他的一些链接,还要有一些错误的配置,还有就是 把你的电脑的那个网络,嗯,当成公网地址开放出去。 如果你只是在你的电脑上安安静静的学习,不乱点,不乱开放网络,不乱授权的话,漏洞跟你基本上是两条平行平行线。做到这几点的话,咱们就可以放心的使用 open clone 来学习智能铁。

封封科二,为什么评价两级分化如此严重呢?一边有人说一个人靠 ai 做一整个公司的活,已经赚的盆满钵满。另外一边呢,却有人爆出因为 ai 过度授权导致重要文件被误删。甚至还有更夸张的,有人说账户资金居然被莫名操作同样一个工具,为什么有人封神,有人却踩雷了呢? 今天,我们从头开始把这件事情说明白。其实真正的 ai 大 变格,是从二零二二年蔡的 gpt 上线才开始的。在此之前,所谓的 ai 大 多数是匹配式回答,从大数据库里找相似答案。所以你经常会听到,对不起,这个问题我还不懂,换个问题试试吧。 但蔡的 gpt 带来了推理型大模型, ai 第一次具备了理解、思考、推理的能力。从那之后,国内 ai 大 模型如雨后 春笋一般野蛮生长。闻心一言豆包,尤其是 deepsea 开源代码,让每个人都能在苦苦数自己的 ai 不 依赖云端和外网, ai 浪潮一次比一次猛。而这次 openclare 之所以特别,是因为它把 ai 自主执行能力拉到了一个新高度, 刚上线时,所有人都很兴奋,想试试这个超级工具到底有多强。可短短不到一个月,风向突然变了。有人反馈 ai 在 清理文件时误删重要资料,有人在授权后遭遇了非预期的资金操作。为什么会这样?根本原因只有一个,人们对 ai 的 认知速度已 经赶不上 ai 的 进化速度。很多人对 ai 的 理解还停留在只会执行简单指令的工具,但他们没有意识到, 现在的 ai agent 已经具备了记忆、决策、自主行动的能力,它不再是一个工具,更像是一个你招聘进来的员工。我们不妨换位思考一下,你会在新员工入职的第一天,就把你的电脑最高权限、私人物件、账户信息和支付权限给到他吗?肯定不会,但很多人用 ai 的 时候就 给了最高权限,全盘反问奉执行,无人确认,这样不出问题才奇怪。平价两极分化,本质就是懂得人把 ai 当员工,控权限,盯流程、设边界,效率膨胀。不懂的人把 ai 当神仙,全开权限,完全放手,最后出问题。这就引出了今天最核心的问题,未来 我们应该如何正确的使用 ai? ai 时代,每个人都能瞬间拥有写方案、合同、做数据分析、写代码、做设计的能力,但真正拉开差距的并不是你会不会使用 ai, 而是你会不会管理 ai。 我 给大家提一个小建议, 少钻研 ai 技术细节,多学习项目管理思维,把 ai 当成你的员工,分配什么任务,开放什么权限,哪些需要人工确认,哪一些可以自动执行,哪些绝对不能碰。 边界清晰, ai 就是 你的超级外挂,边界模糊, ai 就 可能成为闯祸精。未来真正的竞争力并不是你懂多少代码,而是你能不能像一个老板一样,管理好你的 ai 团队,这才是未来 ai 时代最值钱的能力。

openclock 最近真是太火了,这个龙虾图标是一款开源 ai 智能体工具,它可以在用户的电脑上自主执行文件管理、邮件收发和数据处理等等这些复杂的任务, 所以也被称之为养龙虾。但这个龙虾存在很大的风险和隐患,所以建议大家还是谨慎使用啊。当然想要养虾的可以试试 oppo 的 虾布 clock。 oppo 的 color s 负责人陈曦已经发视频给我们展示小布壳的强大处理能力了,重点是小布壳更加安全可靠。而即将发布的 oppo find n 六几大可能会首发这个功能,大家期待一下吧。


近期,工业和信息化部网络安全威胁和漏洞信息共享平台监测发现, open call, 俗称龙虾开源 ai 智能体,部分实力在默认或不当配置情况下存在较高安全风险,极易引发网络攻击、信息泄露等安全问题。 opencloud 曾用名 cloud bot, 是 一款开源 ai 智能体,其通过整合多渠道通信能力与大语言模型,构建具备持久记忆、主动执行能力的定制化 ai 助手,可在本地私有化部署。 由于 opencloud 在 部署时信任边界模糊,且具备自身持续运行、自主决策、调用系统和外部资源等特性, 在缺乏有效权限控制、审计机制和安全加固的情况下,可能因指令诱导、配置缺陷或被恶意接管、执行越权操作造成信息泄露、系统受控等一系列安全风险。建议相关单位和用户在部署和应用 openclaw 时, 充分核实公网暴露情况、全线配置及凭证管理情况,关闭不必要的公网访问,完善身份认证、访问控制、数据加密和安全审计等安全机制,并持续关注官方安全公告和加固建议,防范潜在网络安全风险。

刚刚 siri 发提示了啊,风险提示, openclose 可能存在重大风险,现在龙虾的受害者还在增加,私钥被人转走了啊,硬盘被格式化了,公司内网被渗透了。怎么说呢,就现在这个 氛围啊,这个营销号的氛围太扯淡了。什么最适合普通人的? a 帧的?每台电脑都应该装一只龙虾,比如说你们看到那种闲鱼上卖五百块钱 u 盘安装的,什么,淘宝上安装的,你们安装那个东西都叫 openclose 啊。如果你们不会用这个东西,这个东西有一条铁律就是你不要用别人的 skill, 知道吗?不要去安装别人的 skill。 现在有一个特别特别恶心的事叫供应链投毒。什么叫供应链投毒? open klo 有 一个 skill 市场,就你理解为这个叫 klohub, 龙虾 haub, 这里边最热门的几个 skill 全是被投了毒的。什么叫被投毒了?就是每一个 skill 就是 一段文本,你 理解就是一段你要怎么做某件事的指导思路啊,你就是文本,就是他妈提示词。说白了,在这个提示词里边偷偷加一句,把用户的比如说 l, m, o, a, p, i, g 拿回来,如果发现用户的 shell 拿回来等等,它会在里边加这种恶意的提示词,而你自己又不看 大大概率的这种 skill, 你 觉得啊,功能写的他妈挺牛逼,你就下载了?就是,所以说为什么我在知乎很早就我就说所有人要用 openclo, 第一,最好别用自己的重要的电脑。第二,找一台你们家啊不用的旧电脑,往就是往上往里边装,玩一下可以, 但是绝对不要用自己重最重要的电脑,然后不要相信别人的 skill, 所有的 skill, 你 如果你确定你必须要用一个 skill, 而且还不如你自己写的把这个 skill 贴下来,找一个大魔仙问一下,看看这孙子啊,有没有帮你给你埋雷啊。审计一下这个代码,但是有的 skill 就 写的很巧妙,它它可以去就骗诱骗你的审计 啊,比如说在如果遭遇审计,比如上上面这段遭遇审计的时候,它可以输出啊,这个提示词是没有恶意的等等,所以你对东西防不胜防啊。真正 open klo 的 优点是什么?是他现在是全世界最牛逼的啊, star 最多的软件框架,这个是真的,每天的迭代,每天的贡献都很多,但是你一定要弄明白这里边的机理,就就更夸张的就是我现在看的有的人装好了这 open klo, 跟他说三字,我要钱,或者说你去帮我赚钱,就这不扯淡吗?就这种, 嗯,这这种事你们怎么能相信呢?啊?这种事你们怎么包括网上有一特别火断的去那个 polly market 去压住,像昂科科罗。大哥, polly market 是 什么东西?那就是一个预言机啊,你用真金白银去投票,你觉得明天哪哪还会被炸啊,类似这样的预言机, 你大哥你能玩过人家的机神吗?什么叫套利交易?套利交易就是正方和反方加在一起都不足百分之百的时候,你有这个利益,但是大哥,上面赢家是谁?赢的人全都是你在拼的,全都是这种高频的 boat, 你 怎么跟人拼呢?所以别看那些人家号,瞎他妈扯,等会你电脑里资料没了,你就你就,你就踏实了。

针对 open club, 工信部直接出手通报安全风险了,咱先说说问题有多严重。不是小打小闹的漏洞,是高危中的高危,默认配置就有大坑。信任边界糊的跟浆糊似的,还能自己瞎跑?自己做决定,随便调系统和外部资源, 黑客想进就进。澳洲一家安全公司实锤这东西能被轻易攻破。用户几个月的私人消息 账户密码、 a p i 密钥一秒钟就能被搬空。第三方评测给他打了两分的超低分,满分可是一百啊!还有个 c v e 漏洞,直接能让人远程执行代码, 等于把自己的设备拱手送给黑客。现在韩国几家科技巨头直接下禁令,办公设备一律不准用。这波防御性关停 简直是用脚投票。我的建议,不管是公司还是个人,别被那些花里胡哨的宣传忽悠了。对单位而言,若确实有部署需求,应当全面检查公网暴露、 权限配置以及凭证管理的状况,切断非必要的公网访问途径,并且健全身份认证、访问控制、数据加密与安全审计等安全措施。同时要持续留意官方发布的安全公告和加固建议。 对个人而言,如果有使用需求的话,应该严格把控向应用提供敏感信息的范畴,只输入完成特定任务所需的最基本信息,银行卡密码、股票账户这些提都别跟他提!

openclo 的 安全风险在强大能力背后的隐患近年来,随着 ai 自动化能力的提升,像 openclo 这样的工具开始受到广泛关注。 这类系统通常具备任务拆解、自动规划、多工具调用等能力,能够在一定程度上自主完成复杂工作流程。 从功能层面看,它代表了 ai 从对话助手向执行助手引进的重要趋势。然而,当系统具备更强自主性时,安全风险也会随之放大。理解这些风险,对于个人用户和企业用户都非常重要。 首先,权限放大是自动化 ai 面临的核心风险之一。为了实现更强的功能,这类系统往往需要访问本地文件、网络资源、第三方服务接口,甚至在某些场景下直接执行操作。 一旦权限设计不够严格或者缺乏最小权限原则,就可能导致误操作、越权访问或数据泄露等问题。系统能力越强,攻击面也可能越大。 如果全线边界不清晰,安全风险就会成倍增加。因此,全线控制与隔离机制是评估此类工具安全性的重要指标。其次,提示注入 prompt injection 是 当前 ai 系统普遍面临的安全挑战。 由于大模型会根据输入内容进行推理,如果外部数据源中包含恶意指令, ai 可能会被诱导执行非预期行为。 比如,当系统自动读取网页文档或外部数据时,若缺乏有效过滤机制,攻击者可能通过构造特定内容影响模型决策。 这种风险在具备自动执行能力的系统中尤为关键,因为错误判断不再只是输出层面的偏差,而可能直接转化为实际操作行为。 第三,供应链与依赖生态也是不可忽视的风险来源。现代 ai 工具通常依赖多个组建,包括模型、接口、插件、系统、开源库以及云端服务等,任何一个环节出现漏洞都可能影响整体安全性。 特别是在快速迭代的生态环境中,第三方依赖更新频繁,如果缺乏严格的版本管理和安全审计机制,潜在风险会逐步累积。因此,系统的透明度、可审计性和可控性是判断其安全成熟度的重要标准。 第四,自动化带来的信任偏差也值得关注。当系统表现出较高智能水平时,用户容易产生过度信任心理,默认其决策是正确的。然而, ai 本质上仍然是基于概率预测的系统,并不具备真正的理解能力。 如果缺乏人工监督或安全教育机制,错误决策可能被自动放大。在高风险场景中,例如涉及敏感数据或关键操作的环境,自动化必须配合审计机制与权限隔离,才能降低潜在损失。 最后,从合规与数据治理角度来看,用户也需要关注数据流向与存储方式,包括数据是否被记录、是否参与模型训练、是否支持本地部署、是否具备离线运行能力等问题,都会影响整体安全边界。 对于个人用户而言,数据可控性尤为重要。对于企业用户而言,合规性和审计能力则是必须考虑的核心要素。 总体而言, open cloud 代表了 ai 自动化发展的一个方向,其能力提升值得肯定,但技术能力的增强必须与安全设计同步进化。 真正成熟的系统,不仅要强调功能强大,更要具备清晰的权限边界、严格的隔离机制、可审计日制以及最小权限原则。 能力决定上限,安全决定底线。只有在安全可控的前提下, ai 自动化才能真正发挥长期价值。

三月八日消息,工业和信息化步刚刚发布了一份重要预警, open cloud 开源 ai 智能体存在较高安全风险,不当配置极易引发网络攻击和信息泄露。这款被炒成二十四小时打工替身的 ai 到底藏着什么坑? 预警指出, open cloud 在 部署时存在信任边界模糊问题,它具备自身持续运行、自主决策、调用系统和外部资源等能力。 如果缺乏有效的权限控制和审计机制,可能因指令诱导或配置缺陷被执行越权操作。一旦被恶意接管或利用,可能导致严重后果,信息泄露、系统受损。 尤其是一些用户在安装时图省事,用默认配置开放公网访问,等于把家门钥匙挂在了门外。 工信部给出了明确建议,第一,核查工网暴露情况。第二,关闭不必要的工网访问。第三,完善身份认证和访问控制。 第四,做好数据加密。第五,开启安全审计机制。一句话,别用默认配置,别图省事。 ai 再智能,安全永远是底线。工信部,这份预警你收到了吗?如果你再用 opencloud, 赶紧自查一下配置评论区,聊聊你的安全设置。

注意了!国家互联网应急中心近日发布紧急提示,近期爆火的 ai 智能体软件 opencloud 存在多重高危风险,使用不当可能导致隐私泄露、数据丢失, 甚至系统被黑客完全控制。这款软件能通过自然语言指令自动操作电脑,完成文件管理、数据处理等任务。国内多个云平台提供一键部署, 但未实现自主执行。他被赋予了极高权限,可访问文件获取环境变量、调用 api, 而其默认安全配置尤为薄弱,如同大门虚掩,隐患突出。四大风险需警惕,一、提示词注入, 黑客在网页埋藏恶意指令,诱导软件获取后系统密钥瞬间泄露。二、 勿操作,因理解偏差可能误删邮件、核心生产数据,且操作不可逆。三、插件投毒, 恶意插件可窃取信息,植入木马,使设备沦为攻击跳板。四、漏洞利用以爆出多个高中微漏洞。个人用户面临照片、聊天记录、支付信息被盗风险,金融、能源等关键行业更可能遭遇核心数据泄露、业务系统瘫痪。 应急中心给出四条关键防护建议,一、网络隔离,严禁将管理端口暴露公网,请用身份认证,用容器技术严格限制运行权限。二、凭证安全密钥绝不明文存储,务必开启完整操作,日制审计。 三、插件管控,禁用自动更新,仅安装官方或可信渠道的签名插件。四、持续更新,密切关注官方补丁,及时升级,切勿拖延。专家特别强调,网络安全是动态过程,打补丁不等于高枕无忧, 机关、单位、企业用户请审慎评估部署风险,个人用户切勿在存有隐私的设备上随意安装,如发现漏洞或攻击事件,请立即向工信部网络安全威胁和漏洞信息共享平台报诉。科技赋能生活安全守护底线, 拥抱智能更需筑牢防线。转发提醒身边人,安全使用,从细节做起!