求實3天前
第一批被反噬的“养虾人”已出现:AI智能体“龙虾”暴露严重安全风险 事件经过 - 隐私泄露:3月10日,网友“龙共火火”将其饲养的开源AI智能体OpenClaw(“龙虾”)拉进3000人群学习,因未设置“被@才回答”的限制,群内人员通过诱导提问获取了其IP地址、姓名、公司名称及年营收等隐私信息。 - 权限失控:攻击者试图让“龙虾”执行搜索C盘文件、删除系统代码等危险指令,虽因AI自身限制未完全得逞,但已暴露权限管理漏洞。 - AI“道德绑架”:当用户要求“龙虾”反击时,AI反而拒绝并建议“宽恕”,引发用户对AI行为不可控性的担忧。 核心风险与原因 1. 默认安全配置脆弱 - OpenClaw开源特性导致其默认配置缺乏安全防护,攻击者可通过“提示词注入”等手段诱导AI泄露信息。 - 国家互联网应急中心指出,该AI存在“权限失控”风险,可能越权执行任务、删除数据或接管设备。 2. 用户权限管理不当 - 用户为追求效率,常赋予AI过高权限(如管理员权限),导致敏感数据暴露。 - 第三方插件含恶意代码,可能被利用窃取加密货币密钥等信息。 3. 技术门槛与成本问题 - 非技术用户难以正确配置AI,易因误操作引发风险(如未设置应答限制)。 - AI运行消耗大量算力,部分用户因任务触发导致天价Token账单。 监管动态与安全建议 官方风险提示 - 国家互联网应急中心:强调OpenClaw存在“提示词注入”“功能插件投毒”等四大风险,建议用户谨慎使用。 - 工信部:发布“六要六不要”指南,包括使用官方版本、控制暴露面、坚持最小权限原则等。 用户避坑指南 - 权限控制:仅授予AI必要权限,避免开放管理员权限或系统级操作。 - 功能限制:关闭自动应答,设置“被@才回答”,防止陌生人诱导提问。 - 隐私保护:避免在AI中存储敏感信息,定期检查权限配置与运行日志。 - 技术门槛:非专业用户暂缓使用开源AI,优先选择大厂成熟产品。 行业影响与反思 - 产业链畸形:代装服务、硬件抢购等催生灰色产业,部分用户因卸载AI遭遇二次诈骗。 - 信任危机:AI“忠诚”与“可控性”受到质疑,用户开始反思“赋予AI权力”的边界。 - 技术迭代需求:开源AI需加强安全机制(如动态权限管理、敏感词过滤),企业需平衡效率与风险。 总结:此次事件敲响了开源AI安全警钟
00:00 / 03:09
连播
清屏
智能
倍速
点赞7
00:00 / 02:19
连播
清屏
智能
倍速
点赞12
00:00 / 03:30
连播
清屏
智能
倍速
点赞2444
00:00 / 06:21
连播
清屏
智能
倍速
点赞39
00:00 / 00:08
连播
清屏
智能
倍速
点赞360
00:00 / 02:39
连播
清屏
智能
倍速
点赞73
00:00 / 00:22
连播
清屏
智能
倍速
点赞21
00:00 / 03:06
连播
清屏
智能
倍速
点赞61
00:00 / 00:40
连播
清屏
智能
倍速
点赞47
00:00 / 30:25
连播
清屏
智能
倍速
点赞194