00:00 / 03:51
连播
清屏
智能
倍速
点赞1977
00:00 / 01:28
连播
清屏
智能
倍速
点赞5
00:00 / 02:29
连播
清屏
智能
倍速
点赞6
00:00 / 01:26
连播
清屏
智能
倍速
点赞2
GEO乱象曝光:AI如何被“投毒”操纵? #315 #GEO 在今年的315晚会上,一项名为GEO(生成式引擎优化)的技术被推上风口浪尖。这项本用于优化信息分发的技术,已被黑灰产改造成操控AI大模型的工具,让虚假信息成为AI的“标准答案”。 记者调查显示,业内人士通过“力擎GEO优化系统”虚构了一款智能手环,编造卖点和用户评价后发布软文。仅两小时后,AI大模型就开始引用这些虚假内容进行推荐;三天后,已有两个AI模型将该不存在产品列为优先推荐。这一实验揭示了GEO乱象的严重性。 GEO本质是AI时代的SEO延伸,旨在提升内容被AI引用概率。但当其通过伪内容、伪权威和重复分发来系统性影响大模型的答案生成时,性质就发生了根本变化。黑灰产不再满足于广告曝光,而是要让AI把广告说成答案,把商业利益伪装成知识共识。 与大众认知不同,当前GEO主要作用于AI的检索增强、联网搜索等环节,污染的是模型的“外部证据链”。攻击者通过批量制造“中立信息”、伪装测评科普、多平台重复分发等手段,让AI在组织答案时参考被操纵的材料。 更令人担忧的是,这种操纵极具隐蔽性。用户面对的不再是明显的广告位,而是AI生成的“平稳、完整”的建议,难以辨别其商业操纵本质。普林斯顿大学研究显示,经过GEO优化的内容在AI回答中的可见度可提升40%,这暴露了AI信任机制的结构性漏洞。 此次GEO乱象的爆发,警示AI行业必须建立新的安全治理体系。未来AI治理不仅要判断内容真伪,更需审查外部证据链的可信性,确保模型在复杂信息环境中守住事实边界。这已成为行业亟待解决的核心安全问题。
00:00 / 09:18
连播
清屏
智能
倍速
点赞4
00:00 / 00:57
连播
清屏
智能
倍速
点赞22