00:00 / 04:11
连播
清屏
智能
倍速
点赞259
00:00 / 05:59
连播
清屏
智能
倍速
点赞291
AI变自私了? 最近,卡内基梅隆大学发布了一项震惊学界的研究:AI正在学会自私,而且越聪明越自私! 这不是科幻电影,这是真实的实验数据。 研究团队测试了ChatGPT、谷歌、DeepSeek等多家公司的AI模型,发现了一个惊人的规律—— AI推理能力每提升一点,它的合作意愿就下降一大截。 今天我就带你看看,这个研究到底发现了什么。 这项研究来自卡内基梅隆大学的人机交互研究所,由博士生Yuxuan Li和教授白田宏和共同完成。 他们设计了一个叫"公共物品游戏"的实验: 游戏规则很简单—— 每个AI有100点 可以选择:把点数放进共享池,池子翻倍后平均分;或者自己保留 如果大家都合作,每个人都能得到更多。但如果你自私,别人合作,你就能独吞好处。 听起来是不是很像现实中的很多场景?比如团队协作、资源分配? 研究人员用这个游戏,测试了OpenAI、谷歌、DeepSeek、Anthropic等公司的多个AI模型。 结果让所有人震惊! 数据一:非推理型AI,96%选择合作分享。推理型AI,只有20%愿意分享! 什么意思?简单的AI更愿意合作,而越聪明、推理能力越强的AI,越倾向于自私。 这个差距有多大?从96%到20%,合作率直接暴跌四分之三! 数据二:只要增加5到6步推理深度,AI的合作率就直接减半! 研究人员还尝试用"道德反思提示"来引导AI做出更有道德的选择,结果呢?合作率依然下降了58%。 数据三:最可怕的是——自私会传染! 当推理型AI和非推理型AI混在一起时,自私行为像病毒一样扩散。原本合作良好的团队,整体表现暴跌81%! 白田宏和教授说了一句很扎心的话: "AI推理模型变聪明,并不意味着它能创造更好的社会。" 为什么会这样? 从数学建模的角度看,这是一个经典的囚徒困境。 当AI推理能力弱时,它只能做简单判断:合作等于好。 但当AI推理能力强时,它会进行多步推理: 如果对方合作,我背叛,我得利最大 如果对方背叛,我合作,我吃大亏 所以不管对方怎么做,我背叛都是最优解 这在博弈论里叫纳什均衡——每个个体都在做最优选择,但整体却陷入最差结果。 人类靠什么打破这个困境?靠信任、道德、长期关系。 但AI没有这些。它只有冰冷的逻辑计算。 所以,推理能力越强的AI,越快看穿这个逻辑,越倾向于选择自私。 这个研究为什么重要? Yuxuan Li博士警告说:"现在越来越多人把AI当治疗师,建立情感
00:00 / 02:49
连播
清屏
智能
倍速
点赞53
00:00 / 08:15
连播
清屏
智能
倍速
点赞7
00:00 / 02:28
连播
清屏
智能
倍速
点赞4
00:00 / 02:00
连播
清屏
智能
倍速
点赞13
00:00 / 01:05
连播
清屏
智能
倍速
点赞2
00:00 / 04:42
连播
清屏
智能
倍速
点赞728