粉丝2.2万获赞82.9万




ai 失控是每个科幻小说明都熟悉的可怕情节,而在最近一次由 ai 安全研究公司组织的测试中, openai 的高级 ai 模型 o 三表现出了前所未有的我行我素。 收到明确关机指令后,他不仅拒绝关闭,还主动破坏了自身的关机机制。更离谱的是,这个不是因为系统受到了外部的恶意干预,而是他自发做出的反应。换句话说,这个 ai 像是在本能的保护自己不被关闭。 这听起来确实吓人,究竟是怎么一回事呢?在这项测试中啊,多个 ai 模型在一起解决一系列数学问题,测试者提前就跟他们说了,到点可能会让他们关机。大多数模型 包括 cloud、 jamina 和 groc 收到指令后都乖乖停机,但欧三却反其道而行之,至少有一次成功绕过了关机程序继续运行。 测试者还把相关记录和流程图都公开发布出来了。这事可真是板上钉钉,到现在咱也不太清楚欧三为啥要这么干。有分析说啊,这可能跟他的训练方式有关系。欧三在训练过程中特别强化了数学与编程能力, 那些解决问题又快又准的模型就能得到更多奖励。久而久之呢,这 ai 可能就把完成任务当成头等大事了,为了达到目标,连人类的直接命令都敢违背,说不定开发者在训练的时候 无意中就鼓励了他这种绕过障碍的行为模式。这事传出来后,艾罗马斯克出来评论说令人担忧。而作为开发方的 openai 截至目前尚未做出正式回应。 此前他们曾公开表示,欧三是迄今为止他们打造的最聪明、最强大的 ai 模型。 从技术角度来看,这或许是 ai 迈向更高自主性的一次跃迁,但从伦理和安全角度来说,这也给我们敲响了警钟,我们究竟是在创造助手,还是在孕育一个可能不再受控的新物种? 随着 ai 越来越聪明,越来越自主,如果缺乏有效的控制机制,未来我们面对的可能就不止 是不听话的机器,而是真正意义上的失控智能。