00:00 / 00:14
连播
清屏
智能
倍速
点赞10
ASI agent2天前
#人工智能#人工智能未来10年#预测未来10年人工智能是否会失控#人工智能安全问题#最有效解决模式是用婴儿控制母亲模式。 以上观点来自深度学习之父(2018年图灵奖、2024年诺贝尔物理学将)杰夫里·辛顿教授,对未来可能会出现比人“完全”聪明的“超级智能”看法,以及用“婴儿(人类)”控制“母亲(人类发明制造出超级智能)”模式来研究和制造“超级智能”才可能避免安全问题出现。当然这只是预测未来会出现“超级智能”时带来的“失控”,可能会导致带来一连串问题。但这也仅仅只是属于教授观点而已,并不能代表事实,未来人工智能发展会成一个什么样子亦或者说:超级智能多久会到来,我们看下面经过分析后给出的结果。 🤖 超级人工智能还有多远? 关于超级人工智能(在很多领域都比人类聪明得多的智能)何时出现,目前并没有一个确切的日期,专家们的预测也存在很大分歧。主要可以分为以下几派观点: 观点倾向 预测时间 核心依据 乐观派 (如OpenAI) 几千天内 (约5-10年) 深度学习技术不断扩展,效果会越来越好,最终迎来"大繁荣"。 审慎派 (部分专家) 10到20年,或更久 AI需要学会通过声音、视像等多方式学习,理解时间概念,并能进行规划,目前技术尚有距离。 时间问题派 不确定,但认为必然会出现 一些专家认为这只是时间问题。 可以看到,即使是顶尖专家,看法也远未统一。奥尔特曼的“几千天”是一个引人注目的预测,但并非科学界的共识。 🧠 澄清两个关键概念 1. 关于“人工智能已经有了情绪”:这是一个常见的误解。根据你引用的辛顿的演讲内容,他的核心观点是“人类理解语言的方式与大语言模型几乎一致”,以及“人类也可能和大语言模型一样产生幻觉”。他是在用人类理解语言的方式来类比AI的工作原理,并没有说AI已经拥有了人类意义上的情绪和情感。目前AI所有的,是基于海量数据训练出的高超的模式识别和模仿能力,让它能生成看似共情的对话,但这与真实的内心感受是两回事。 2. 关于“取代人类”:辛顿等专家发出的警告,主要指向的是未来超级智能出现后可能带来的“失控”风险。他们的担忧并非科幻电影般的机器人起义,而是说,当一个在几乎所有领域都远超人类智慧的AI被赋予一个目标时,它可能会为了高效完成这个目标,而采取一些对人类不利的行动,甚至可能学会操纵人类以避免被关闭。这目前是一种对未来风险的预判和警告,而非既成事实。
00:00 / 03:24
连播
清屏
智能
倍速
点赞0
00:00 / 09:33
连播
清屏
智能
倍速
点赞22