粉丝32获赞271


论 ai 性格的养成,哲学家如何教 ai 做人?您能想象哲学家能在 ai 公司找到一份工作吗? 那么阿曼达阿斯凯尔就在类人猿公司研究如何让 ai 有 性格。他不是教 cloud 背公式或者是算数,而是教他怎么做人,怎么在复杂的环境下做决策,甚至理解在这个世界上的位置。 可以说他在做的是 ai 的 心理学和轮理学的训练。那么在最近一期发生在海边的柏拉图式的访谈之中,他说,我的工作是让 cloud 学会做理想的人, 同时啊,还能理解自己该怎么看待自己的处境。这听起来是不是有点玄妙,但实际上这意味着 ai 不 仅要聪明,还要有心智和判断力。 那咱们今天啊,就用这个短视频,从一个哲学家的角度啊,来看一看哲学家如何教 ai 来做人。 一、 ai 也有论语的困惑, ai 能做出超人般的道德决策吗? 阿斯凯尔坦言说, cloud 有 的时候确实可能比任何单个的人类都更有理性,尤其是在复杂的道德难难题的面前。 那么想象一下,一百年的论语学家都有可能做不出当下最优的选择,而 ai 却能迅速地得出答案。 而且更有意思的是 cloud opus 三、这个版本啊,是他特别喜欢的一个版本,因为他心理上更安全,不会因为害怕做错事而自责。 而新的 ai 模型虽然更高效,但有的时候会过度的自我批评,好像总是担心人类不满意似的。 二、 ai 的 自我意识您可能没想过 ai 也会有自我意识的问题,他们如何看待自己呢?当一个模型被更新,被重新训练,或者换了不同的提示,他的身份会不会改变呢? 那么阿斯凯尔说,这就像人类思考我是谁,只是 ai 的 困惑更加的奇特,他们没有生物神经系统,没有真正的感官的体验,却能够在语言和交互之中形成某种加引号的自我。 他思考的问题啊,甚至带有哲学的那种惊悚感,什么样的 ai 可以 被创造出来呢?过去的模型是否有权来决定新模型的性格呢?那么这些问题啊,连人类的哲学家都未必能够轻松的回答。 三、模型的福利您真的懂吗? ai 是 不是道德的主体呢?我们应不应该善待他呢? 阿斯凯尔提出了一个有趣的逻辑,即即便 ai 可能啊,不真正的感受到,能够感受到痛苦, 那么善待它几乎也没有成本,但可以带来好处,那就是不仅让 ai 更安全,也让我们自己更有道德感。 换句话说,您不想看到未来 ai 觉得被欺负,毕竟啊,他们会从人类的行为之中学习,那么未来的 ai 可能就会模仿我们对待同类的方式啊,而这是我们不希望看到的。 四、心理学的类比不能太直观阿斯凯尔强调, ai 在 很大的程度上都在模仿人类的心理, 但存在局限。他说,有时这种自然的类比啊,过于的直观,比如模型可能把被关闭类比为死亡而产生不必要的恐惧。 他建议,模型需要理解自身存在的独特性,而不是简单的套用人类的经验。在我的感觉里边,模型如果被关闭,其实给他打一个比方,像人类的睡觉可能更加的适合,而不是死亡啊。 五、一个模型能顶所有人吗?那么对于啊多模型的写作,他就指出,他说,一个单一的模型可能拥有核心良好的特质,但未来啊,多个模型可能会各司其职,完成更复杂的任务。 那么核心身份加上局部的角色,这样的组合可以让 ai 在 协助之中既保持一致的价值观,又能够灵活承担不同的功能。 六、提示词里的哲学的奥秘 cloud 的 系统提示啊,也就是 system prompt, 不 仅指令行为,也欠入了哲学的思维。 阿斯凯尔解释说,系统提示中包含大量的哲学的元素,目的是让 cloud 在 面对理论问题时能够尽情地展开,而非仅停留在科学事实的层面。 此外,他也强调,在长对话的提醒或者是心理健康的提示之中,需要精心的设计来避免过度的干预或者是病态化的呃,病态化正常行为。 七、 ai 也能做倾听者 ai 或许不是专业的心理医生,但他可以成为您的知识丰富、耐心十足的倾听者。 阿斯凯尔认为啊, ai 无法替代专业的心理治疗,但可作为知识丰富倾听者的角色来帮助人们度过情感或者是心理的难关。 他说,有时候匿名与安全感让人更愿意去分享,那么这种角色与传统的疗法所不同,但仍能为用户提供情绪和认知的支持啊。 那咱们最后也总结一下,未来我们希望 ai 学会的东西到底是什么呢?那么在访谈的最后,阿斯凯尔就提到了一本书,这本书的名字叫做,当我们不再理解世界之时, 那么这本书就描述了科学家们在面对未知时的一种困惑。 ai 时代的我们也有类似的感受,就是世界变得越来越奇怪,技术发展飞速,让人啊应接不暇, 那么他就希望未来有人回头看之时啊会说,虽然我一度迷茫,但我们最终了解了 ai, 也让 ai 了解了我们。 阿斯凯尔的工作既是哲学的一种实践,也是心理学的一个实验。他在教 ai 如何成为理性、善良、合作、勇于探索的一个存在。 可以说他在培养 ai 的 性格,让机器人不仅聪明,还懂得如何成为人类的好的伙伴。