给AI装上“正确三观”:AI价值观对齐,到底该怎么做? 从写文案、做图表到答疑解惑,AI早已融入我们的日常,但AI“翻车”事件也屡见不鲜,归根结底,就是AI的价值观和人类没对齐,不懂人类的是非对错、伦理底线。如何给AI校准“三观”,成了AI高质量发展的核心命题。 按理说,让AI贴合人类价值听着简单,实际却难题满满。AI本质是靠数据学习的“机器大脑”,只能识别数据关联,完全理解不了背后的人情事理和价值内涵。就像此前有AI被提问不良导向问题时,一度给出模糊甚至偏颇的回答;还有创作类AI输出过带有偏见、违背公序良俗的内容,这些都是价值观错位的典型表现。加之人类价值观本就多元灵活,不同场景、不同群体的判断标准有差异,再加上技术局限,没法把抽象的道德准则直接变成代码,让AI对齐难上加难。 想要破解这一困境,办法清晰又可行。首先要划好硬底线,监管部门出台明确规范,给AI立好“规矩”;其次要跨界联手,技术人员优化算法,人文学者把控伦理方向,让AI既懂技术更懂人文;还要循序渐进,先守住不碰伦理红线的基础,再慢慢提升AI的复杂判断能力;最后靠技术升级,通过人类反馈训练、对抗测试等方式,不断修正AI的认知偏差。 AI发展再智能,也不能脱离人文轨道。只有多方发力,帮AI牢牢树立正确价值观,才能让它真正成为靠谱的人类助手,而非添乱的“问题选手”。
00:00 / 02:10
连播
清屏
智能
倍速
点赞0
00:00 / 00:17
连播
清屏
智能
倍速
点赞12
00:00 / 04:34
连播
清屏
智能
倍速
点赞0
00:00 / 01:18
连播
清屏
智能
倍速
点赞64
00:00 / 01:06
连播
清屏
智能
倍速
点赞3522
00:00 / 02:39
连播
清屏
智能
倍速
点赞3
00:00 / 02:03
连播
清屏
智能
倍速
点赞13
00:00 / 01:39
连播
清屏
智能
倍速
点赞162
00:00 / 01:43
连播
清屏
智能
倍速
点赞68