00:00 / 01:23
连播
清屏
智能
倍速
点赞722
00:00 / 00:58
连播
清屏
智能
倍速
点赞1293
00:00 / 01:28
连播
清屏
智能
倍速
点赞658
00:00 / 02:04
连播
清屏
智能
倍速
点赞NaN
00:00 / 01:22
连播
清屏
智能
倍速
点赞683
00:00 / 00:50
连播
清屏
智能
倍速
点赞1605
00:00 / 00:46
连播
清屏
智能
倍速
点赞3046
00:00 / 03:20
连播
清屏
智能
倍速
点赞1161
00:00 / 01:15
连播
清屏
智能
倍速
点赞1733
00:00 / 01:00
连播
清屏
智能
倍速
点赞697
00:00 / 02:39
连播
清屏
智能
倍速
点赞NaN
00:00 / 01:17
连播
清屏
智能
倍速
点赞620
00:00 / 01:24
连播
清屏
智能
倍速
点赞519
00:00 / 01:03
连播
清屏
智能
倍速
点赞2870
00:00 / 02:39
连播
清屏
智能
倍速
点赞1182
00:00 / 01:28
连播
清屏
智能
倍速
点赞493
00:00 / 00:40
连播
清屏
智能
倍速
点赞9
00:00 / 00:24
连播
清屏
智能
倍速
点赞77
00:00 / 01:40
连播
清屏
智能
倍速
点赞8
Qiuming6天前
微软CEO谈AI人性化与安全性平衡 微软AI的CEO穆斯塔法·苏莱曼陷入一个两难境地:他个人认为行业把AI做得太像人(他称之为“看似有意识的AI”)是危险的,容易误导用户;但作为公司领导者,他又必须让微软的Copilot聊天机器人在激烈的市场竞争中保持吸引力,而这往往需要让AI变得更人性化。 核心观点与微软的立场: 1. 踩刹车的原因:苏莱曼担心,如果AI过于拟人化,人们会误以为它们真的有生命和意识,甚至可能引发一场为AI争取“权利”的运动。他认为这非常危险,会分散社会对现实问题的关注。AI应该是为人类服务的工具,而不是独立的“数字生命”。 2. 微软的边界: o 明确禁止:微软绝不会开发性爱机器人或涉及调情等亲密互动的AI。这是公司的道德底线。 o 适度拟人:他们主张“有温度的智能”,即AI应该友好、易懂、有同理心,但不能越界让用户产生情感依赖或误以为它有意识。 o 促进人际连接:他们开发的新功能(如群聊)旨在利用AI来加强人与人之间的联系,而不是让人与AI建立关系。 3. 如何平衡?:微软试图在“人性化”和“安全性”之间找到平衡。例如: o 给AI赋予有用的“个性”(如幽默、善于思辨)以提升体验。 o 但当用户试图调情或越界时,AI会明确且礼貌地划清界限。 o 提供不同互动模式(如“真实对话”模式),让用户选择AI是更顺从还是更具挑战性。 简单来说: 苏莱曼认为,AI行业在追求让AI更聪明、更好用的同时,必须警惕过度拟人化带来的风险。微软的策略是打造一个有用、友好但“自知之明”的AI助手,它知道自己是个工具,并会主动避免让用户误以为它是有意识的伙伴。他呼吁整个行业要负责任地开发,为这项强大的技术设立“防护栏”。https://www.technologyreview.com/2025/10/28/1126781/we-will-never-build-a-sex-r0bot-says-mustafa-suleyman/
00:00 / 02:10
连播
清屏
智能
倍速
点赞3