00:00 / 07:04
连播
清屏
智能
倍速
点赞549
00:00 / 01:44
连播
清屏
智能
倍速
点赞16
00:00 / 01:07
连播
清屏
智能
倍速
点赞16
00:00 / 00:37
连播
清屏
智能
倍速
点赞33
#热门 当AI伦理撞上国家机器, 一家美国AI公司,因为太有原则,被自家政府当成了供应链风险。 Anthropic你可能不熟,但它的Claude大模型是ChatGPT的最强对手之一。这家公司2021年由OpenAI前高管创立,打从一开始就把自己定位为“AI安全派”他们甚至在公司章程里写明:要负责任地开发AI,最大化对人类的积极影响。 去年7月,Anthropic刚拿到国防部2亿美元的机密合同,成为唯一能把AI部署到美军涉密网络的厂商。Claude系统被广泛用于情报分析、作战数据处理和辅助决策,深度嵌入了美军的中东军事行动。 结果才半年多,双方就闹掰了。 导火索是合同条款谈不拢。国防部想统一标准:以后用AI,只要是合法用途都行,不用逐家谈判。但Anthropic创始人阿莫迪死活不干,划出两条硬杠杠:一不准用于完全自主武器(就是AI自己决定杀人的那种),二不准用于对美国公民的大规模监控。 国防部觉得这是企业干涉国家主权,Anthropic觉得这是技术伦理底线。双方僵持了几个月,特朗普直接在社交媒体上发飙,骂Anthropic是“激进左翼觉醒公司”,命令所有联邦机构6个月内全面停用其技术。国防部长直接把它列进了供应链风险名单,这个名单以前只进过外国公司,Ant这意味所有跟国防部有生意往来的承包商,都得证明自己没用Anthropic的技术,否则合同就黄了。这对Anthropic来说是致命打击,它刚以380亿美元估值融了300亿美元,年化收入140亿美元主要靠企业客户,现在客户们都在恐慌性询问合同终止条款。 微软去年11月刚宣布要投Anthropic 50亿美元,而且美军很多系统就是微软提供的,里面集成了Claude模型。如果禁令立即生效,微软得连夜改代码,否则违反合同。微软在法庭文件里说得很直白:给条缓冲期吧,实现更有序的过渡,别在关键时刻坑了美军。 更微妙的是行业站队。 OpenAI的奥特曼居然公开支持Anthropic,说这也是我们的底线,尽管OpenAI自己刚跟国防部签了无限制协议。谷歌首席科学家带着38位AI科学家联名递陈情书支持Anthropic。而马斯克的xAI则趁机接盘,迅速跟国防部达成合作。 当技术能决定生死,谁来做主?是公司定伦理红线,还是政府说了算?Anthropic选择硬刚,可能输掉商业利益;选择妥协,可能输掉创立初心。
00:00 / 00:15
连播
清屏
智能
倍速
点赞8
00:00 / 01:04
连播
清屏
智能
倍速
点赞11
00:00 / 02:28
连播
清屏
智能
倍速
点赞NaN