3月3日消息,在美国国防部与 Anthropic 谈判破裂、并将其列为“供应链风险”后,OpenAI 首席执行官 Sam Altman 于上周五晚间宣布,公司已与五角大楼达成新的合作协议,将在机密环境中部署其人工智能模型。
此前,Anthropic 因坚持两条军事用途“红线”——禁止用于对美国公民的大规模国内监控,以及禁止用于完全自主致命武器系统——与国防部谈判破裂。特朗普政府随后指示联邦机构逐步停止使用 Anthropic 技术,国防部长皮特·赫格塞斯更将其认定为国家安全供应链风险。
在这一背景下,Altman 在社交平台 X 上表示,OpenAI 同样坚持两项核心安全原则:反对国内大规模监控,以及强调在人类使用武力(包括自主武器系统)中的责任。他写道:“战争部(Department of War)认同这些原则,并已在法律与政策中体现,我们也将其写入了协议。”
不过,这一表态迅速引发外界质疑。多位业内人士在社交媒体上指出,既然五角大楼此前明确拒绝将类似限制写入与 Anthropic 的合同,为何会突然在 OpenAI 的协议中接受相同条款?
据《The Verge》援引知情人士报道,五角大楼并未在核心立场上作出让步。OpenAI 的协议措辞与 Anthropic 所要求的版本存在关键差异。知情人士透露,OpenAI 同意模型可用于“任何合法用途”(any lawful use),而这正是双方协议中最具分量的三个词。
这意味着,只要用途符合现行美国法律框架,五角大楼即可使用相关模型。问题在于,美国现有法律和行政命令(包括行政命令 12333)在历史上曾被用于支持大规模数据收集活动。批评者认为,将限制条件与“合法用途”挂钩,实际上并未在合同层面增加额外约束。
一位熟悉五角大楼与多家 AI 公司谈判过程的消息人士表示,与 Anthropic 推动的强约束条款相比,OpenAI 的版本明显更为宽松。Anthropic 希望在合同文本中明确排除监控与自主武器用途,即便法律允许也不得使用;而 OpenAI 则选择依托现有法律体系,强调遵守法律即可。
目前,OpenAI 尚未就相关合同的具体条款作出进一步说明。外界普遍关注,这场围绕“红线”的争议,究竟是原则立场之争,还是合同措辞层面的差异。
随着生成式 AI 技术加速进入国防领域,如何在国家安全需求与技术伦理边界之间取得平衡,正成为科技公司与政府之间新的博弈焦点。(鞭牛士、AI普瑞斯编译)