OpenAI与美军合作引公众关注

围绕OpenAI与美国国防部签署人工智能合作协议的消息持续发酵,多名现任及前任员工在社交平台X上披露协议细节,讨论其安全边界、技术用途以及与竞争对手Anthropic立场的差异。该合作成为科技与政策交叉领域的焦点议题。

协议条款引发安全争议

OpenAI首席执行官Sam Altman确认,公司已与五角大楼建立合作,允许在特定条件下使用其人工智能模型。然而,此举迅速引发质疑,尤其因另一家AI企业Anthropic此前拒绝类似条款,理由是担心其模型可能被用于大规模国内监控或自主致命武器系统。

内部观点呈现分歧

OpenAI研究人员Boaz Barak回应称,将该协议描述为“弱化安全红线”并不准确。他指出,当前合同中对模型使用的限制可能比Anthropic先前获得的版本更为严格,尤其在防范大规模监控和自主武器方面设定了明确禁区。 前政策研究主管Miles Brundage则提出不同看法,认为在外部律师与军方表态背景下,部分员工怀疑公司在谈判中作出妥协,并试图将让步包装为技术合作。但他也承认,公司内部结构复杂,部分团队仍在努力争取合理结果。

保障条款与透明度诉求并行

技术人员Clive Chan透露,合同包含禁止将AI用于大规模监控或自主致命武器的保障性条款,并表示正推动公司公开更多协议内容,以回应公众疑虑。这一举动反映出内部对信息透明度的迫切需求。 研究科学家Muhammad Bavarian批评将Anthropic视为供应链风险的做法缺乏公平性,主张双方若能保持理性沟通,仍有弥合分歧的空间。

政策审议进程启动

研究员Noam Brown指出,最初公布的协议措辞确实存在模糊地带,例如提及AI可能用于“新的合法监控形式”。不过,在OpenAI更新官方博客后,相关表述已进行调整。他同时强调,人工智能在国家安全机构中的部署应接受民主程序审查,而非由科技公司或情报部门单方面决定。 目前,向美国国家安全局等机构部署相关系统的计划已被暂缓,等待进一步政策讨论。

未来走向仍待观察

此次事件凸显人工智能技术在国家安全领域应用所面临的深层矛盾。随着模型能力持续提升,关于军事化使用、监控风险与伦理治理的讨论预计将持续升温,推动行业与监管体系寻求更清晰的边界共识。