OpenAI承认合作推进过快 将加强AI军事应用限制

OpenAI首席执行官Sam Altman在舆论持续发酵之际公开表态,承认公司此前与美国国防部达成的人工智能合作协议推进过于仓促,决定对相关条款进行调整。该协议于上周五宣布,正值美国政府推进多项国家安全决策期间,迅速引发关于人工智能技术可能被用于军事用途及数据安全的广泛质疑。

新增限制条款明确禁止国内监控

针对外界关切,Altman表示,公司将为协议增加新的限制性条款,明确界定人工智能系统不得被用于对美国公民或居民实施国内监控。这一回应旨在缓解公众对技术滥用的担忧。

国防部确认未授权情报机构直接使用

据Altman披露,美国国防部已确认,OpenAI的人工智能工具不会被美国国家安全局(NSA)等情报机构直接用于情报监控任务。同时,双方计划共同制定额外的技术保障措施,以降低人工智能在敏感场景中的潜在滥用风险。

承认判断失误并反思决策过程

Altman坦言,公司在推进协议时存在判断失误。当时团队希望快速缓和局势、避免政治冲突,但这一做法显得过于草率,也容易被外界解读为投机行为,影响了公众信任。

Anthropic合作破裂加剧行业分歧

此次事件亦牵连另一家人工智能公司Anthropic。该公司此前就其AI模型Claude的使用边界与美国政府产生分歧,寻求确保系统不被用于国内监控或自主武器开发,最终谈判未能达成一致。

用户情绪波动推动产品迁移

网络平台上出现明显用户情绪变化,部分使用者减少对ChatGPT的依赖,转而尝试Claude等竞争产品,反映出公众对人工智能伦理边界的高度关注正在扩大。

呼吁公平对待同类企业

Altman强调,他并不认为Anthropic构成供应链风险,希望美国国防部能给予其与OpenAI类似的合作条件。这一表态凸显出在人工智能快速发展的背景下,技术与国家安全、社会监管之间的边界问题正成为全球科技行业的核心议题。