近日,OpenAI首席执行官萨姆·奥尔特曼宣布与美国国防部达成合作协议,允许后者在机密网络使用其AI模型。此前,AI公司Anthropic因明确拒绝为大规模国内监控、自主武器提供技术支持,被美防部列为供应链风险,获超60名OpenAI、300名谷歌员工公开支持。OpenAI的合作含伦理保护条款,奥尔特曼呼吁政府给予所有AI企业同等协商条件。
当地时间3月1日,OpenAI首席执行官萨姆·奥尔特曼通过行业闭门沟通会披露,公司已与美国国防部正式敲定合作框架:后者将获准在内部机密网络环境中部署OpenAI的人工智能模型。这一消息的出台,恰好与此前美国国防部和AI初创公司Anthropic的对峙事件形成耐人寻味的对照。
此前,美国国防部曾试图推进与Anthropic的技术合作,但后者明确为自身AI技术划下两条不可逾越的红线——拒绝为大规模国内监控系统提供AI支持,同时禁止将技术用于自主武器研发。这一强硬立场直接导致双方合作谈崩,美国国防部随后将Anthropic列为供应链风险主体。
值得注意的是,Anthropic的伦理选择获得了科技行业内部的广泛声援:超60名OpenAI员工、300名谷歌员工联名公开支持Anthropic的做法,凸显出AI领域从业者对技术应用边界的深层共识,以及对技术滥用风险的警惕。
不同于Anthropic的强硬态度,OpenAI选择了一条带有明确伦理约束的合作路线。根据双方公布的协议细节,OpenAI为国防部提供的AI模型应用将严格遵循两大核心原则:一是禁止用于大规模国内监控场景,二是涉及武力使用的决策必须由人类最终负责。
此外,OpenAI还将为国防部构建专属的技术保障机制,并派驻专业工程师协助模型的安全部署,试图在满足政府需求与坚守伦理底线之间找到平衡。奥尔特曼在公开表态中强调,这些保护措施是合作的核心前提,他同时呼吁美国政府向所有AI企业提供相同的协商条款,推动行业在理性框架下与监管方对话。
此次OpenAI与国防部的合作,本质上折射出全球AI军备竞赛背景下,科技企业与政府之间的复杂博弈。一方面,美国国防部迫切需要先进AI技术提升军事与情报能力;另一方面,AI企业面临着技术伦理与商业利益的双重抉择。
Anthropic的“硬刚”代表了部分AI从业者对技术滥用的零容忍态度,而OpenAI的“折中”则显示出企业在拥抱官方合作时的审慎考量。这一系列事件也让行业开始反思:如何在满足国家战略需求的同时,建立起有效的技术伦理防火墙,避免AI技术滑向不可控的伦理禁区?