OpenAI与美防部达成机密AI合作,Anthropic因伦理红线遭排斥

14 小时前 AI快讯 5

近日,OpenAI首席执行官萨姆·奥尔特曼正式宣布,公司已与美国国防部达成合作协议,允许后者在机密网络环境中使用OpenAI的AI模型。此前美国国防部曾与Anthropic陷入对峙——因后者为大规模国内监控、自主武器研发明确划定伦理红线,超60名OpenAI员工、300名谷歌员工公开声援Anthropic,美防长将其列为供应链风险。OpenAI新合同设伦理保护条款,奥尔特曼呼吁政府推动公平协商。

当地时间近期,OpenAI首席执行官萨姆·奥尔特曼的一则声明,在全球AI行业掀起波澜——OpenAI已与美国国防部正式签署合作协议,允许后者在内部机密网络中部署并使用OpenAI的AI模型

与此前公开场景的AI合作不同,此次协议针对高度敏感的机密环境,OpenAI特意设置了多重保护措施:明确禁止AI模型用于大规模国内监控场景,规定人类必须对AI涉及的武力使用决策负最终责任,同时还将派驻专属工程师团队协助国防部完成模型的安全部署与运维。奥尔特曼在声明中强调,这些条款是保障AI技术合规使用的关键前提。

OpenAI的合作背景,是美国国防部与AI同行Anthropic的彻底决裂。此前国防部曾寻求与Anthropic展开合作,但后者明确为AI应用划定了两条不可逾越的伦理红线:坚决拒绝为大规模国内监控系统、自主武器研发提供技术支持

这一立场直接触怒了国防部,双方随后陷入对峙。值得注意的是,Anthropic的伦理选择获得了行业内大量员工的支持:超60名OpenAI员工、300名谷歌员工联名签署公开信声援Anthropic的立场。即便如此,美国防长仍将Anthropic列为“供应链风险主体”,相当于在国防合作领域对其进行了全面限制。

此次事件折射出当前AI行业在技术伦理与商业、国防需求之间的深度分歧。对于美国国防部而言,AI技术在机密网络中的应用,是提升情报分析、决策效率的核心需求;而不同AI厂商的选择,直接体现了其对技术边界的界定。

OpenAI选择在设置伦理条款的前提下与国防部合作,既迎合了国防需求,也试图平衡内部的伦理争议;而Anthropic则选择坚守严格的伦理红线,哪怕失去潜在的重大合作机会。奥尔特曼在声明最后呼吁,美国政府应为所有AI公司提供相同的合作条款框架,推动行业与政府之间进行更理性的协商,避免因立场差异造成不必要的行业分裂。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创