登录体验完整功能(收藏、点赞、评论等)

OpenAI与美防部达成机密AI合作,Anthropic因伦理红线遇阻

近日,OpenAI首席执行官萨姆·奥尔特曼宣布与美国国防部达成合作协议,允许后者在机密网络使用其AI模型。此前,AI公司Anthropic因明确拒绝为大规模国内监控、自主武器提供技术支持,被美防部列为供应链风险,获超60名OpenAI、300名谷歌员工公开支持。OpenAI的合作含伦理保护条款,奥尔特曼呼吁政府给予所有AI企业同等协商条件。

当地时间3月1日,OpenAI首席执行官萨姆·奥尔特曼通过行业闭门沟通会披露,公司已与美国国防部正式敲定合作框架:后者将获准在内部机密网络环境中部署OpenAI的人工智能模型。这一消息的出台,恰好与此前美国国防部和AI初创公司Anthropic的对峙事件形成耐人寻味的对照。

此前,美国国防部曾试图推进与Anthropic的技术合作,但后者明确为自身AI技术划下两条不可逾越的红线——拒绝为大规模国内监控系统提供AI支持,同时禁止将技术用于自主武器研发。这一强硬立场直接导致双方合作谈崩,美国国防部随后将Anthropic列为供应链风险主体。

值得注意的是,Anthropic的伦理选择获得了科技行业内部的广泛声援:超60名OpenAI员工、300名谷歌员工联名公开支持Anthropic的做法,凸显出AI领域从业者对技术应用边界的深层共识,以及对技术滥用风险的警惕。

不同于Anthropic的强硬态度,OpenAI选择了一条带有明确伦理约束的合作路线。根据双方公布的协议细节,OpenAI为国防部提供的AI模型应用将严格遵循两大核心原则:一是禁止用于大规模国内监控场景,二是涉及武力使用的决策必须由人类最终负责。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创