OpenAI与五角大楼达成AI合作协议,与Anthropic立场鲜明对立

1 小时前 AI快讯 0

当地时间周五,OpenAI首席执行官萨姆·奥尔特曼宣布,公司已与美国国防部达成合作协议,允许其AI模型接入美军机密网络,协议明确包含禁止国内大规模监控、武力使用需由人类负责等核心安全原则。其竞争对手Anthropic因拒绝为美军提供“所有合法用途”的AI服务,被列为供应链风险,两大巨头立场反差明显。

在AI军事化应用的伦理争议愈演愈烈的当下,OpenAI的这一决定,相当于在行业内抛出了一条新的“中间路线”——既不彻底拒绝国防合作,也为AI的使用划定了明确的红线。

此次OpenAI与五角大楼的协议核心,并非无限制开放AI能力,而是带着明确安全约束的定向合作。协议中两条关键原则被反复强调:一是禁止将OpenAI的AI模型用于美国国内的大规模监控;二是所有涉及武力使用的决策,必须由人类最终负责,杜绝AI自主发动攻击的可能。

对OpenAI而言,这一合作不仅能获得来自国防领域的资源与数据支持,更能在AI军事化的敏感议题上,塑造“负责任的技术提供商”形象,与此前行业对AI军事化的负面印象切割。

与OpenAI的选择形成鲜明对比的是,Anthropic坚持以严格的伦理底线划清与国防合作的边界。五角大楼曾要求AI供应商允许其模型用于“所有合法用途”,但Anthropic明确拒绝,将大规模国内监控和完全自主武器列为技术服务的绝对禁区

这种毫不妥协的立场,直接导致Anthropic与五角大楼陷入对峙,最终被美军列为供应链风险,彻底失去了参与国防AI项目的资格。对Anthropic来说,这是一次以商业利益换取伦理坚守的选择,也凸显了其创立之初便强调的“AI安全优先”的核心价值观。

OpenAI与Anthropic的分歧,本质上是AI行业在商业利益与伦理底线之间的艰难权衡。

OpenAI的“有条件合作”,试图在国防市场的巨大机会与公众对AI军事化的担忧之间找到平衡点;而Anthropic的“硬刚”,则代表了部分AI公司对技术伦理的绝对坚守。随着AI技术在国防领域的应用需求持续增长,未来会有更多头部公司面临类似的抉择,这种分歧也将进一步推动行业对AI军事化应用规则的完善。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创