Anthropic拒向军方开放Claude军事权限 2亿美元合作濒临破裂

1 小时前 AI快讯 0

Anthropic拒向军方开放Claude军事权限 2亿美元合作濒临破裂

据Axios最新报道,以“人工智能安全与伦理”为核心定位的美国初创企业Anthropic,正与美国国防部陷入激烈博弈。双方因AI模型Claude的军事使用权限产生不可调和分歧,五角大楼不仅威胁终止价值2亿美元(约合13.83亿元人民币)的合作,还考虑将其列为“供应链风险方”。这场冲突折射出AI伦理底线与军事需求的直接碰撞,将深刻影响全球AI军事应用的边界与行业伦理准则。

近日,旧金山AI圈的这场矛盾引发广泛关注。Anthropic自创立起便将“AI对齐”与安全伦理作为核心竞争力,其推出的Claude大模型凭借可控性与安全性备受市场认可,此前与国防部达成的2亿美元合作,原本聚焦于后勤数据分析、战场态势模拟等非敏感军事场景。但随着合作推进,五角大楼的需求逐渐突破边界——数月来,国防部持续向Anthropic及另外三家AI巨头施压,要求取消对AI技术军事应用的限制,尤其是允许将Claude用于大规模监控、自主武器研发等领域。

矛盾的彻底激化源于美国军方在委内瑞拉的一次抓捕行动。据知情人士透露,军方曾计划在行动中调用Claude的多模态分析能力,辅助识别目标人物与环境,但这一需求直接触及Anthropic的红线:该公司始终明确禁止Claude应用于大规模监控及自主武器研发。在遭到Anthropic果断拒绝后,双方的信任彻底破裂,五角大楼随即亮出强硬态度。

对于Anthropic而言,坚守伦理底线意味着放弃巨额订单,甚至可能面临更长期的政府合作限制。一旦被列为“供应链风险方”,Anthropic将被排除在所有军方AI项目之外,其获取美国政府科技采购订单的资格也会受到影响。但该公司并未动摇立场,其发言人在回应中强调:“我们创立的初衷是确保AI技术服务于全人类共同利益,而非成为危害生命或侵犯隐私的工具,这一底线不会因任何商业或政治压力而改变。”

这并非AI企业与军方的首次伦理冲突。此前谷歌因参与军方Maven项目引发数千名员工抗议,最终宣布退出相关合作,但后续又通过非核心项目恢复了部分军方联系;而Anthropic的坚守显然更为彻底,这一姿态在当前AI军事化浪潮中显得格外醒目。美国人工智能伦理研究所研究员莎拉·科恩指出:“这场冲突本质是商业AI公司的伦理准则与国家军事需求的直接碰撞。若军方施压得逞,将引发行业‘伦理降级’,迫使更多企业为了订单放弃底线;反之,Anthropic的坚守将为行业树立标杆,推动各界重新界定AI军事应用的边界。”

当前全球已有多个国家在推进AI军事应用,从智能指挥系统到自主无人机,私营AI企业的技术支持是核心动力。Anthropic与美军方的这场博弈,不仅关乎一家企业的商业命运,更将塑造未来AI技术的应用规则。在AI能力日益强大的今天,如何平衡技术进步、商业利益与人类伦理安全,已经成为全球科技行业无法回避的核心议题,而这场对峙正是这一议题最现实的注脚。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创