Anthropic拒向军方开放Claude军事权限 2亿美元合作濒临破裂 据Axios最新报道,以“人工智能安全与伦理”为核心定位的美国初创企业Anthropic,正与美国国防部陷入激烈博弈。双方因AI模型Claude的军事使用权限产生不可调和分歧,五角大楼不仅威胁终止价值2亿美元(约合13.83亿元人民币)的合作,还考虑将其列为“供应链风险方”。这场冲突折射出AI伦理底线与军事需求的直接碰撞,将深刻影响全球AI军事应用的边界与行业伦理准则。 近日,旧金山AI圈的这场矛盾引发广泛关注。Anthropic自创立起便将“AI对齐”与安全伦理作为核心竞争力,其推出的Claude大模型凭借可控性与安全性备受市场认可,此前与国防部达成的2亿美元合作,原本聚焦于后勤数据分析、战场态势模拟等非敏感军事场景。但随着合作推进,五角大楼的需求逐渐突破边界——数月来,国防部持续向Anthropic及另外三家AI巨头施压,要求取消对AI技术军事应用的限制,尤其是允许将Claude用于大规模监控、自主武器研发等领域。 矛盾的彻底激化源于美国军方在委内瑞拉的一次抓捕行动。据知情人士透露,军方曾计划在行动中调用Cl...