登录体验完整功能(收藏、点赞、评论等)

Anthropic拒向军方开放Claude军事权限 2亿美元合作濒临破裂

Anthropic拒向军方开放Claude军事权限 2亿美元合作濒临破裂

据Axios最新报道,以“人工智能安全与伦理”为核心定位的美国初创企业Anthropic,正与美国国防部陷入激烈博弈。双方因AI模型Claude的军事使用权限产生不可调和分歧,五角大楼不仅威胁终止价值2亿美元(约合13.83亿元人民币)的合作,还考虑将其列为“供应链风险方”。这场冲突折射出AI伦理底线与军事需求的直接碰撞,将深刻影响全球AI军事应用的边界与行业伦理准则。

近日,旧金山AI圈的这场矛盾引发广泛关注。Anthropic自创立起便将“AI对齐”与安全伦理作为核心竞争力,其推出的Claude大模型凭借可控性与安全性备受市场认可,此前与国防部达成的2亿美元合作,原本聚焦于后勤数据分析、战场态势模拟等非敏感军事场景。但随着合作推进,五角大楼的需求逐渐突破边界——数月来,国防部持续向Anthropic及另外三家AI巨头施压,要求取消对AI技术军事应用的限制,尤其是允许将Claude用于大规模监控、自主武器研发等领域。

矛盾的彻底激化源于美国军方在委内瑞拉的一次抓捕行动。据知情人士透露,军方曾计划在行动中调用Claude的多模态分析能力,辅助识别目标人物与环境,但这一需求直接触及Anthropic的红线:该公司始终明确禁止Claude应用于大规模监控及自主武器研发。在遭到Anthropic果断拒绝后,双方的信任彻底破裂,五角大楼随即亮出强硬态度。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创