少找工具,多做创作

美军仍倚重Claude做空袭决策,Anthropic遭国防客户弃离

美伊空中冲突持续升级的当下,美国军方仍将Anthropic旗下Claude大模型用于绝大多数空袭目标的决策环节;与之形成鲜明对比的是,Anthropic的国防科技类商业客户正出现大规模流失。这一矛盾态势不仅暴露了AI国防应用的伦理分歧,也引发行业对AI企业涉国防业务商业风险的深度探讨。

当地时间3月4日,美军战机对伊朗境内的多处军事设施与跨境物流枢纽发起精准空中打击。外界鲜少关注的是,此次行动中超过70%的目标筛选、优先级排序及打击路径规划结论,均由AI企业Anthropic开发的Claude大模型提供技术支撑。

美军对Claude的高度依赖,源于这款大模型独特的技术优势。相较于OpenAI的GPT-4等竞品,Claude具备更强的长文本多模态分析能力,可在数分钟内处理数千页的情报报告、高分辨率卫星图像及截获的无线电通信数据,生成结构化的目标风险评估与行动建议。早在2024年,美军就与Anthropic签署了价值超2亿美元的国防AI服务框架合同,将Claude纳入其联合全域指挥与控制(JADC2)系统的核心支撑工具矩阵。

但军方的核心客户身份,正在给Anthropic的商业业务带来反噬。据内部人士披露,自2026年初美伊冲突升级以来,已有至少12家国防科技领域的商业客户终止了与Anthropic的合作,涵盖情报分析工具开发、军用无人机控制系统集成等多个细分领域。这些客户的核心诉求高度一致:担忧与Anthropic的合作会被外界解读为支持美军的攻击性行动,进而损害自身在全球市场的声誉,同时也顾虑未来监管政策收紧可能带来的合规风险。

Anthropic的处境凸显了AI企业涉国防业务的深层矛盾。作为一家以“AI安全伦理”为核心品牌主张的公司,Anthropic此前曾公开承诺,其模型不会被用于直接的攻击性军事行动。但美军将Claude用于空袭决策的事实,显然与这一承诺存在冲突。行业分析师指出,Anthropic面临的困境不仅是客户流失,更可能引发伦理学界的批评,甚至影响其在民用AI市场的品牌信任度。

目前,Anthropic尚未就军方使用Claude的具体细节及客户流失问题发表公开声明。但这一事件无疑为全球AI企业敲响了警钟:在国防领域的AI应用中,如何平衡商业利益与伦理准则,将是未来很长一段时间内无法回避的核心议题。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯