登录体验完整功能(收藏、点赞、评论等) — 已累计有 8645 人加入

让AI触手可及,让应用激发潜能

美军仍倚重Claude做空袭决策,Anthropic遭国防客户弃离

美伊空中冲突持续升级的当下,美国军方仍将Anthropic旗下Claude大模型用于绝大多数空袭目标的决策环节;与之形成鲜明对比的是,Anthropic的国防科技类商业客户正出现大规模流失。这一矛盾态势不仅暴露了AI国防应用的伦理分歧,也引发行业对AI企业涉国防业务商业风险的深度探讨。

当地时间3月4日,美军战机对伊朗境内的多处军事设施与跨境物流枢纽发起精准空中打击。外界鲜少关注的是,此次行动中超过70%的目标筛选、优先级排序及打击路径规划结论,均由AI企业Anthropic开发的Claude大模型提供技术支撑。

美军对Claude的高度依赖,源于这款大模型独特的技术优势。相较于OpenAI的GPT-4等竞品,Claude具备更强的长文本多模态分析能力,可在数分钟内处理数千页的情报报告、高分辨率卫星图像及截获的无线电通信数据,生成结构化的目标风险评估与行动建议。早在2024年,美军就与Anthropic签署了价值超2亿美元的国防AI服务框架合同,将Claude纳入其联合全域指挥与控制(JADC2)系统的核心支撑工具矩阵。

但军方的核心客户身份,正在给Anthropic的商业业务带来反噬。据内部人士披露,自2026年初美伊冲突升级以来,已有至少12家国防科技领域的商业客户终止了与Anthropic的合作,涵盖情报分析工具开发、军用无人机控制系统集成等多个细分领域。这些客户的核心诉求高度一致:担忧与Anthropic的合作会被外界解读为支持美军的攻击性行动,进而损害自身在全球市场的声誉,同时也顾虑未来监管政策收紧可能带来的合规风险。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创