少找工具,多做创作

2026军用AI赛道生变:OpenAI接盘五角大楼AI合作引行业热议

2026年3月25日,《MIT科技评论》记者Michelle Kim发布最新一期《AI炒作指数》专题,聚焦军用AI领域最新动态:AI初创公司Anthropic因明确反对将旗下大模型Claude武器化,与美国五角大楼终止合作谈判,随后OpenAI快速接手相关合作项目,引发全球AI行业对技术伦理边界的集中讨论。

《MIT科技评论》推出的《AI炒作指数》是全球AI行业关注度最高的趋势观察栏目之一,每期都会筛选当期最具争议性的AI行业事件,从技术落地、伦理影响、商业价值多个维度给出中立评估,本期将军用AI作为核心主题,正是因为该赛道的近期变动已经触碰了全球AI从业者的共识红线。

过去两年,全球主要国家的国防部门都在加速AI技术的落地部署,仅美国五角大楼2026年披露的AI相关采购预算就超过120亿美元,同比2024年增长47%,涵盖情报分析、作战辅助、后勤调度多个场景。此前包括谷歌、微软在内的科技巨头都曾拿到过五角大楼的AI订单,但也多次因员工抗议伦理问题暂停部分项目。

此次Anthropic与五角大楼的分歧核心,恰恰是大模型是否可以被用于直接作战场景。据知情人士透露,五角大楼希望将Claude接入作战指挥系统,用于自动生成打击方案、识别高价值目标,而Anthropic的公司章程中明确要求,旗下技术不得被用于武器研发、大规模杀伤性工具开发等场景,其联合创始人达里奥·阿莫迪此前多次强调,公司的宪法AI机制从底层限制了模型输出有害内容,这也是其拒绝武器化合作的核心技术支撑,双方的谈判在僵持3个月后最终宣告破裂。

而OpenAI的选择则与Anthropic形成鲜明对比,OpenAI CEO萨姆·奥尔特曼此前就曾公开表示,AI技术应当服务于本国的国家安全需求,只要相关应用符合现有法律框架,OpenAI愿意与政府部门展开合作。此次接盘五角大楼的项目后,OpenAI将为后者提供定制化的GPT系列大模型服务,首批系统将在2026年下半年完成交付测试。

此次事件在全球AI行业引发的讨论还在持续,不少从业者担心,头部企业对军用AI合作的态度分化,可能会加速AI技术的军事化应用,甚至引发新一轮的全球AI军备竞赛。据《MIT科技评论》的评估,当前军用AI的炒作指数已经达到8.7分(满分10分),处于严重过热区间,技术落地的速度已经远超伦理规范的制定速度。

目前欧盟、中国等多个国家和地区已经在推进AI治理相关的立法工作,明确限制AI技术在武器领域的无底线应用,但全球层面的统一规范仍然处于空白状态。有行业专家指出,只有建立跨国家、跨企业的AI伦理共识,才能避免技术发展最终走向违背人类共同利益的方向。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创