少找工具,多做创作

AI成为战争核心底牌:特朗普下令停用Claude,美以精准打击引反思

近期全球AI与安全领域连发关键事件:五天内,美国前总统特朗普签署行政令要求联邦机构六个月内停用Anthropic Claude,理由为国家安全风险;同时美以联军对伊朗发动疑似AI辅助的精确打击,摧毁多核心目标。这一系列事件标志着AI已从战争工具升级为战争本身,成为左右地缘安全局势的核心变量,引发全球对AI军事化的深度反思。

当地时间2月28日凌晨,伊朗德黑兰市中心的多处核心建筑遭到美以联军的精准打击。火光熄灭后,外界注意到此次行动的目标筛选、航线规划精度远超传统军事打击范畴——AI技术极可能已成为这场行动的“隐形指挥官”。而就在前一天,特朗普签署的一则行政令,将AI与国家安全的绑定推向新高度。

此前AI在军事行动中多承担辅助角色,比如情报分析、后勤调度,但近期的一系列事件标志着其地位的质变。特朗普签署的行政令要求所有联邦机构在六个月内停用Anthropic Claude,理由直指“国家安全风险”——这意味着一款民用大语言模型已被视为可能动摇国家核心安全的关键变量。而美以联军的精准打击则用实战证明,AI不仅能处理敏感信息,更能直接左右战争的走向,从“后台辅助”跃升至“核心决策层”。

特朗普的行政令并非孤立事件。近年来,美国对AI企业的国家安全审查持续升级,Anthropic作为OpenAI的重要竞争对手,其Claude模型因具备强大的文本处理与信息整合能力,被担忧可能被用于窃取联邦机密信息,或被敌对势力利用发动认知战。与此同时,美国及其盟友在AI军事化领域的投入不断加大,美以此次联合打击就是AI实战应用的一次公开展示。这一“一控一用”的策略,凸显美国在AI领域既要维护技术优势,又要防范风险的矛盾心态,也将倒逼其他国家加速AI军事化布局。

AI成为战争核心底牌后,一系列新的问题随之而来。联邦机构停用Claude引发争议:民用大语言模型是否适合接入政府系统?AI辅助的军事打击如何确保目标识别的准确性,避免无辜伤亡?更关键的是,当AI拥有部分战争决策权限时,人类是否还能掌握战争的最终控制权?目前全球范围内尚未形成统一的AI军事化监管规则,此次事件无疑将推动国际社会重新审视AI的安全边界,加速相关伦理框架与监管政策的落地。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯