少找工具,多做创作

OpenAI与美防部达成AI部署协议,设技术护栏强化监管

近日OpenAI与美国国防部达成合作协议,允许其AI模型在国防部分类网络中部署使用。CEO萨姆·奥尔特曼公开表示,协议包含两大核心安全原则,OpenAI将搭建专属“技术护栏”,并派驻工程师全程协助部署与监管。本周超60名OpenAI员工公开支持Anthropic的AI安全立场,奥尔特曼呼吁推广协议条款,或推动AI军事化应用监管形成新范式。

在AI技术向军事领域渗透的过程中,“谁来监管”“如何监管”一直是悬而未决的核心问题。此前多数相关合作仅停留在纸面规则层面,而OpenAI此次提出的“技术护栏”概念,首次将安全机制直接嵌入AI模型的国防部署全流程。

此次协议明确了两大不可逾越的安全原则:一是禁止将OpenAI的AI模型用于美国国内大规模监控;二是所有涉及武力使用的决策,最终控制权必须掌握在人类手中。为确保原则落地,OpenAI将搭建多层“技术护栏”——从模型的权限隔离、数据访问限制到实时运行监控,全方位阻断AI模型被滥用的可能。同时,OpenAI还将派驻专职工程师入驻国防部分类网络环境,协助完成模型部署、运行维护与合规监管,并允许构建适配国防场景的专属“安全栈”。

协议公布后,OpenAI内部出现了积极的共识信号:本周已有超60名员工公开支持Anthropic在AI安全与军事化应用上的审慎立场。对此,萨姆·奥尔特曼明确表示,希望将此次协议中的安全条款推广至更多涉及AI军事应用的合作场景,推动整个行业形成统一的监管标准。这种企业内部态度与行业同行立场的呼应,也为AI军事化应用监管提供了“自上而下+自下而上”的双重推动力量。

长期以来,AI军事化应用的监管多依赖政策法规的外部约束,但技术迭代的速度往往远超政策更新的节奏。此次OpenAI提出的“技术护栏”,本质上是将安全监管机制内置于技术体系中,从模型设计、部署到运行的每个环节设置技术关卡,让监管与技术同步迭代。这种“技术+政策”双轮驱动的监管模式,或许能成为全球AI军事化应用监管的新样板,为平衡AI技术创新与国家安全风险提供可行路径。

随着AI技术在军事指挥、情报分析等领域的应用逐渐深入,全球范围内的AI军事化监管体系仍处于探索阶段。OpenAI与美国国防部的这次合作,不仅为自身AI模型的国防应用划出了安全边界,更可能为行业建立一套可复制的监管框架,推动AI军事化应用朝着更可控的方向发展。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯