登录体验完整功能(收藏、点赞、评论等)

OpenAI为美国防部AI协议辩护:设三条安全红线,称优于Anthropic

当地时间3月1日,OpenAI就前一日与美国国防部达成的机密网络AI部署协议公开辩护,明确协议设置三条严格安全红线,禁止技术用于大规模国内监控、自主武器指挥及高风险自动化决策,并强调自身协议的安全防护更全面,且对安全体系拥有完全自主权。此前一日,特朗普政府下令停止与Anthropic合作,五角大楼将其列为供应链风险,事件引发AI行业广泛关注。

2月29日,美国总统唐纳德·特朗普签署行政命令,要求联邦政府立即终止与AI初创公司Anthropic的所有合作,五角大楼随即宣布将Anthropic纳入供应链风险清单。这一突发决定毫无预兆,瞬间在全球AI行业引发震动,不少从业者担忧这会重塑AI公司与政府合作的安全合规标准。

面对五角大楼的风险认定,Anthropic第一时间表态将通过法律途径提出异议。截至目前,五角大楼尚未披露具体的风险判定依据,但外界普遍猜测,此次事件或与Anthropic此前与政府合作中的安全防护条款存在漏洞有关。作为OpenAI的核心竞争对手,Anthropic凭借Claude系列大语言模型快速崛起,此次遭遇无疑会对其政府合作项目、商业信誉造成连锁冲击。

就在Anthropic陷入危机的次日,OpenAI迅速为自身与国防部的合作协议站台。据OpenAI披露,其与国防部的协议明确设置三条核心安全红线:禁止将AI技术用于大规模国内监控禁止用于指挥自主武器系统禁止用于高风险自动化决策

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创