特朗普下令禁用Anthropic,AI政企技术伦理博弈升级

2 小时前 AI快讯 1

美国前总统特朗普近期下令联邦各部门6个月内停用AI企业Anthropic的产品并将其剔除出政府承包商体系,五角大楼更将其列为“国家安全供应链风险企业”,禁止美军相关方与其合作。事件导火索为Anthropic拒绝为五角大楼提供用于监控及全自主武器系统的AI模型,凸显AI领域政企间技术应用的伦理与安全博弈。

不同于普通的行政限制,此次禁令采取了“双管齐下”的严苛措施:特朗普的行政命令覆盖所有联邦部门,给出的6个月过渡期意味着从政务办公到公共服务等多个场景的Anthropic AI工具都需完成替换;而五角大楼的追加限制则直接将Anthropic定性为“国家安全供应链风险企业”,不仅美军自身不得与其合作,所有承接美军外包业务的第三方企业也被严禁与其产生商业往来。

这一举措意味着Anthropic彻底失去了美国政府采购市场的准入资格——此前该公司曾为部分联邦机构提供过AI咨询及模型服务,如今却因伦理立场被全面封禁。

禁令背后的核心矛盾,是五角大楼对AI军事应用的需求与Anthropic的技术伦理准则严重相悖。据披露,五角大楼此前曾与Anthropic接触,希望将该公司的大语言模型集成至两大敏感场景:一是用于大规模国内监控的情报分析系统,二是具备自主决策能力的全自主武器平台

但Anthropic首席执行官明确拒绝了这一合作请求。作为以“安全AI”为核心定位的企业,Anthropic在创立初期就建立了严格的技术伦理框架,明确禁止将其AI模型用于可能威胁人类生命、加剧冲突的军事或监控场景。这种立场与政府的国家安全需求形成了直接对立。

此次禁令并非AI领域政企冲突的个例。近年来,随着大语言模型的快速迭代,美国政府对AI技术的依赖度持续提升,从政务服务优化到国防能力建设,AI的应用场景不断向敏感领域延伸。但头部AI企业大多坚守伦理底线,拒绝为高风险场景提供技术支持,这一矛盾未来将愈发突出。

对AI企业而言,如何在商业生存与伦理坚守之间找到平衡,将是长期挑战;对政府来说,如何在保障国家安全的同时,尊重AI行业的伦理准则,避免过度监管抑制技术创新,也需重新审视。这场博弈的走向,将深刻影响全球AI行业的发展路径与伦理边界。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创