少找工具,多做创作

科技从业者联名呼吁 美国防部应撤销Anthropic供应链风险标签

近日,多名美国科技领域从业者联合签署公开信,敦促美国国防部(DOD)及国会撤销将AI初创公司Anthropic列为“供应链风险”的官方认定。信中呼吁相关监管方放弃公开定性的强硬方式,转而通过私下沟通渠道解决分歧。Anthropic因开发Claude系列大语言模型,在全球AI安全与通用AI领域具备较高行业影响力。

当地时间3月1日,一封由美国科技行业工程师、研究员及企业管理者联合发起的公开信在硅谷圈层快速传播。信中直指美国国防部上月末将AI初创公司Anthropic纳入“供应链风险”清单的决定缺乏依据,明确要求监管方收回这一定性,并呼吁国会介入推动诉求落地。

此次联名并非空穴来风。美国国防部的公开认定,直接将Anthropic推至监管与行业的对立面。签署信的科技从业者认为,将一家专注于AI安全研究的初创公司列为供应链风险,不仅缺乏明确的事实依据,更会对Anthropic的商业声誉造成不可逆的损害——包括影响其与政府部门、国防承包商的潜在合作,以及后续的融资节奏。

信中特别强调,相关分歧完全可以通过私下沟通解决,而非通过公开定性的方式激化矛盾。签署者担忧,这种公开的监管标签会引发连锁反应,让其他AI初创公司在与政府合作时产生顾虑,最终抑制美国本土AI领域的创新活力。

作为由前OpenAI核心团队成员创立的AI公司,Anthropic凭借Claude系列大语言模型在全球AI市场占据一席之地。与其他头部AI企业不同,Anthropic始终将AI安全作为核心研发方向,甚至将“对齐人类价值观”写入公司治理条款。此次被国防部列为供应链风险,让不少业内人士感到意外——毕竟其技术路线本就更贴合政府对AI安全的诉求。

有行业分析师指出,Anthropic的处境反映出当前美国AI监管的模糊性:政府既希望借助初创企业的技术创新提升国防能力,又对AI技术的潜在风险保持高度警惕,这种矛盾态度很容易造成监管过度或误判。

近年来,美国政府对AI领域的监管力度持续升级,从AI安全标准制定到供应链合规审查,相关政策的收紧让不少初创企业面临合规压力。尤其是涉及国防、敏感数据合作的AI公司,一旦被纳入风险清单,可能直接失去参与政府项目的资格。

此次Anthropic引发的争议,本质上反映了AI行业创新需求与政府监管边界之间的矛盾。如何在保障国家安全的前提下,为AI初创企业保留足够的创新空间,已成为美国科技监管领域亟待解决的核心议题。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯