登录体验完整功能(收藏、点赞、评论等) — 已累计有 8625 人加入

让AI触手可及,让应用激发潜能

拒做战争工具!谷歌OpenAI数百员工联名声援Anthropic守AI伦理

人工智能公司Anthropic因拒绝美国防部无限制使用其AI技术的要求,面临被列为“供应链风险企业”的威胁。此事引发科技界震动,超过300名谷歌员工与60多名OpenAI员工联合发表公开信,声援Anthropic坚守AI伦理红线的立场,呼吁各自公司领导层抵制军方将AI用于监控和自主武器开发的企图。

当美国防部试图将AI技术深度绑定到军事用途的供应链网络时,人工智能公司Anthropic用行动划下了一道不容逾越的伦理红线——这家以“可解释、可控制AI”为核心主张的企业,因明确拒绝军方无限制使用其技术的要求,收到了被列为“供应链风险企业”的官方威胁通知,这意味着它可能失去与美国政府相关的所有合作资格,甚至面临商业伙伴的集体规避。

据公开信息,美国防部对Anthropic的核心要求是“无限制使用权”,这一权限覆盖了AI技术在自主武器开发、国内大规模监控等敏感领域的应用。对军方而言,这类大模型技术能大幅提升情报分析、战术决策的效率,但Anthropic的伦理准则明确禁止其技术被用于造成伤害的军事用途。军方的“供应链风险”威胁,本质上是用商业生存压力逼迫企业妥协,打破AI行业长期坚守的伦理底线。

事件引发的连锁反应远超预期,科技界内部出现了罕见的跨阵营声援。超过300名谷歌员工与60多名OpenAI员工联合发表公开信,明确支持Anthropic的立场。值得注意的是,谷歌与OpenAI在全球大模型市场处于直接竞争关系,但两家公司的员工却在AI伦理问题上达成了高度共识。

公开信中直言,军方正采用“分而治之”的策略:利用企业间的竞争恐惧,暗示若一家不配合军方需求,竞争对手就会抢占政府订单。签署者们认为,这种策略只会让AI伦理底线不断后退,因此呼吁谷歌与OpenAI的高管们明确划定红线,坚决抵制军方将AI用于监控和自主武器开发的企图,拒绝被权力博弈裹挟。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创