拒做战争工具!谷歌OpenAI数百员工联名声援Anthropic守AI伦理

2 小时前 AI快讯 0

人工智能公司Anthropic因拒绝美国防部无限制使用其AI技术的要求,面临被列为“供应链风险企业”的威胁。此事引发科技界震动,超过300名谷歌员工与60多名OpenAI员工联合发表公开信,声援Anthropic坚守AI伦理红线的立场,呼吁各自公司领导层抵制军方将AI用于监控和自主武器开发的企图。

当美国防部试图将AI技术深度绑定到军事用途的供应链网络时,人工智能公司Anthropic用行动划下了一道不容逾越的伦理红线——这家以“可解释、可控制AI”为核心主张的企业,因明确拒绝军方无限制使用其技术的要求,收到了被列为“供应链风险企业”的官方威胁通知,这意味着它可能失去与美国政府相关的所有合作资格,甚至面临商业伙伴的集体规避。

据公开信息,美国防部对Anthropic的核心要求是“无限制使用权”,这一权限覆盖了AI技术在自主武器开发、国内大规模监控等敏感领域的应用。对军方而言,这类大模型技术能大幅提升情报分析、战术决策的效率,但Anthropic的伦理准则明确禁止其技术被用于造成伤害的军事用途。军方的“供应链风险”威胁,本质上是用商业生存压力逼迫企业妥协,打破AI行业长期坚守的伦理底线。

事件引发的连锁反应远超预期,科技界内部出现了罕见的跨阵营声援。超过300名谷歌员工与60多名OpenAI员工联合发表公开信,明确支持Anthropic的立场。值得注意的是,谷歌与OpenAI在全球大模型市场处于直接竞争关系,但两家公司的员工却在AI伦理问题上达成了高度共识。

公开信中直言,军方正采用“分而治之”的策略:利用企业间的竞争恐惧,暗示若一家不配合军方需求,竞争对手就会抢占政府订单。签署者们认为,这种策略只会让AI伦理底线不断后退,因此呼吁谷歌与OpenAI的高管们明确划定红线,坚决抵制军方将AI用于监控和自主武器开发的企图,拒绝被权力博弈裹挟。

这并非科技公司首次因军方AI需求陷入伦理争议。早在2018年,谷歌员工就曾因公司参与美国防部Maven项目(用AI分析无人机视频)发起大规模抗议,最终迫使谷歌退出该项目。此次Anthropic的遭遇,再次凸显了科技企业在商业利益与社会责任之间的艰难平衡——政府订单往往意味着巨额收入和政策倾斜,但与之绑定的军事用途,却可能让AI技术成为伤害人类的工具。

Anthropic的选择并非孤例,越来越多的AI公司开始将伦理准则纳入核心发展战略,但在军方的强大压力下,仅靠单个企业的坚守远远不够。员工群体的集体发声,恰恰反映了科技行业内部对伦理底线的普遍认同,也给企业领导层施加了必须正视的内部压力。

此次跨公司的员工声援,可能成为推动AI行业建立统一伦理标准的重要契机。若更多科技企业能在伦理问题上达成共识,就能形成对抗外部不当需求的合力。同时,这一事件也可能促使美国政府重新审视AI技术的军事应用边界,推动相关监管政策的出台,平衡国家安全需求与AI伦理责任。

对科技行业而言,AI的终极价值应是服务人类福祉,而非成为权力博弈的工具。Anthropic的坚守与员工们的声援,正是在提醒整个行业:在技术飞速迭代的当下,伦理红线永远不能被轻易逾越。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创