OpenAI CEO萨姆·奥尔特曼宣布与美国战争部达成协议,将旗下AI模型部署至对方机密网络。此举因涉嫌违背公司此前的伦理承诺,引发用户担忧技术被用于大规模监控或自主武器开发,一场“取消ChatGPT”的退订运动随即蔓延,目前已对OpenAI的营收产生实质影响。
当地时间2月29日晚,OpenAI CEO萨姆·奥尔特曼在X平台(原Twitter)发布的一则简短推文,迅速点燃了AI行业的伦理争议——他在文中明确提及,OpenAI已与美国战争部达成合作,将把旗下的大语言模型部署到对方的机密网络环境中。
OpenAI此前公开的AI伦理原则中,曾明确将“避免AI用于军事或监视用途”列为核心准则,强调技术应服务于和平与公共利益。但此次与美国战争部的合作,直接触碰了这一红线。奥尔特曼在推文中提到“战争部表现出对安全的高度重视”,但这并不能打消用户的核心顾虑:机密网络的部署意味着模型的使用场景完全不透明,外界无法监督其是否被用于开发自主武器、优化大规模监控系统等存在伦理风险的领域。
社交平台上,“取消ChatGPT”的标签迅速成为全球热议话题,大量ChatGPT Plus订阅用户晒出退订截图,表达对OpenAI的失望与抗议。有用户在留言中表示,当初选择付费订阅,正是因为相信OpenAI的伦理底线,如今这一合作让他觉得“自己的付费正在资助可能伤害他人的技术”。虽然OpenAI尚未公开退订人数的具体数据,但据行业分析师透露,此次抗议运动已对OpenAI的月度经常性收入产生可观测的下滑,部分地区的Plus订阅转化率也出现明显波动。
类似的伦理争议并非首次在科技行业上演。2018年谷歌因参与美国国防部的Project Maven项目(利用AI分析无人机视频),引发上千名员工联名抗议,最终谷歌宣布不再续签该项目。此次OpenAI的争议,进一步凸显了AI科技公司在商业扩张与伦理坚守之间的艰难平衡:一方面,政府和军事客户能提供稳定且高额的营收;另一方面,用户和员工对AI伦理的敏感度与日俱增,一旦公司行为与承诺相悖,就可能引发不可逆的信任危机。对于OpenAI而言,如何在安抚用户情绪与维持商业合作之间找到平衡点,将是未来一段时间的核心挑战。
截至目前,OpenAI尚未针对用户的抗议作出正式回应,也未透露是否会调整与美国战争部的合作内容。这场由军事合作引发的伦理争议,不仅是OpenAI的危机,更是整个AI行业需要共同面对的考题——当技术的力量越来越强大时,科技公司如何守住伦理底线,避免成为权力的工具,值得所有从业者深思。