OpenAI删除AI安全及非营利承诺,商业化转向引信任危机

2 小时前 AI快讯 1

OpenAI删除AI安全及非营利承诺,商业化转向引信任危机

创立之初以“开发非营利性、造福人类的通用人工智能(AGI)”为初心的OpenAI,近日被曝出在最新税务文件中删除了“AI安全造福人类、不受营利需求约束”的核心使命承诺。这一调整不仅与其早期设定的路径相悖,更复刻了当年谷歌“不作恶”承诺移除后的信任危机,引发科技圈和公众对其价值观全面转向商业化的普遍担忧。

成立于2015年的OpenAI,最初以“避免AI危害人类、开发普惠性AGI”为核心目标,采用纯粹的非营利组织架构,甚至明确禁止以营利为目的的研发方向。2019年,为获取支撑大模型研发的巨额资金,OpenAI调整为“有限营利”的混合结构——设立营利性子公司,但对投资者的回报设置严格上限,彼时外界仍普遍认为,其“安全优先、普惠人类”的核心价值观并未动摇。

但最新披露的2025年底税务文件,彻底打破了这一认知。对比2022-2023年文件中“构建安全造福人类、不受财务回报需求限制的通用人工智能”的明确表述,新文件仅保留了“确保通用人工智能使全人类受益”的模糊措辞:不仅删去了“安全”这一关乎AI伦理的核心限定,更直接移除了“不受营利需求约束”的承诺。这意味着,OpenAI未来的AGI研发将不再以“安全优先”为绝对准则,营利性需求正式成为其决策的核心考量因素之一。

这一使命调整并非孤立事件,而是一系列动作的最终指向。此前OpenAI突然解散负责AI安全与价值观对齐的“使命对齐团队”,就已引发业内对其安全优先级下降的猜测。而一名被解职的该团队女性高管随后爆料,OpenAI为讨好付费大客户,已悄悄开放生成成人内容的相关功能;这一说法随即遭到OpenAI的反击,后者指责该高管存在性别歧视,双方的口水战进一步将OpenAI推向舆论风口,也让外界对其商业化让步的细节充满疑虑。

科技伦理专家对此表示强烈担忧。“OpenAI作为全球AGI领域的领军者,其价值观的转向具有极强的示范效应。”中国科学院科技战略咨询研究院研究员李涛指出,若头部机构放弃“安全不受营利约束”的底线,整个AI行业可能会陷入“为了商业化速度牺牲安全”的恶性竞赛中,最终损害的是全人类的利益。不少网友也将此次事件与谷歌2018年删除“不作恶”承诺相提并论,认为这是科技公司从理想主义滑向功利主义的又一典型案例。

从现实角度看,AGI研发的成本堪称天文数字。据业内估算,训练一次前沿大模型的成本高达数亿美元,而OpenAI近年来为推进AGI迭代,不断加大算力投入,仅2025年的研发支出就突破30亿美元。微软的巨额投资虽能解燃眉之急,但也不可避免地带来商业化压力——有知情人士透露,微软对OpenAI的核心要求是尽快将技术转化为稳定营收,这或许是OpenAI调整使命的核心动因之一。

对于普通用户而言,最直接的影响可能体现在AI内容的管控上:若OpenAI为了营利放宽内容限制,生成式AI可能会沦为传播不良信息的工具。而从长期来看,AGI的发展若不受“不受营利约束”的限制,其研发方向可能会更多偏向满足付费客户的个性化需求,而非公共安全、弱势群体的利益——比如医疗AI可能更倾向服务付费能力强的用户,而非偏远地区的基础医疗需求。

OpenAI此次使命调整,是科技公司在理想与现实之间的一次艰难妥协,但这一妥协的代价,可能是行业信任的流失与伦理风险的加剧。未来,OpenAI如何在商业化推进与AI安全、公共利益之间找到平衡,将决定它能否重新赢得公众的信任,也将为全球AI行业的发展路径提供重要参考。毕竟,AGI的终极目标应该是造福全人类,而不是成为少数资本追逐利润的工具。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创