OpenAI删除AI安全及非营利承诺,商业化转向引信任危机 创立之初以“开发非营利性、造福人类的通用人工智能(AGI)”为初心的OpenAI,近日被曝出在最新税务文件中删除了“AI安全造福人类、不受营利需求约束”的核心使命承诺。这一调整不仅与其早期设定的路径相悖,更复刻了当年谷歌“不作恶”承诺移除后的信任危机,引发科技圈和公众对其价值观全面转向商业化的普遍担忧。 成立于2015年的OpenAI,最初以“避免AI危害人类、开发普惠性AGI”为核心目标,采用纯粹的非营利组织架构,甚至明确禁止以营利为目的的研发方向。2019年,为获取支撑大模型研发的巨额资金,OpenAI调整为“有限营利”的混合结构——设立营利性子公司,但对投资者的回报设置严格上限,彼时外界仍普遍认为,其“安全优先、普惠人类”的核心价值观并未动摇。 但最新披露的2025年底税务文件,彻底打破了这一认知。对比2022-2023年文件中“构建安全造福人类、不受财务回报需求限制的通用人工智能”的明确表述,新文件仅保留了“确保通用人工智能使全人类受益”的模糊措辞:不仅删去了“安全”这一关乎AI伦理的核心限定,更直接移除了“不受营利需...