少找工具,多做创作

OpenAI收购安全厂商Promptfoo 筑牢大模型开发端安全屏障

当地时间2026年3月9日,OpenAI正式宣布收购AI安全领域头部厂商Promptfoo。后者主打自动化大模型漏洞检测能力,可在开发早期识别模型输出错误、恶意引导风险并提供修复方案。本次收购完成后,Promptfoo核心技术将集成至OpenAI Frontier平台,为调用OpenAI顶级模型的开发者提供内置安全检测机制,补强全链路安全能力。

2026年全球大模型产业已进入规模化落地阶段,随着各国AI监管政策陆续落地,大模型的安全合规要求已经从“可选配置”变成了“硬性门槛”。此前行业普遍采用的安全方案多为部署后的输出内容拦截,属于“事后补救”,难以从根源上解决大模型幻觉、prompt越狱等问题。不少企业反馈,AI应用上线前的安全测试成本已经占到总开发成本的30%以上,且传统人工测试的漏检率普遍超过40%,效率和成本都难以匹配产业落地的需求。

作为AI安全领域的标杆工具厂商,Promptfoo主打自动化大模型漏洞检测能力,可模拟数万种恶意prompt引导、幻觉触发场景,在模型微调、prompt工程、插件开发等早期环节就能精准识别风险点,同时给出可落地的修复方案,效率较传统人工测试提升20倍以上,此前已被Anthropic、谷歌DeepMind等多家头部厂商用于内部模型测试。

本次收购完成后,OpenAI不会将Promptfoo作为独立产品运营,而是直接将其核心技术集成到面向企业级开发者的OpenAI Frontier平台中。这也意味着,未来开发者在调用GPT-5等OpenAI顶级模型接口时,不需要额外对接第三方安全工具,就能直接获得原生的全链路安全检测支持,大幅降低开发阶段的安全投入成本。

本次收购也释放了OpenAI的战略转向信号:此前其核心投入大多集中在算力扩容、模型能力迭代上,此次补全开发端安全能力,本质是要打造“能力+安全”的双护城河。对于整个AI产业而言,头部厂商将安全能力原生集成到开发生态的动作,也将推动大模型安全标准的统一,降低中小开发者的合规门槛,加速整个产业的合规落地进程。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创