少找工具,多做创作

谷歌微软OpenAI等联投1250万美元 整治AI垃圾报告筑牢开源安全

2026年3月18日,Linux基金会宣布获得来自谷歌、微软、OpenAI、Anthropic、AWS、GitHub六大科技企业的1250万美元联合资助。该笔资金将由基金会旗下Alpha-Omega项目与OpenSSF(开源软件安全基金会)共同管理,核心用于提升开源软件生态安全性,重点整治当前泛滥的AI生成低质漏洞报告问题。

平时在大模型赛道大打出手的科技巨头,这次因为共同的行业痛点站到了同一阵线。此前开源社区的多项调研显示,过去12个月里,提交到主流开源项目的漏洞报告中,超过4成是由大模型自动生成的低质、无效内容。这些报告要么是重复提交已知问题,要么是把正常代码逻辑误判为漏洞,部分甚至附带错误的修复方案,不仅占用了开源维护者近30%的日常工作时间,还多次出现真实高危漏洞被淹没在无效报告中未能及时修复的案例。2025年下半年,就有某头部云厂商的核心开源存储项目因为AI垃圾报告的干扰,错过了一个远程代码执行漏洞的最佳修复窗口,导致全球超过10万站点受到影响。

本次筹集的1250万美元专项基金,将全部划入Linux基金会旗下两大安全项目的共管账户。其中Alpha-Omega项目将负责开发专门的AI内容识别工具,对提交到开源社区的漏洞报告进行前置筛查,过滤掉明显的低质AI生成内容;OpenSSF则牵头制定行业统一的AI生成漏洞报告标注规范,要求所有用AI辅助生成的报告必须明确标注生成工具、校验流程,从源头减少无效提交。

据Linux基金会披露的阶段性规划,首笔200万美元资金将在4月前到位,优先支持Linux内核、Node.js等下载量过亿的核心开源项目的安全筛查系统部署,预计到2026年底,就能覆盖全球Top100开源项目的漏洞提交通道。

此前AI生成内容的治理大多集中在C端内容平台,开源生态的AI污染问题长期缺乏行业级的统一解决方案。本次原本处于竞争关系的六大科技企业联手出资,也被业内视为AI基础设施治理的重要信号:开源软件是当前AI大模型训练、部署的核心底座,其安全性直接关系到整个AI产业的发展底线。

有开源安全领域的资深专家表示,本次专项基金的落地,后续有望形成可复制的治理方案,向更多开源项目、开发者社区推广,从生态层面降低AI技术普及带来的次生安全风险,为后续AI产业的合规发展提供基础设施层面的保障。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创