谷歌Gemini遭大规模蒸馏攻击 单次攻击提示超10万次

1 小时前 AI快讯 0

谷歌Gemini遭大规模蒸馏攻击 单次攻击提示超10万次

当地时间2月12日,谷歌官方紧急披露旗下旗舰AI聊天机器人Gemini正遭遇史无前例的大规模蒸馏攻击。攻击者通过单次超10万次的重复诱导提问,系统性试探模型输出逻辑,试图反向破解其核心内部机制。这类带有明确商业动机的攻击,不仅撕开了大模型的安全防护缺口,也为全球AI行业的知识产权保护与模型安全敲响警钟。

在AI技术迭代加速的当下,大模型的核心机制一直是科技巨头的“商业护城河”——动辄数百亿美元的训练成本、长达数年的技术积累,构建起难以逾越的竞争壁垒。但此次针对Gemini的蒸馏攻击,却试图用一种“蚂蚁搬家”式的策略,击穿这条防线。

谷歌威胁情报小组首席分析师约翰·霍特奎斯特在内部通报中指出,此次攻击的规模和针对性远超以往:攻击者并非采用传统的prompt注入漏洞,而是通过设计好的标准化问题模板,发起单次超10万次的重复提问。每一次提问都在试探Gemini的输出边界,从回答的细微差异中反向推导模型的核心权重、训练数据分布甚至是决策逻辑链,最终目的要么是完整克隆Gemini的核心能力,要么将获取的逻辑融入自身AI系统,快速缩小与谷歌的技术差距。

更值得警惕的是,这类攻击并非个人黑客的恶作剧。谷歌明确表示,攻击发起者是带有强烈商业动机的行为主体,主要来自全球各地的竞争AI企业、独立研究机构,甚至是一些试图通过窃取技术降低研发成本的创业公司。“对于这些机构而言,蒸馏攻击的成本仅为自主训练大模型的1%不到,一旦成功就能直接获得顶尖的AI能力,这无疑是极具诱惑力的捷径。”一位不愿具名的AI安全专家告诉记者,“大模型训练需要消耗海量算力与数据资源,很多中小企业根本无力承担,蒸馏攻击就成了他们‘弯道超车’的灰色路径。”

事实上,蒸馏攻击并非全新的AI安全威胁,但此次针对Gemini的攻击规模刷新了行业认知。此前公开的类似攻击案例中,单次提问次数往往停留在数千次级别,而超10万次的操作意味着攻击者已经掌握了Gemini的响应规律,并通过自动化工具实现了批量攻击。这也暴露了大模型普遍存在的一个安全短板:在面对高频重复的标准化提问时,模型的输出模式可能会呈现出可被预测的规律,进而成为反向破解的突破口。

目前谷歌暂未公布具体的应对细节,但据内部消息人士透露,公司已启动最高级别的应急响应,临时限制了Gemini对高频重复提问的响应效率,同时升级了异常访问检测系统,对来自异常IP地址的批量请求进行拦截。此外,谷歌的AI安全团队正在紧急优化模型的对抗训练机制,通过引入随机化响应、动态调整输出逻辑等方式,增加攻击者反向推导的难度。

此次Gemini遭袭事件,无疑给全球AI行业提了醒:在追逐技术迭代和市场份额的同时,大模型的安全防护能力需要同步升级。未来,随着AI竞争的进一步加剧,类似的蒸馏攻击甚至更复杂的模型窃取手段会层出不穷。如何在保护核心技术的同时兼顾用户体验,如何建立行业统一的安全标准,将成为所有AI企业必须面对的长期课题。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创