谷歌Gemini遭大规模蒸馏攻击 单次攻击提示超10万次 当地时间2月12日,谷歌官方紧急披露旗下旗舰AI聊天机器人Gemini正遭遇史无前例的大规模蒸馏攻击。攻击者通过单次超10万次的重复诱导提问,系统性试探模型输出逻辑,试图反向破解其核心内部机制。这类带有明确商业动机的攻击,不仅撕开了大模型的安全防护缺口,也为全球AI行业的知识产权保护与模型安全敲响警钟。 在AI技术迭代加速的当下,大模型的核心机制一直是科技巨头的“商业护城河”——动辄数百亿美元的训练成本、长达数年的技术积累,构建起难以逾越的竞争壁垒。但此次针对Gemini的蒸馏攻击,却试图用一种“蚂蚁搬家”式的策略,击穿这条防线。 谷歌威胁情报小组首席分析师约翰·霍特奎斯特在内部通报中指出,此次攻击的规模和针对性远超以往:攻击者并非采用传统的prompt注入漏洞,而是通过设计好的标准化问题模板,发起单次超10万次的重复提问。每一次提问都在试探Gemini的输出边界,从回答的细微差异中反向推导模型的核心权重、训练数据分布甚至是决策逻辑链,最终目的要么是完整克隆Gemini的核心能力,要么将获取的逻辑融入自身AI系统,快速缩小与谷歌...