登录体验完整功能(收藏、点赞、评论等)

谷歌Gemini遭大规模蒸馏攻击 单次攻击提示超10万次

谷歌Gemini遭大规模蒸馏攻击 单次攻击提示超10万次

当地时间2月12日,谷歌官方紧急披露旗下旗舰AI聊天机器人Gemini正遭遇史无前例的大规模蒸馏攻击。攻击者通过单次超10万次的重复诱导提问,系统性试探模型输出逻辑,试图反向破解其核心内部机制。这类带有明确商业动机的攻击,不仅撕开了大模型的安全防护缺口,也为全球AI行业的知识产权保护与模型安全敲响警钟。

在AI技术迭代加速的当下,大模型的核心机制一直是科技巨头的“商业护城河”——动辄数百亿美元的训练成本、长达数年的技术积累,构建起难以逾越的竞争壁垒。但此次针对Gemini的蒸馏攻击,却试图用一种“蚂蚁搬家”式的策略,击穿这条防线。

谷歌威胁情报小组首席分析师约翰·霍特奎斯特在内部通报中指出,此次攻击的规模和针对性远超以往:攻击者并非采用传统的prompt注入漏洞,而是通过设计好的标准化问题模板,发起单次超10万次的重复提问。每一次提问都在试探Gemini的输出边界,从回答的细微差异中反向推导模型的核心权重、训练数据分布甚至是决策逻辑链,最终目的要么是完整克隆Gemini的核心能力,要么将获取的逻辑融入自身AI系统,快速缩小与谷歌的技术差距。

更值得警惕的是,这类攻击并非个人黑客的恶作剧。谷歌明确表示,攻击发起者是带有强烈商业动机的行为主体,主要来自全球各地的竞争AI企业、独立研究机构,甚至是一些试图通过窃取技术降低研发成本的创业公司。“对于这些机构而言,蒸馏攻击的成本仅为自主训练大模型的1%不到,一旦成功就能直接获得顶尖的AI能力,这无疑是极具诱惑力的捷径。”一位不愿具名的AI安全专家告诉记者,“大模型训练需要消耗海量算力与数据资源,很多中小企业根本无力承担,蒸馏攻击就成了他们‘弯道超车’的灰色路径。”

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创