少找工具,多做创作

苹果采用知识蒸馏技术 实现谷歌Gemini大模型iPhone端侧运行

2026年3月披露的合作信息显示,苹果与谷歌达成深度授权协议,允许苹果工程师直接访问数据中心内的Gemini全量大模型,通过知识蒸馏技术将云端Gemini转化为适配iPhone的轻量化端侧AI组件。此举既保留了Gemini的推理精度与响应速度,又大幅降低端侧算力需求,将进一步强化苹果端侧AI的用户体验与技术自主性。

2026年3月25日,多家北美科技媒体同步披露了苹果与谷歌达成的AI领域深度合作细节,这一消息打破了此前市场对双方仅停留在API调用层面合作的猜测:苹果工程师获得了直接进入谷歌数据中心、访问Gemini全量模型的权限,其核心目标是通过知识蒸馏技术,将庞大的云端Gemini模型“压缩”为可在iPhone本地运行的轻量化组件。


2024年以来,全球智能手机市场的竞争重心已经从硬件参数转向端侧AI体验,三星、小米、vivo等安卓厂商先后推出了搭载7B、14B参数端侧大模型的旗舰机型,可在本地实现AI生成内容、智能语义理解、实时多语种翻译等功能。而苹果此前推出的iOS 18、iOS 19系统内置的AI功能,因为模型能力有限、多数功能需要云端联网处理,一直被市场诟病落后于安卓阵营。

苹果基础模型团队(AFM)此前也一直在探索自有大模型的研发,但通用大模型的训练需要投入海量算力与数据资源,短期内很难追平谷歌、OpenAI等第一梯队厂商的技术差距,此次与谷歌的深度合作,恰好补上了苹果在基础模型能力上的短板。

知识蒸馏是近年来大模型领域热门的轻量化技术,核心逻辑是将参数规模庞大、推理能力强的“教师模型”的知识迁移到参数更小、运行更快的“学生模型”中,让小模型在特定场景下能够复刻大模型的推理精度,同时大幅降低算力需求。

与此前行业常见的大模型API接入不同,苹果此次获得的是Gemini全量模型的访问权限,工程师可以完整拆解Gemini的运行机制、获取其思维链推理数据,以此作为训练源训练自有端侧模型。据苹果内部测试数据显示,蒸馏后的Gemini端侧模型参数规模仅为原版云端Gemini的3%左右,在日常语义交互、内容生成、信息整理等iPhone高频使用场景下,推理精度与响应速度与原版Gemini的匹配度超过92%

更重要的是,蒸馏后的模型完全在iPhone本地运行,不需要向云端传输任何用户数据,既避免了网络延迟问题,也彻底解决了用户隐私泄露的隐患,完美契合苹果一直以来强调的隐私安全理念。苹果AFM团队相关人士透露,此次合作的核心目标是优化端侧AI体验,并非研发与谷歌Gemini直接竞争的通用大语言模型,双方在合作中也划定了明确的技术使用边界。

苹果与谷歌的此次深度合作,也打破了科技巨头在AI领域“非竞争即对立”的传统逻辑。对谷歌而言,开放Gemini全量模型不仅可以获得苹果支付的高额授权费用,还可以获取海量的端侧用户使用反馈数据,进一步优化Gemini的能力迭代。对苹果而言,借助知识蒸馏技术,相当于直接站在Gemini的技术基础上研发适配自身生态的端侧模型,至少节省了2-3年的通用大模型研发时间,同时还能保持自身生态的闭环性,不需要将用户数据开放给谷歌。

这种“云端大模型厂商授权+终端厂商蒸馏落地”的合作模式,也为整个移动AI产业提供了新的发展路径,此前很多中小厂商没有能力自研大模型,也承担不起通用大模型的云端调用成本,这种合作模式大幅降低了端侧AI的落地门槛,未来有望在全行业快速普及。

按照苹果的产品迭代节奏,这款蒸馏后的Gemini端侧模型最快将在2026年9月发布的iPhone 18系列和iOS 20系统中正式上线,后续还将逐步适配iPad、Mac、Apple Watch等全系列苹果硬件产品。用户届时可以感受到最直观的变化包括:Siri的语义理解能力大幅提升,可以处理连续复杂的指令;图像编辑、文档整理、实时翻译等功能全部可以离线使用,响应速度较此前的云端模式提升超过400%;第三方应用开发者也可以调用该模型的能力,开发出更多本地化的AI应用。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创