少找工具,多做创作

苹果拟2026 WWDC推Core AI框架 替代Core ML重塑端侧生成式AI生态

苹果计划于2026年全球开发者大会(WWDC)推出全新Core AI框架,逐步取代现有Core ML技术,标志着其端侧AI战略全面转向生成式AI。该框架将作为核心技术底座,整合苹果自有Foundation模型与第三方AI模型,并为下一代Siri提供生成式AI能力,重塑开发者的应用集成体验。

当用户还在为Siri的“指令式”僵化交互感到局限时,苹果正在为这款陪伴了15年的语音助手准备一场彻底的“换脑手术”——2026年WWDC上即将亮相的Core AI框架,将成为Siri生成式AI能力的核心支撑,也将彻底重构苹果端侧AI的技术体系。

自2017年Core ML问世以来,苹果端侧AI的发展始终围绕传统机器学习展开:通过轻量化模型部署、权重压缩等技术,让图像识别、语音转写等基础AI功能在设备本地高效运行。WWDC2025推出的Core ML更新,已通过更精细的权重压缩技术,实现大语言模型与扩散模型在Apple芯片上的高效迁移,为此次战略转向做好了技术铺垫。

Core AI的登场,标志着苹果端侧AI战略正式从“传统机器学习”转向“生成式人工智能”。根据规划,该框架将逐步取代Core ML成为核心技术底座,尽管初期两者可能共存,但Core AI将承担起整合第三方AI模型与Apple Foundation模型的核心职责,成为苹果生成式AI生态的技术基石。

不同于Core ML主要聚焦自有模型的轻量化部署,Core AI的核心优势在于其开放的模型整合能力。未来开发者不仅能调用苹果自有生成式模型——这款由Gemini训练的全新Apple Foundation模型,将具备强大的文本生成、多模态处理能力,还能无缝集成第三方优质AI模型,为应用赋予更多定制化生成式功能。

更关键的是,Core AI将依托Apple芯片的端侧算力优势,让所有生成式AI处理环节在设备本地完成,既严格保障了用户数据隐私,又能实现毫秒级的响应速度,彻底摆脱云端调用带来的延迟与网络依赖。

对于普通用户而言,Core AI最直观的改变将体现在下一代Siri上。借助Core AI的生成式AI能力,Siri将摆脱此前的僵化模式,进化为具备类聊天机器人功能的智能助手——不仅能完成复杂的多轮对话,还能生成结构化文本、创意内容等,真正实现“懂用户”的自然交互。

而在开发者生态层面,Core AI将通过OS26及后续版本开放标准化接口,让开发者无需复杂的模型适配,就能直接在应用中调用端侧生成式AI能力。无论是笔记应用的智能摘要、创意应用的图像生成,还是生产力工具的自动化办公功能,都能借助Core AI快速落地,大幅降低生成式AI的开发门槛。

从Core ML到Core AI的迭代,苹果正在用更务实的端侧战略,在生成式AI赛道打出差异化牌——既不盲目追随云端大模型的“参数竞赛”,也不封闭自有技术,而是通过开放的技术底座,平衡隐私、性能与生态活力,这或许将成为苹果在生成式AI时代的核心竞争力。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯