少找工具,多做创作

苹果Core AI框架将替代Core ML,下一代Siri升级聊天式交互

苹果计划推出全新Core AI框架以替代现有Core ML,整合第三方AI模型与Apple Foundation模型,通过即将发布的OS26及后续版本向开发者开放设备端AI调用能力。同时,该框架将赋能下一代Siri升级为类聊天机器人形态,有望显著提升苹果在智能语音助手市场的竞争力,加速其AI生态布局。

在过去的两年里,智能语音助手市场的竞争逻辑已经发生了根本性变化。从最初的指令式任务执行,到如今的连续聊天式交互,谷歌Assistant、亚马逊Alexa均已融入大语言模型能力,而苹果Siri却因局限于传统交互逻辑,逐渐被用户诟病为“只会执行简单命令的工具”。

尽管苹果在硬件和系统生态上占据优势,但在AI应用落地的节奏上却慢于谷歌、OpenAI等厂商。此前的Core ML框架仅支持特定类型的机器学习模型迁移,无法适配大语言模型、扩散模型等新一代AI技术的本地运行需求,导致苹果设备上的AI应用多依赖云端,不仅存在延迟问题,也与苹果一贯强调的隐私保护理念存在冲突。

而Siri作为苹果生态的核心语音入口,长期以来的指令式交互模式已经无法满足用户对对话式AI的需求。调研机构数据显示,2025年全球对话式AI市场规模预计突破1200亿美元,苹果若不及时升级Siri,将进一步失去在语音交互领域的市场份额。

此次苹果推出的Core AI框架,核心目标是替代现有Core ML,打造一个更开放、更强大的设备端AI运行平台。该框架将整合第三方AI模型与Apple Foundation模型,让开发者无需复杂适配,就能通过OS26及后续版本调用苹果设备的本地AI计算能力。

与依赖云端的AI服务不同,设备端AI处理将数据留存于用户本地设备,既符合苹果的隐私保护战略,又能大幅降低交互延迟,提升应用运行效率。同时,框架的开放性也意味着开发者可以灵活选择适配不同的AI模型,无论是苹果自研的Foundation模型,还是第三方的主流大语言模型,都能在苹果设备上实现高效运行。

Core AI框架的最大用户端价值,在于将下一代Siri升级为类聊天机器人形态。未来的Siri将不再局限于单轮指令执行,而是能够理解复杂的自然语言需求,实现多轮连续对话。比如用户可以向Siri提出“帮我规划下周的杭州短途旅行,预算3000元”,Siri会主动询问出行天数、偏好景点等细节,并生成个性化的行程方案,而非简单跳转至地图或旅游应用。

这一升级将直接缩小Siri与ChatGPT、Gemini等对话式AI的差距,让Siri从一个功能性工具转变为具备陪伴属性的交互助手,从而提升苹果在智能语音助手市场的核心竞争力。

对于开发者而言,Core AI框架的开放意味着设备端AI应用的新蓝海即将到来。开发者可以借助该框架,在照片编辑、笔记管理、语音交互等多个领域开发AI原生应用:比如照片编辑应用可本地运行AI修图模型,无需上传用户隐私照片;笔记应用可实现AI实时总结、续写等功能,全程数据不离开设备。

此外,第三方AI开发者也能通过Core AI框架将自己的模型引入苹果生态,进一步丰富设备端AI应用的多样性,推动苹果AI生态从封闭走向开放协同。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯