登录体验完整功能(收藏、点赞、评论等) — 已累计有 8637 人加入

让AI触手可及,让应用激发潜能

苹果Core AI框架将替代Core ML,下一代Siri升级聊天式交互

苹果计划推出全新Core AI框架以替代现有Core ML,整合第三方AI模型与Apple Foundation模型,通过即将发布的OS26及后续版本向开发者开放设备端AI调用能力。同时,该框架将赋能下一代Siri升级为类聊天机器人形态,有望显著提升苹果在智能语音助手市场的竞争力,加速其AI生态布局。

在过去的两年里,智能语音助手市场的竞争逻辑已经发生了根本性变化。从最初的指令式任务执行,到如今的连续聊天式交互,谷歌Assistant、亚马逊Alexa均已融入大语言模型能力,而苹果Siri却因局限于传统交互逻辑,逐渐被用户诟病为“只会执行简单命令的工具”。

尽管苹果在硬件和系统生态上占据优势,但在AI应用落地的节奏上却慢于谷歌、OpenAI等厂商。此前的Core ML框架仅支持特定类型的机器学习模型迁移,无法适配大语言模型、扩散模型等新一代AI技术的本地运行需求,导致苹果设备上的AI应用多依赖云端,不仅存在延迟问题,也与苹果一贯强调的隐私保护理念存在冲突。

而Siri作为苹果生态的核心语音入口,长期以来的指令式交互模式已经无法满足用户对对话式AI的需求。调研机构数据显示,2025年全球对话式AI市场规模预计突破1200亿美元,苹果若不及时升级Siri,将进一步失去在语音交互领域的市场份额。

此次苹果推出的Core AI框架,核心目标是替代现有Core ML,打造一个更开放、更强大的设备端AI运行平台。该框架将整合第三方AI模型与Apple Foundation模型,让开发者无需复杂适配,就能通过OS26及后续版本调用苹果设备的本地AI计算能力。

与依赖云端的AI服务不同,设备端AI处理将数据留存于用户本地设备,既符合苹果的隐私保护战略,又能大幅降低交互延迟,提升应用运行效率。同时,框架的开放性也意味着开发者可以灵活选择适配不同的AI模型,无论是苹果自研的Foundation模型,还是第三方的主流大语言模型,都能在苹果设备上实现高效运行。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创