苹果加速研发三款AI可穿戴 2027年或成落地关键年

2 小时前 AI快讯 0

苹果加速研发三款AI可穿戴 2027年或成落地关键年

在全球AI硬件竞赛升温的背景下,苹果正加快布局可穿戴领域的AI终端。近期有消息显示,苹果团队正在推进三款AI可穿戴设备的研发工作,涵盖AI智能眼镜、AI吊坠以及AI版AirPods,所有产品均将与iPhone深度联动,并适配正在开发中的新一代Siri,通过集成摄像头实现环境感知交互,目标于2027年密集落地。

过去几年,苹果在通用AI领域的步伐曾被外界认为偏保守,Siri的智能程度也屡遭用户吐槽。但随着生成式AI浪潮席卷科技行业,苹果开始在硬件端寻找AI落地的突破口,而可穿戴设备成为了优先级最高的赛道之一。不同于手机或PC,可穿戴设备天然贴近用户,能够实现全天候、无手持的AI交互,这恰好契合苹果“让科技融入生活”的产品理念。

此次曝光的三款产品中,AI智能眼镜无疑是最受关注的核心单品。这款设备将直接对标Meta的Ray-Ban智能眼镜,目前苹果已经向硬件工程团队提供了原型机,计划2027年正式推向市场。除了常规的音频交互功能,AI智能眼镜将集成微型摄像头,让内置AI能够“看见”佩戴者周围的环境——比如识别街头的外文标识并实时翻译,或是用户指着某件商品询问信息时,AI通过视觉识别快速给出参数和购买链接。这种视觉+语音的交互方式,将彻底打破传统智能眼镜的功能边界。

相对小众的AI吊坠(别针)则主打轻量化便携性。作为一款可别在衣领或挂在脖子上的小型设备,它同样配备了微型摄像头,用户无需操作手机,只需通过语音指令就能唤醒AI,借助摄像头获取的环境信息完成交互。比如在逛博物馆时,对着展品提问,AI就能识别展品并讲解背景知识;或是在超市购物时,查询某款食品的成分和热量。对于追求便捷的用户而言,AI吊坠可能成为比智能眼镜更低门槛的AI交互入口。

AI版AirPods则是苹果现有耳机产品线的AI升级。在保留优秀音频体验的基础上,这款耳机将新增视觉交互能力——通过集成的微型摄像头,结合AirPods的语音交互优势,实现“听+看”的双重AI服务。例如用户戴着耳机在机场,只需问一句“登机口在哪”,AI就能通过摄像头识别机场指示牌,用语音直接指引方向;在跨国交流时,AI还能结合视觉识别的对话场景,提供更精准的实时翻译。

科技行业分析师李涛认为,苹果选择同时推出三款AI可穿戴设备,并非盲目布局,而是基于其成熟的生态体系。“所有设备都将与iPhone连接,这意味着苹果可以借助iPhone的强大算力和存储能力,降低可穿戴设备的硬件成本和功耗,同时保障AI交互的响应速度和隐私安全。”他还指出,新一代Siri的升级是这些产品的核心支撑,只有更智能的语音助手,才能让视觉交互的价值真正发挥出来。

从行业层面看,苹果的入场将进一步加剧AI可穿戴设备的竞争。目前Meta的Ray-Ban智能眼镜已经积累了一定的用户基础,谷歌也在持续迭代智能眼镜产品,而苹果凭借庞大的iPhone用户群体和生态粘性,有望快速抢占市场份额。对于用户而言,AI可穿戴的普及将让AI交互从“主动唤起”变为“被动感知”,未来用户无需刻意打开手机,身边的智能眼镜、吊坠或耳机就能主动提供所需的服务,重构日常的数字生活场景。

尽管三款产品的具体参数和功能细节尚未披露,但苹果加速研发的信号已经明确。2027年,当这些AI可穿戴设备正式落地时,苹果的穿戴生态将完成从“智能硬件”到“AI终端”的升级,而整个科技行业的AI硬件格局,也可能因此迎来新的洗牌。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创