苹果布局三款AI可穿戴设备 智能眼镜剑指2027年发布

13 小时前 AI快讯 2

苹果布局三款AI可穿戴设备 智能眼镜剑指2027年发布

在外媒最新曝光的消息中,苹果正全力推进三款AI原生可穿戴设备的研发,涵盖AI智能眼镜、AI别针/吊坠以及搭载摄像头的AI AirPods。这些设备均围绕iPhone生态打造,将与苹果正在开发的新一代智能Siri深度绑定,通过内置摄像头实现环境感知,为用户提供即时AI交互服务,其中AI智能眼镜已进入原型机测试阶段,目标2027年正式发布。

在全球科技巨头扎堆AI大模型与端侧AI硬件的当下,苹果的这一动作被视为其加速AI落地的关键一步。此前,苹果在AI大模型的公开进展上相对保守,但从Apple Intelligence的曝光到此次三款AI可穿戴设备的消息,苹果正在将AI能力逐步渗透到其硬件生态的各个角落——不同于其他厂商直接推出AI手机或独立AI终端,苹果选择从用户佩戴场景切入,试图通过可穿戴设备构建AI与日常场景的无缝连接。

三款设备中,AI智能眼镜无疑是最受关注的核心产品。据悉,苹果已向硬件工程团队交付原型机,并明确了2027年的发布节点,量产工作有望在2026年12月启动。这款眼镜被定位为Meta Ray-Ban智能眼镜的直接竞品,但在设计思路上做出了差异化选择:摒弃了传统智能眼镜的显示屏,转而完全依靠语音界面与用户交互,支持拨打电话、语音查询、环境信息解读等功能,既保持了普通眼镜的轻量化体验,也避免了屏幕带来的视觉干扰与隐私顾虑。

为了让AI真正“看懂”世界,苹果为这款智能眼镜配备了双摄像头系统:一枚高分辨率摄像头负责拍摄照片与视频,满足用户的基础记录需求;另一枚则专门用于环境感知与视觉信息采集,能够识别周围物体、测量空间距离,并将数据实时传输给AI模型处理。当用户提出“这株植物叫什么”“前方咖啡馆的营业时间”等问题时,AI将基于摄像头捕捉的环境信息给出精准的即时解答,实现“所见即所得”的AI交互。

除了智能眼镜,苹果研发的AI别针/吊坠、带摄像头的AI AirPods同样聚焦环境感知与AI交互的场景延伸。这两款设备同样内置小型摄像头,能够与iPhone无缝连接,成为用户身边的AI感知入口。比如佩戴AI别针的用户,只需抬手触发语音指令,AI就能通过摄像头识别眼前的文档、艺术品等内容,提供翻译、讲解等服务;而带摄像头的AI AirPods则可能结合音频与视觉信息,实现更精准的语音助手交互——比如在嘈杂环境中精准识别用户指令,或根据眼前的运动场景推荐合适的健身音乐。

消费电子行业分析师李鸣认为,苹果选择从可穿戴设备切入AI硬件,是基于其在穿戴领域的深厚积累:截至2023年,苹果AirPods与Apple Watch的全球累计出货量已突破5亿台,庞大的用户基础和成熟的生态体系,为AI穿戴设备的推广提供了天然优势。而新一代Siri的升级,将成为这些设备的核心“大脑”——此前Siri因智能程度不足饱受诟病,结合大模型技术的新版Siri,有望通过可穿戴设备的场景化交互重新证明自身价值。

目前苹果尚未对相关消息做出官方回应,但从原型机测试、量产时间节点的明确可以看出,苹果在AI硬件布局上已经进入加速阶段。2027年的AI智能眼镜,或许将成为苹果AI战略落地的标志性产品,也将重新定义人们与AI交互的日常方式。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创