苹果加速研发三款AI可穿戴,2027年将迎生态AI化落地潮

1 小时前 AI快讯 0

苹果加速研发三款AI可穿戴,2027年将迎生态AI化落地潮

沉寂多时的苹果可穿戴设备线即将迎来AI化爆发节点。最新行业消息显示,苹果正加速推进三款AI原生可穿戴产品的研发进程,涵盖AI智能眼镜、可穿戴AI吊坠以及AI增强版AirPods,所有产品均将深度绑定iPhone生态,并对接正在迭代的新一代Siri系统,预计最快2027年实现密集落地。

在大模型技术席卷全球科技行业的当下,苹果此前更多在软件端推进AI落地,比如iOS 17系统中Siri的局部升级、Mac端的AI办公工具嵌入,但硬件端的AI原生产品一直处于“犹抱琵琶半遮面”的状态。此次三款AI可穿戴设备的密集研发消息,标志着苹果正式将AI硬件作为下一个核心战略方向,试图用“生态+AI”的组合拳,巩固其在可穿戴市场的领先地位。

其中,AI智能眼镜被视为苹果对标Meta Ray-Ban智能眼镜的核心产品。据产业链消息,苹果已向硬件工程团队交付原型机,核心配置上,这款眼镜将集成小型化广角摄像头,配合本地+云端的AI计算能力,实现环境视觉识别、实时文字翻译、物体信息查询等功能。比如佩戴者在博物馆看到一件文物,只需通过语音指令唤醒Siri,眼镜就能快速识别并输出文物的背景资料;在海外旅行时,对着路牌或菜单,AI可实时翻译为佩戴者熟悉的语言。与Meta产品不同的是,苹果的AI智能眼镜将更深度地与iOS生态绑定,比如AI识别生成的内容可直接同步至iPhone备忘录、照片库,进一步强化用户的生态粘性。

另一款颇具创新性的产品是AI吊坠(或别针),这也是苹果首次尝试此类形态的可穿戴设备。这款产品主打轻量化与场景普适性,小巧的机身内置微型摄像头和麦克风,用户可将其别在衣领或挂在胸前,无需手持设备即可实现AI辅助功能。比如日常通勤时,AI可自动记录沿途的风景或突发状况;在社交场合,通过识别对方的面部特征(需获得用户授权),快速调取之前存储的交往信息,帮助用户避免“脸盲”尴尬;甚至在户外运动时,AI可通过视觉识别监测用户的动作规范,给出专业的运动指导建议。

AI增强版AirPods则是苹果在现有爆款产品基础上的AI升级。与当前版本不同,新款AirPods将在耳塞柄或充电盒上集成微型摄像头,结合AI算法实现多模态交互。比如在视频通话时,AI可通过摄像头捕捉佩戴者的面部表情,优化语音通话的降噪效果;在听音乐时,AI可根据佩戴者所处环境的视觉场景(如办公室、户外、健身房),自动调整音效模式,提升听觉体验。此外,新一代Siri将成为三款设备的“AI大脑”,相比当前版本,新Siri将具备更强的上下文理解能力和多模态交互能力,能同时处理视觉、语音输入,给出更精准的反馈。

市场研究机构Canalys分析师刘畅认为,苹果布局AI可穿戴设备,一方面是补齐自身在AI硬件领域的短板,另一方面也是进一步巩固iOS生态的壁垒。“目前Meta、谷歌、三星等厂商都在推进AI可穿戴产品,但苹果的优势在于成熟的生态体系和庞大的用户基础,一旦三款产品落地,将极大推动AI可穿戴设备的普及速度。”

不过,苹果的AI可穿戴研发也面临不少挑战。比如智能眼镜的小型化摄像头技术、续航问题,AI吊坠的隐私保护设计,以及新一代Siri的本地化计算能力优化等。但从苹果的研发节奏来看,这些问题有望在2027年前得到针对性解决。

对于用户而言,苹果的AI可穿戴设备线落地,意味着人机交互将进一步向“无感”方向发展。未来,用户无需频繁拿起手机,通过身上的穿戴设备就能完成大部分日常信息查询、记录、沟通等功能,真正实现“AI随行”的生活体验。

所属分类
×

微信二维码

请选择您要添加的方式

AI小创