少找工具,多做创作

Memories AI研发大视觉记忆模型 搭建可穿戴与机器人视觉记忆层

美国初创公司Memories AI于2026年3月正式发布自研大视觉记忆模型,瞄准可穿戴设备、实体机器人的视觉数据处理需求,可实现对硬件设备录制的全量第一视角视频记忆的快速索引与精准调取,为物理世界AI系统搭建通用视觉记忆底层能力,目前该技术已进入多家头部智能硬件厂商的内测验证阶段。

如果你戴着AR眼镜参加完一场行业展会,想找两天前和你交换过名片的某家芯片厂商负责人的联系方式,不用再翻几十个G的录制视频,只需要对着眼镜说一句“找上周四下午和我聊过RISC-V架构的男士”,相关画面和关联信息就会立刻弹出——这一场景很快就会从设想变成现实。

当前大模型技术的落地大多集中在文本生成、云端内容处理领域,面向实体硬件的视觉数据处理能力始终存在明显短板。可穿戴设备、服务机器人等物理AI载体每天会产生大量第一视角视频数据,但现有技术很难对这些长时序、非结构化的视觉内容进行高效存储和调用,多数设备只能将视频存储在本地或云端,需要用户手动检索。

据IDC此前发布的预测报告,2027年全球消费级可穿戴智能设备、商用服务机器人的年出货量将分别突破10亿台、2000万台,对应的第一视角视觉数据年增量将超过10ZB,现有的云+端存储检索架构根本无法承载大规模的实时调用需求,视觉记忆能力已经成为限制实体AI落地的核心瓶颈之一。

Memories AI推出的大视觉记忆模型,专门针对长时序第一视角视频数据做了定向优化,区别于通用多模态模型的全量数据处理逻辑,该模型采用稀疏特征编码方案,只会对视频中的关键帧、核心语义信息打标签存储,存储成本仅为普通视频存储方案的2%。

据Memories AI公开的测试数据显示,该模型针对7天以内的长时序第一视角视频,语义检索的召回准确率可达92%,比当前行业通用的多模态视频检索方案高出近60个百分点,单次检索响应速度不超过1秒,完全满足可穿戴设备、机器人的实时交互需求。同时该模型支持端侧部署,不需要依赖云端算力就能完成大部分检索需求,大幅降低了数据泄露风险。

目前视觉记忆层已经被不少行业人士视为继大语言模型之后,下一个AI核心基础设施级别的产品。除了消费级可穿戴、服务机器人场景之外,该技术还可以应用在工业巡检、自动驾驶、助老助残等多个领域:工业机器人可以通过视觉记忆快速识别生产线的异常变化,自动驾驶车辆可以调取同一路段的历史视觉数据优化决策逻辑,视障用户可以通过搭载该技术的眼镜快速识别周围的熟人、障碍物。

据了解,目前Memories AI已经和3家全球头部智能硬件厂商达成内测合作,预计2026年下半年就会有搭载该视觉记忆模型的消费级AR眼镜、商用服务机器人正式上市。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创