登录体验完整功能(收藏、点赞、评论等) — 已累计有 8671 人加入

让AI触手可及,让应用激发潜能

Memories AI研发大视觉记忆模型 搭建可穿戴与机器人视觉记忆层

美国初创公司Memories AI于2026年3月正式发布自研大视觉记忆模型,瞄准可穿戴设备、实体机器人的视觉数据处理需求,可实现对硬件设备录制的全量第一视角视频记忆的快速索引与精准调取,为物理世界AI系统搭建通用视觉记忆底层能力,目前该技术已进入多家头部智能硬件厂商的内测验证阶段。

如果你戴着AR眼镜参加完一场行业展会,想找两天前和你交换过名片的某家芯片厂商负责人的联系方式,不用再翻几十个G的录制视频,只需要对着眼镜说一句“找上周四下午和我聊过RISC-V架构的男士”,相关画面和关联信息就会立刻弹出——这一场景很快就会从设想变成现实。

当前大模型技术的落地大多集中在文本生成、云端内容处理领域,面向实体硬件的视觉数据处理能力始终存在明显短板。可穿戴设备、服务机器人等物理AI载体每天会产生大量第一视角视频数据,但现有技术很难对这些长时序、非结构化的视觉内容进行高效存储和调用,多数设备只能将视频存储在本地或云端,需要用户手动检索。

据IDC此前发布的预测报告,2027年全球消费级可穿戴智能设备、商用服务机器人的年出货量将分别突破10亿台、2000万台,对应的第一视角视觉数据年增量将超过10ZB,现有的云+端存储检索架构根本无法承载大规模的实时调用需求,视觉记忆能力已经成为限制实体AI落地的核心瓶颈之一。

Memories AI推出的大视觉记忆模型,专门针对长时序第一视角视频数据做了定向优化,区别于通用多模态模型的全量数据处理逻辑,该模型采用稀疏特征编码方案,只会对视频中的关键帧、核心语义信息打标签存储,存储成本仅为普通视频存储方案的2%。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创