登录体验完整功能(收藏、点赞、评论等)

Meta MSL推出首款多模态模型 支持单图复刻完整可交互App

2026年4月9日,Meta旗下成立仅9个月的超级智能实验室(MSL)发布首款原生多模态推理模型Muse Spark(内部代号“牛油果”)。该模型由MSL华人研发团队主导打造,支持视觉思维链、多智能体编排与工具调用,可通过单张界面截图复刻完整类豆包App产品,在第三方测评平台的智能指数较前代Llama 4提升近4成。

普通用户只需上传一张豆包App的主界面截图,无需编写一行代码,最快10分钟就能得到功能完整、可交互的同款应用原型——这不是科幻设定,而是Muse Spark上线后已经过实测的落地能力。

过去两年,全球大模型厂商的竞争已经从参数规模竞赛转向落地能力比拼,多模态大模型的应用场景也从图文生成、内容问答逐步延伸到生产端。Meta于2025年7月组建超级智能实验室(MSL),抽调了Llama系列的核心研发人员,其中华人研发者占比超过60%,目标就是打造能直接对接生产需求的通用智能体,此次发布Muse Spark距离实验室成立仅9个月,研发速度远超行业预期。

和此前行业普遍采用的“文本大模型+视觉模块”拼接架构不同,Muse Spark采用**原生多模态推理架构**,从底层就支持视觉、文本、代码信号的统一处理,核心能力覆盖三大方向:一是**视觉思维链**,可识别界面截图中的功能模块、交互逻辑,而非仅匹配像素特征;二是多智能体编排,可自动调度代码生成、兼容性测试等不同模块完成全流程任务;三是原生工具调用能力,无需额外插件即可对接主流开发工具。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创