登录体验完整功能(收藏、点赞、评论等) — 已累计有 8668 人加入

让AI触手可及,让应用激发潜能

阿里发布Qwen3.5-Omni全模态大模型 斩获215项全球评测SOTA

2026年3月30日,阿里正式推出新一代全模态大模型Qwen3.5-Omni。该模型原生支持文本、图片、音视频多模态输入,适配256k长上下文与最长10小时音频输入,实测可完整理解50分钟《老友记》剧情,在全球215项权威评测中拿下SOTA,部分性能表现超过谷歌Gemini 3.1 Pro。

不少用户此前测试全模态大模型时都遇到过类似尴尬:上传一段10分钟以上的视频,模型要么只能提炼出大概剧情,要么对细节问题频频出错。而在Qwen3.5-Omni的实测中,研究人员将整集50分钟的《老友记》无剪辑上传,模型不仅能完整复述整集剧情脉络,还能精准回答“第12分钟莫妮卡和瑞秋吵架的导火索是什么”“钱德勒全程一共说了多少句冷笑话”这类细节问题,准确率达到95%以上。

Qwen3.5-Omni《老友记》理解测试结果示意

距离阿里上次更新Omni系列全模态模型仅过去半年,本次推出的Qwen3.5-Omni在架构上放弃了传统多模态模型“分模块处理再拼接”的方案,采用统一的原生全模态架构,对不同类型输入的处理效率和准确率都有大幅提升。

本次发布的Qwen3.5-Omni共包含Plus、Flash、Light三种尺寸,覆盖云端推理、低成本部署、端侧落地三类场景,全系标配256k长上下文窗口,最长可支持10小时连续音频输入,同时支持文本、语音双模态输出,用户既可以要求模型输出文字总结,也能直接生成对应风格的语音内容。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创