登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

DeepSeek开启识图模式灰度测试 多模态视觉能力正式落地

2026年4月30日,大模型厂商DeepSeek在推出新一代基座模型DeepSeek-V4仅5天后,正式开启多模态识图功能灰度测试,移动端与网页端同步上线功能入口。实测显示,该模型在视觉还原、文物逻辑推理、图片文字提取等场景表现优异,仅在抗干扰图像识别、复杂图形推理等场景仍存在优化空间。

不少参与内测的用户最近发现,DeepSeek的输入栏左侧多了一个醒目的相机标识,点击即可进入“识图模式”,上传图片后最快3秒就能得到针对性的解析结果,入口旁标注的“图片理解功能内测中”字样,也坐实了外界此前对其布局多模态能力的猜测。

近一年来,全球头部大模型厂商均将多模态交互能力作为核心迭代方向,OpenAI的GPT-4o、谷歌的Gemini系列都已实现相对成熟的视觉交互能力,国内厂商也在密集跟进相关布局。

此前DeepSeek凭借长文本处理、代码生成能力在垂直领域积累了大量用户,此次上线识图功能,本质是补上了能力版图的重要一块。而距离DeepSeek-V4正式发布仅过去5天的迭代速度,也远超行业平均1-3个月的版本更新周期,引发了业内的广泛讨论。

从目前曝光的内测数据来看,DeepSeek的识图能力在主流场景下已经达到行业头部水平:在基础的画面描述、人物环境识别任务中,视觉内容描述还原度接近95%,基本不会出现关键元素遗漏;开启“思考模式”后,模型还能实现深度逻辑推理,比如根据文物的纹样、材质特征推导其所属朝代与艺术风格,对摄影作品的构图、光线运用也能给出专业分析。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创