登录体验完整功能(收藏、点赞、评论等)

少找工具,多做创作

DeepSeek V4与腾讯姚顺雨团队新混元模型2026年4月同步发布

据行业独家消息,由梁文锋主导研发的多模态大模型DeepSeek V4,与腾讯姚顺雨团队打造的新一代混元大模型,将于2026年4月同步发布。DeepSeek V4在代码能力、长期记忆、视觉处理、AI搜索领域实现大幅升级,首次落地“条件记忆”机制,针对性解决传统Transformer架构的记忆容量有限、训练稳定性不足的痛点。

进入2026年,国内大模型赛道的竞争已经脱离早期拼参数规模的粗放阶段,转向底层架构创新和落地能力的比拼,头部厂商每一次旗舰产品迭代,都会牵动整个行业的技术路线走向。3月16日曝出的两款旗舰大模型定档消息,迅速成为科技圈讨论的核心热点。

据《白鲸实验室》独家披露,此次同步定档的两款产品均为厂商年度核心旗舰:DeepSeek V4是团队继2025年中发布V3版本之后的重磅迭代,此前DeepSeek系列模型凭借极高的代码能力性价比,已经占据了国内开发者工具场景近30%的市场份额。

而腾讯新一代混元模型由腾讯AI Lab核心负责人姚顺雨带队研发,此前混元大模型已经在腾讯生态内部的广告、内容创作、游戏智能NPC等场景落地,新一代产品的对外发布,也意味着腾讯将进一步加大To B大模型服务的市场投放力度。

DeepSeek V4的核心技术优势均来自团队负责人梁文锋近两年的底层研究成果:2025年12月其团队发表的《mHC: Manifold-Constrained Hyper-Connections》论文,针对性优化了Transformer架构的底层连接逻辑,大幅提升了大模型训练的稳定性;2026年1月发布的《Conditional Memory via Scalable Lookup》则首次提出了“条件记忆”机制,解决了大模型长上下文记忆成本过高的问题。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创