登录体验完整功能(收藏、点赞、评论等) — 已累计有 8622 人加入

让AI触手可及,让应用激发潜能

DeepSeek发布代码大模型V3,支持万亿token超长上下文

国内AI企业DeepSeek正式发布新一代代码大模型DeepSeek-Coder V3,该模型首次实现万亿token超长上下文支持,在多语言代码生成、复杂算法推理等核心任务上相比上一代准确率提升超30%,可覆盖企业级代码开发、自动化运维、算法科研等多场景,为全球开发者提供高效的AI辅助工具。

当一位资深算法工程师需要梳理一个超过100万行的遗留代码库时,以往的AI代码助手往往会因上下文长度限制,只能拆解分析局部代码,无法串联起整个项目的逻辑脉络——这一困扰开发者多年的痛点,如今被DeepSeek的最新成果彻底打破。

DeepSeek-Coder V3的核心亮点在于万亿token的超长上下文支持,这一参数远超当前主流代码大模型的上限。为实现这一突破,研发团队采用了优化后的稀疏注意力机制,在保证推理效率的同时,大幅降低了超长上下文处理的算力成本。此外,模型在训练阶段引入了超5万亿 tokens 的多语言代码数据集,覆盖Python、Rust、Go、Java等20余种编程语言,其中针对系统级开发语言的训练数据占比提升至40%,进一步强化了复杂算法场景的推理能力。

不同于面向C端的通用AI工具,DeepSeek-Coder V3重点针对企业级需求进行了定制化优化。一方面,模型支持全链路私有部署,确保企业代码数据的安全性,同时提供与VS Code、JetBrains等主流开发工具链的原生集成,开发者无需切换环境即可调用AI能力;另一方面,模型新增了代码漏洞智能检测、性能自动优化模块,据内部测试数据显示,在金融行业核心业务代码的漏洞检测任务中,精准度较行业平均水平高出28%。已有多家头部互联网企业接入测试,反馈开发效率平均提升45%。

免责声明:本网站AI资讯内容仅供学习参考,不构成任何建议,不对信息准确性与完整性负责。
相关资讯
AI小创