登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

DeepSeek推出Coder V2代码大模型:128K上下文覆盖多开发场景

AI初创公司DeepSeek正式发布新一代代码大模型DeepSeek-Coder V2,该模型支持最高128K token超长上下文窗口,覆盖Python、Java等20余种主流编程语言,在HumanEval、MBPP等权威代码基准测试中得分较上一代提升15%以上,为企业级开发、代码审计、新手开发者入门等场景提供更高效的自动化解决方案。

当一名资深开发者需要分析一个超过2万行的微服务核心代码文件时,过去的代码大模型因上下文限制,不得不将文件拆分为数十段逐一处理,不仅耗时且容易丢失跨模块的逻辑关联——这一痛点正在被DeepSeek的最新技术突破解决。

DeepSeek-Coder V2将上下文窗口拓展至最高128K token,相当于一次性容纳约2万行标准代码,这意味着开发者无需再对大型代码文件进行分段拆分,可直接实现全文件的逻辑分析、错误定位和优化建议。为支撑这一能力,模型在训练阶段新增了1万亿规模的代码token数据集,覆盖包括Rust、Go等在内的20余种主流编程语言,甚至包含国内开发者常用的带有中文注释的企业级代码样本。

在权威基准测试中,该模型在HumanEval单语言代码生成任务中准确率达到79.2%,较上一代提升15.3%;在跨语言代码迁移任务MBPP上,得分也突破至85.7%,展现出更强的通用代码处理能力。此外,模型还新增了实时代码补全、自动化文档生成、漏洞检测修复等多模态功能,适配从编码到维护的全开发链路。

当前企业开发场景中,代码维护成本占整体研发成本的60%以上,新手开发者上手周期平均长达3个月,AI代码工具的渗透率仍处于较低水平。DeepSeek针对这一市场缺口,推出了企业专属部署方案,支持私有化本地部署和云端API调用两种模式,适配不同企业的数据安全需求。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创