登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

DeepSeek推万亿token代码大模型,刷新AI上下文窗口上限

近日,AI公司DeepSeek发布全球首款支持万亿token上下文的代码大模型DeepSeek-Code-V2,该模型可一次性处理超1000万行代码文件,相比行业主流模型上下文能力提升超10倍,将大幅降低开发者长代码场景下的调试成本,引发AI代码工具赛道的新一轮技术竞赛。

在上海举办的DeepSeek技术发布会上,CEO周明现场演示了模型的核心能力——将一份1200万行的Linux内核代码文件完整导入模型,仅用12秒就完成了代码漏洞排查与优化建议输出,这一操作让在场的技术开发者发出惊叹。

当前,AI代码工具已成为开发者效率提升的核心利器,但主流模型的上下文窗口普遍停留在百万token级别,处理超过10万行的大型代码库时,需要反复分段输入,不仅耗时耗力,还容易丢失代码间的逻辑关联。据Stack Overflow 2024年开发者调研显示,68%的后端开发者曾因AI模型上下文不足,放弃使用AI辅助调试大型项目。

DeepSeek-Code-V2的核心突破在于自研的稀疏注意力压缩算法,该算法通过对代码语法树的结构化分析,仅保留核心逻辑节点的注意力权重,将上下文处理效率提升了70%以上,同时保证代码理解的准确率不低于95%。相比同类模型,该模型无需依赖额外的向量数据库进行分段处理,真正实现了「单窗口全量处理」。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创