少找工具,多做创作

DeepSeek推万亿token代码大模型,刷新AI上下文窗口上限

近日,AI公司DeepSeek发布全球首款支持万亿token上下文的代码大模型DeepSeek-Code-V2,该模型可一次性处理超1000万行代码文件,相比行业主流模型上下文能力提升超10倍,将大幅降低开发者长代码场景下的调试成本,引发AI代码工具赛道的新一轮技术竞赛。

在上海举办的DeepSeek技术发布会上,CEO周明现场演示了模型的核心能力——将一份1200万行的Linux内核代码文件完整导入模型,仅用12秒就完成了代码漏洞排查与优化建议输出,这一操作让在场的技术开发者发出惊叹。

当前,AI代码工具已成为开发者效率提升的核心利器,但主流模型的上下文窗口普遍停留在百万token级别,处理超过10万行的大型代码库时,需要反复分段输入,不仅耗时耗力,还容易丢失代码间的逻辑关联。据Stack Overflow 2024年开发者调研显示,68%的后端开发者曾因AI模型上下文不足,放弃使用AI辅助调试大型项目。

DeepSeek-Code-V2的核心突破在于自研的稀疏注意力压缩算法,该算法通过对代码语法树的结构化分析,仅保留核心逻辑节点的注意力权重,将上下文处理效率提升了70%以上,同时保证代码理解的准确率不低于95%。相比同类模型,该模型无需依赖额外的向量数据库进行分段处理,真正实现了「单窗口全量处理」。

此外,模型还集成了实时代码执行环境,能在生成优化代码后立即验证可行性,调试成功率相比上一代模型提升了32个百分点。周明在发布会上透露,目前已有超过20家头部互联网公司与DeepSeek达成测试合作,其中某车企的自动驾驶代码调试效率已提升4倍。

业内分析人士指出,万亿token上下文的技术突破,将推动AI代码工具从「辅助编码」向「全流程工程化」转型。未来,AI不仅能处理单文件代码,还能整合整个项目的代码库、文档、需求说明,自动完成从需求分析到上线部署的全链条任务。

不过,技术落地仍面临挑战。比如万亿token模型的推理成本仍高于传统模型,DeepSeek方面表示,将通过云服务分层定价的方式,为中小开发者提供轻量化版本,同时持续优化算法降低算力消耗,预计2025年Q1实现商业化落地。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
所属分类
相关资讯