登录体验完整功能(收藏、点赞、评论等)

Anthropic推百万Token级Claude 重构AI开发效率边界

2026年3月16日,AI初创公司Anthropic正式推出支持100万Token上下文窗口的Claude模型,该上下文容量相当于可一次性处理750万英文单词,或7倍《哈利·波特》全系列内容。此次升级为开发者提供了无需切割的超长内容处理能力,叠加无长上下文溢价的定价策略,有望打破现有AI编程工具的竞争格局。

不少程序员都有过类似的糟心经历:想要用AI工具调试整个项目的代码,却因为模型上下文窗口不足,不得不手动拆分上百个代码文件、删减注释信息,还得反复给AI补充前文语境,最终耗费的时间比自己写代码还要久。这种困扰在3月16日之后或将彻底成为历史。

此前行业主流大模型的上下文窗口大多集中在128k到200k区间,仅能支撑处理单模块代码、几十页文档级别的内容,一旦面对GB级别的代码库、全项目的迭代日志等大体量信息,就会出现“记忆丢失”的问题,输出的代码往往存在跨模块兼容性差、不符合业务历史规则等问题。

而此次Anthropic推出的百万Token级Claude,相当于给AI配上了容量扩大5倍的超长工作记忆:开发者无需对内容做任何有损压缩,直接上传整份代码库、上千页的需求文档、全链路的测试报告,就能让Claude基于完整的全局信息输出方案。据Anthropic内部测试数据,针对10万行以上的大型项目开发需求,使用新版Claude的开发者工作效率平均提升320%。

除了技术指标的突破,Anthropic此次的定价策略也被业内视为“降维打击”。此前多家厂商的大模型产品,调用超过200k Token的长上下文时都会收取3-5倍的溢价,对于重度使用长上下文能力的开发团队来说,仅AI工具的年支出就可达数百万元。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创