登录体验完整功能(收藏、点赞、评论等)

少找工具,多做创作

Anthropic为Claude Code推出AI代码审查工具 自动检测PR漏洞

2026年3月10日,人工智能企业Anthropic正式为旗下Claude Code平台推出全新AI代码审查工具Code Review,该工具可在代码合并前自动识别Pull Request中的潜在漏洞,目前以研究预览形式面向Claude for Teams、Claude for Enterprise客户开放。Anthropic产品负责人Cat Wu表示,该工具旨在解决AI生成代码普及后企业代码审查压力激增的行业痛点。

过去三年,AI辅助编码工具的普及彻底重构了企业的软件开发流程,但随之而来的代码质量与安全隐患,正在成为掣肘开发效率的新瓶颈。GitHub 2025年开发者生态报告显示,全球已有72%的企业开发者日常使用AI工具生成代码,人均代码产出效率较2022年提升120%,但同期未被及时检测到的上线代码漏洞数量上涨了87%,其中60%的问题源于AI生成代码的人工审查疏漏。

随着被开发者称为「直觉编码(vibe coding)」的开发模式流行,开发者往往通过自然语言提示快速生成大量代码,企业内部Pull Request(PR,代码合并请求)的提交量较三年前平均增长210%,传统人工审查模式已经完全无法匹配现有产出节奏。不少互联网企业的开发团队透露,为了赶上线周期,很多PR审查已经沦为走形式,甚至出现多人共用一个审批账号批量通过的情况,留下了极大的安全隐患。

本次Anthropic推出的Code Review工具直接内嵌于Claude Code平台,无需开发者切换工具或额外配置,在PR提交阶段即可自动触发全量扫描。除了基础的语法错误、规范不符问题外,该工具依托Claude 3系列大模型的长上下文理解能力,可基于整个项目的代码逻辑识别潜在的逻辑漏洞、安全风险,同时输出可直接复用的修复建议。

根据Anthropic官方公布的内测数据,Code Review对中高危代码漏洞的识别准确率达到94%,较传统静态代码扫描工具高出32个百分点,同时可将单PR的平均审查时长从2.7小时压缩至15分钟以内。Cat Wu在接受采访时表示,该工具的定位不是替代人工审查,而是把开发者从机械的漏洞排查工作中解放出来,让人工审查专注于代码架构合理性、业务逻辑匹配度等更高价值的判断。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创