登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

经典两遍编译器架构重出江湖 修复AI生成代码可靠性问题

近日有技术研究指出,诞生于1970年代的经典两遍编译器架构,可有效解决当前大语言模型(LLM)生成代码领域普遍面临的可靠性危机。目前AI生成代码已经成为开发者提效的核心工具,但语法错误、逻辑漏洞、运行报错等问题长期阻碍行业落地,这项复古技术的新应用为行业提供了低成本优化路径,引发全球开发圈关注。

如今,生成式AI已经深度渗透到软件开发流程中,行业数据显示,超过七成开发者会在日常工作中使用大语言模型生成代码片段,AI代码助手已经成为不少团队的标配提效工具。但光鲜的效率提升背后,可靠性不足的问题始终没有得到很好的解决。

大语言模型天生的“幻觉”问题,很容易让AI输出不存在的API接口、逻辑自相矛盾的业务代码,甚至连基础的编译通过都做不到。现有行业解决方案大多围绕微调大模型展开,不仅需要投入大量标注数据和算力成本,还很难适配不同场景的开发需求,中小开发团队难以负担。

这次被重新挖掘的两遍编译器架构,最早成熟应用于上世纪70年代的编译开发领域,核心思路是把代码生成校验过程拆分为两轮:第一轮完成词法语法分析,生成结构化的中间表达;第二轮完成优化和目标代码生成,两轮校验保障输出的正确性。

技术研究者将这套架构迁移到AI代码生成场景后,不需要修改现有大语言模型的参数,只需要在输出流程中加入两轮生成校验:第一轮由大模型输出核心逻辑和框架,第二轮由模型(甚至参数更小的轻量模型)基于编译规则对第一轮结果做校验、补错和优化。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创