登录体验完整功能(收藏、点赞、评论等) —

让AI触手可及,让应用激发潜能

Linux内核团队公布AI编程新规 代码问题由开发者自行担责

2026年4月,Linux内核维护团队正式发布AI生成代码使用准则,明确允许开发者使用GitHub Copilot等AI编程辅助工具,所有代码引发的Bug、安全隐患责任全部由代码提交者承担。该政策经过数月社区讨论,今年1月英特尔工程师Dave Hansen与甲骨文员工Lorenzo Stoakes曾就AI工具限制问题爆发激烈争论,最终Linux创始人Linus Torvalds拍板定下“追责不禁工具”的核心路线。

作为全球影响力最大的开源底层项目,Linux内核的任何规则调整,都被视为全球开源行业的风向标。此次AI编程工具新规的落地,终结了社区持续数月关于AI工具准入资格的拉扯,给整个行业交出了一份务实的答卷。

早在今年1月,英特尔工程师Dave Hansen与甲骨文员工Lorenzo Stoakes就率先拉开了争论的序幕,双方围绕是否应当严格限制甚至全面禁止AI生成代码进入内核,展开了激烈讨论。反对放开的观点认为,AI生成代码的版权归属不明,还可能隐藏未知Bug,引入核心项目会带来不可控的安全风险。

争论最终由Linux创始人Linus Torvalds一锤定音。他明确表示,全面禁止AI工具的做法毫无意义,真正需要约束的是提交代码的人,而非工具本身。Linus Torvalds指出,原本就习惯提交不合格代码的开发者,并不会因为一道禁令就改变做法,与其纠结开发者用了什么工具,不如直接把责任明确到个人。最终出台的准则正式确认,GitHub Copilot等AI辅助工具可正常使用,唯一硬性要求就是开发者为自己提交的所有代码负全责。

事实上,在Linux内核团队给出定论之前,整个开源社区对AI编程工具的态度一直分裂。一边是数百万开发者已经在日常开发中离不开GitHub Copilot等工具的辅助,另一边多个中小开源项目对AI代码保持警惕,甚至一度出台全面禁令。

!
信息及评测声明: 本文部分信息整理自互联网公开资料,并包含由 AI创作导航 团队独立进行的实测体验。我们力求内容客观准确,但因工具功能、价格及政策可能存在实时调整,所有信息仅供参考,请务必在使用前访问官网确认。文中观点不构成任何决策建议,读者需自行评估和承担使用风险。如发现内容有误或侵权,欢迎随时反馈,我们将及时核实处理。
相关资讯
AI小创