Linux 内核社区终结 AI 代码争议:可用但提交者担责,开源圈震荡待解

张开发
2026/4/16 16:22:23 15 分钟阅读

分享文章

Linux 内核社区终结 AI 代码争议:可用但提交者担责,开源圈震荡待解
【导语过去开源社区对是否使用 AI 存在争论如今 Linux 内核社区围绕 AI 生成代码的争议落下帷幕制定了 AI 代码使用规范这一举措在开源圈引发震荡。】Linux 内核社区终结 AI 代码争论过去两年开源社区对 AI 的态度从“争论要不要用”转变为“如何降低使用风险”。最近围绕 AI 生成代码的长期争议在 Linux 内核社区有了结果Linus Torvalds 及内核维护者们制定了项目级别的 AI 代码使用规范即 AI 可以用但使用者必须对其负责。争议源于法律风险与代码质量过去几个月Linux 内核社区处于拉扯状态一边是普遍的 AI 编程工具如 GitHub 的 Copilot 和 Claude 等大模型另一边是维护者对代码质量、法律风险和社区文化的焦虑。争论爆发于今年年初开发者对是否严格限制 AI 代码产生分歧。开源世界依赖 DCO 机制开发者需声明代码来源合法。但 AI 基于海量开源代码训练包含强限制许可证和版权不明数据开发者无法证明 AI 生成代码的合法性可能导致开源许可证违规冲击 DCO 体系。此外AI 代码质量参差不齐被称为“AI 垃圾代码”已引发诸多问题如 cURL 维护者关闭漏洞奖励机制、tldraw 关闭外部 PR 等。新政策明确责任归属新政策核心变化是标签调整AI 生成代码不能用 Signed-off-by 标签需添加 Assisted-by 标签明确标注 AI 参与。这一调整目的是保证 AI 参与透明性且最终责任归人类开发者。无论代码是否由 AI 生成提交者都要对 Bug、性能问题和安全漏洞负责。开源圈震荡与应对思维类似冲突不仅发生在 Linux经典游戏 Doom 的 Mod 社区中GZDoom 项目因负责人使用 AI 代码未披露而分裂。Linux 内核社区的答案体现“工程师思维”更看重代码质量使用者用 AI 生成代码若代码有问题提交者要向 Linus 负责这是开源世界较强的约束机制。编辑观点Linux 内核社区的规范为开源社区使用 AI 代码提供了范例平衡了技术应用与风险管控有助于开源生态健康发展但后续实施效果仍待观察。

更多文章