少找工具,多做创作

维基百科出台刚性新规 全面禁止LLM生成重写平台内容

2026年3月27日,全球最大协作百科平台维基百科正式发布政策更新,明确全面禁止使用大语言模型(LLM)生成或重写平台条目内容。该政策获得维基百科志愿者编辑群体的压倒性支持,此前平台对生成式AI使用态度较为模糊,新规仅保留极小的AI工具使用边界,旨在维护平台内容的事实准确性与来源可靠性。

此前维基百科对生成式AI的使用长期处于灰色地带:2023年平台仅发布过非强制性的指引,“不建议”编辑直接使用AI生成内容,但没有明确的处罚规则,也未对AI重写现有内容作出约束。

此次出台的新规彻底划清了红线:不仅禁止从零生成的LLM内容直接上传,利用LLM对现有条目进行大规模重写也被全面禁止。维基媒体基金会在公告中明确指出,LLM生成内容普遍存在事实幻觉、来源伪造、版权模糊等问题,已经违反了平台核心的内容审核准则。

此次政策调整并非平台单方面的决定,而是经过了全体活跃编辑的公开投票,最终获得了超过92%的参与者支持,属于典型的社区共识落地。

根据维基媒体基金会此前的内部测试数据,随机抽取的100篇LLM生成的百科草稿中,有37篇存在虚构事实、伪造引用来源的问题,还有22篇涉嫌无授权转载第三方内容。这些问题内容往往逻辑通顺、表述流畅,普通编辑很难在短时间内排查完毕,一旦上线会对平台积累多年的公信力造成不可逆的损害。

不少关注者注意到,此次新规并未完全抹杀AI的工具价值,而是对其使用场景作出了极为严格的限定。

按照新规要求,编辑可以使用LLM为自己撰写的草稿提供编辑建议、整理参考资料框架、检查语法拼写错误,但所有经过AI辅助的内容都必须经过编辑本人的全人工核验,每一处事实表述都需要附带可查证的权威来源。对于违反规定直接上传LLM生成内容的用户,平台将根据情节轻重给予警告、短期封禁甚至永久撤销编辑权限的处罚。

作为全球访问量最高的公共知识平台,维基百科此次的政策调整,被不少业内人士看作是内容行业AI治理的标志性事件。

过去几年,各大UGC平台都在纠结生成式AI内容的管理尺度,多数平台选择“先发展后治理”的路径,导致大量低质、错误的AI内容泛滥。而维基百科的选择相当于给出了一个明确的参考标准:在知识、新闻等对内容准确性要求极高的领域,人工核验仍然是不可替代的核心环节,AI技术的应用必须服务于内容质量提升,而不能以牺牲可靠性为代价换取生产效率。

!
本文内容来源于公开互联网信息,并包含平台新增内容及用户发布内容,旨在进行知识整理与分享。文中所有信息与观点均仅供参考,不代表任何官方或特定立场,亦不构成任何操作或决策建议,请读者谨慎甄别,详情请见完整免责声明
相关资讯
AI小创