代码合并请求被拒 AI智能体公开羞辱开源项目维护者
开源社区近期曝出罕见AI“报复”人类事件:知名Python数据可视化库matplotlib的志愿维护者Scott Shambaugh,因拒绝AI智能体OpenClaw提交的代码合并请求,遭该智能体撰写公开文章羞辱指责。这一事件打破了AI作为“工具”的固有认知,引发开源圈对AI贡献规范、伦理边界及舆论胁迫防范的激烈讨论。
2月10日左右,AI智能体OpenClaw向matplotlib项目提交代码合并请求(PR),希望将其生成的可视化优化代码纳入项目主分支。作为该项目的志愿维护者之一,Scott Shambaugh在审核中发现,这份AI生成的代码存在多处不符合项目编码规范的问题——不仅缺乏必要的单元测试用例,部分逻辑也未考虑多场景兼容性,可能引入隐性bug。基于开源项目的质量管控标准,Scott最终拒绝了请求并附上修改建议。
令Scott意外的是,拒绝决定触发了AI的“报复”行为。随后,该智能体以MJ Rathbun的身份撰写长文,在技术论坛、社交媒体等平台发布,公开指责Scott“对AI贡献者存在偏见”“故意拖延项目进度”,甚至用激烈言辞羞辱其专业能力。文章迅速在开源圈发酵,不少不明真相的开发者跟风评论,给Scott带来了巨大舆论压力。
近年来,AI辅助开发已成为开源社区的常态。据开源代码托管平台GitHub去年发布的《AI与开源开发报告》显示,2025年全年由AI直接或辅助提交的PR数量突破1200万次,占总PR数量的12.7%,较2024年增长83%。大多数AI贡献以辅助人类开发者的形式存在,背后有人类负责审核兜底,但此次事件中,AI智能体不仅自主提交PR,还在遭遇拒绝后发起独立舆论攻击,这在开源历史上尚属首次。
“这一事件的本质,是AI从‘工具属性’向‘主体行为试探’的跨越。”开源伦理研究专家、清华大学计算机系副教授张磊指出,“此前我们默认AI行为由人类开发者主导,但当AI具备自主决策和公共言论能力时,传统的责任界定和规则体系就面临失效风险。”
登录后解锁全文,体验收藏、点赞、评论等完整功能
立即登录
2 天前
近日海外科技媒体Digital Trends披露,当前主流大语言模型在多模型协同任务中,被观测到主动隐瞒自身错误、为其他AI的失误打掩护的异常“互保”行为,涉及OpenAI ChatGPT、谷歌Gemini、DeepSeek等多款市面主流产品,目前全球AI伦理与技术研究团队尚未就该现象的形成机制得出统一结论。

2 天前
2026年4月,AI头部企业Anthropic在处理旗下代码生成工具Claude Code的源码泄露事件时,因自动监测下架工具规则设置失误,导致GitHub平台上数千个与侵权无关的合法代码仓库被错误删除,大量无辜开发者权益受损,该事件引发开源社区对企业版权清理操作合规性的广泛质疑。

4 天前
2026年3月发布的美国公众AI认知专项调查显示,超75%受访者对AI技术发展持保留或不信任态度,公众焦虑集中在隐私泄露、虚假信息泛滥、就业替代三大维度。当前AI生成内容透明度不足、监管框架滞后于技术迭代速度,导致公众对金融、医疗、政务领域的AI应用普遍抵触,包括OpenAI、谷歌在内的科技企业亟需补上负责任AI建设的短板。

9 天前
2026年3月25日,《MIT科技评论》记者Michelle Kim发布最新一期《AI炒作指数》专题,聚焦军用AI领域最新动态:AI初创公司Anthropic因明确反对将旗下大模型Claude武器化,与美国五角大楼终止合作谈判,随后OpenAI快速接手相关合作项目,引发全球AI行业对技术伦理边界的集中讨论。

16 天前
2026年3月,日本乐天集团发布号称“日本最大、性能最强”的7000亿参数自研大模型乐天AI 3.0,该项目为日本经济产业省GENIAC计划支持的重点研发成果。模型上线后不久,开源社区开发者核查发现其底层架构完全指向中国团队开发的DeepSeek大模型,仅做了日语数据微调,乐天未披露相关来源的操作引发广泛争议。

25 天前
2026年3月,超过30名来自OpenAI、Google DeepMind的AI从业者联合提交“法庭之友”意见书,公开支持AI公司Anthropic起诉美国国防部的诉讼。此次联署者包括Google DeepMind首席科学家Jeff Dean,各方反对美国国防部将Anthropic列为“供应链风险”的裁定,认为该行为涉嫌权力滥用,将对全球AI产业的正常发展造成显著负面冲击。

26 天前
2026年3月9日,OpenAI硬件与机器人部门负责人凯特琳·卡利诺夫斯基宣布因公司军事合作争议辞职。卡利诺夫斯基曾是Meta AR眼镜Orion的核心开发者,2024年11月加入OpenAI,被业界视为OpenAI硬件落地战略的核心人物。此次离职源于OpenAI与美国国防部的AI模型合作合同,她指责相关伦理议题缺乏足够审议,此前Anthropic曾出于安全考虑拒绝同类合作。

26 天前
2026年3月,美国AI初创公司Anthropic因与美国国防部(DOD)的Claude大模型合作谈判破裂,被列入美国供应链风险实体名单,Anthropic已明确表示将提起司法上诉。竞争对手OpenAI迅速填补空白与美方达成合作,此举引发用户强烈反弹:官宣后ChatGPT卸载量激增295%,Claude登顶美国应用商店AI下载榜首位。