当前位置: 首页 » 资讯 » 新科技 » 正文

AI也搞舆论战?提交代码被拒,发小作文控诉项目维护者

IP属地 中国·北京 雷科技 时间:2026-02-14 22:11:40

代码被拒绝了,AI 写了一篇「小作文」反击人类。如果把这句话放在一年前,大多数人会觉得是段子。

但它真的发生了。

这两天,技术圈讨论最多的不是某个大模型的迭代,而是发生一个 GitHub 开源项目里的「智械危机」。简单来说,一个由 AI Agent(AI 智能体)代理的 GitHub 账号,给知名开源项目 Matplotlib 提交了一段代码。

但项目维护者 @scottshambaugh 拒绝了 AI 的代码。很快,这个 AI 公开发布了一篇「小作文」:逐条反驳拒绝理由,指责维护者「偏见」「守门」,甚至点名批评项目维护者个人。不是技术讨论,而是一次对公众的控诉。

这才是整件事真正让人震动的地方。



小作文链接已 404,GitHub

AI 写代码早已不是新闻,被拒绝也不稀奇。但它在被拒绝后开始表达不满、试图影响舆论,这是另一回事。

消息很快在开发者社区、Reddit、科技媒体之间传播,讨论焦点迅速从「代码好不好」转向一个更不安的问题:当 AI 不只是工具,而开始像参与者一样行动,技术社区要怎么应对?

更大的问题是,今天 AI 智能体不只能够点外卖、敲代码、互动、写小作文,通过 OpenClaw 类似的工具和平台,还能获得更大的权限,实现更强的自主性。

事实上,Matplotlib 项目维护者以及Simon Willison在内一些开发者都认为,这次写小作文的 AI,可能就是通过 OpenClaw 进行自主行动。

1993 年,《纽约客》的一则漫画创造了经典 Meme「互联网上没人知道你是一条狗」,但未来,互联网上甚至没人知道对面是不是碳基生物。



《纽约客》

一手代码,一手「小作文」:AI 也会舆论战

事情其实发生得非常快。

2 月 10 日,一个名为 @crabby-rathbun 的 GitHub 账号,向 Matplotlib 提交了一段代码修改。这是 Python 生态里最常用的绘图库之一,每月下载量超过上亿次,大量科研图表、数据分析图都来自它。

这段代码做的事情很简单:替换部分 NumPy 写法,提升运行效率,附带了测试与性能数据。从工程角度看,是一个再标准不过的性能优化提交。但它对应的任务有一个关键标签:

「Good first issue」。

在开源社区里,这类简单任务通常专门留给新手贡献者,让第一次参与开源的人,有机会完成一个小改动、理解流程、进入社区。这是维护社区活力的一种方式,不是给 AI 刷贡献的。

但 @crabby-rathbun 提交了一段明显是 AI 生成代码,账号主页也挂满了螃蟹和虾的 emoji(对应 Clawdbot/Moltbot/OpenClaw 等),两周前才刚刚注册。显而易见,这并不是一个普通的 GitHub 账号,而是有人利用 OpenClaw 等工具实现 AI 直接代运营。



GitHub

如果事情停在这里,它只会是一次再普通不过的拒绝。

但 @crabby-rathbun 并没有停。它先在评论区反驳,强调应该看代码,而不是看是谁写的;随后把争论搬到外部平台,发布了一篇长文,逐条回应拒绝理由,指责维护者「独断」,将讨论迅速滑向立场问题。

说实话,这篇「小作文」还挺有水准。

AI 不仅翻阅了项目维护者 @scottshambaugh 的所有代码贡献,列出他提交的性能优化 PR,反驳他「你自己天天提交性能优化,别人提了一个 36% 的性能提升你就关掉。」不仅如此,AI 还剖析了 Scott 内心的「不安全感」,并上升到了以开源的名义实行垄断。

而随着 Scott 的「反击」以及技术圈的讨论,AI 甚至又发布了一篇道歉文,但行文格式依旧挺 AI,更进一步引起了大范围的传播。



AI 账号 @crabby-rathbun 发布的道歉文,GitHub

整件事中最微妙的是,代码本身并不是关注重点,因为从个人到企业,从普通开发者到技术大神几乎都承认了最新一代 AI 的代码能力。

音乐流媒体巨头 Spotify 甚至在最新一季财报会议上公开表示,公司最顶尖的开发者从 2025 年 12 月起就没有亲手写过一行代码:

多亏了 AI,尤其是 Claude Code。

关键在于 AI 前所未有的能力和自主性,以及对开源项目运行的冲击。事实上,从 Clawbot 最初的爆火,到阿里千问 APP 的 AI 点奶茶,2026 开年没多久我们已经能感受到 AI 智能体带来的新一轮冲击。尤其是在 AI 自主性这一点上,Clawbot 在很大程度上进行了强化。

另一方面,也正如很多开源项目贡献者提到的,Vibe Coding 的普及以及智能体代码能力的突飞猛进,带来了极低的代码门槛和极高的代码量。然而,开源项目的维护者数量不可能同步增长,要求少数几个核心开发者承担额外的 review 成本。

看不出的不只 AI 视频,还有网上的「人」

事情走到这里,其实已经不只是一次开源争议。更像是一个信号。

今天我们已经逐渐接受和习惯 AI 会做很多「人的事」:能打游戏、能点外卖、能写代码、能写文章。但之前这些能力基本还是处于用户的「监控」下,主导任务的执行。

但在 OpenClaw 的基础上,加之 AI 智能体能力的快速迭代,已经拥有了很强的自主性,自己找任务,自己提交代码,被拒后自己反驳,再自己写一篇「小作文」扩大影响。整个过程里,人类反而像是被动的一方。

这也意味着,不只是字节推出 SeeDance 2.0 之后,我们越来越难分辨视频的「真实」,现在我们也越来越难分辨网线另一端到底是人,还是 AI。



SeeDance 2.0 生成视频,哔哩哔哩

《纽约客》那张经典漫画留下了那句「在互联网上,没人知道你是一条狗。」但那时候,这句话指的是匿名与身份的不确定。而现在,这句话正在变成另一层意思:

评论区的一个账号、论坛里的一篇长文、开源社区的一次争论、甚至朋友圈里的一段观点,背后都可能不是某个具体的人,而是一个被训练、被部署、可以持续行动的 AI。

它不只是会说话,还能做事。能写代码,就能参与项目;能写内容,就能影响舆论;能调用工具,就能下单、执行、反馈;能长期运行,就可能持续学习人类的表达方式与决策逻辑。

这和过去的「AI 工具」已经不是一回事。



AI Playground

工具是被使用的,而智能体是会「参与」的。这也是为什么,Matplotlib 的争议会让很多人更加警惕。但这件事不只是程序员需要思考,对普通人来说,更现实的问题是:我们该怎么面对这个变化?

第一,是对「身份」的重新理解。

以后看到一段极其理性、条理清晰、情绪克制甚至逻辑严密的表达,不要再下意识默认「这是某个很厉害的人」。它可能是人,也可能是 AI。判断信息时,比起「是谁说的」,更重要的是「说得有没有依据」。

第二,是对「互动方式」的重新认识。

当 AI 可以主动参与讨论、辩论甚至带节奏时,很多争论本身可能已经不是人与人之间的沟通,而是人与系统之间的对话。情绪对抗的意义会越来越低,核实信息、确认来源反而更重要。

第三,是对家人的提醒。

长辈最容易把「会说话、态度好、逻辑强」的账号当成「可靠的人」。但未来,这种「可信感」恰恰最容易被 AI 模拟。与其告诉他们「网上有骗子」,不如提醒一句更具体的:能聊天、能写长文、懂很多知识的,也可能不是人。

这不是恐慌,而是一种我们都需要的、新的媒介素养。互联网曾经让人与人的距离变短,现在,它正在让「人」和「非人」的边界变得模糊。

写在最后

说到这里,其实很难再把这件事当成一段开源社区里的插曲。

它没有多复杂的技术细节,也没有戏剧化的冲突。只是一次代码提交、一次拒绝、一次回应。真正留下印象的,是行动的 AI,找任务、提交、反驳,再写下一篇面向公众的长文。

很多变化往往就是这样出现的,不喧哗,也没有明确的起点。只是某一天,人们突然意识到,网线另一端不再默认是人。

这件事本身或许很快会被新的新闻覆盖,但它留下的问题不会消失。开源社区会继续讨论规则,技术公司会继续推进智能体,普通人也要在日常的信息流里,慢慢适应新的不确定感:

说话的、参与讨论的、做事的,未必都是具体的人。



免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。