哈贝马斯反对“哈贝马斯机器”
著名德国哲学家哈贝马斯于当地时间2026年3月14日去世,享年96岁。在哈贝马斯对公共领域的众多贡献当中,其与谷歌公司的一段公案尚未得到充分讨论。2024年底,美国科技巨头谷歌的英国人工智能研究部门DeepMind 将其开发的一款旨在调解和解决冲突的生成式人工智能工具命名为“哈贝马斯机器”(Habermas Machine),然而《南德意志报》(Süddeutsche Zeitung)2025年4月刊发的独家报道“哈贝马斯对抗谷歌:不要以他的名义(Habermas vs. Google:Not in His Name)”显示,该项目从未征得哈贝马斯本人的同意。哈贝马斯在通过该报获悉此事后深感不悦,并表示他完全无意为该项目提供授权或支持。“哈贝马斯机器”项目和哈贝马斯本人的反对态度对于当下势不可挡的AI浪潮具有重要的借鉴意义。
![]()
著名德国哲学家哈贝马斯。视觉中国 图
2024年10月,谷歌DeepMind研究团队和哈佛大学、耶鲁大学、牛津大学学者在顶级学术期刊《科学》(Science)上发表了一篇题为《人工智能可以帮助人类在民主协商中找到共识》(AI can help humans find common ground in democratic deliberation)的论文,对“哈贝马斯机器”项目进行了详细介绍。这项研究在英文世界引发了广泛影响,在当时就被《卫报》《麻省理工科技评论》等媒体争相报道。
“哈贝马斯机器”的研究团队在英国招募了5734名参与者,围绕移民、气候变化和普惠式托儿服务等议题开展了一系列实验。参与者首先提交个人观点,该生成式人工智能模型将这些观点整合为群体声明,接着参与者对这些声明进行排序、提出批评意见,查看同样由该人工智能模型生成的修订版本,随后进行最终排序并选出获胜方案。为了在更具代表性的群体中评估该模型的有效性,研究人员还通过一个由200名英国参与者组成的虚拟公民大会对该模型进行了测试。这些参与者的选取反映该国的人口结构,并讨论了相同的议题。研究发现,在56%的情况下,参与者更倾向于选择人工智能生成的群体声明而非由人类撰写的声明。人工智能生成的声明被认为表述更清晰且更能准确反映多数立场。同时,在体现少数立场方面,人工智能生成的声明与人类撰写的声明并无显著差异。此外,人工智能参与调解减少了讨论中的群体分歧。这些结果在初步实验和虚拟公民大会中具有一致性。(参见哈佛大学陈曾熙公共卫生学院网站上周刊发的对上述研究论文的扼要介绍:“Lessons learned: Using AI can help groups find common ground on polarizing topics”)
尽管研究者相信“哈贝马斯机器”为我们在日益分裂的世界中寻求共识和促进集体行动提供了一种很有前景的工具,但该研究发表后褒贬不一,也遭到了一些批评。例如伦敦大学学院(UCL)的冲突解决专家梅兰妮·加尔森博士(Dr Melanie Garson)就告诉《卫报》,尽管她自认为一名技术乐观主义者,但她担心少数群体因人数太少而无法影响这类群体声明,却可能不成比例地受到人工智能得出的最终结果的影响。她还指出,“哈贝马斯机器”并未给参与者提供表达自身感受的机会,因此无法促使他们对持不同观点者产生共情。在加尔森看来,技术使用的语境至关重要,例如在长期关系当中,调解的目标与其说是达成共识,更重要的在于教导行动,而“哈贝马斯机器”显然没有考虑到这类问题。
开头提到的《南德意志报》的报道披露,2025年2月中旬,德国记者马蒂亚斯·普费弗(Matthias Pfeffer)在读到关于“哈贝马斯机器”的英文报道后,通过电子邮件联系了哈贝马斯。他在与哈贝马斯的通信中获得了一种印象:DeepMind的研究人员——其中包括在牛津大学任教的认知科学家克里斯托弗·萨默菲尔德(Christopher Summerfield)——在未征得哈贝马斯同意的情况下,擅自对其项目进行了命名。在与哈贝马斯的交流过程中,普费弗的这一印象得到了证实。时年95岁的哈贝马斯为其反对立场提供了详细的哲学论证,其核心观点是,将人类解决冲突的过程委托给一个技术系统,既是不可想象的,也是逻辑上不可能的:“在任何一场话语交流中,每一位参与者都肩负着一项极具挑战性的任务——即进行敏锐的‘换位思考’。在此过程中,参与者必须参照所有可能受影响的他人的利益与价值取向,来审视自身的利益与价值取向;如有必要,还须据此做出相应的调整。”
在哈贝马斯看来将此类项目和他的名字挂钩显然是为了“宣传造势”,并且具有“误导性”。他还为自己因年事已高而无法就此事展开更为深入持久的公开辩论深表遗憾。而谷歌DeepMind快速而恭敬地做出了回应,并表达了深深的歉意。他们声明当初选用这个名字是出于敬意,如今已充分理解了哈贝马斯的反对,承诺“未来绝无任何意图将哈贝马斯的名字用于任何项目或服务”。
“哈贝马斯对抗谷歌”发表后几日,欧洲文化基金(European Culture Foundation)刊登了一篇题为“公共思想家与私人平台:哈贝马斯为何说‘不’”的短文。该文指出,当欧洲最伟大的思想家的名字都能在未经其同意的情况下被盗用时,数字未来需要捍卫这一事实便已昭然若揭。这一事件并不仅仅关于一名哲学家,而是有力地提醒我们:欧洲为何必须发挥引领作用,去构建能够捍卫人类尊严、民主价值观及公共利益的数字空间。我们要共同致力于构建一个立足于开放、伦理与民主参与的数字环境。
战争中使用的AI
美国军方已公开承认,在对伊朗的袭击中动用了“多种先进的人工智能工具”,这些系统能够“在数秒内筛查海量数据”。在此背景下,美国众议院120多名民主党议员近日致信五角大楼部长皮特·赫格塞斯(Pete Hegseth),要求其说明:在美军轰炸伊朗南部一所小学、造成大量平民死亡的行动中,人工智能究竟发挥了什么作用。进步新闻与评论网站Common Dreams上Jake Johnson的文章对此做了详述。
![]()
2026年2月28日,在伊朗米纳卜市一所被袭击的小学,救援人员和当地居民试图从废墟里营救伤员。新华社 图
由加州民主党众议员萨拉·雅各布斯(Sara Jacobs)牵头的议员们在信中提出,在“史诗狂怒行动”期间,人工智能是否参与了目标选择、情报评估和法律判断,如果确有使用,是否经过人工审查,以及审查发生在哪一环节。他们还追问,包括Maven Smart System(美军用于整合情报与辅助识别目标的智能分析系统)在内的人工智能系统,是否曾将沙贾雷赫·塔伊贝赫学校(Shajareh Tayyebeh School)识别为打击目标;如果是,是否有人工对目标的准确性进行核实。
这封信发出的前一天,《纽约时报》报道称,五角大楼调查人员初步认定,美军应对伊朗米纳卜一所女子学校遭轰炸负责。那次空袭已造成至少175人死亡,其中大多数是儿童。
总统唐纳德·特朗普最初在毫无证据的情况下试图将责任归咎于伊朗,之后又改口称自己“对此了解得还不够”,无法判断应由谁负责。根据《纽约时报》的说法,这起袭击源于美军在目标识别上的失误:当时美军正在打击一处与学校相邻的伊朗基地,而那栋校舍此前曾是该基地的一部分,因此最终被误伤。
美国军方已经确认,在这场针对伊朗的战争中使用了人工智能工具。这场战争是与以色列军队协同进行的,而以军此前在对加沙地带的军事行动中也曾广泛使用AI。美国中央司令部负责人布拉德·库珀(Brad Cooper)在一段视频讲话中表示,美军作战人员正在使用多种先进AI工具,这些系统能够在极短时间内处理海量信息,帮助决策者排除干扰,更快作出判断,并抢在敌方反应之前采取行动。
NBC新闻本周早些时候也报道称,美军正在使用数据分析公司Palantir的AI系统,以识别持续空袭中的潜在目标。报道指出,Palantir的软件部分依赖Anthropic公司的Claude AI系统,而赫格塞斯正试图将人工智能置于美国作战体系的核心位置。
议员们在信中进一步表示,在赫格塞斯执掌五角大楼期间,他一直在削弱旨在减少平民伤亡的相关措施,嘲讽所谓“愚蠢的交战规则”,并将“最大杀伤力”塑造为美军的首要目标。在他们看来,正因为赫格塞斯和特朗普公开轻视对美军的法律约束,美以对伊朗战争中出现大规模平民伤亡,“令人震惊,但并不令人意外”。
Robert Booth和Dan Milmo在《卫报》上的文章指出,伊朗战争预示着人工智能驱动的轰炸时代即将到来,其速度将超越“思维的速度”。美国军方借助人工智能制定作战计划所展现出的速度与规模,正引发外界担忧:在人类尚未来得及充分判断之前,机器生成的打击方案可能已被迅速推进,人工决策在实战中被进一步压缩甚至边缘化。
美国在对伊朗实施打击时动用人工智能工具,意味着一种新的战争形态正在出现。与传统战争相比,AI正在把从目标识别、情报分析到法律审查、打击发起的整个流程大幅压缩,其速度甚至被形容为快于“思维的速度”。围绕这一趋势,学界和伦理研究者日益担心,人类在关键环节中可能只剩下形式性的审核角色。
AI模型Claude被认为能够“缩短杀伤链(kill chain)”,也就是压缩从发现目标、识别目标、决策批准到批准打击之间的全过程。此前,美国和以色列已在加沙广泛使用AI进行目标识别,而在对伊朗的军事行动中,这一技术的部署显然又向前推进了一步。
报道显示,美以两国仅在开战后的前12小时内,就对伊朗目标发动了近900次打击。在此期间,以色列导弹还杀死了伊朗最高领袖阿亚图拉·阿里·哈梅内伊。研究人员认为,如此高密度、同步展开的打击节奏,正体现出AI参与作战规划后所带来的规模化与高速化特征。
学界将这一现象称为“决策压缩”(decision compression)。所谓“决策压缩”,是指复杂军事行动原本需要较长时间筹划、审查和协调,如今却可能在极短时间内完成。担忧者指出,在这种节奏下,军事专家和法律顾问虽然名义上仍在流程之中,但实际上可能只是对自动生成的打击方案进行快速确认,难以作出充分、独立的判断。
早在2024年,总部位于旧金山的Anthropic就已将其模型部署到美国战争部及其他国家安全机构,以提高战争规划效率。随后,Claude被纳入由军事科技公司Palantir与五角大楼合作开发的一套系统之中。按其公开说法,这套系统旨在显著提升情报分析能力,并为官员决策提供支持。
纽卡斯尔大学政治地理学高级讲师、研究“杀伤链”的专家克雷格·琼斯(Craig Jones)表示,AI系统正在直接就“打击什么目标”提出建议,而这一过程在某种意义上比人类思考还快。他指出,AI带来的不仅是速度提升,还有打击规模的同步扩大:一方面可以实施刺杀式定点清除,另一方面又能同时削弱对方使用空中弹道导弹反击的能力,而这在以往战争中往往需要数天甚至数周才能完成。
目前的新一代AI军事系统,已经能够迅速处理关于潜在目标的大量信息来源,包括无人机影像、通信拦截记录以及人工情报。Palantir的系统据称会利用机器学习技术对目标进行识别、排序,并提出武器使用建议,同时结合现有库存和过往打击类似目标的效果进行计算。更进一步的是,系统还可以通过自动化推理,对发动打击是否具备法律依据作出评估。
伦敦大学玛丽女王学院伦理、技术与社会教授戴维·莱斯利(David Leslie)表示,这代表着军事战略和军事技术进入了一个新阶段。不过他同时警告,过度依赖AI可能导致所谓“认知卸载”——也就是说,本应由人承担的思考与判断工作被转移给机器,最终使得负责拍板的人对行动后果产生心理上的疏离感,仿佛自己并未真正参与决策。
对于小学被轰炸的事件,联合国则将此事定性为“严重违反人道主义法”。对于相关报道,美国军方表示正在展开调查。这类事件也进一步加剧了外界对于AI参与战争决策所带来风险的担忧。
至于伊朗方面目前在多大程度上将AI嵌入其作战体系,外界所知仍然有限。伊朗曾在2025年宣称,其导弹瞄准系统中已使用人工智能,但由于长期受到国际制裁,其AI发展能力显然难与美国和中国相提并论。总体来看,伊朗在这一领域的技术基础仍相对有限。
值得注意的是,在对伊朗发动打击前几天,美国政府一度表示将把Anthropic从相关系统中移除,原因是该公司拒绝允许其AI被用于全自主武器(fully autonomous weapons)或监控美国公民。不过,在彻底淘汰完成之前,Anthropic的模型仍在继续使用。与此同时,其竞争对手OpenAI已迅速与五角大楼达成协议,允许其模型用于军事目的。
莱斯利指出,AI最大的优势就在于加快决策速度,把原本可能需要几天甚至几周完成的规划过程压缩到几分钟,甚至几秒钟内完成。但问题也恰恰在于此:系统虽然能为人类决策者生成多种选项,却也让后者拥有的判断时间变得更短,能够进行独立审查和充分权衡的空间随之大幅缩小。
英国皇家联合军种研究所研究员普雷拉娜·乔希则(Prerana Joshi)表示,AI在国防系统中的部署范围正在持续扩大,应用领域已从前线打击延伸至后勤、训练、决策管理和维护等多个方面。她认为,AI的价值在于帮助决策链条上的各类人员提高效率和生产率,并以更快速度整合数据,从而为判断提供支持。
不过,这种“支持”究竟会不会在实战中逐步转化为“替代”,仍是目前最受关注的问题。随着AI越来越深入地嵌入军事体系,未来战争不仅将变得更快、更密集,也可能变得更难以由人类充分控制。在技术优势与伦理风险之间,新的战争时代已经显露轮廓。
同时近日《卫报》另一条相关评论表示,战争中的AI不只用于打击,也用于制造认知混乱。Margaret Sullivan的评论谈的不是美军目标识别系统,而是这场战争中的AI生成假图、假视频如何污染信息环境。
这几天,社交媒体上充斥着大量看起来“极其真实”的战争视频和图片:有的视频显示伊朗导弹击中特拉维夫机场,有的画面则似乎拍到美国士兵被伊朗军方持枪控制。它们往往制作精良,传播速度惊人,很容易在第一时间抓住人们的注意力与情绪。
问题在于,这些内容很多并不是真的。它们常常借助当下最先进的人工智能工具生成,表面上几乎无懈可击,实际上却具有极强的误导性。即使后来有人指出它们是假的,辟谣的力量也常常追不上它们扩散的速度。正如CNN的事实核查记者丹尼尔·戴尔(Daniel Dale)所说,新的伪造内容冒出来的速度,往往比人们揭穿它们的速度还要快。
更麻烦的是,假图泛滥带来的后果,不只是“假的越来越多”,还包括“真的也越来越难被相信”。当公众不断看到AI伪造的战争画面时,连那些来自可靠新闻机构、真实记录战争现场的照片,也可能被指认为“合成的”、“可疑的”或“经过篡改的”。这种氛围会制造出一种普遍怀疑,让人对一切视觉证据都失去信任。
而这种怀疑可能是有害的。在某些情况下,它恰恰成为一种消解现实的方式:战争中的死亡、废墟、流离失所和恐惧,不再被当成真实发生的灾难,而像是互联网上另一种可以随意质疑、随手滑过的“视觉内容”。当人们开始把战争影像视作某种电子游戏式的刺激素材时,现实本身反而被削弱了。





京公网安备 11011402013531号