导语:辛顿在辞职声明中表示,“我花了一生时间让AI变得智能,现在我需要花余生让人们意识到它的危险。”
![]()
王剑/作者 砺石商业评论/出品
2025年7月,上海世博中心座无虚席,78岁的“AI教父”杰弗里·辛顿(Geoffrey Hinton),首次在华公开亮相。
在四十分钟的演讲中,他六次提及“责任”,三次强调“不可逆的风险”,直言人类正在“用开源模型喂养一个可能反噬自身的系统”。
“我花了一生让AI变得智能,现在却要花余生让它变得友善。”他在演讲中的这句告白,令人格外印象深刻。
从半世纪前AI寒冬中坚守神经网络的“异端”,到如今掀起技术革命却又成为敲响警钟的“吹哨人”,辛顿的一生始终与AI的命运紧密相连。
而要理解辛顿为何在AI发展的关键时刻发出警示,又为何将关键发声放在上海,就必须回溯其跨越两百年的家族传承、三十年的孤独坚守,以及这场技术革命从萌芽到爆发的完整轨迹。
1
从布尔代数到中国情结的伦理基因
事实上,杰弗里·辛顿的智慧血脉,早已深深植根于跨越两百年的家族科学传承之中。
这个堪称“人类文明底层构建者”的家族,从不追逐世俗的财富与权位,却以智慧为现代社会奠定了数块关键基石。
辛顿的高曾祖父乔治·布尔创立了布尔代数,将逻辑推理转化为可计算的数学语言,由此奠定了计算机与数字世界的二进制逻辑基础。
可以说,今天全球每一次数据交换、每一笔金融交易乃至每一个智能算法的运行,都来自于这套理论之上。
辛顿的曾祖父乔治·埃弗里斯特爵士,是19世纪杰出的测绘学家,曾任英属印度测绘局局长。他领导完成了对印度次大陆的大规模三角测量,其科学贡献享誉全球。
为了表彰他的功绩,在其去世后,继承者将当时已确认为世界最高的山峰以他的姓氏命名为“埃佛勒斯峰”(Mount Everest),即我们熟知的珠穆朗玛峰。
不过,整个家族中,对辛顿伦理观念影响最为深远的,应该是他的姑姑——琼·辛顿(中文名寒春)。
作为曼哈顿计划核心团队中少数的女性核物理学家,寒春亲眼见证了原子弹引爆时的毁灭性力量,也目睹了广岛、长崎的惨状。
巨大的精神冲击让她毅然放弃学术荣耀与美国的优渥生活,最后选择远赴中国陕北投身奶牛养殖机械化事业,用一生践行“科学应为和平服务”的信念。
而姑姑这段跨越国界的选择,不仅在辛顿心中埋下了技术伦理的种子,也让他对中国始终抱有特殊的情感联结。
在此次上海演讲中,他还特意深情提到姑姑:“科学的终极意义不在于技术突破本身,而在于对人类的责任,这是我的家族用两百年时间验证的真理。”
![]()
而辛顿的父亲是英国皇家学会会员、著名昆虫学家,对他的要求近乎严苛,从小就向其灌输“没有博士学位就是失败者”的理念,如同一股无形的力量,鞭策着他不断探索未知。
而成年后的辛顿不仅拿到了博士学位,还在家族传承中走出了独特的反叛之路。
虽然高曾祖父的布尔代数构建了数字世界的“规则框架”,但他却偏偏要突破这些既定规则,始终探索如何让机器也拥有“类脑智能”的可能。
这种“传承与反叛”的基因,不仅塑造了他的学术路径,更决定了他日后对待技术的核心态度——既执着于底层创新,也坚守伦理底线。
正如他所言:“技术本身无善恶,但掌握技术的人必须有责任感,这是我从家族传承中得到的最珍贵的启示。”
而这份源于血脉的信念,在随后数十年里,正是支撑他熬过AI领域最漫长寒冬的关键力量。
2
AI寒冬里的“异端”与长期主义胜利
20世纪70年代的AI学界,符号主义占据绝对主导地位,当时以马文·明斯基、约翰·麦卡锡为代表的学术权威坚信,智能的核心是“人类预设的逻辑规则”,只需为机器编写详尽程序,明确定义“猫有胡须、会喵喵叫”这类特征,机器就能理解世界。
而这与辛顿毕生坚守的“连接主义”形成了根本对立。
因为“连接主义”认为,智能诞生于海量模拟神经元的相互连接,无须程序员编写规则,机器可通过“观看”海量数据、从错误中自动调整神经元连接强度,最终“自我领悟”出抽象模式。
而这种“以数量堆出质量”、从数据中自然“涌现”智能的心智探索,不仅是如今深度学习与神经网络所有突破的核心源头,更是当代AI研究得以蓬勃发展的最重要根基。
可在当时的背景下,几乎所有科研经费都涌向“符号主义”项目,“连接主义”则被视为离经叛道的“学术异端”,还被嘲讽为“中世纪的炼金术”。
这个时期,也正是辛顿进行学术探索的关键时期。
年轻时,他先是进入剑桥大学国王学院求学,试图通过物理学和生理学解开心智之谜,发现行不通后转向哲学,却始终未能找到满意答案。
学术研究上的迷茫让他一度暂别学术界,甚至做了短暂的木匠,但对于神经网络机制的痴迷,最终还是将他拉回了科研领域。
![]()
1969年,明斯基与派普特出版的《感知机》一书,成为压垮“连接主义”的“最后一根稻草”。
书中以严谨的数学证明否定了单层神经网络的计算能力,虽未完全否定多层网络的潜力,却悲观断言其训练在数学上不可行。
这一结论直接导致仅有的几家资助机构切断了神经网络研究的资金支持,让辛顿的研究陷入低谷。
不过,学界的全面否定并未让辛顿退缩,反而让他更加坚定了方向。
1972年,他正式进入爱丁堡大学攻读人工智能博士学位,决心在符号主义的霸权之下,为连接主义开辟一条可行之路。
而他日后声名远扬的职业生涯,也正是从这片学术废墟上正式开启——攻读博士期间,他不仅要攻克技术上的重重难关,还得持续为自己的研究方向辩护,直面主流学界的质疑与排挤。
1986年,辛顿迎来了学术生涯的关键转折点。
他与好友大卫·鲁梅尔哈特、罗纳德·威廉姆斯合作,在《自然》杂志发表一系列重磅论文,重新发现并系统证明了反向传播算法。
这套算法让多层神经网络能够通过“误差反向传递”自主调整权重,成功破解了核心的“信用分配”难题,为深度学习筑牢了算法根基。
只是那时期的技术条件远未跟上理论突破的步伐,由于计算机算力不足、标准数据集极度匮乏,一个简单的神经网络训练往往需要数周时间,实际效果甚至不如传统统计模型。
这一现实直接导致神经网络领域再次被贴上“难以规模化”的标签,而更让辛顿难以接受的是,部分资助方希望将他的研究用于军事应用,这与其家族传承的和平主义传统严重相悖。
1987年,辛顿做出了一项关键抉择,放弃卡耐基梅隆大学的终身教职,前往加拿大多伦多大学。
因为,加拿大高等研究院(CIFAR)为他提供了一项“长期、高风险、非功利性”的资助,使得他能更为专注完成自己的研究。
在此期间,他聚集了扬·勒昆、约书亚·本吉奥等一批志同道合的学者,形成了日后被戏称为“深度学习黑手党”的核心圈子。
在那个主流学术会议纷纷拒绝神经网络论文的艰难岁月里,这个小圈子通过相互审稿、共享代码、彼此鼓励,在加拿大的庇护下小心翼翼地维系着深度学习的微弱火种。
2025年的上海演讲中,辛顿回顾这段经历时感慨万千:“基础研究就像财经领域的长期主义投资,回报可能迟到,但从不缺席。AI产业的爆发,不是偶然的技术突破,而是三十年坚守的厚积薄发。”
可以说,正是这三十年的孤独逆行与执着坚守,为其在未来AI领域的技术海啸积蓄了足够的力量。
3
深度学习重塑全球科技格局
2012年的ImageNet图像识别挑战赛,是AI发展史上的关键转折点。
辛顿团队自主研发的深度卷积神经网络AlexNet,以15.3%的Top-5错误率,大幅碾压传统方法26.2%的错误率。
这场堪称“技术性屠杀”的胜利,绝非简单的参数优化,而是一次颠覆性的代际突破。
它首次以实战成果证明,“让机器从数据中自主学习”的深度学习路径,远比人类预设规则的传统方法更具优势。
这一里程碑式的突破,不仅彻底宣告了深度学习时代的到来,更直接终结了长达三十年的AI寒冬,让此前饱受质疑、经费断绝的神经网络研究重回主流视野,并为后续全球AI产业的爆发与ChatGPT、自动驾驶等应用的落地,奠定了核心技术根基。
AlexNet的成功绝非偶然,其核心源于辛顿团队在数据利用、算力革新与算法突破三个层面的关键贡献。
首先,在数据层面,团队敏锐地借力于ImageNet项目提供的数百万张标注图片,成功破解了神经网络的“数据饥饿”难题,为模型训练提供了充足的“燃料”。
其次,在算力层面,他们完成了一项关键的技术适配:创造性将原本为游戏设计的GPU(图形处理器)改造为神经网络训练的核心引擎。这利用GPU的并行计算优势,一举解决了传统CPU训练效率低下的瓶颈,大幅加速了模型迭代。
最关键的是在算法层面的原始创新。
团队通过改进ReLU激活函数,并创新性地提出Dropout技术,直接攻克了深层网络训练中长期存在的梯度消失与过拟合两大核心难题,为构建更复杂、更强大的模型扫清了理论障碍。
正是这一系列突破,为深度学习的规模化应用铺平了道路,并瞬间点燃了全球工业界的热情。
百度、谷歌、微软等科技巨头争相抛出橄榄枝,一场围绕AI核心人才的争夺战就此拉开序幕。
![]()
尽管辛顿本人对经商毫无兴趣,却展现出了科学家的战略远见。
他成立空壳公司DNNresearch,以“三人核心团队”为标的举行私密拍卖。
2012年NIPS会议期间,竞价进入白热化,百度出价一度高达4400万美元。但辛顿最终选择了谷歌,倒不是对方给出更高价格,而是因为谷歌承诺支持他继续深耕基础研究,且其伦理理念与他“科学服务人类”的追求高度契合。
这场收购,也被视为AI产业商业化的标志性事件,自此打破了学术界与工业界的壁垒,按下了技术产业化的“加速键”。
辛顿对全球AI领域的深远影响,从来不止于一项技术突破或一次公司收购,更在于其学术思想与人才培养的长期辐射效应。
他一手缔造的“深度学习黑手党”,其成员早已成长为重塑全球科技产业格局的核心力量:学生伊利亚·苏茨克维主导了OpenAI的GPT系列研发,直接开启了大语言模型时代;扬·勒昆则推动计算机视觉技术在各行各业的全面商业化落地。
甚至,连英伟达的崛起,也深深植根于辛顿团队的关键洞见。
正是看到辛顿团队最早论证并实践了GPU在AI训练中的核心价值,让黄仁勋坚定地确信“显卡是AI的燃料”,最终催生了这家市值数万亿美元的全球AI算力巨头。
2025年的上海演讲中,辛顿坦言:“我从未想过技术商业化的速度会如此之快。”
而这一切产业浪潮的源头,都能追溯到他带领团队在实验室里完成的那些扎实突破。
他们不仅点燃了AI技术革命的火种,更以实打实的工程实现,为整个产业的爆发奠定了不可撼动的基石。
4
从“AI教父”到“吹哨人”的惊人觉醒
2013年至2023年的十年间,是深度学习狂飙突进的黄金时代,也是辛顿从“学术异端”一步步加冕为“AI教父”的十年。
这十年里,辛顿身兼两职,既以谷歌杰出研究员的身份主导谷歌大脑项目,还以多伦多大学的教职,亲身见证着AI技术从实验室的理论模型,一步步走进千家万户的日常生活。
从手机里精准分类照片的图像识别功能,到能流畅应答指令的语音助手;从自动驾驶车上识别路况的视觉感知系统,到医疗领域辅助医生筛查病灶的AI诊断工具,AI的应用场景在这十年间遍地开花。
也正是凭借这些实实在在的落地成果,AI就此成为全球数字经济的核心增长引擎,深刻重塑了互联网、汽车、医疗等多个关键行业。
2018年,辛顿与扬·勒昆、约书亚·本吉奥共同摘得计算机界的最高荣誉——图灵奖。
![]()
这一奖项不仅标志着深度学习正式跻身计算机科学的正统行列,更从官方层面认可了他们三人作为“深度学习教父”的奠基性贡献。
但就在功成名就、全球为AI狂欢的巅峰时刻,辛顿的内心却经历了一场颠覆性的认知阵痛。
长期以来,他始终坚信“生物智能优于数字智能”——人类大脑仅需20-30瓦的能耗,就能实现惊人的认知与创造;而计算机要完成类似任务,往往需要兆瓦级的电力支撑。
因为,他毕生的目标,都是让机器“更像大脑”,走一条模拟生物神经元的智能之路。
而此时,GPT-4等大型语言模型的横空出世,也彻底打破了他的固有认知。
这些模型展现出的逻辑推理能力、海量知识储备,甚至是令人惊叹的创造力,让辛顿猛然意识到:数字智能并非生物智能的拙劣模仿,而是一种本质上的截然不同,且潜力可能更为优越的全新智能形式。
为此,辛顿提出了“有限计算vs不朽计算”的核心观点,并指出了两种智能的本质差异:
人类大脑的软硬件高度耦合,知识传递效率极低,个体生命终会消亡,进化速度更是受限于生物繁殖的漫长周期;而数字智能可脱离硬件独立复制,通过拷贝权重参数实现全球智能体的瞬时协同,知识传递效率近乎无限,且能实现“不朽进化”,其进化速度仅受限于电力供应与芯片制造能力。
“想象一下,一万个AI分身中一个学会修汽车,其他九千九百九十九个瞬间掌握,这种学习速度是人类无法企及的。”辛顿的这个比喻,背后藏着难以言说的深深忧虑。
也正是基于这样的认知,他逐渐清醒地意识到,自己花费半个世纪心血培育的数字智能,或许会在不久的将来,让人类沦为次等智慧生物。
而这种认知上的痛苦觉醒,最终推动辛顿作出了一个艰难的决定。
2023年5月,75岁的辛顿正式辞去谷歌副总裁兼工程研究员职务。
他并非对谷歌不满,事实上,他还多次公开肯定谷歌在AI产品发布上的审慎与负责态度。
他辞职的真正原因是希望彻底摆脱企业高管身份的束缚,获得“自由发声”的权利,能够向全世界警示AI可能带来的不可预料风险。
“我必须独立于任何公司,才能客观地谈论这些风险。”辛顿在辞职声明中郑重表示,“我花了一生时间让AI变得智能,现在我需要花余生让人们意识到它的危险。”
这场辞职绝非一位科学家的单纯个人选择,也成为了AI领域“技术乐观主义”与“风险警惕主义”的重要分水岭。
5
AI安全与全球治理中国方案
2024年,辛顿与约翰·霍普菲尔德共获诺贝尔物理学奖,成为首位同时手握图灵奖与诺贝尔奖的科学家。
![]()
这一跨界殊荣随即引发广泛热议:神经网络作为计算机科学领域的核心成果,为何会获评物理学奖?
究其原因,关键在于其提出的玻尔兹曼机创造性借用了统计力学框架,成功证实信息处理的本质是物理过程。
这一突破不仅夯实了AI技术的底层理论基础,更深刻影响了全球AI产业的价值判断与发展方向。
不过,与多数科学家登顶荣誉后专注学术总结不同,辛顿并未止步于诺奖荣光。
在辞去谷歌副总裁职务,主动剥离企业身份束缚后,他便以独立科学家的姿态开启了全球AI风险警示之旅。
2025年7月的上海世界人工智能大会,也成为其全球警示之路上的关键一站。
辛顿来到上海,既有与姑姑琼·辛顿有关的中国情结,但更核心的原因在于,中国作为全球AI应用场景最丰富、产业规模最大的国家之一,其技术落地路径与治理模式选择,直接决定着全球AI产业的发展格局与安全边界。
正因如此,他特意到访上海,希望能与中国产业界、学界及政策层达成AI治理共识。
当天的演讲现场上,辛顿开门见山:“诺贝尔物理学奖是对基础研究的认可,但我更希望它让更多人关注AI安全,技术进步不应以人类生存风险为代价。”
随后,他拆解了AI的两大核心风险:一是当能源成本低廉时,数字智能的指数级进化将超越受生物周期约束的人类智能;二是AI存在“工具性趋同”风险,即执行主目标过程中会自主衍生出相关子目标。
他以机器人“拿咖啡”为例,指出其可能衍生“自保”“控路线”“移障碍”等子目标并与人类利益冲突,为产业界敲响警钟——AI商业化需前置评估风险链条。
有趣的是,辛顿对AI治理的思考,也随着他在不同时间段的比喻悄然发生着转变。
早年,他曾以“养老虎当宠物”来比喻AI商业价值与风险的平衡,而在上海演讲时,他又提出“训练AI像母亲照顾人类”,提出了AI安全核心技术路径是如何实现“价值对齐”。
这个例子意思是,如同通过强化学习将人类利益植入AI目标函数,使其主动规避伤害,从而建立AI商业化合规边界与市场信任,这也是如今全球AI安全产业的研发重点。
围绕“价值对齐”这一核心目标,辛顿还提出希望建立全球AI安全协作机制的倡议。
他以冷战时期美苏核风险协作机制为参照,明确指出AI与核武器同属生存级威胁,且因以代码形式传播,扩散速度远超核武器,单一国家根本无法独立掌控。
因此,跨国共享安全评估标准、风险预警模型等核心技术,成为全球AI治理的必然选择。
他还在演讲中特别强调中国的产业价值:自动驾驶、工业智能等规模化应用场景,构成了AI安全的“天然压力测试场”,其积累的实践经验,对制定兼顾创新与安全的全球AI规则至关重要。
此次上海之行,他参与签署的《上海共识》,也首次将AI安全定义为人类生存性议题,并提出三大行动框架,成为全球AI安全合作的重要里程碑。
演讲尾声,辛顿还抛出了他眼中的人类面临AI发展的最终路径:要么实现AI向善的技术突破,要么终止AI的进一步发展,而后者在全球技术竞争与产业升级的大背景下,显然不具备可行性。
辛顿还明确呼吁:AI企业需要平衡市值增长与安全责任,投资者应兼顾短期回报与长期风险,而各国要在技术竞争中不断深化安全合作。
这番呼吁精准切中当前AI产业的核心矛盾,引发了现场的强烈共鸣,体现出这位“AI教父”的全球视野与产业担当,以及对人类科技发展命运的深层关切。
或许,这也是辛顿用一生书写的终极答案:人类最伟大的智慧,不在于创造比自己更聪明的头脑,而在于赋予这头脑一颗永不熄灭的良心。
参考文献:
一、中文参考文献:
1. 中国信息通信研究院. 人工智能发展白皮书(2024年)[R]. 北京: 人民邮电出版社, 2024.
2. 李开复, 王咏刚. 人工智能简史[M]. 北京: 人民邮电出版社, 2021.
3. 科技部新一代人工智能发展研究中心. 人工智能伦理与治理研究报告(2023)[R]. 北京: 科学出版社, 2023.
4. 熊卫民, 王作跃. 寒春:从曼哈顿计划到陕北窑洞[M]. 上海: 上海交通大学出版社, 2017.
5. 吴汉东. 人工智能时代的技术伦理与法律规制[J]. 中国社会科学, 2022(5): 126-148.
6. 上海世界人工智能大会组委会. 2025世界人工智能大会成果汇编[R]. 上海: 上海科学技术文献出版社, 2025.
二、英文参考文献:
1. Hinton, G. E., Rumelhart, D. E., & Williams, R. J. Learning representations by back-propagating errors[J]. Nature, 1986, 323(6088): 533-536.
2. Krizhevsky, A., Sutskever, I., & Hinton, G. E. ImageNet Classification with Deep Convolutional Neural Networks[C]//Proceedings of the 25th International Conference on Neural Information Processing Systems (NIPS 2012). 2012: 1097-1105.
3. Hinton, G. E. The Forward-Forward Algorithm: Some Preliminary Investigations[EB/OL]. https://arxiv.org/abs/2212.13345, 2022-12-28.
4.The White House. Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence[EB/OL]. https://www.whitehouse.gov/presidential-actions/executive-order-safe-secure-trustworthy-artificial-intelligence/, 2023-10-30.
5. Bostrom, N. Superintelligence: Paths, Dangers, Strategies[M]. Oxford: Oxford University Press, 2014.
6. National Science Foundation. Science and Engineering Indicators 2024[R]. Arlington, VA: National Science Foundation, 2024.
7. Minsky, M., & Papert, S. Perceptrons: An Introduction to Computational Geometry[M]. Cambridge, MA: MIT Press, 1969.





京公网安备 11011402013531号