投资界传奇人物沃伦·巴菲特(Warren Buffett)在最新的专访中,对人工智能(AI)的迅猛发展表达了深切忧虑。他将 AI 技术带来的高度不确定性,直接比作他职业生涯中最为关注的地缘政治威胁——核武器。巴菲特强调,即使是目前引领 AI 浪潮的顶尖人物,也无法看清这项技术的最终终点,这种“不可知性”正是风险的核心所在。
巴菲特在节目中引用哥伦布航海的例子来阐述现状:航海家如果迷失方向尚能掉头,但 AI 技术一旦突破临界点,就像“精灵被放出了瓶子”,再也无法收回。他进一步援引爱因斯坦对原子弹的经典评述,提醒世人:技术虽然改变了一切,但人类的风险认知和思维方式却往往滞后,这种脱节在 AI 时代可能导致致命后果。
此外,巴菲特回顾了核武器从单一国家掌握演变为多国拥有的历史,警告称 AI 可能重演这种扩散风险。他感叹,核威胁无法单纯依靠金钱消除,但他愿意捐出所有财富来换取消除这一隐患的可能。作为全球投资风向标,巴菲特这番深刻的“核隐喻”警示,正促使行业内外重新审视 AI 伦理及风险管控的迫切性。
划重点:
☢️ 风险对标: 巴菲特将人工智能的潜在危险等同于核武器,认为其未知性是最大的安全隐患。





京公网安备 11011402013531号