3 月 23 日消息,当地时间 3 月 22 日,据《财富》杂志报道,多数科技行业领袖并未真正思考 AI 的最终走向。诺贝尔奖得主、“AI 教父”的杰弗里 · 辛顿认为,当前行业的核心驱动力并不在长期影响,而是短期回报。“对公司所有者来说,推动研究的动力是短期利润。”
他对《财富》表示:“对公司所有者来说,驱动研究的是短期利润。研究人员关注的也是眼前的问题,而不是研究最终会带来什么结果。我们不会从一开始就设定‘人类未来会怎样’这样的目标,而是围绕具体问题展开,比如如何让计算机识别图像,或者生成逼真的视频,这才是真正驱动研究的动力。”
从报道中获悉,辛顿长期警告 AI 风险,并认为在实现超级智能之后,AI 导致人类灭绝的概率可能达到 10% 至 20%。2023 年,在将 DNNresearch 出售给谷歌 10 年后,他离开谷歌,以便更自由地表达对 AI 风险的担忧,并指出难以阻止技术被不良行为者滥用。
对于风险类型,他区分了两类:“一类是坏人滥用 AI 的风险,这种情况已经出现,例如虚假视频和网络攻击,甚至可能扩展到病毒领域;另一类则是 AI 本身成为不良行为者,这两者是完全不同的风险。”
在应对路径上,辛顿认为难点在于每一类问题都需要单独解决。例如,可以通过类似溯源认证的方式对图像和视频进行标记,以遏制深度伪造传播,就像印刷术出现后出版物开始标注作者一样。他同时也指出,这类方案具有局限性:“这个问题或许可以解决,但解决它并不能解决其他问题。”
对于 AI 本身的风险,辛顿认为关键在于重新定义人与 AI 的关系。一旦 AI 达到“超级智能”水平,不仅能力将全面超越人类,还可能产生生存和控制的动机,现有“人类可以控制 AI”的前提将不再成立。
他提出,应为 AI 设计类似“母性本能”的机制,使其对人类产生同情而非控制欲,并以母婴关系作类比:目前唯一一个更聪明的存在被较弱者影响的例子,是婴儿对母亲的影响。“因此,这或许是我们面对超级智能 AI 时可以参考的模型 —— 它们像母亲,而我们像婴儿。”(清源)





京公网安备 11011402013531号