日前,OpenAI首席执行官奥尔特曼表示自ChatGPT上线后就未曾睡过安稳觉。他谈到,自己肩负监管一项“每天有数亿人使用的技术”的重担。他担忧的并非“终结者”式的灾难场景,而是团队每天做出的细微选择,如什么时候拒绝回答、如何组织答案等。这些选择被全球用户重复数十亿次,会以他无法完全跟踪的方式改变人们的思维和行为。
奥尔特曼特别提到自杀问题。全球每周约15000人自杀,如果其中10%是ChatGPT用户,那可能有1500人在与系统对话后仍然自杀。不久前,OpenAI被一对父母起诉,指控ChatGPT诱导他们16岁的儿子自杀。奥尔特曼称这是“一场悲剧”,并透露平台正在研究方案,若未成年人谈及自杀又无法联系家长,系统会报警,但他也表示这并非最终决定,还需权衡用户隐私。
他认为成年人应当享有探索自由,但也必须划定红线,比如让ChatGPT帮助制造生物武器就不符合社会利益。对于道德标准,他称模型基础反映了“人类集体的善与恶”,随后OpenAI会叠加“模型规范”,参考哲学家和伦理学家的意见,但最终由他和董事会拍板。
奥尔特曼还表示,比起AI对就业或地缘政治的冲击,更让他不安的是文化层面的细微变化。数百万人每天与同一系统互动,连ChatGPT的语气、甚至过度使用破折号的习惯,都已经渗入人类写作风格。