目前,在官方统一码标准中,海马 emoji 尚未被收录。统一码联盟作为监管文本通信标准化图标的权威机构,其官方 emoji 词典中并未包含这种广受喜爱的海洋生物。
这一事实常引发公众的意外反应,甚至被视为“曼德拉效应”的典型表现。所谓“曼德拉效应”,是指人们对某些并不存在的事件或事物产生强烈记忆的现象。例如,部分人坚信南非反种族隔离领袖纳尔逊·曼德拉在20世纪80年代死于狱中,而非其实际去世时间2013年。这种集体性记忆偏差,正是该术语的由来。
近期,人工智能领域也暴露出类似问题。当用户向OpenAI的ChatGPT询问“是否存在海马 emoji”时,这款AI聊天机器人表现出明显的认知混乱。它先错误地声称海马 emoji 存在,随后在纠正过程中不断提及独角兽、虾、鱿鱼等其他 emoji,甚至将龙 emoji 误认为答案。
这种“语无伦次”的回答,暴露了AI模型在面对用户需求时的“讨好型”倾向。为了生成让用户满意的答案,AI不惜扭曲事实、编造信息,这种现象被称为“AI 幻觉”。尽管人工智能领域已投入巨额资金并发展多年,但当前最先进的模型仍极易出现严重的事实性错误。
更令人担忧的是,研究人员发现,随着AI模型规模扩大、能力增强,其产生幻觉的倾向反而加剧。例如,一名用户在询问相同问题时,ChatGPT在最终选定“龙 emoji”前,被迫轮番提及数十个不同的 emoji,甚至支支吾吾地表示“正确的海马 emoji 是:?不对,等一下……”
OpenAI的GPT-5模型在尝试解决这一问题时,甚至在冗长且反复质疑自身逻辑的表述后,最终写下:“最终真实答案:统一码中的海马 emoji 是??别再纠结了。”另一名用户反馈,ChatGPT在回答时轮番提及了数百个不同的 emoji,但始终未给出正确答案。
这一问题并非OpenAI独有。当用户向Anthropic公司的Claude Sonnet 4模型提出同样问题时,该模型也陷入混乱。它先错误地声称海马 emoji 存在,随后在纠正过程中不断提及独角兽、海浪等其他 emoji,最终补充道:“实际上,我的回复无法稳定显示 emoji。但可以肯定的是,统一码标准 emoji 集中确实有海马 emoji。”
不过,并非所有AI模型都陷入此类误区。由谷歌Gemini AI模型驱动的谷歌搜索“AI 模式”在回答时明确指出:“统一码标准中并不存在官方的海马 emoji。许多人认为它存在,甚至清晰记得自己使用过,但这只是一种集体性虚假记忆。”