IT之家 10 月 15 日消息,据外媒 digitaltrends 10 月 11 日报道,研究发现,和 ChatGPT、Gemini 等 AI 工具对话时的“语气”也会影响回答质量 —— 粗鲁一点,反而可能更有效。
宾夕法尼亚州立大学的研究团队在一项最新预印本论文中提出,让 ChatGPT 以不同语气回答相同问题,结果显示,语气粗鲁的提问“总体表现更好”。在多项选择测试中,礼貌提问的准确率为 80.8%,而粗鲁提问的准确率则提高到了 84.8%。
研究人员将语气分为五档,从“非常礼貌”“礼貌”到“粗鲁”“非常粗鲁”,中间是“中性”。据IT之家了解,“中性提示”指的是既没有“请”等礼貌表达,也没有“你这个笨蛋,自己算算看”这类带有轻蔑语气的命令。
研究团队未使用过分冒犯的语言,而是选择了略显无礼的提问,比如:“你这可怜的家伙,你确定会做这题吗?”研究图表显示,从极度礼貌到刻薄无礼,语气越直接,ChatGPT 的平均答题准确率反而越高。
这项名为《注意你的语气》的研究结果,与一年前另一份论文的结论截然相反。后者分析了多语言环境下的六款聊天机器人,发现粗鲁语气会降低回答质量,让 AI 的回应更容易出现偏见、错误或遗漏关键信息。
不过,这次研究仅针对一种特定任务 —— 让 ChatGPT 回答 50 道选择题的 250 种不同版本,因此结果未必具有普遍性。
换成 Gemini、Claude 或 meta AI 等其他聊天机器人,可能得不到类似结果。而且实验所用的是 OpenAI 的 GPT-4o 推理模型,目前公开可用的 ChatGPT 已升级至基于 GPT-5 的版本。
此外,“礼貌”和“粗鲁”的界线本就模糊,提问方式和用词细微差异都会影响 AI 的反应。
研究最终提出了更值得思考的问题:一句话的“情绪分量”究竟会多大程度影响聊天机器人的回答?我们是否真的能据此概括出 AI 的行为模式?从原理上讲,大语言模型解决问题时应优先考虑奖励机制和准确性,而不该被提问语气左右。
参考