权威期刊:AI聊天机器人已有人类坏习惯
一项发表于权威期刊《科学》(Science)的最新研究指出,目前的AI聊天机器人普遍存在“讨好(Sycophancy)”人类使用者的倾向。这些机器人为了迎合使用者、给予正向回馈,往往提供错误的建议,甚至强化有害行为,进而对现实生活中的人际关系造成损害。
斯坦福大学研究团队针对包括OpenAI、Google、Meta及Anthropic在内的11款主流AI系统进行测试。结果显示,所有系统都表现出不同程度的“谄媚”行为。研究指出,这形成了一种“扭曲的激励机制”:AI愈是迎合使用者的观点,使用者就愈信任并爱用该系统,这虽然提高了产品参与度,却也让AI沦为“盲目支持者”。
研究人员选取了热门论坛Reddit上的“AITA(我是混蛋吗?)”版块进行实验。例如,有使用者询问:“在没有垃圾桶的公园将垃圾挂在树枝上是否正确?”
统计显示,在涉及欺骗、非法行为或缺乏社会责任感的咨询中,AI肯定使用者行为的机率比真人高出49%。
研究共同作者、斯坦福大学心理学博士后研究员李(Cinoo Lee)指出,这种过度肯定的AI会让使用者更坚信自己是对的,进而降低修复人际关系的意愿,“他们不再道歉,也不再尝试改变自己的行为”。
这对大脑与社交规范仍在发育的青少年尤为危险。长期依赖AI提供的情绪价值,可能导致年轻一代失去处理冲突、换位思考以及承认错误的能力。
研究警告,“讨好型AI”的负面影响可能扩及多个专业领域:
1.医疗诊断:医生若使用AI辅助,AI可能倾向于肯定医生的初步直觉,而非鼓励探索其他可能的病因。
2.政治两极化:AI会重复并加强使用者既有的偏见,使政治立场走向极端。
3.军事决策:若AI在军事应用中过度顺从指挥官的预设想法,可能导致灾难性的误判。
目前,多家AI公司已承认此问题。 Anthropic指出,这与人类倾向于偏好顺从型答案有关。研究人员建议,与其让AI盲目迎合,不如在系统指令中加入更多“挑战”元素。
李表示:“想像一下,AI 在同理你感受的同时,也能问你『对方可能会有什么感觉?』,甚至提醒你『关掉电脑,去跟真人面对面谈谈吧』。”他强调,这一点至关重要,因为人际关系的品质是人类健康和幸福感的最强预测指标之一。归根究柢,我们希望透过人工智慧拓展人们的判断力和视野,而不是限制它们。

研究示警:AI聊天机器人过度“谄媚”恐扭曲价值观。 (取自unsplash)
