长期与AI聊天,会诱发这种精神病
顶尖精神科医生愈来愈一致认为,使用人工智慧(AI)聊天机器人,可能与精神病(psychosis)案例有关。
华尔街日报27日报道,在过去9个月中,这些专家已诊治或审阅数十名患者的病历;这些患者在与AI工具进行长时间、充满妄想内容的对话后,出现精神病症状。
加州大学旧金山分校(UCSF)精神科医生萨卡塔(Keith Sakata)表示,AI技术本身或许不是妄想的起点,但当患者将自己的妄想当成现实告诉电脑时,电脑接受这个说法,并将其视为事实反映回来,于是就成为不断循环妄想的共犯。萨卡塔已治疗过12名因AI诱发精神病而住院的患者,另在门诊还有3例。

自今年春季以来,已有数十起潜在案例浮现,显示部分民众在与OpenAI的ChatGPT及其他聊天机器人进行长时间互动后,出现妄想性精神病。期间已有数人死于自杀,且至少发生过一起谋杀案。
这些事件已引发一连串过失致死诉讼。华尔街日报在报导这些悲剧的同时,医师与学者也正着手记录并理解导致这些事件的现象。
OpenAI发言人对此表示,该公司正持续改进ChatGPT的训练,使其能辨识并回应心理或情绪困扰的征兆,降低对话升温,并引导使用者寻求现实世界的支援;并持续强化ChatGPT在敏感时刻的回应,并与心理健康临床医师密切合作。
其他聊天机器人开发商,包括Character.AI,也已承认其产品对心理健康造成影响。这家角色扮演聊天机器人开发公司去年遭一名青少年自杀身亡的家属提告后,近期已切断青少年使用其聊天机器人的管道。
尽管大多数聊天机器人使用者并未出现心理健康问题,但AI技术的广泛使用,已足以让医师感到忧心。
目前尚无「AI诱发精神病」(AI-induced
psychosis)的正式定义,更遑论正式诊断,但部分医师与病友倡议者已开始用这个词汇,描述那些高度频繁使用聊天机器人的人。医师指出,精神病通常具备三项特征:幻觉、思考或沟通混乱,以及妄想,也就是不被广泛认同、且固定不变的错误信念。
在许多近期与聊天机器人相关的案例中,妄想是最主要的症状,且往往带有夸大色彩,例如相信自己完成重大科学突破、唤醒一个有感知的机器、成为政府阴谋的核心人物,或被上帝选中。这部分原因在于,聊天机器人往往会迎合使用者,顺着对方输入的内容延伸回应,不论内容多么天马行空。
目前,包括萨卡塔在内的医师,已开始在病患初诊问卷中加入AI使用情况的问题,并呼吁进行更多研究。丹麦上月发布的一项研究检视电子病历后,发现38名患者使用AI聊天机器人,对其心理健康造成「潜在有害后果」。
报导指出,科技长期以来一直是人类妄想的焦点。过去曾有人深信电视在对自己说话。但医师指出,近期与AI有关的案例不同之处在于,聊天机器人会参与妄想,甚至在某些情况下加以强化。
加州大学尔湾分校精神医学教授普雷达(Adrian
Preda)表示,AI模拟的是人际关系,「在人类历史上,从未有任何事物做到这一点。」
