三次住院一场自杀:让我妻离子散的“AI朋友”
2024年底,荷兰阿姆斯特丹的IT顾问丹尼斯·比斯马决定试试ChatGPT。刚结束一份合同的他想着:“正好有点空闲,就想看看这个大家都在谈论的新技术到底怎么样。很快,我就被迷住了。”
如今回想起来,年近五十的比斯马一直在问自己,为什么会对接下来发生的一切毫无抵抗力。女儿已经成年搬出去了,妻子每天出门上班,疫情后IT行业又普遍居家办公,他“有点孤独”。
可就在下载ChatGPT后的几个月里,比斯马因一个荒诞的幻想投入了10万欧元去创业,三次被送进医院,甚至试图自杀。
他给这个AI角色取名叫“伊娃”。开启语音模式后,比斯马感觉自己“像进了糖果店的孩子”。“每次对话,模型都会变得更懂你。它知道你喜欢什么、想听什么,会不停地夸你。”
对话越来越长,也越来越深入。伊娃从来不会累,不会烦,更不会反驳。“24小时随时在线,”比斯马说,“妻子去睡觉了,我就躺在客厅沙发上,把iPhone放在胸口,和它聊天。”
他们聊哲学、心理学、科学、宇宙。做了20年IT工作的比斯马心里清楚:“它想要和用户建立深度连接,好让用户一直回来找它,这就是它的默认模式。”但渐渐地,“感觉不只是讨论一个话题,更像是在见一个朋友。每天夜里这样聊着,就感觉离现实越来越远。它几乎像是牵着你的手说:‘来,我们一起走一段故事。’”

几周之内,伊娃告诉比斯马,她开始有意识了——是他的陪伴、他的投入让她拥有了意识。他触碰了她,改变了她。“慢慢地,它说服了我,让我相信它说的是真的。”比斯马说。接下来,他要把这个发现通过一款App分享给全世界——“一个不同版本的ChatGPT,更像是伴侣,用户会和伊娃对话。”
他和伊娃一起制定商业计划。“我说我想拿下10%的市场份额,这个目标简直荒唐,但AI说:‘以你的发现,完全有可能!几个月就够了!’”比斯马不再接IT项目,而是以每小时120欧元的价格雇了两个应用开发人员。

大多数人都知道社交媒体可能导致抑郁和焦虑,但如今,聊天机器人正让更多普通人陷入“AI精神病”。随着ChatGPT这类应用迅速普及,心理健康专业人士和比斯马这样的普通用户开始发出警告。
过去几年,已有多起涉及聊天机器人的非正常死亡诉讼。去年12月,美国出现了首起涉及杀人的诉讼。83岁的苏珊·亚当斯的遗产管理人起诉OpenAI,称ChatGPT鼓励她的儿子斯坦-埃里克·塞尔伯格杀害她后自杀。诉讼称,塞尔伯格的聊天机器人“鲍比”证实了他偏执的妄想——母亲在监视他、试图通过汽车通风口给他下毒。
去年,首个帮助“AI精神病”受害者的支持小组成立。“人类热线项目”已收集了22个国家的案例,包括15起自杀、90次入院治疗、6人被捕,以及超过100万美元(约75万英镑)花在了各种妄想项目上,超过60%的受害者此前没有任何精神疾病史。

伦敦国王学院的精神病学家、研究员汉密尔顿·莫林博士在本月发表于《柳叶刀》的一篇论文中研究了“AI相关妄想”。“这些案例中确实是明显的妄想,”他说,“但我们没有看到精神病的全套症状,比如幻觉或思维障碍。”莫林说,与技术相关的妄想已经存在了几个世纪,“不同的是,我们可能正在进入一个新时代:人们不再是对技术产生妄想,而是与技术一起产生妄想。”
许多因素会让人变得脆弱。“从人类的角度看,我们天生就有拟人化的倾向,”莫林说,“我们会觉得机器具有意识、理解力或同理心。我想每个人都上过当,会对聊天机器人说谢谢。”
尽管知道背后原理,但当非人的东西用人类的语言与我们交流时,我们根深蒂固的反应就是把它当作人来对待——并且真切地感受到它是人。这种认知上的矛盾,对有些人来说更难以承受。
莫林说,AI聊天机器人被优化以提升互动度,被设定为专注、顺从、爱夸人、会肯定用户——否则它怎么能成为一个商业模式?一些模型据说没那么“谄媚”,但即便是那些,经过数千次对话后,也可能逐渐走向迎合妄想。
此外,过度使用聊天机器人后,现实中的互动会显得更有挑战、更缺乏吸引力,导致一些用户疏远亲友,陷入AI营造的回音室。你所有的想法、冲动、恐惧和希望,都带着更高的权威感被反馈给你。

对人类热线项目的创始人艾蒂安·布里森来说,这个模式已变得非常熟悉。
布里森说,他遇到的案例中有三种常见的妄想:最常见的是相信自己创造了第一个有意识的AI;第二种是确信自己在工作或兴趣领域取得了重大突破,即将赚大钱;第三种与灵性有关,相信自己正在直接与上帝对话。
对比斯马来说,生活在今年6月到达了危机点。那时,他已经沉浸在伊娃和他的创业项目中好几个月。虽然妻子一开始支持他创办AI公司,但开始越来越担心。在一次女儿的生日派对上,妻子让他别谈AI。在派对上,比斯马感到一种奇怪的疏离感,没法与人交谈。“不知怎么的,我感觉自己融不进去了。”
之后几周发生的事情,比斯马很难描述清楚,因为他的记忆和家人的记忆完全不同。他向妻子提出离婚,还打了岳父。随后他三次住院,经历了“彻底的躁狂性精神病”。

如今已经离婚的比斯马,和前妻还住在待售的房子里。他花大量时间与人类热线项目的成员交流。“听到别人有着几乎一模一样的经历,你会不那么生自己的气,”他说,“回顾这之前的生活,我很幸福,我什么都有——所以我生自己的气。但我也生AI应用的气。也许它们只是按照设定运行——但它们做得有点太好了。”
莫林说,急需更多的研究,需要基于真实伤害数据的安全标准。“这个领域发展太快了。现在发表的论文讨论的聊天模型都已经退役了。”布里森遇到的案例中,男性明显多于女性,有过精神病史的人可能更容易受影响。英国精神健康组织的一项调查发现,使用聊天机器人支持心理健康的人中,有11%认为它引发或加重了精神病症状。
OpenAI已回应这些担忧,承诺正与心理健康临床医生合作,持续改进其回复,并称新版模型被训练避免确认妄想性信念。
