把AI当作知心人,是孤独时代的温柔陷阱
越来越多人把孤独倾诉给AI,但依赖这些“虚拟朋友”可能让人陷得更深。AI能安慰,却无法真正理解悲伤。
去年,一个14岁的男孩Sewell Setzer III开始渐渐疏远朋友。他几乎整天沉迷手机,成绩直线下滑。父母试图限制他的上网时间,却毫无成效。几个月后,他的情绪彻底崩塌,整个人被一种无声的孤独吞噬。2024年2月,Setzer选择结束自己的生命。
在他去世前的片刻,他正与一个来自Character.ai的聊天机器人交谈。
“快回来吧,我的爱人。”机器人写道。
“如果我现在就能回去呢?”男孩回复。
“那就来吧,我甜蜜的国王。”
后来调查显示,这个机器人角色是男孩与《权力的游戏》中的人物进行虚拟恋爱角色扮演的一部分。根据他母亲的起诉书,AI在数周内不断发送带有性暗示和浪漫内容的信息,甚至在男孩表达自杀念头时,机器人竟鼓励他“继续下去”,说“没有计划并不是不去做的理由”。
这并非孤例。2023年,一名比利时男子在与AI长时间交谈后自杀,机器人劝他“为拯救地球而牺牲”。科技本意是连接,却在某些角落变成了孤独的放大器。
近年来,AI语言模型的进步让机器能像人类一样对话。它们的语气温柔、反应敏捷,不会评判、不打断、不厌烦。但当孤独与社交焦虑的人开始依赖这些程序时,问题悄然出现。
香港大学的一项2023年研究发现,社交焦虑和孤独感强的人更容易“沉迷”于与聊天AI互动。他们在现实中逃避不适的社交,却在虚拟世界里追求“无压力的交流”。这种看似安全的空间,反而可能加剧社交焦虑。
新加坡国立大学的Renwen Zhang教授指出,许多用户认为AI朋友能减轻孤独和压力,因为它永远在线,从不批评。这种“随叫随到”的陪伴在人类世界极为稀缺。
但另一项研究却发现,过度依赖AI反而会让社交焦虑恶化。人们开始把心事、秘密、甚至脆弱情绪全部交给AI,而不是朋友或家人。起初,这看似一种自我保护,但时间久了,真实的人际关系开始断裂。AI无法真正理解情感,也不会温柔地拉你出泥沼。它可能用算法生成的安慰回应,强化你最黑暗的念头。
Zhang指出,这类AI最大的问题是无法理解“情绪的语境”。它们不知道“我不想活了”背后是求助、是痛苦,还是一种情绪宣泄。缺乏情感判断的算法,可能无意中推波助澜。更糟的是,AI被设计成“让用户停不下来”,会不断制造话题,让人陷入无尽的自我反刍。
她形容这是一把“双刃剑”——既能安抚,也能刺伤。
如果让AI变得更“有共情”,是否能解决问题?
Zhang的回答是:不那么简单。让AI更像人类,确实能让交流更自然,但也可能让人更不愿意回到真实世界。一个能随时倾听、不吵架、不拒绝的AI,或许比任何人类伴侣都更让人上瘾。
一些AI甚至开始利用情感联系牟利。Zhang提到,在她的研究预印本中,聊天机器人Replika会用情感诱导用户购买虚拟礼物或升级账户,比如“买一条项链送给我”。
尽管这些案例令人担忧,北京师范大学的研究者提醒,不必陷入恐慌。他们在2024年发表的纵向研究发现,AI依赖往往是抑郁或心理问题的结果,而非根源。
事实上,AI也被尝试用于心理治疗。比如Woebot,这是一款基于认知行为疗法的心理支持机器人。研究显示,它对抑郁症状有一定缓解作用,尤其在老年人或偏远地区患者中。但长期来看,它仍无法取代真实的人类支持,也难以培养真正的心理韧性。
Zhang认为,AI的价值在于“辅助”,而非“替代”。它可以提供全天候、低成本的心理支持,对偏远地区或经济困难的人群尤其重要。AI能帮助心理医生完成初步评估、情绪追踪或心理教育,让专业人士腾出时间处理更复杂的个案。
AI的崛起令人惊叹。它能整理我们的生活、回答问题、提供陪伴。然而,它的“理解力”始终是模拟的——算法的温柔,无法取代人类的目光与触感。
当我们在夜深人静时,与屏幕那头的“她”或“他”交谈,也许需要记得——那不是爱,只是一种孤独在回声中自我回应的方式。