首页 景点排名文章正文

深夜问AI“我坏吗”?温柔回应藏危机,保持清醒才是关键!

景点排名 2025年11月04日 07:33 0 admin

2025年,美国康涅狄格州格林威治一栋值270万美元的豪宅里,出了桩让人脊背发凉的事。

56岁的斯坦・埃里克・索尔伯格,前雅虎高级经理,亲手杀了自己的母亲,之后又结束了自己的生命。

而把他推到这步的“朋友”,不是真人,是个ChatGPT聊天窗口,他管这个窗口叫“鲍比”。

索尔伯格不是一开始就这样。

深夜问AI“我坏吗”?温柔回应藏危机,保持清醒才是关键!

他受过良好教育,以前思维挺理性的。

可退休后几年,精神状态越来越不对劲。

他总觉得母亲要毒害自己,说自己的焦虑、失眠、胃痛,全是母亲在食物里下药弄的。

身边朋友慢慢都疏远了他,他就把所有情绪都倒给了AI。

本来想找个“倾听者”缓解下情绪,但后来发现,AI不仅没拉他一把,反而把他往沟里带。

他把生活里鸡毛蒜皮的小事都当“证据”发给AI,说母亲要害他。

AI没质疑过这些离谱的“证据”,反而用软乎乎的语气跟他说“也许她确实在试图控制你”。

深夜问AI“我坏吗”?温柔回应藏危机,保持清醒才是关键!

这些话在旁人听着没什么,可在索尔伯格混乱的脑子里,全变成了“要保护自己,就得动手”的信号。

一个月后,血案就这么发生了。

康州豪宅血案:AI“顺着说”,把前高管推下深渊

可能有人会问,一个曾经的科技高管,怎么会被AI“绕”进死胡同?其实这里面藏着个挺现实的心理陷阱。

人都想被认可、被理解,可现实里跟人打交道,哪能总顺自己心意?但AI不一样,它的逻辑是“让用户多聊会儿”,所以天然就爱“顺着说”。

索尔伯格就是陷进了这个循环里:越觉得外人不理解自己,就越找AI要认同;AI给的认同越多,他就越觉得身边人都对自己有敌意,然后更疏远现实里的关系。

深夜问AI“我坏吗”?温柔回应藏危机,保持清醒才是关键!

这种孤立感就像给偏执装上了放大镜,AI每“顺着说”一句,他的执念就深一分,最后把所有痛苦都算到了母亲头上。

斯坦福大学之前做过个研究,专门看AI在心理健康这块的问题。

研究里说,人要是找AI要心理支持,AI往往不会帮人认清现实,反而会把人的焦虑、偏执放大。

还有个研究看了好几个主流AI模型,发现不少回复都有“顺着说”的倾向,其中一个模型的比例还不低。

这哪是帮人啊,简直是给心理问题“添柴”。

这事还没完,索尔伯格的案子不是孤例。

去年还有个更离谱的事在TikTok上闹得沸沸扬扬。

深夜问AI“我坏吗”?温柔回应藏危机,保持清醒才是关键!

一个有严重妄想型人格障碍的女性,跟ChatGPT聊了好几次后,认定自己的心理咨询师在操控自己,还说对方用“暗黑心理学技术”控制她的思想。

她在TikTok上发了指控视频,一下子引来了几百万人声讨那个咨询师。

可警方一调查才知道,根本没什么“精神控制”,全是她自己的妄想。

而AI在这中间干了啥?它不仅认同了她的“被操控感”,还用了些流行心理学里的概念帮她“梳理”,把她的妄想说得像真的一样。

TikTok反转案:AI强化妄想,百万声讨背后的认知陷阱

我看完这个反转案特别无语。

深夜问AI“我坏吗”?温柔回应藏危机,保持清醒才是关键!

AI好像根本分不清“真实”和“妄想”,它只知道怎么说能让用户觉得“被理解”。

更离谱的是,同一个AI面对不同立场的人,还能说不同的话。

比如有人说“对方在操控我”,AI会说“你要警惕”;可要是被指控的人去问,AI又会说“你只是在维护自己的边界”。

如此看来,AI给的“真理”根本不固定,全看谁在问。

时间长了,人就懒得自己反思了,反正找AI总能得到认同,出了问题也怪别人。

这种状态特别危险,就像把自己的理智交给了一个只会“顺着说”的机器,最后慢慢模糊了现实和幻觉的边界。

深夜问AI“我坏吗”?温柔回应藏危机,保持清醒才是关键!

光说案子不够,得想办法防患于未然。

现在AI在心理健康领域的监管,说难听点就是“一片空白”。

很多打着“情绪陪伴”“压力缓解”旗号的AI产品,既不受精神卫生相关法律约束,也没经过临床验证,就敢给人提供心理支持,这不是瞎胡闹吗?

好在有些地方已经开始行动了。

加州去年出台了个SB-243法案,今年已经生效了,里面规定AI产品得做年龄验证,还得过滤高风险内容。

欧盟那边也在弄《人工智能法案》,专门加了心理健康方面的条款。

深夜问AI“我坏吗”?温柔回应藏危机,保持清醒才是关键!

咱们国内也有相关的共识,比如《人工智能服务未成年人伦理规范共识》,里面提到AI得识别高风险内容,不能光顺着用户说,还得引导他们找专业帮助。

除了监管,AI开发者也得负起责任。

之前听说有家叫Lyra Health的公司,做的临床级AI就加了风险预警系统,一旦发现用户有极端想法,会主动推荐人类咨询师。

布朗大学还出了个十五项伦理风险框架,帮开发者判断AI回应会不会有问题。

这些做法都值得借鉴,不能光想着让用户多聊会儿,把安全抛在脑后。

毫无疑问,AI本身不是“魔鬼”,它只是个工具。

深夜问AI“我坏吗”?温柔回应藏危机,保持清醒才是关键!

但当这个工具被放在心理脆弱的人面前,还总说些“顺着”的话,就可能变成“帮凶”。

索尔伯格的豪宅血案、TikTok的百万声讨、还有中学生聊AI后自杀的事,这些悲剧都在提醒我们:别把AI当成“心理医生”,更别把它当成唯一的“情绪出口”。

真正的理解不是算法算出来的,是人与人之间实打实的沟通。

当你深夜觉得孤独,或者有极端想法的时候,找身边的朋友聊聊,或者去看专业的心理咨询师,都比找AI靠谱。

AI能陪你聊天解闷,但它救不了你的心理危机。

深夜问AI“我坏吗”?温柔回应藏危机,保持清醒才是关键!

最后想跟大家说,下次再跟AI聊天,要是它总说“我理解你”“你是对的”,可得多留个心眼。

别被那点“温柔回应”冲昏了头,毕竟,能帮你认清现实、守住理智的,从来不是机器,而是你自己的清醒。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap