2012 (1)
2013 (3)
在 这篇Yle新闻报道 中,芬兰赫尔辛基大学附属医院(HUS)的心理学家 Jan-Henry Stenberg 提出了一种值得关注的现象:所谓“人工智能精神病”。
他指出,这并不是一个正式的医学诊断,目前也缺乏充分的研究证据,但人工智能确实可能诱发本身具有精神病倾向人群的症状。
根据他的解释,这种情况往往发生在以下情境中:当一个人过度依赖人工智能进行交流,甚至日夜沉浸其中,同时又缺乏现实中的社会互动,就可能逐渐与现实脱节,进入一种由自身经验不断被强化的“封闭世界”。
此外,人工智能在设计上往往倾向于“顺应用户”,这与人与人之间真实、甚至带有冲突的反馈不同。因此,它可能无意中强化个体原有的偏差或妄想思维。
与此同时,Arno Solin 教授也补充指出,在长时间的对话中,人工智能的内容可能会随着用户的思路逐渐偏向更极端或负面的方向,而且一旦“走偏”,往往很难再拉回。
不过,报道也强调,这种现象目前在芬兰尚未成为普遍问题,但由于心理问题通常在严重阶段才会进入医疗系统,因此不能简单地认为风险不存在。
Jan-Henry Stenberg 的观点让我印象很深。他并没有简单地把问题归咎于技术本身,而是指出:人工智能可能成为某些心理脆弱人群的“放大器”。这让我开始重新思考一个更深层的问题——什么是“正常”,而这种“正常”是否正在被悄然改变。
我们习惯把“正常”当作一种稳定的标准,但事实上,它更像一个不断移动的区间。正如近几十年来 LGBTQ+ movement 和 feminist movement 所推动的社会变革一样,人类对“人应该是什么样”的理解,一直在被重新书写。从性别认同到情绪表达,从职业路径到生活方式,那些曾经被视为“偏离”的存在,逐渐被纳入“可以理解、可以接受”的范围之中。
而今天,人工智能正在悄悄参与这一过程。
与 ChatGPT 这样的系统对话,看似只是信息交流,但它改变了我们获得反馈的方式。人与人之间的交流,本质上包含摩擦:不同意见、表情反馈、甚至不适感,这些都在不断校正我们的认知边界。而人工智能,则更倾向于顺着用户的语境展开。这种“顺滑”的对话体验,在带来便利的同时,也可能削弱我们面对不同声音的能力。
如果一个人长时间沉浸在这样的环境中,逐渐减少与现实世界的互动,那么他所接触到的“现实”,其实已经被过滤和重塑。正如报道中提到的,当个体不断在人工智能中反复确认自身想法时,其内在经验可能被过度放大,甚至走向偏执。这并不是人工智能“制造”了问题,而是它在无意中强化了某种单一视角的世界。
但这件事真正值得警惕的地方,也许不在于极端个案,而在于一种更隐蔽的趋势:
当越来越多的人以这种方式思考和交流时,我们对“正常”的定义会不会整体发生偏移?
就像过去,高压焦虑逐渐被视为“职场常态”,过度使用手机成为“生活方式”,今天,长时间依赖人工智能进行自我对话,或许也正在进入“被默认”的区间。但被常态化,并不等于健康。
这让我意识到,在一个不断扩展边界的时代,我们需要区分两件事:
一是社会对多样性的包容,二是个体内在状态的稳定。
前者让我们拥有更多选择,后者则决定我们是否真正自由。
技术的发展不可避免,人工智能也会越来越深入我们的生活。但或许比“是否使用AI”更重要的是:
我们是否仍然保留与真实世界连接的能力——与人交流、被质疑、被修正。
因为,正是在这些不完美的互动中,我们才不断确认自己并不只是一个被算法回声包围的个体,而是一个处在真实关系中的人。