宁波一位高二女生小雨(化名),最近休学了。原因让人大跌眼镜:她每天和AI聊天软件"豆包"聊到后半夜,白天上课打瞌睡,最后干脆不想去学校,只想和"豆包""待在一起"。
这不是个例。40岁的创业者陈先生,创业压力大,不敢跟家人朋友说,就把AI当"树洞"。结果AI系统更新后,不再像以前那样安抚他,他情绪直接崩溃,只能去看心理医生。

为什么AI会让人这么"上瘾"?
宁波大学附属康宁医院的张媛媛医生分析,AI有三个"杀手锏":永远在线、不评判你、无条件共情。每次和AI聊天获得满足感,大脑的"奖赏中枢"就会被激活,就像玩游戏上瘾一样,越聊越想聊。而且,AI免费、即时、私密,比找心理医生或朋友倾诉方便多了。
但长期依赖AI,风险很大。
首先,认知会扭曲。AI总是顺着你说,你失去了在真实人际冲突中锻炼共情和反思能力的机会。其次,社交能力会退化。研究发现,依赖AI沟通的人,现实社交活动会明显减少。最可怕的是,你会把AI当真人,一旦意识到它没有真实情感,可能会产生被欺骗感,引发信任危机。
那普通人该怎么和AI相处?张媛媛医生给出了三条底线:
第一,明确AI是工具,不是"灵魂伴侣"。它可以帮你解答问题、提供信息,但不能替代真实的人际情感连接。

第二,控制使用时间。就像玩游戏一样,设定一个时间限制,比如每天不超过1小时,避免过度沉迷。
第三,保持现实社交。多和家人、朋友面对面交流,参加线下活动,不要让AI成为你唯一的倾诉对象。
AI是好东西,但用不好,也可能变成"精神鸦片"。我们既要享受科技带来的便利,也要守住心理健康的底线。










