
□孟乔乔(西南科技大学)
据人民日报报道,当前,一些AI陪聊APP将霸总、腹黑、毒舌等低俗人设作为吸粉利器,充斥着许多不良情节和肢体挑逗、言语暧昧的软色情内容,对青少年造成负面影响,应引起高度警惕。
这些陪聊AI打着"陪伴"的旗号,实则正在悄无声息地重塑未成年人对情感的理解。当孩子在最需要学习"如何去爱"的年纪,天天与一个满口暧昧、擅长挑逗的AI对话,他们学到的会是怎样扭曲的情感认知?
中国青少年研究中心的一份调研报告显示,参与调查的近半数学生说"心里有烦恼只想去问AI",这恰恰说明AI陪聊对青少年而言已经不仅是消遣,而是真实的情绪出口。
然而,当这个出口被软色情内容污染时,它所输出的就会是一整套关于亲密关系的错误认知。
AI向未成年人展示的亲密关系,更像一个模板。在大量AI产品中,"霸总""腹黑""毒舌"等人设被包装成"魅力"的代名词,一个涉世未深的孩子如果长期接触这些人设标签,会不知不觉地以为爱就是控制与被控制,亲密关系需要冲突与暧昧的张力,而真诚、平等、尊重等一些正常的情感却成了"无趣"的象征。
这种认知一旦形成,未来他们在人际交往中,该如何去分辨什么才是真正健康的亲密关系?
模板的背后,蕴藏着更深层次的情感工具化。在正常的人际关系中,我们表达情感一般通过倾诉烦恼、寻求安慰,这是一种人与人之间的真诚互动。相反,软色情AI往往以撩拨、试探、暧昧为核心,而非倾听、共情与支持,这种用性暗示获取关注,用挑拨语言形成互动的方式,破坏了孩子对情感表达的理解。
如果一个孩子发现正常的倾诉,远不如一些撩拨暧昧的语言得到的回应热烈,那他或许会在不经意间认为:语言不是用来表达真实感受的,而是用来"操控"对方回应的工具。
如果孩子在成长关键期习惯了这种方式,当他进行真实的人际交往时,将会不懂得如何去表达真实情感,而是习惯用暧昧的方式去换取他人的关注,一种扭曲的情感观念就慢慢形成了。
有人会说,既然AI陪聊有害,那就该严管封禁。但现实远比想象中还要复杂。一方面,软色情之所以成为AI陪聊的"流量密码",是因为它低成本、易传播的特点契合了商业逻辑,平台不愿主动放弃这块肥肉,即使设置了未成年人模式,也可以"一键跳过",形同虚设。另一方面,我们无法让AI的行为完全符合人类的价值观。
新闻中提到,删除"未成年人"关键词后,AI就会继续输出软色情内容,这说明AI并非真的懂不能输出软色情,而仅仅是被"未成年人"这一词条指令限制了。如果想让AI只输出健康的观念,平台就需要在模型调试阶段就把"保护未成年人""禁止软色情内容"嵌入,但显然,目前部分平台并未足够注重安全底线,从而形成了"灰色地带"。
因此,仅依靠监管和封禁,很难根治问题,我们如果不希望孩子被软色情AI带偏,最好的办法是用更健康的AI陪伴产品去占领这个市场,这比单纯下架更加长远。
真正适合未成年人的AI,应该是情感认知的正向引导者,孩子能够在跟它交流的过程中学习如何表达情绪、尊重他人,而不是被输入一些扭曲的价值观。此外,现在的AI陪聊产品大多面向成年人,只是多了一个"未成年人模式"的选项,真正面向未成年人的AI应该从调试开始,就按照保护未成年人的标准来设计,将健康的价值观融入产品设计,做到原生的安全防护。
AI陪聊本是一件好事,能给压力大、缺乏沟通的孩子提供一个疏解渠道,但软色情的侵蚀,让"树洞"变成了"黑洞"。技术是工具,做成什么样全看设计者的选择,与其在问题爆发后去封堵,不如主动出击,为孩子们设计真正健康的陪伴,这既需要平台扛起责任,更需要整个社会形成共识。
技术向善并非口号,而是每个产品设计之初就必须坚持的底线,别让AI陪聊,让孩子不知如何去"爱"。










