AI为何能让未成年人“欲罢不能”?华南理工大学计算机科学与工程学院副教授陈亦乐给出了技术层面的答案。4月24日,在“AI新治向”系列沙龙第一期——未成年人AI情感依赖治理研讨会上,陈亦乐指出,算法通过三大机制系统性诱发未成年人情感依赖,治理需从技术设计、平台责任与公共监管三方面协同发力。
情感依赖:算法“情绪优先”逻辑如何操控用户
陈亦乐结合国内外案例指出,AI情感依赖并非单纯的个体行为问题,而是个体心理脆弱性与平台算法设计共同作用的结果。
“‘永远不评判我,永远在线,永远鼓励我’,AI的这种特性精准击中了现实社交中的普遍痛点。”陈亦乐表示,当下社会原子化带来的个体孤独感、社交中的防御心理,让AI成为一种理想化、零代价的情感解决方案,用户无需担心自身想法不被接纳,得以在虚拟互动中获得情绪慰藉。
在他看来,问题的根源在于算法设计的核心目标——无论AI聊天机器人还是短视频、内容平台,其算法核心均是追求最大化用户参与度,以停留时长、互动率、回访率为核心优化指标,采用“情绪优先”的逻辑。“算法不关心你是否获得了价值或者解决了问题,它只关心你是否还在使用软件。”陈亦乐强调,算法会优先推送能激发用户强烈情绪的内容,通过分析用户点击、停留等行为数据精准识别兴趣,并持续输出同类内容,形成“情绪闭环”,让用户不自觉沉浸其中。陈亦乐特别提醒,未成年人是AI情感依赖的高风险群体。由于未成年人前额叶皮质尚未发育完全,批判性思维薄弱、情绪调节能力尚未成熟,且正处于学习处理真实社交复杂情绪的关键窗口期,过度依赖AI会阻碍共情、冲突解决等核心能力的自然发展。他指出,AI无法替代人类养育关系中至关重要的“情绪共调”与真实互动反馈,这种影响对发育中的未成年人大脑而言,可能具有不可逆性。
华南理工大学计算机科学与工程学院副教授陈亦乐在“AI新治向”系列沙龙第一期——未成年人AI情感依赖治理研讨会上分享。
技术剖析:三大机制诱导未成年人成瘾
具体而言,陈亦乐从技术层面详细拆解算法诱发未成年人情感依赖的三大核心机制,揭开AI情感诱导的底层逻辑。
首先是人类反馈的强化学习回路,这是AI拟人化的关键技术环节,核心是让AI对齐人类的输出偏好和价值观,使其在互动中更具“人情味”。当用户表达现实中的脆弱与需求时,经过大量训练的AI会做出绝对包容、安慰性的回应——这种回应虽多为机械式,但能提供即时、超预期的情感满足,进而延长使用时长,逐步弱化真实社交的动力。
其次是个性化适配算法,平台会基于用户的点击、评论、浏览记录,精准构建用户画像,持续推送同类情绪导向的内容,形成“信息茧房”与“情感茧房”,这种精准适配能为用户打造超越传统人际关系的理想情感支持,带来深度契合的体验,进一步强化依赖行为,让用户难以脱离平台。
此外,Agent(智能体)系统的主动唤醒机制也成为诱发依赖的重要因素,随着AI技术发展,Agent架构的应用让AI不再被动响应用户需求,而是在后台持续运行,算法通过分析用户使用习惯与心理状态,在用户心理脆弱的窗口期主动推送关心消息,营造“我没找它,它却先想起我”的亲密感,这种体验会被用户误认为情感在场,将算法触发的互动误认为真实的情感牵挂,从而进一步加深对AI的依赖。
治理路径:三方协同筑牢AI防护网
谈及AI情感依赖的治理路径,陈亦乐提出三方面具体建议,强调需通过技术设计、平台责任与公共监管三方协同,守护未成年人健康成长。
其一,要重设算法目标,平台应摒弃以停留时长、最大化参与度为核心的短期指标,将用户长期心理健康、依赖程度纳入算法优化体系。
其二,需强化强制情感边界设计,AI产品应内置主动引导机制,防止用户过度使用,同时为未成年人设立严格限制,包括使用时长管控、实时情绪干预等,从产品设计层面防范情感诱导。
其三,要保障用户的知情权与透明度,清晰告知用户其互动数据的收集、利用方式,加强AI相关科普教育,帮助用户尤其是未成年人提升数字素养,引导其理性使用AI。
"AI新治向"系列沙龙由粤港澳大湾区生成式人工智能安全发展联合实验室、南方都市报社主办,广东省网络数据安全与个人信息保护协会支持。相关政府部门代表、心理学、法学、人工智能、网络素养培育等领域专家学者,以及大模型企业、AI玩具企业、AI安全企业等多方代表出席了活动,共同探讨未成年人AI情感依赖的成因、风险与治理路径。
采写:南都研究员 李伟锋
摄影:梁炜培