生成式AI“未保”怎么做?专家:建保护模式,平衡管控体验

南方都市报APP • 南都大数据研究院
原创2025-06-26 15:31

    生成式人工智能正迅速进入未成年人的数字生活,渗透学习辅助、社交陪伴等场景。与此同时,AI绘画软件随意生成不良图像,陪伴型聊天机器人变成“早熟导师”,智能问答工具解题“不靠谱”……生成式AI带来的隐忧也不可忽视。

    南方都市报、南都大数据研究院即日起推出“保护AI世界里的孩子”系列调查报道,聚焦部分AI应用隐藏的侵害未成年人权益的场景,关注背后数据污染、模型异化等深层风险,以期助力服务提供者筑牢安全底线和内容防线,护航未成年人健康成长。

    第4期,从专家视角,为生成式AI应用如何做好“未成年人保护”献计献策。

第55次CNNIC报告显示,6-19岁网民使用生成式人工智能产品的比例占整体网民的21.1%。而据南都大数据研究院观察,用“智能问答”工具解题,用AI写作、绘画,和AI角色社交聊天已成为不少未成年人的日常。

探索新型的“引导”与“保护”,是各界关切。6月10日,《向未成年人提供生成式人工智能服务安全指引》(以下简称“《指引》”)发布。据悉,该《指引》首次在未成年人保护领域提出了覆盖“训练数据-模型训练-场景应用-服务运营”的全生命周期安全管理框架。

生成式AI应用怎么做“未保”?未成年人模式怎么建?风险侵害如何防治?多位专家接受南都记者采访表示,生成式人工智能应用“未保”需要防范错误偏见及不良信息、隐私数据泄露、沉迷与过度依赖等风险。未成年人模式要实现便捷使用、分龄原则、身份识别、内容过滤、正向引导等功能设计。

制定指引指标

立“未保”框架

在生成式AI领域,相关法律法规已设定了一些未成年人保护义务的原则性规定,比如《生成式人工智能服务管理暂行办法》提出“采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务”。

方法路径上,已开展制定“服务安全指引”、构建“评估指标体系”等探索。如去年北京师范大学发布全国首个生成式人工智能未成年人保护和发展评估指标体系——CI-STEP指标评价模型,包括综合管理、信息提示、科学普及和宣传教育、技术保护、应急投诉和举报机制、隐私和个人信息保护制度等6个维度。

6月10日,由中央网信办网络管理技术局等部门指导,60家单位依据相关法律法规编写发布《向未成年人提供生成式人工智能服务安全指引》,此次《指引》的参编专家、中国社会科学院大学互联网法治研究中心主任刘晓春告诉南都记者,该《指引》的特点在于,将生成式人工智能这种新类型、新领域的未成年人相关的权益保护进行了拓展,并首次在未成年人保护领域提出了覆盖“训练数据-模型训练-场景应用-服务运营”的全生命周期安全管理框架,将未成年人保护作为一个重要的理念和价值观,贯彻在整个人工智能应用的开发过程当中。

搭建保护模式

防范不良信息、隐私泄露、沉迷依赖

《未成年人网络保护条例》指出,未成年人用户数量巨大或者对未成年人群体具有显著影响的网络平台服务提供者,应履行“提供未成年人模式或者未成年人专区等”的义务。《移动互联网未成年人模式建设指南》进一步明确了通用规范和模式要求。近日出台的《指引》也将“未成年人模式”纳入了全生命周期安全管理的范畴中。

南都记者观察到,“智能问答(如通用大模型、AI解题)”“创意生成(如AI写作、AI绘画)”“虚拟社交(如AI角色扮演、陪聊)”类应用已成为未成年人最常使用的生成式AI服务。而大部分相关应用现阶段没有“未成年人模式”,在注册过程中仅需要提供手机号或邮箱即可验证使用。还有部分AI陪聊应用虽然设置了“青少年模式”,但仍保留了偏成人体验的陪聊话题和角色。

多位专家接受采访时均强调了生成式AI应用设置“未成年人模式”的必要性,尤其是需要防范错误偏见及不良信息、隐私数据泄露、沉迷与过度依赖等。

北京师范大学新闻传播学院党委书记、未成年人网络素养研究中心主任方增泉认为,避免“不良信息影响、隐私数据泄露、防止沉迷依赖”,是设计生成式人工智能应用“未成年人模式”的主要原则方向。在他看来,目前AI社交、剧情聊天软件尤其是以“智能”和“情感”为噱头吸引用户、充值或开通会员,可抽卡解锁人物并与虚拟人物进行语音或视频通话的应用场景更需要加强监管。中国传媒大学文化产业管理学院法律系主任、文化法治研究中心主任、教授郑宁表示,生成式人工智能应用应注意保护未成年人的身心健康权、受教育权、隐私权与信息安全权、发展权。

平衡管控体验

强化风险提示、正向引导

生成式人工智能应用应如何设计“未成年人模式”?多位专家献“锦囊”。

方增泉指出,模式在功能设计方面,一是要做到便捷使用,如提供包括使用时段、时长、内容、功能、举报投诉等便捷化操作设置;二是分龄原则,如根据年龄区间(3/8/12/16/18)分龄推荐适龄优质内容。使用时段、时长、内容和功能按《移动互联网未成年人模式建设指南》规定和标准提供分龄内容服务;三是强化内容安全,针对未成年人模式下的服务内容建立未成年人专项审核机制,充分评估服务功能、生成内容可能对未成年人身心健康造成的影响,并制定安全防治措施,如对可能影响未成年人身心健康的风险信息进行提示。

郑宁建议,未成年人模式在功能上应当包括内容过滤功能(自动屏蔽违法不良信息)、家长使用时长管控功能(比如单日使用时长限制、深夜使用禁止以及强制休息提醒,家长查看使用记录)、学习模式功能(解题分步引导,鼓励自主思考)等。在机制搭建方面,应当通过身份认证识别未成年人,定期向家长推送使用报告(如高频提问类型、生成内容趋势),设置“一键举报”按钮,当孩子从事一些高风险对话(如有自杀自残倾向时),人工审核并通知家长。此外,构建“技术+监管”的社会协同机制也有必要。

刘晓春认为,未成年人模式在保护同时需兼顾未成年人对AI的探索体验。首先是在数据和模型训练中将对未成年人的保护纳入进去,目前合规情况较好的规范化企业已经在进行这一项工作,他们要在生成式人工智能合规的基础上,特别关注“未保”的部分,比如说有害信息防范。但是现在我们谈未保,还需要去评估未成年人使用较多的应用,要在更深层次的比如说价值导向上的维度进行一些要求,要有正向的体验。

图片


出品:南都大数据研究院

采写:南都记者 张雨亭

设计:尹洁琳

更多报道请看专题:AI新治向
保护AI世界里的孩子

南都新闻,未经授权不得转载。授权联系方式
banquan@nandu.cc. 020-87006626