3月24日,以“APEC中国年 贡献粤智慧”为主题,AI数据隐私保护交流会暨广东省网络数据安全与个人信息保护协会揭牌活动在广州举行,来自政产学研用的代表们围坐热议,凝聚起个人信息保护的合力。
北京理工大学法学院教授、全国信息安全技术标准化委员会委员洪延青作“智能体个人信息保护与数据安全合规要求”主题分享,他以近期爆火的“养龙虾”为切入点,对AI智能体个人信息保护与数据安全合规要求进行专业解读及清晰指引。
洪延青指出,人工智能正快速迈入“智能体(AI Agent)”时代。智能体不再仅仅是"文本输入-文本输出"的被动响应工具,而是演化为能够在既定目标约束下自主感知环境、规划任务步骤、调用外部API并持续利用上下文记忆开展自动化操作的信息系统枢纽。从“静态内容生成”向“动态任务执行”的跨越,使得数据处理的形态、边界和主体关系发生了根本性的结构形变,传统的数据安全与个人信息保护框架在应对智能体带来的新型风险时显得捉襟见肘,做好智能体安全合规要求,必须牢牢抓住智能体在数据处理和个人信息处理方面的一些独特特性。
北京理工大学法学院教授、全国信息安全技术标准化委员会委员洪延青作主题演讲。
南都:当前智能体正从技术概念快速落地到消费、办公、企业服务等多元场景,您认为相较于通用大模型产品,智能体在个人信息处理活动上存在哪些本质性差异?
洪延青:智能体和普通问答式AI有明显区别,落实个人信息保护和数据安全要求时,必须抓住它在数据和个人信息处理上的独特特征,综合国内外的研究,智能体的数据处理活动具有五方面特点。
首先是处理路径的动态化。智能体执行步骤、调用工具和触达的数据范围完全取决于大模型对当前上下文的实时推理,具有极高的不可预测性。比如说用“龙虾”做不同任务的时候,会有不一样的数据处理路径。
第二,处理链路外部化。通过插件、API、MCP等机制,单一智能体可随时唤起外部服务,彻底粉碎了传统企业内网的物理护城河。
第三,数据形态衍生化。数据在整个智能体工作网络穿梭时,会被迅速切片、向量化、提取标签或生成摘要,形成脱离原始文本但仍蕴含强大识别能力的衍生数据。
第四,处理主体链式化。多智能体协同使处理主体形成链式网络,使传统控制者-受托处理者关系难以清晰界定。
第五,处理结果可执行化。智能体的输出不再仅是文本,而是可直接触发停机、资金调度、系统写回等高危现实操作的执行指令,跟问答式的生成式人工智能有较大区别。
南都:您认为应当如何构建适配智能体特性的数据安全处理机制?
洪延青:在设计智能体数据处理的合规体系时,我们重点围绕智能体数据处理活动的5大核心特征去进行相应的风险防控设计。
首先,在应对处理路径动态化的运行时,必须把提前规划好的合规规则变成机器可读的策略标签或者访问控制参数,这样在智能体运行的每个关键节点,这些标签和参数就会一不断的传递下去。
第二,智能体自身无法完成任务时会调用外部工具,且链条涉及多个主体,容易造成敏感数据无边界外溢。因此需设置白名单准入机制、数据最小必要外传、限制递归委托与链式扩散等原则。
第三,针对衍生数据的隐蔽风险,要求组织必须从原始数据穿透传递至所有的衍生载体和记忆条目,彻底封堵通过大模型技术手段变相规避数据保留期限和"被 遗忘权"的合规漏洞。
第四,智能体输出可直接执行操作,因此要区分普通业务场景、重大影响场景,必要时设置人机协同或紧急熔断机制。
南都:企业需要配套做好哪些技术与制度建设?
洪延青:首先需要搭建数据安全治理的通用架构,为后续全生命周期的细化管控奠定制度与机制基础。其次,需要从收集获取、存储记忆、传输协同到删除备份,精细管控智能体数据的全生命周期。第三,记忆能力是维持智能体长效交互的核心,也是数据滥用的重灾区,要建立存储、加工与特有的记忆分层管理机制。第四是针对多智能体协同带来的信任链崩塌难题,搭建传输、共享与多智能体协同协议。此外还有搭建彻底的删除与备份状态同步机制、针对个人信息和国家重要数据开辟升级管控的特殊保护轨道、为智能体数据处理构筑一套覆盖发现、审计、响应与改进的运营级合规闭环等一系列举措。
南都:目前我国已出台《个人信息保护法》《数据安全法》《生成式人工智能服务管理暂行办法》等一系列法律法规,针对智能体这一新兴业态,您认为现行法律框架中,哪些核心规则可以直接适配适用?又有哪些关键合规场景亟待监管层面进一步明确与细化?
洪延青:本质上一个基本的原则就是法律的要求还在那,相关法律原则性的要求都没有变,只不过是我们怎样在既保证安全又保证发展的情况下,把它落地到智能体系协作的这样一个场景中去。
出品:南都大数据研究院
采写:南都N视频记者 张雨亭 实习生 张袁源