今年政府工作报告提出,促进新一代智能终端和智能体加快推广。随着人工智能技术不断向执行端延伸,AI手机助手正从“动口”走向“动手”,一句指令,就可以帮用户完成点餐、叫车、订票甚至支付。
“AI替人下单”背后有两条主要技术路径:GUI路线模拟用户操作界面完成任务,API路线通过调用接口直接执行服务。前者落地快,后者效率高,但都涉及授权和合规问题。
当智能体替用户穿梭于不同App之间,技术便利也迅速触碰到新的法律边界,相关讨论不断升温。AI智能体的运行是否以及如何获得用户授权?如果AI误下单、误支付,损失由谁承担?在跨应用过程中接触订单、账户、交易记录等信息,又是否可能触碰平台的数据规则边界?
为此,南都专访中国政法大学知识产权创新与竞争研究中心主任陶乾教授。在她看来,AI手机助手调用第三方应用首先应建立在用户充分知情和明确授权的基础上。AI作为工具介入交易,并不会改变用户作为法律行为主体的基本结构,相关责任仍需依过错归属和具体场景进行认定。
她同时强调,对于新兴商业模式,监管层总体上秉持包容审慎的态度,为创新预留空间,引导产业在发展中做好合规治理。
AI只是技术延伸,不能替代用户成为交易主体
南都:过去用户通常是在各个APP内完成操作,但现在一些AI手机助手已经可以跨APP执行任务,例如帮用户订餐、叫车或完成线上交易。这种技术介入是否会改变传统交易中的法律关系结构?
陶乾:AI手机助手属于工具性技术形态,是一种用户意志在网络空间、数字环境中的技术实现机制。当AI根据用户指令完成这些操作,法律关系并未因工具的介入而发生根本变化。
具体而言,AI本身不具备独立作出意思表示、享有权利或承担义务的能力,也不具有独立的法律主体资格,AI 所执行的每一项操作,都基于开发者的代码设计以及用户的明确指令,其行为目的、内容与边界均由开发者和用户预先设定与控制。因此,即便 AI 手机助手介入用户、平台与服务提供者之间的交互链条,各主体之间的法律关系并未因这一工具的使用而发生根本变化,用户依然是法律意义上的行为主体与权利义务承担者,平台与服务提供者的交易、服务相对方仍然是用户本人,AI 仅作为技术性辅助工具提升各主体的行为效率。
用户授权是前提,需以清晰、易懂、显著的方式告知用户
南都:AI手机助手在调用第三方应用时,应该如何建立用户授权机制?
陶乾:AI手机助手对第三方应用的调用,需经用户的知情同意,经用户通过系统设置或者点击确认来明确授权。依据我国的《个人信息保护法》和《网络安全法》所确立的“告知—同意”规则,AI 助手在调用第三方应用、读取界面信息、模拟操作或执行交易指令前,需以清晰、易懂、显著的方式,向用户完整告知权限调用的目的、范围、方式与潜在风险,由用户通过系统设置主动开启、弹窗点击确认等明示形式作出授权。
该授权应当满足自愿、特定、必要、可撤销的基本要求,仅针对具体任务场景开放最小必要权限,禁止一揽子授权、默认授权或强制授权。此外,涉及支付、金融、隐私信息等敏感操作时,还应设置单独同意与即时中断机制,确保用户对AI行为权限的全程控制。
责任认定遵循过错原则,数据调用不得突破规则边界
南都:如果AI手机助手在执行任务时出现错误,例如误下订单、误操作支付,甚至造成财产损失。从法律角度看,用户、AI服务提供者与第三方平台之间应如何进行责任划分?
陶乾:需进行个案分析,在过错责任原则下,根据过错归属、因果关系进行责任承担。AI 手机助手不具有独立的法律主体资格,其行为本质是用户意志的技术延伸,因此由其行为所造成的民事责任最终归属于用户、AI服务提供者、第三方应用平台等法定民事主体,而非AI本身。
具体而言,若损失源于用户自身未尽到合理注意义务,如指令模糊不清、忽视风险提示等,应自行承担相应损失;若用户故意利用AI工具实施违规、违法操作损害他人的合法权益,则由该用户承担侵权责任。若损失是由AI助手的开发者或运营者未尽到安全保障与服务质量保障义务所造成,其应对用户损失承担赔偿责任。若第三方 App因存在系统漏洞、未对异常操作进行合理风控等问题而造成损失,第三方APP的服务提供者也应在其过错范围内承担相应责任。最后,民事责任的划分和归属必须基于行为与损害结果之间存在法律上的直接因果关系。实践中,若多方主体均存在过错,应根据各自过错程度与原因力大小,按比例分担责任;若某一方无过错,则无需承担责任。
制度建设需回应应用边界,划定安全底线
南都:在人工智能快速发展的背景下,外界既期待AI带来的效率提升,也对隐私、安全等问题有所担忧。您认为市场和监管需要秉持怎样的态度,把握鼓励创新与防范风险的尺度?
陶乾:在当前人工智能技术发展面临激烈国际竞争的背景下,监管层面需总体上秉持包容审慎的态度,为创新预留空间,引导产业在发展中做好合规治理。一方面,充分尊重AI技术的快速迭代特性和产业发展规律,对尚处于探索阶段、未产生实质性风险的AI应用,采取较为柔性的监管方式,避免过度监管扼杀创新活力;另一方面,明确划定AI技术发展中不可触碰的安全底线,依托《个人信息保护法》《网络安全法》《反不正当竞争法》等法律法规进行监管和规制。
南都:如果未来围绕AI手机智能体出台专门政策或行业规范,您认为当前最迫切需要明确的法律问题是什么?
陶乾:需要解决的问题包括但不限于移动应用之间的互操作机制、分级分类的动态授权机制、人机协同下的责任认定机制、数据获取与使用的合规机制等等。例如,关于构建移动应用之间的互操作机制,应当明确AI智能体跨应用调用APP的行为边界,禁止其实施超出用户授权、干扰应用正常运行、破坏平台生态的调用行为。
再如,关于建立分级分类的动态授权机制,一方面,根据AI智能体的行为操作类型,如普通查询、订单操作、支付交易,以及涉及数据的敏感程度,如普通信息、隐私信息、商业数据,划分不同的授权等级,明确不同等级授权的适用场景与权限范围,要求高风险操作必须获得用户单独且明确的授权。另一方面,建立动态授权机制,允许用户根据实际需求随时变更和撤销授权内容,AI智能体需实时回应用户的授权调整请求,停止超出授权范围的行为操作,同时需记录用户授权过程与自身操作痕迹,确保授权可追溯、可核查。
采写:南都N视频记者 黄莉玲
编辑:李玲
更多报道请看专题:智能体破圈