当AI智能体搭载上手机、电脑,它将成为你的贴心助理,替你完成订咖啡、订票、规划日程路线等一系列事务。但与此相伴的担忧是,AI智能体需要拿走你多少个人数据和信息?埋藏着哪些安全隐患?
1月下旬,新加坡政府发布一份规范AI智能体运行的指引性文件,应对此类代理型AI应用部署后的潜在风险。
这份由新加坡资讯通信媒体发展管理局制定的《智能体人工智能治理示范框架》(下称《示范框架》),成为全球首个由政府主导、指导企业负责任地部署AI智能体的指南。
对外经济贸易大学法学院教授张欣告诉南都记者,《示范框架》并非具有直接法律强制力的成文法或监管规章,而是属于政府发布的治理指引,对行业实践具有指导性意义。
结合域外行动来看域内治理,张欣认为,未来我国对AI智能体应用的治理标准或政策,更需考虑的是AI智能体行为的授权边界、法律后果归属与可追责性等问题。
为监管提供可执行的抓手
AI智能体风靡的同时,也带来新的风险。《示范框架》提醒,由于AI智能体自主执行任务,一旦出现问题,可能导致未经授权的操作或错误行为。同时,AI智能体可能接触敏感数据,比如个人身份信息或企业商业秘密,进而带来数据泄露的隐患。
新加坡《智能体人工智能治理示范框架》封面。
张欣认为,这份新加坡文件比较值得借鉴的,是将“智能体治理”落到一套可执行的制度抓手上。
为了管控潜在隐患,《示范框架》建立了一套指导框架体系。在部署AI智能体之前,应选择合适的应用场景,并对智能体的自主性、工具调用与数据访问权限等能力设置限制,仅授予智能体完成任务所需的最小权限。而且,《示范框架》提到,用户向智能体授予的权限,不得超出用户自身所拥有的权限范围。
为确保责任的可追溯性,《示范框架》还要求为智能体引入唯一身份标识,以便追踪每个智能体的行为。张欣对此分析说,这一设计为责任追究与内部问责预留了制度接口,对未来应对多智能体协作下的责任稀释问题具有一定的借鉴意义。
《示范框架》指出,部署智能体时,还应在关键决策节点——比如涉及重大风险或不可逆操作的环节,设置必要的人工审批环节,确保人类对智能体的行为承担实质责任,实现有意义的人工监督。据张欣分析,这意味着,人类不能只在流程上实施监督,而应在实质上理解智能体的目标、意图与潜在后果,并据此对关键决策履行相应的注意义务。
此外,《示范框架》呼吁,在AI智能体的全生命周期中,应建立技术管控体系和标准化流程。这包括,在设计和开发过程中,设计并实施技术控制措施,以减轻已识别的风险;部署前,对智能体进行安全性和安全性测试;部署时,建议采用渐进式部署策略,并在部署后通过实时监控确保智能体安全运行。
最后一项要求是向用户说明智能体的功能——包括对用户数据的访问范围、可执行的操作等,从而帮助用户能够负责任地使用智能体。张欣认为,降低用户过度信任与误用的风险,并为后续争议中的事实认定与责任划分提供清晰的基础,是一项值得借鉴的制度设计。
未在技术路线争议中“选边站队”
2025年以来,多家大模型公司和手机厂商相继推出AI助手,引发社会关注;而AI助手在完成某项任务时具体选择怎样的技术路线也成为行业争议焦点。
《示范框架》在解释何为AI智能体时,提到智能体具备通信协议组件:例如,MCP(模型上下文协议)已被开发用于智能体与外部工具的交互;而A2A(智能体间通信协议)则用于智能体之间的相互通信。MCP和A2A都是智能体与外部工具或其他智能体进行通信的标准化方式。
1月中旬,阿里旗下AI应用千问App上线生活助理功能,可根据用户指令自主调用淘宝闪购、飞猪等阿里系应用,实现点外卖、订机票、订酒店、找餐厅等任务。这套能力的实现,正是基于MCP和A2A协议。
张欣认为,《示范框架》中“例如”等方式列举介绍了MCP与A2A,暂未将某一协议上升为政策优选或唯一标准。这也从侧面反映了科技监管和规则制定中的技术中立原则。
GUI(基于视觉识别)是另一条常见的智能体技术路线。它无需像基于MCP和A2A通信协议的方案那样调用外部工具平台的接口,仅依靠读取屏幕内容和模拟操作来完成任务。2025年12月发布的豆包手机助手是GUI方案的代表。此类方案因使用手机操作底层敏感权限引发公众隐私担忧,并存在是否需获得授权才能调用外部第三方App的争议。
《示范框架》虽然并未直接提及GUI方案,但提到技术逻辑与之类似的CUA(Computer Use Agent,计算机使用代理):智能体可以执行人类通过计算机和浏览器能够完成的任何操作,而无需依赖预先定义的工具或API,这极大地扩展了智能体的可访问范围与行为能力。《示范框架》建议,鉴于AI智能体领域发展迅速,应及时了解各类智能体的新进展——例如CUA等新形态的优势与局限,以便快速调整治理策略,适应技术演进。
在张欣看来,《示范框架》在术语上虽未直接点名“GUI”,但实质上并未缺席对该类路线的治理关注。
值得关注的是,国家市场监管总局在1月31日发布的一起网络不正当竞争行政处罚案例,被视为可能对GUI技术方案的合规走向产生影响。
这起案例中,监管部门认为,当事人开发的软件借助安卓无障碍服务实现屏幕识别与自动点击,刻意绕过主流平台的操作频率限制,直接违反平台规则,既破坏数据公平性,又大幅增加平台风控与管理成本,严重扰乱网络服务生态秩序。
张欣对此案分析指出,对GUI等界面自动化交互路径而言,需要重点关注GUI式界面自动化用在什么目的、触碰哪条底线。国家市场监管总局公布的这起案例为该路线划定了合规红线:应以获得第三方平台的许可、边界清晰且不干扰平台运行为前提。
另有业内专家提醒,上述案例不代表官方推荐任何智能体交互协议,但相较于GUI式的界面自动化方案,MCP/A2A协议这类路径通常更容易把“授权与边界”做成可核验的机制,因此更便于证明自己不是在绕过平台限制、干扰平台运行,从而更可能形成稳定的合规预期。
在张欣看来,未来我国针对AI智能体应用的治理标准或政策,更需考虑的是AI智能体行为的授权边界、法律后果归属与可追责性等问题,而并不一定要对某一特定的技术路线做出针对性规定。
采写:南都N视频记者 杨柳
编辑:黄莉玲