4月11日,国家互联网信息办公室(下称“国家网信办”)发布了《生成式人工智能服务管理办法(征求意见稿)》(下称《征求意见稿》),意见反馈截止时间为今年5月10日。
国家网信办官网
《征求意见稿》规定,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任。利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
有专家告诉南都记者,目前的生成式人工智能模型具有一定的“创作性”,且不接入任何实时数据库进行核查验证,要求保证生成内容真实准确可能与生成式人工智能的固有属性存在冲突,很难实现。此外,内容的生成应是使用者、终端用户等各方共同作用的结果,后者也应为此承担一部分责任,目前的规定可能导致产品提供者的责任过重。
AIGC具有“创作性”,难保证内容真实准确
ChatGPT自发布以来热度就居高不下,集成了ChatGPT的产品竞争也日趋白热化——在国内,百度3月发布预训练生成式大语言模型“文心一言”,阿里巴巴集团近日也正式推出“通义千问”大模型等。ChatGPT国产化大战的打响,意味着新一轮的技术浪潮即将来临。
在国内企业密集上线大语言模型的当下,监管部门也有所动作。未来人工智能生成内容(AI generated content,又称生成式AI)领域将迎来新的规定。
据官网消息,国家网信办起草了《生成式人工智能服务管理办法(征求意见稿)》,并向社会公开征求意见。意见反馈截止时间为今年5月10日。
《征求意见稿》显示,为促进生成式人工智能健康发展和规范应用,根据《网络安全法》《数据安全法》《个人信息保护法》等法律法规,制定该办法。
今年年初,ChatGPT凭借其极其出色的文本生成和对话交互能力迅速走红,但与此同时,有关其给出的回答准确度和真实性很低、采纳价值不高的争议也一直存在。
南都记者注意到,《征求意见稿》规定,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。对此,各方观点不一。
资深数据法律师袁立志认为,这一要求可能与生成式人工智能的固有属性存在冲突。目前的生成式人工智能模型主要是基于既有语料,根据概率来生成新内容,具有一定的“创作性”,且不接入任何实时数据库进行核查验证。在这种情况下,其很难保证生成内容的真实性和准确性。“如果真的严格落实这一要求,生成式人工智能产品可能就无法投入市场了。”
不过,袁立志也表示可以理解这一规定设立的意图,即防止生成式人工智能生成的内容被滥用,被用于虚假宣传、舆论操纵等。在他看来,从应用层面来进行监管更为合适,而非前面的技术层面。
清华大学交叉信息研究院助理教授、人工智能国际治理研究院国际交流项目主任于洋坦言,要求生成内容真实准确这一规定在大方向上是正确的,但后续还需进一步明确配套的技术标准和政策措施。他指出,技术方是强势方,其拥有足够的资源、能力来解决这类问题;但绝大多数使用者没有相应的能力去甄别生成信息的真实性。“(要求对生成内容的真实准确性进行识别和标注)在技术上是做得到的,只是看愿不愿意投入。”
中国政法大学数据法治研究院教授张凌寒指出,我国多部相关法律法规都针对虚假信息做出了要求服务提供者建立健全辟谣机制等具体制度安排,《征求意见稿》只是强调了生成式人工智能同样不能传播、制造虚假信息——这是我国互联网信息内容领域的普遍要求,并不是新的规定。
使用者、终端用户也应承担内容生产责任
在责任规制方面,《征求意见稿》提出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。
袁立志指出,“提供者”这一概念可能借鉴了欧盟的相关草案,但《征求意见稿》只要求AI产品提供者承担内容生产者责任,并未提及使用者、终端用户的内容生产责任。“结合上下文,这样很容易让人产生一个误解,就是应由产品提供者承担全部内容方面的责任。”
他进一步分析,这样规定可能导致产品提供者的责任过重,存在责任不均衡的问题。平台虽然是责任最重的一方,但内容的生成应是使用者、终端用户等各方共同作用的结果,后者也应承担一部分内容生成的责任。比如,当使用者提供一些文字,命令AI生成一篇作文或一张图片时,他们也应避免提供违反监管要求的内容,进而避免AI生成的内容存在违法违规情况。
于洋也有类似看法。他指出,使用生成式人工智能进行内容创作的用户应共同承担责任,同时也不能免除平台的责任——只有一定程度上把责任分摊给平台,它才有动力去纠正和修改模型中的问题。“这不仅是一个典型的责任分摊问题,还是一个风险管理问题。”
具体而言,这个过程中存在三个重要的风险管理节点。一是算法开发时;二是算法使用时,即生成内容时;三是内容发布时。从风险监管的角度来看,实际上每个风险节点都应赋予相应的责任。
一名人工智能领域资深学者也补充表示,使用者的责任是衍生责任,前端提供者的责任才是规制重点。
另外,违反《征求意见稿》要承担哪些责任?其中规定,“三法”等法律、行政法规没有规定的,由网信部门和有关主管部门依据职责给予警告、通报批评,责令限期改正;拒不改正或者情节严重的,责令暂停或者终止其利用生成式人工智能提供服务,并处一万元以上十万元以下罚款。构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。
袁立志对此表示,事后的责令暂停或终止服务是会对相关企业产生重大影响的监管措施。在风险可控的前提下,监管措施应尽量避免对行业发展产生抑制效果——毕竟人工智能是国家重点支持的产业,也是国际竞争的重要领域。
安全评估和算法备案成AIGC监管主要抓手
长久以来,网络实名制一直是我国基础的互联网管理方式。《征求意见稿》明确,提供生成式人工智能服务应当按照《网络安全法》规定,要求用户提供真实身份信息。
袁立志直言,该规定对应的就是《网络安全法》的第二十四条,即实名制要求。他分析,此处要求用户提供真实身份信息是指,人工智能产品使用者在进行用户注册时,用于注册的信息应为实名信息。
根据《网络安全法》第二十四条规定,网络运营者为用户办理网络接入、域名注册服务,办理固定电话、移动电话等入网手续,或者为用户提供信息发布、即时通讯等服务,在与用户签订协议或者确认提供服务时,应当要求用户提供真实身份信息。用户不提供真实身份信息的,网络运营者不得为其提供相关服务。
袁立志强调,实名制要求在多部相关法律法规中均有所体现,并不限于《网络安全法》第二十四条所列举的入网和即时通讯与信息发布等场景。“实务中的实名制要求会更广,所有的互联网信息服务都要求实名制。”
张凌寒补充道,今年1月起实施的《互联网信息服务深度合成管理规定》中也提到在《网络安全法》的要求下采取实名制,其考量是用户输入一定内容生成合成文本和音视频,也是一种信息发布行为。不过,在生成式人工智能的场景下,用户提问、AI回答是否属于用户的信息发布行为还值得讨论。
为促进生成式人工智能技术健康发展和规范应用,《征求意见稿》还从事前对企业提出要求。具体而言,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
在张凌寒看来,安全评估、算法备案等一直都是我国进行信息服务管理的重要手段。在信息内容安全领域,《征求意见稿》并未为生成式人工智能创设很多新型的监管要求,其中多为对过去信息内容安全监管原则的强调,以及与以往监管体系的配套规定。我国在上述两个领域都已具备较为完整的规定和实践,当其应用于生成式人工智能时,更多需要关注的是企业是否能在安全评估中觉察到潜在风险,以及在发生风险时,其是否具备及时应对的能力。
“此前这两项制度(安全评估、算法备案)的执行力度有限,如今是试图做实它们成为AIGC监管的主要抓手。”袁立志补充道。
南都记者观察发现,《征求意见稿》中还多次出现了防止歧视的相关内容。如第十四条“在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视”,第十二条“提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成”,在生成式人工智能领域,为何反歧视这么重要?
张凌寒表示,在我国算法监管体系中,反歧视一直是一项重要的要求。不过,以往立法是以消费者是否获得公平的算法决策结果作为合规要求,此次明确针对种族、国别、性别等歧视性内容提出要求,这较为少见。
“由数据或算法等原因造成的歧视比较隐蔽,对个人的基本权利会造成较大侵害,甚至影响社会公共利益。”袁立志在分析“公平与反歧视”在整个AI领域都备受重视的原因时说道。
总体而言,在于洋看来,目前《征求意见稿》中的规定还体现出较强的原则性,相关部门应加快推动AI治理技术的研究开发。这一技术代表着AI治理水平,实际上和所谓大模型开发一样重要。“如果AI治理技术足够强大,那么未来在全球AI的市场竞争中会处于优势地位。”
采写:南都记者樊文扬 胡耕硕 实习生路欣冉
编辑:蒋琳
更多报道请看专题:监管AI