AI治理成全球关切,立法之路走向何方?南都报告重磅倡议

南方都市报APP • AI前哨站
原创2023-12-19 17:14

12月19日,在第7届“啄木鸟数据治理论坛”上,南都数字经济治理研究中心重磅发布《生成式AI发展与治理观察报告(2023)》(下称《报告》),围绕2023年行业发展现状、应用监管与合规挑战、主要国家AI监管政策走向以及治理方式异同等展开讨论,以期了解行业发展的痛点难点,并就AI治理的国内实践与国际协同提出政策呼吁与治理思考。

《报告》指出,虚假信息、算法歧视、侵犯知识产权、数据安全、个人隐私泄露、就业冲击等等,让全社会对AI伦理治理的关注比以往更为强烈。为回应这些关切,各国监管部门正在加速探索AI治理路径,希望找寻到平衡技术创新与安全合规的政策方案,抢占AI技术发展的制高点和规则制定的话语权。

图片

先发展还是先监管?

多方治理模式各有侧重

南都数字经济治理研究中心梳理发现,不少国家选择从立法入手来应对AI合规挑战。比如我国今年七月公布的《生成式人工智能服务管理暂行办法》,就是全球首部专门针对生成式AI的政策文件。其中明确我国坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式AI创新发展,对生成式AI服务实行包容审慎和分类分级监管,明确了提供和使用生成式AI服务总体要求。

美国的ChatGPT一马当先并几乎成为AIGC产品的“基础设施”,在全球已形成竞争优势。与此呼应,美国采取的则是“先发展后立法”模式,在AI研发过程中依赖于社会舆论监督、企业自律、司法和行政监督的事后回应。

如2022年10月,美国白宫虽然发布了《人工智能权利法案蓝图》,为其国内AI 治理提供了支持框架,但并不是美国官方政策,不具备约束力。直到一年后,拜登发布了白宫首个生成式AI监管规定。此举建立在美国 15家主要科技公司自愿承诺的基础上,是一项具有法律约束效力的行政令。该命令设立8大监管框架,明确了美国迄今为止最全面的人工智能监管原则,并力图确保美国在技术开发方面保持世界领先地位。

再如,欧盟在历经漫长谈判后最新敲定了《人工智能法案》三方协议。这一法案将成为全球首部AI领域的全面监管法规。该法案针对ChatGPT等服务进行监管,并提出针对AIGC新的著作权规则。该规则要求,基于“风险分级”核心理念,生成式人工智能的公司必须披露用于开发其系统的任何受法律保护的资料。即使欧盟的本意是对ChatGPT进行监管,但这一要求也仅仅属于透明度原则适用范围,还没有提到归责层面。欧洲立法的出发点是对抗性的,属于“先监管,再发展”模式。这项法案最早将于明年初生效,为AI治理提供“硬法”支持。

报告指出,由于各国的利益诉求不同,在AI的政策制定与实施上所坚持的理念差异较大。 欧盟提出“加强监管”模式更多倚重事前的规制,考虑为技术开发与应用设置严苛条件;美国则更强调监管的科学性和灵活性,以扫清AI技术应用的障碍、促进技术创新为宗旨,坚持监管的前提是鼓励AI的创新和发展。

相比欧美AI促进及监管政策深受资本利益集团的影响,我国更注重公共利益,并致力于全国的整体协调发展,在AI促进的理念上既不能一味追求AI技术的创新与发展,亦不能对AI实施力度过强的监管手段。

通过盘点对比多国AI监管政策进程可见,各方虽有模式路线之争,却并未影响全球AI监管共识的凝聚,即多元协同共治、保留创新空间,监管规范日趋标准化。


专门的AI立法有无必要?各界声音不一

放眼全球,对AI进行立法规制已成为趋势,主要国家纷纷开启AI领域立法的探索。

针对算法、深度合成等特定领域,中国已经实施《网络安全法》《数据安全法》《个人信息保护法》,生成式人工智能产品的数据训练要符合三部法律的基本要求。中国也将制定人工智能法纳入国务院立法计划。在此背景下,报告对国内AI监管的立法趋势也做了详细的意见征集与调研,在已有法律法规的基础上,是否还要出台一部专门的人工智能法,报告显示各界声音不一;而这部法律如何定位:是一部管控风险的法律,还是促进 AI产业发展的法律,也需要讨论。

报告中有部分专家认为,目前生成式AI的监管存在主管部门不明确、监管流程不透明的问题,立法可以更好地统筹监管,明确相关的监管规则和监管范围。但也有业界专家强调,加强科技伦理和法律合规治理要有限度,无限降低潜在风险看上去很美,但很可能导致治理成本快速增长,阻碍科技的正常发展。

其中报告援引的比较有代表性的观点来自清华大学教授申卫星,他认为我国在生成式AI规制当中,已经为未来系统的人工智能立法奠定了一个基本的原则,即“发展和安全并重”,既要加强依法治理,也要促进技术创新。

专家呼吁建立大模型产业生态责任体系

聚焦潜在的风险与问题,《报告》针对生成式AI伦理与治理提出一系列倡议。其中包括七大原则——确保安全、客观公正、信息披露、尊重自主、可问责可追溯、人工把关、敏捷治理。

比如,敏捷治理原则要求对于生成式AI技术与产业中的算法、个人信息保护、数据安全、计算资源等各种基础要素,相关企业或组织应不断调整、优化、完善多层次治理体系、治理机制、治理工具,及时发现并解决可能风险。

图片

早在今年7月,南都数字经济治理研究中心就曾邀请36位专家学者,共同推出国内首份由智库媒体发起、跨行业联动发布的《生成式AI治理与伦理倡议书》。结合半年来国内生成式AI领域的新变化,本次《报告》补充调研对话了来自AI产研一线的多位业界人士,广泛凝聚了50余位专家学者的倡议共识。其中,来自国家工业信息安全发展研究中心的副总工程师邱惠君,特别提出要建立清晰的大模型产业生态责任体系。她同时建言,除了明确技术提供者的责任外,还需要适度规定消费端使用者的责任,引导使用者在应用内容生成技术时也应树立责任意识。

值得注意的是,《报告》中多位受访业界人士及学术专家普遍呼吁,我国要跟上AI国际创新的步伐,需建立自主可控的技术生态,尤其是要注意吸取传统信息产业领域里计算机软件、芯片技术的教训,在智能技术应用领域里,走出一条自主创新的产业生态之路

统筹:南都记者 李玲 

采写:南都记者 吕虹 杨博雯 胡耕硕  

出品:南都数字经济治理研究中心

 

编辑:黄莉玲

更多报道请看专题:2023啄木鸟数据治理论坛
深融合新联结高智量!2023年南都智库产品发布周

南都新闻,未经授权不得转载。授权联系方式
banquan@nandu.cc. 020-87006626