“AI治理是自上而下与自下而上相融合,是社会共治的过程。制度和技术的互促共进,是未来AI治理不能回避的命题。”在18日的第八届啄木鸟数据治理论坛上,中国科学院科技战略咨询研究院肖尤丹教授谈及国内语境下的AI治理时,直言“治理”的“治”是三点水,应该优先强调的是多方共建共治的公平性。
论坛圆桌交流中,南都数字经济治理研究中心负责人李玲对话多位来自AI产研一线的嘉宾,从多维度碰撞智慧火花,为AI治理合规发展建言献策。肖尤丹之外,还有来自清华大学智能法治研究院的刘云研究员、知名网安企业赛博昆仑创始人郑文彬、金山办公安全中心负责人刘振全等多位大咖齐聚一堂,热议AI 浪潮下的数据治理新趋势。
第八届啄木鸟数据治理论坛现场。
“不要指望靠一个技术手段就能解决所有的问题。”谈及如何应对诸如深度伪造等AI风险时,刘振全的观点亦与肖尤丹不谋而合。他同样指出,纯靠技术一招鲜去应对AI衍生的安全漏洞远远不够,“更重要的是完善合规制度建立行业规范、引入落实惩罚机制等手段多管齐下,方能共谋智能向善。”这也成为在场嘉宾圆桌交流中都谈及的共识。
知产领域“砸碗造碗”进程加快
本质是产业变革中的利益重组
回顾 2024 年 AI 治理领域的行业热点事件时,嘉宾的关注点各有侧重。在肖尤丹看来,算力配给和数据可得性等困境,已成为影响AIGC未来产业化应用的明显障碍。
中国科学院科技战略咨询研究院科技发展战略所所长肖尤丹。
刘云的目光则投向 AI 训练数据,2024 年全球涉AI的知产维权案例频发,如 OpenAI 被诉、META 在各国预训练数据授权困境,以及国内知网的争议等,都成为AI圈舆论的焦点。“一直说到 2026 年可训练高质量数据会枯竭,包括现在合成数据、模仿学习等技术新趋势也备受关注,可以看到,如何在技术和规则上为 AI 提供高质量数据,已经成为行业亟待破局的关键问题。”刘云说。
AI 版权之争也是讨论的热点。伴随一起起版权诉讼案件,AI带给现有知识产权制度的挑战日益凸显,AIGC语料库的合理使用问题持续受到关注。在今年4月的中关村论坛上,肖尤丹就曾提到,相比前几次技术革命,今天的生成式 AI 采取的是一种"砸碗造碗"的方式,这必然会引发与既有知识产权权利人之间的冲突。
不管是从输入输出的角度来讨论是否侵权,抑或是产业链条上利益博弈等问题都备受关注,“最终仅仅聚焦在知识产权上是一个很狭窄的点。坦率地讲,这在一定程度上掩盖了问题本身的复杂程度,实质上还是要落在产业变革中利益重组趋势上。”肖尤丹直言。他还提到中国著作权制度引入较晚,其包含的中国内生文化因素较少,且未经过产业化进程的充分讨论,“能看到我国在涉AIGC 版权的司法判决上具有较高确定性,这一方面是中国AIGC产业化落地较好,另一方面也体现出我国著作权制度内生文化的抵抗相对其他国家并不强,‘砸碗造碗’的进度看来在加快。”
“旧产业和新产业的利益之争是一直存在。在AI迅猛发展中,要注意保障传统著作权人的基本利益。”刘云直言,当下在知产领域,各方利益博弈谈判的成本较高,如何在博弈过程中让合约达成更高效,让作者更信任,让经费流转更顺畅,就需要不断建构完善撮合交易机制,发挥集体管理组织的透明作用,以解决数据采集者与著作权人之间谈判成本高的难题。
清华大学智能法治研究院院长助理、助理研究员刘云发言中。
企业拿用户数据训练模型
明确告知同意是法律义务
AI产业化中的用户数据隐私保护,也是对话中的高关注度议题。
郑文彬在发言中强调, 2024 年是 AI 安全问题的爆发年,像 Hugging Face 平台的漏洞事件以及国内 AI 头部公司出现的类似漏洞问题,都凸显了内生安全问题的全球性和严重性。刘振全从办公安全服务角度出发,重点关注生成式 AI 落地商用场景中的用户隐私保护问题,特别是其中数据的全生命周期合规治理。
金山办公安全中心负责人刘振全。
“AI应用落地中隐私保护的国际共识越来越强,这是趋势所在,中国必须紧紧跟随。”刘振全在交流中指出,企业将用户个人数据用于模型训练优化,明确地告知同意是法律义务所在;从业务发展角度,提供退出机制可增加用户信任度和平台透明度。同时,要加大技术研发,确保用户数据安全匿名化存储。不过刘振全也坦言,目前国内在用户数据撤回机制上仍存技术卡点。
“个保法最大的意义就是让个人信息自主可控、可知情。”刘云指出,在当下大模型技术发展阶段,可通过平台设置通知删除规则等机制,“以保障遇到信息能够及时处置,及时删除,及时响应,让用户在信息保护上知情可控,总之就是涉隐私风险一定要及时处置。”
“AI在各行业落地中,它的性能、边界到底在哪儿?都要对消费者明确告知。”刘云也强调了企业在AI训练数据中保障用户知情权的重要性,“目前国内外对AI治理最大的共识就是透明度监管。不论是欧洲AI法案还是美国加州AI法案,包括我国AI监管法规,都要求明确训练数据来源、算法决策逻辑。”
他相信,未来在AI产品质量和信息处理上的透明度合规要求也必将越来越高。
顶尖领域还要靠“人类之光”
AI短期依旧无法替代
作为网络安全领域的“双刃剑”,生成式AI在网安领域的正面应用有哪些?
交流中,刘振全提到三类正向的赋能场景:一是通过生成式 AI 生成攻击规则和数据来校验防护策略的有效性;二是利用 AI 分析攻击日志,获取攻击原理和路径等信息;三是辅助程序员写代码,提高代码质量。他同时强调,随着生成式AI技术的普及,大语言模型在训练过程中可能会受到对抗性攻击,导致模型生成有害或误导性内容。因此在他看来,提升模型的安全性,确保其在面对恶意攻击时的鲁棒性,是当前最为紧迫的任务。
郑文彬则提到,在网安领域,生成式 AI 已然在降本增效上显示出商用前景,如能进行初级代码辅助的AI码农,就是职业替代中初具雏形的一类例子。但他同时也直言,其实早在AIGC技术浪潮出现之前网安行业就已有过数轮职业焦虑。虽然部分基础工种可能被AI替代,但行业内一些高级别人员,尤其是那些相对顶级的科研人员,依然可以被认为是“人类之光”,他们身上所体现出的人类创新与思维能力,短期内还是无法被AI替代的。
知名网络安全专家、赛博昆仑创始人兼CEO郑文彬。
“机器一直在解决的是事实判断层面的问题,‘是和否’的问题;但作为法律学人,我们比较重视的是‘是与非’的问题,即如何从事实判断向价值判断转化,这一点哲学家休谟在200年前就提过,所谓的价值陷阱。目前看来在这一命题上机器仍是无法逾越的。”对于郑文彬提到的“人类之光”,肖尤丹也颇有感受。他相信人类独有的人文精神依旧是目前的AI所无法替代的价值,机器是冰冷的,而情感才是有温度的。他同时强调,需要兼顾人机之间、东西方之间等多维度的价值对齐,避免人工智能成为人类的敌人。
肖尤丹毫不讳言地指出,当下总谈软治理,事实上AI治理就是硬治理,只能以魔法打败魔法。“如果技术手段解决不了,单纯靠制度工具大概率也是很难实现有效治理的。”
出品:南都数字经济治理研究中心
采写:南都记者吕虹 发自北京
编辑:程姝雯