联合国副秘书长技术顾问、世界卫生组织健康领域AI伦理与治理专家组组长、全球AI伦理协会发起者、IEEE机器人与自动化学会机器人伦理委员会共同主席……在日前闭幕的2020北京智源大会上,曾毅把一众顶尖专家聚在一起,组织了一个以“人工智能伦理、治理与可持续发展”为主题的论坛。这样的规格,在国内的人工智能大会上并不多见。
作为论坛主席,曾毅的职务头衔是北京智源研究院人工智能伦理与可持续发展研究中心主任。但实际上,他有着多重身份:中国科学院自动化研究所研究员、科技部新一代人工智能治理专业委员会委员、联合国教科文组织人工智能伦理特设国际专家组成员、世界卫生组织健康领域AI伦理与治理专家组成员,等等。
鉴于这多重身份,曾毅时常参与人工智能伦理与治理的国际交流,也经历了诸多东西方伦理观念的碰撞。他说,不同国家、组织之间的共识其实远大于差异,但西方对中国仍然存在很多误解。“有些误解是基于不了解,有些却是故意曲解。参与全球的协调工作时,我们一方面要阐述自己的观点,另一方面很重要的就是消除这些误解。”
以下是南都记者对曾毅的专访。
消除西方对中国的误解是一项重要工作
南都:目前来看,东西方在AI伦理和治理上有何异同?
曾毅:根据我们的调查,关于人工智能的伦理原则或治理原则,全世界已经发布了超过70个提案,分别来自政府、非政府组织、政府间组织、科研机构以及人工智能产业界。
组织不同,它们制定原则的背景和角度也会不同。比如政府的提案跟一国的文化、社会治理息息相关,企业则会更多地从实践角度出发。
但我们也发现,大家的共识其实要远远大于所谓的差异。
我想分享一个小故事。去年《人工智能北京共识》发布的时候,麻省理工学院科技评论就此发了一篇文章。它的配图很有趣,是两个机器人,一个红色、一个浅蓝色,分别代表中国和美国,但是机器人头上都插着对方的国旗。
这篇文章主要说的是,中国的伦理原则跟西方其实是相似的,都强调要尊重人类的隐私、自由等权益。他们原本以为隐私、自由之类的话题在中国是禁忌话题,但实际情况跟他们想的完全不一样。
麻省理工学院科技评论的文章配图。
南都:除了这些共通之处,我们有比较“中国特色”的地方吗?
曾毅:中国的《新一代人工智能治理原则》和《人工智能北京共识》都强调了和谐发展,这是跟中国的传统哲学与文化密切相关的。“和谐”的提法在西方的原则中就比较少见,他们更希望一个原则提出之后,各种利益相关方能达成完全一致。
我们说的“和谐”,一方面指的是人工智能与人类要和谐共生,一方面是指不同国家在发展人工智能的过程中要包容、共享,而不是恶性竞争。虽然大家有不同的视角和看法,但依然可以“和而不同、和舟共济、和合向善”。
此外,《新一代人工智能治理原则》提出要“共建人类命运共同体”,更强调全球人类命运的关联与技术的普惠,这也是一个特点。一些国家可能会更强调人工智能的发展替本国服务。
南都:您在参与国际交流的时候,会因为东西方的差异遇到一些问题吗?
曾毅:我想分享几个例子。我是世界卫生组织健康领域人工智能伦理与治理专家组的成员,专家组第一次在日内瓦的讨论,我介绍了《新一代人工智能治理原则》和《人工智能北京共识》。我讲到“人类的价值观”的时候,立即有一位印度学者打断我说,请你解释一下,你说的“人类价值观(human values)”是什么意思?
我当时觉得这个问题别有用心,内心是很气愤的。随后我跟他及其他与会者解释,人类价值观包括文明、和谐、自由、平等,等等。他说他明白了,这些价值观跟他们的是一样的。其实我跟他说的这些关键词,既是人类普适的价值观,又都是社会主义核心价值观的内容。但是如果我当时说这些属于社会主义核心价值观,就我的经验,一定会有人跳出来质疑,而质疑的人往往连什么是社会主义核心价值观都从未了解过。
还有一个例子是在去年的世界和平论坛上。有一位美国智库的学者说,他阅读很多关于中国人工智能的政策文献,其中更多地提到“security”,几乎没有提到“safety”,这说明中国的人工智能是不注重内部安全的。
Security和safety都是安全的意思,但前者更强调能够抵御外部的攻击,后者主要指的是系统内部的安全,比如一个人工智能模型是否能按照开发者设想的方式去工作而不对环境产生负面影响。这个美国学者的潜台词就是中国的人工智能是不安全的。我就跟他说建议你回去再好好读读,在我们的《新一代人工智能治理原则》和《人工智能北京共识》里,safety和security都明确提到了。后来与会专家都笑了。
还有一个更极端的例子,2017年印发的《新一代人工智能发展规划》提出,中国要在2030年成为世界主要人工智能创新中心。外国学者在翻译的时候,就说中国要成为“the center of AI in the world”。加了一个“the”,意思就完全不一样了,变成“中国要成为世界唯一的人工智能中心”,并在不同的场合用于质疑中国新一代人工智能的发展对其他国家的意义。这显然跟我们的《规划》中表述的意义不符。
这些例子都说明,在人工智能治理这样的全球性议题中,当中国提出一些观点的时候,西方总会认为我们说的不一样,这其实是非常大的误解。当然误解也分两种,一种是真的不了解,另一种是刻意曲解。所以在参与全球的协调工作时,我们一方面要阐述自己的观点,另一方面很重要的就是消除这些误解。
要通过技术研究推动治理原则真正落地
南都:去年,科技部新一代人工智能治理专业委员会成立,您是成员之一。今年专委会有哪些重点计划?
曾毅:去年发布的《新一代人工智能治理原则》是比较宏观的政策,更像一个总体的愿景。今年我们会推进治理原则的细化,通过不同方式给出一些更详细的解释。
南都:能否举例说明,怎样才能让AI治理原则转化具体的、可执行的技术标准?
曾毅:专委会和科技部的相关负责机构,其实一直在通过国家新一代人工智能创新发展试验区和新一代人工智能开放创新平台来推动治理原则的落实。
比如北京就是创新发展试验区,在《人工智能北京共识》发布后,智源研究院启动了多项课题,包括如何构建保护数据隐私的平台、如何构建更安全的机器学习算法,人工智能治理监管平台等等。这些都涉及到治理原则的落地。
另外,一些参与建设开放创新平台的企业告诉我们,从他们的实践来看,80%的治理原则原本他们就是可以做到的,另外20%还需努力落实。
南都:做不到的20%主要是指哪些?是什么原因?
曾毅:我还是举例来说。我们的治理原则提出“人工智能系统应不断提升透明性、可解释性”。为什么要说“不断提升”而不是“必须做到”?因为从技术上来说,很多人工智能系统做不到。以深度学习算法为例,除了输入层、输出层,它的隐藏层可能多达十几甚至上百层,其中的工作机制、原理是很难解释的,目前学术界仍然在致力于提升模型隐层的可解释性。
再比如欧盟的GDPR提出,用户具有删除数据、撤回同意的权利。App数据库里的数据可能比较容易删除,但是对于一个人工智能模型来说,它使用了用户的数据去训练,可能几个月都不会更新一次。如果想彻底删除用户的数据,就需要重新去训练这个模型。
所以说,我们在推动治理原则去落地的时候,叫做技术和社会的双落地,需要在技术上做很多努力。这也是为什么在制定原则的时候,一定要让技术专家和社会学家去协同。如果仅仅从伦理道德的角度出发,制定出来的原则在技术上不可行,也就无法构成约束力。
南都:论坛当天,您代表智源研究院发布了“面向可持续发展的人工智能(AI4SDG)”公益研究计划。为什么要特别强调是“面向可持续发展”?
曾毅:人工智能作为“使能技术”来推动可持续发展目标的实现,在国际上已形成共识。《新一代人工智能治理原则》和《人工智能北京共识》,也都强调了可持续发展作为总体愿景之一。
其实人工智能发展最缺乏的是方向。技术发展得很好,但是怎么用?目标在哪里?我们谈可持续发展,其实就是要树立一个总体的愿景和方向,去考虑哪些应用带来的是短期获利,哪些应用长期有益,从而提倡技术的善用,避免误用、滥用。同时,中国作为一个负责任的大国,也有必要参与到推动可持续发展这样的全球行动中,贡献中国的力量。
南都:邀请企业也参与到AI4SDG公益研究计划中,主要是出于怎样的考虑?怎样才能让他们有动力来参与这样的公益研究?
曾毅:企业是人工智能发展的重要主体,和主要职责是科研创新的科研机构不同,企业提供服务,切实地改变人们的生活。如果人工智能企业没有确立正确的愿景,或者不作为,那么整个国家在保障人工智能发展方面也会有困难。所以,让企业参与是非常重要的。
就我接触的中国人工智能企业而言,绝大多数是有社会责任心的,只是大家行动的速度不太一样。去年的智源大会上我也谈到过,很多企业是知道问题和风险的存在,但往往抱着“这种情况比较少见”“科学家也没有好的办法”的态度,不去处理问题。我们希望推动并期待更多的中国企业在AI治理与可持续发展领域有所作为。
采写:南都记者 冯群星
编辑:李玲
更多报道请看专题:探索人工智能的下一个十年!2020北京智源大会