6月2日,2021北京智源大会在京举办“人工智能伦理、治理与可持续发展论坛”。据悉,目前全球已经发布的伦理准则多达160余部,其中由产业界发布的超过30%。
然而,复旦大学教授王国豫指出,目前人工智能伦理准则越来越工具化,逐渐沦为科技公司对自身不道德行为的掩饰和伪装,进而成为代替政府监管的一种手段。
谈“伦理清洗”:伦理成为逃避监管的手段?
据非营利组织AIgorithm Watch,截至2020年4月,其全球人工智能指南清单已收录伦理准则160余部,包括欧盟发布的8个,德国、法国、瑞士、瑞典等国家发布的近50个,美国发布的44个等等。
值得注意的是,在上述百余部伦理准则中,发布主体包括产业界、政府和学界,其中来自产业界的超过了30%。
对于这一现象,代尔夫特大学的一位助理教授在2018年提出“伦理清洗”的概念,用以形容科技公司将伦理语言日益工具化。
“伦理本身没有牙齿,比较软。伦理框架提供了超越现有法律框架的途径,也提供了忽视他们(法律框架)的机会,所以私营部门倾向于用企业的自我监管来替代政府的监管。”王国豫说。
即便是备受期待的欧盟委员会发布的《可信人工智能伦理准则》,也被质疑是为了营销且不够专业。
王国豫提到,有专家认为这部准则通常是对数字的流程、产品服务或者其他解决方案的道德价值和益处进行未经证实或误导性的宣传,或者实施表面措施,以使得自己看起来比实际情况更符合数字道德。“通常就花费一小部分精力或者资金来假装要解决大的伦理问题,所以实际上是一个营销活动。”
其次,52个参与制定准则的专家中只有4个伦理学家。她认为,跨学科专家组是必须的,但是这个比例究竟是多少可以讨论。但是不管怎么样,人工智能的伦理它是属于技术伦理,它必须应该有跨学科的专家。
为何会出现伦理实践困境?
人工智能伦理规则的制定为何会出现上述“伦理清洗”等现象?
王国豫认为,一方面可能是缺乏伦理专业的指导,对伦理概念的定义本身不是非常清晰,另一方面这也是伦理实践长期面对的困境。
首先,伦理规则是抽象的,在具体的应用中解释空间相当大,大家对人工智能伦理基础价值观的解释容易出现差异。其次,人工智能不是一个纯粹的技术,不仅涉及技术伦理问题,也涉及企业伦理问题,多元利益者和相关者之间存在博弈。
针对AI在实践中面临的伦理困境,王国豫提出了自己的思考。
第一要区分道德、评估和操作三个层面。道德层面的很多原则是可以全人类共享的,但在评估和操作层面,就必须具体到当地的法律和文化。“目前很多国家都把这些融合在一起了,几个层面没有分得很清楚。”
第二要区分人工智能的可能性、可行性和可接受性。很多的伦理原则不是写给哪一个国家,或者哪一个人看的,关键还是老百姓能够接受。如果不考虑可接受性,原则本身将是空洞的。
第三要区分人工智能治理的长期目标、中期目标和短期目标。“现在要避免伦理清洗很重要的一个点,应该是做到怎么样把伦理评估纳入伦理系统构建当中,构建原则与实践的桥梁。”王国豫说。
采写:实习生李梦涵 南都记者蒋琳
编辑:蒋琳