南都讯 记者冯群星 最近,一篇有关人工智能与犯罪预测的论文在国外学术圈引发了轩然大波。
这篇论文题为《利用图像处理预测犯罪的深度神经网络模型(A Deep Neural Network Model to Predict Criminality Using Image Processing)》。研究团队主要来自美国的哈里斯堡大学,论文第一作者Jonathan W. Korn还曾在纽约当过警察。
在论文中,研究人员介绍了一种能基于面部图像预测犯罪的自动化人脸识别软件,并号称准确率达到80%。他们认为,人工智能可以“从图像中提取出能高度预测犯罪的微小特征”,还能摆脱种族偏见的影响,有望成为执法利器。
今年5月初,哈里斯堡大学在官网发布消息称,施普林格·自然集团的研究丛书《计算科学与计算智能的处理》将收录这篇论文。
这样的研究成果,让人想到经典科幻电影《少数派报告》。在电影中,具有超能力的先知可以预测犯罪,从而让警方在犯罪发生前就将嫌疑人抓获。
然而,哈里斯堡大学和研究人员或许没想到,消息一出,就有许多科学家站出来实名反对。
当地时间6月22日,麻省理工学院、伦斯勒理工学院、麦吉尔大学和纽约AI Now研究所的五位学者发表公开信,呼吁施普林格·自然集团撤销这篇论文的发表,并承认其激励了有害的研究。同时,学者们还呼吁所有的出版集团都不发表类似的论文。
五位学者联合发表公开信。
在反对者看来,将人工智能用于犯罪预测,这件事本身就值得商榷。犯罪预测技术无法脱离政治背景,因此很可能被当权者恶意使用。
反对者的另一个核心观点是,面部图像中的可标识符和犯罪可能性之间缺乏因果关系,利用身体特征来预测犯罪是一种伪科学,会导致科学上的种族主义。“暗示犯罪行为在生物学上是可识别的,某一类人在本质上比另一类人更容易犯罪,无疑为这样一种观点奠定了基础:一些人因为其身体特征更容易犯罪。这种观点显然是错误的。”
更重要的是,有色人种在历史上往往受到比白人更严厉的管制,因此现有的犯罪统计数据本身就存在偏见。例如,有研究表明,在美国的常规交通检查中,黑人驾驶员被搜查的可能性是白人驾驶员的三倍,即便警察在搜寻黑人驾驶员时对违禁品的“命中率”较低。
用有偏见的数据去训练人工智能软件,根本没法保证准确性。因此,尽管研究人员声称软件不存在偏见,但实际结果可能恰恰相反,软件可能会被执法机构用来证明种族歧视的合理性。
有学者认为,在弗洛伊德之死引发了大规模抗议活动的背景下,施普林格·自然集团还要“逆风”出版这篇论文,折射出了学术界长期暗含的种族歧视问题。
据AI前哨站统计,目前已有接近1700人签署公开信,包括人工智能行业的从业人员、数据科学家、社会学家等等。
今天,施普林格·自然集团在推特上回复网友说,研究丛书不会收录这篇争议论文。另据麻省理工学院科技评论的消息,施普林格·自然集团回应称,经过全面的同行评议,这篇论文已被拒绝,集团还会召开一个会议,并发表会议记录。
哈里斯堡大学则在官网表示,论文作者们正在修改论文,以尝试解决反对者提出的问题。
编辑:李玲