如果Siri也是养成类游戏,该如何避免它成为种族主义者?

南方都市报APP • AI前哨站
原创2020-11-27 12:21

无人驾驶真的安全吗?智能管家可以依靠吗?人脸识别又是否准确呢?

近日,澳大利亚五家机构发布了一份报告-《使用人工智能做出决策:解决算法偏见问题》(Using artificial intelligence to make decisions: Addressing the problem of algorithmic bias),详细讲述了人工智能在演算中可能存在的算法偏见,与解决办法。

屏幕快照 2020-11-27 上午11.11.14.png

《使用人工智能做出决策:解决算法偏见问题》

人工智能也有“偏见” 可能加剧社会歧视

人工智能(AI,Artificial Intelligence)已渗入我们的日常生活当中,我们使用电子设备所留下的每一个足迹,点赞的每一支抖音视频,在淘宝购入的每一件商品,都将构成我们的虚拟形象,在算法的推演下,以推荐、预测我们的下一个行为。

不仅如此,AI在政府决策与商业投资中也逐渐扮演着重要角色,影响着人们的日常生活,例如银行可以使用大数据来判断是否为某一申请人提供房屋贷款,政府也可以通过计算机图像识别等技术对食品加工场所、建筑工地、交通要塞等进行监管。

但AI并不是绝对正确的,在决策过程中也存在着算法偏见(Algorithmic Bias),导致社会歧视与不公平的现象加剧。

什么是算法偏见?研究者认为算法偏见是指在经由人工智能所导出的预测或结果中存在错误或对不同群体的差异与不公正的对待。例如,曾经谷歌照片(Google Photo)在对图像进行分类时,将两名黑人的照片标记为大猩猩。

报告中提出了一些假设情况,例如在招聘网站中,系统推给男性与女性的工作在工资上具有明显的区别,男性获得更多的高薪工作,而女性则正好相反。

算法偏见直接或间接地影响着我们的生活,它可能不经意地出现在我们的手机中,例如你的淘宝推荐中突然出现你完全没有兴趣的商品。 

或是因为你的肤色、所居住的位置、宗教信仰等因素,将你归类为易犯罪群体中。为了尽量避免这种情况的发生,研究者认为人们需要进一步了解造成算法偏见的原因。

原始数据与算法结构是造成偏见的关键

造成这些算法偏见的原因有三个:第一,是算法系统本身固有的设计与配置造成预判的错误,即代码上的错误。这便好比是我们在做数学题时,用错了数学公式,将加号写成了除号,于是便得到了错误的结果。

第二,研究者认为原始数据是产生算法偏见的另一源头。无论是机器学习,还是深度学习,对原始数据都存在一定的依赖性,当原始数据存在不精准、不完整、没有代表性、没有时效性等问题时,人工智能便会输出错误的结果。例如上述Google对于图片的错误标注,便是因为黑人照片的样本过少,无法准确地对其进行识别。

 数据缺失与不完整是较为显性的问题,相比之下,社会原有的不公正与事实造成的算法偏见则较为隐性,不易被察觉,也较难解决。

招聘网站的推荐系统对于男女职业的差异推荐便是基于社会原有的性别结构所做出的判断,当这部分的数据越精准与具有代表性,其输出的结果便越容易存在偏见。

又例如在2016年年初,微软曾推出一款人工智能聊天机器人Tay,它能够在与推特用户的交流过程中学习与成长,但不到24小时,受到推特用户输入信息的影响,Tay从一张白纸,变成了推崇厌女文化的种族主义者。

试想一下,如果Siri在与我们的日常交流中学习与成长,它又会变成一个怎样的机器人呢?是否也会像Tay一样,成为一名种族主义者呢?

下载.jpeg

图片来源于网络

报告建议在保护隐私的基础上增加数据多样性

报告指出,通过修改AI系统,增加模型的复杂度可以解决算法本身的错误。简单的模型因为更容易被测量、监督、替换而被商业公司所青睐,但过于简化的版本会削弱预测结果的准确性,更难鉴定出不同群体间的差异。

但同时,研究者也认为模型不应过于复杂,要避免模型与样本过于匹配而丧失普遍性;此外,在训练模式的过程中,也应不断调整应用与预测的决策逻辑和参数,以取得预测结果中公平与准确性的平衡。 

f25e-imvsvza8868243.jpg

图片源于网络

针对数据的显性与隐性的问题,研究者建议,不断更新数据库、寻找更适合的数据来训练AI系统是一个好方法。例如当使用AI来预测各国新冠肺炎患者的数量走势时,需要每天更新各国患者的数据,而不是停留在2020年的上半年。

当然,在不断更新数据,增加数据多样性的同时,也需要注意保护个人的隐私,需要在不违反法律、不侵害用户权利的原则下,进行数据的补充与完善。

其次,在输入原始数据前,需要对其进行预处理,包括对数据的清理和相关属性的隐藏。例如上述招聘网站的推荐系统,隐藏性别属性,强调职业中所需要的技能与经历,这样便可以减缓与避免性别在职业分工中占据过大比重。 

最后,在搭建模型的过程中,需要有明确的目标,避免使用过于抽象化的概念来进行预测,并且准对不同的主体,需要有不同的参考标准。

例如一家银行在考虑是否为申请者提供贷款时,往往会考虑他的盈利能力、信誉度、还贷能力等,但这些都属于较为抽象的名词,无法用具体的数据来展示,研究者认为可以用信用卡的消费金额、消费次数、还贷时间等具体指标来进行衡量。

并且,报告还特别提醒,即使是具体化的指标也不一定适用所有人群,例如,信用卡的数据便无法用于第一次贷款的年轻人,因为他们此前可能没有使用信用卡的记录。

AI能够带来更好的决策,但如果无法彻底理解与解决算法偏见,它对于人们来说是空洞的,研究员Edward Santow认为,只有严谨的程式设计、无数次的测试、与实时的监测,才可以最大程度地避免人工智能犯下错误。

综合:南都人工智能伦理课题组研究员连俊翔 冯群星

编辑:蒋琳

对这篇文章有想法?跟我聊聊吧
蒋琳5.01亿
南方都市报记者
南都新闻,未经授权不得转载。授权联系方式:
banquan@nandu.cc,020-87006626。