人脸识别可分析政治倾向!继同性恋检测后,斯坦福又有新研究

南方都市报APP • AI前哨站
原创2021-01-14 17:49

人们无时无刻不在“刷脸”,你的长相也早已被公共场合无处不在的摄像头所捕获,而人脸识别已经可以很精确地分辨出人们的性别、年龄、种族和表情神态等个人属性。

近日,斯坦福大学研究员米哈·科辛斯基(Michal Kosinski)在《自然》旗下期刊《科学报道》(Scientific Reports)上发表了一项新研究:通过人脸识别准确分析政治倾向。而这位研究员曾在2017年发表过另一项“刷脸”研究——通过人脸识别判断一个人的性取向。

据了解,斯坦福大学团队与社交媒体Facebook旗下的数据挖掘公司合作,从Facebook和约会网站上收集了108万名来自美国、英国和加拿大的志愿者照片,以及志愿者的年龄、性别、政治倾向等个人信息。

图片 1.png

不同国家志愿者数量及其政治倾向、性别、年龄和种族分布。图自《科学报道》

研究人员总结了一些面部特征,包括稳定的特征(比如面部结构)和短期的特征(比如表情、妆容、面部毛发、头部方向等)。他们将人脸识别算法应用在志愿者的照片上,比较自由派和保守派人士的面部特征,进而预测其政治倾向。

结果显示,人脸识别正确区分政治倾向的准确率高达72%,而人类的准确率仅为55%。进一步的调查也显示,在美国、加拿大和英国得出的准确性结果都很相似,即使将年龄、性别和种族的变量纳入调研范围,准确度依然可以高达69%。

研究人员发现,在各种面部特征中,头部方向与面部表情可以提供最好的参考,准确率分别达到58%和57%。自由派人士倾向于更直接地面对镜头并更可能表达惊讶的表情。而保守派人士的皮肤状态更好,因为他们的生活方式更健康,但却更容易表现出厌恶的情绪。

算法甚至可以通过胡子和眼镜预测政治倾向,不过准确率仅有51%-52%。根据算法分析的结果,整体而言,在美国白人、老年人和男性更有可能是保守派。

图片 1.png

算法通过人脸照片来判断政治倾向。图自《科学报道》。

研究人员发现,不管人脸识别算法依据何种面部特征进行判断,准确性都不会有太大区别。这意味着,一个人很难通过改变表情、头部方向等短期特征来掩盖自己的政治倾向。

在美国,政治倾向不像性取向那样私密,但它仍然是相对敏感和个人化的信息。然而,人脸照片却很容易获取。不同于其他的生物识别方式,人脸识别可以在没有征得当事人知情或者同意的情况下使用。这意味着,执法人员可以暗中借助人脸识别来掌握人们的政治倾向。

科辛斯基表示,研究的目的不是创建一个政治倾向检测器,而是表明技术已经有这样的能力,以便人们开始考虑相关的隐私风险。正因为这样,研究人员使用的是现有的开源算法,而不是专门针对政治倾向分析设计的新算法。

“在我的工作中,我警告人们不要滥用人脸识别算法。令人担忧的是,‘AI看相师’现在正被用来判断人们的私密特征。学者、决策者和公民应该更加注意这一点。”科辛斯基说。

2017年,科辛斯基还曾发表过人脸识别预测性取向的研究。研究团队在公开约会网站的数据库中收集了包括同性恋和异性恋人士的共计14326人的35326张图像,从鼻子和眉毛的形状到面部毛发和表情,对他们的面部特征进行了分析。

图片 1.png

算法创建的合成人脸。

在测试时,研究人员会给算法两张照片,让算法从中选出更有可能是同性恋的人。从结果来看,算法从两张男性照片和两张女性照片中选出同性恋的正确率分别是81%和71%。

尽管科辛斯基声称自己没什么恶意,这项研究的出现还是引发了争议。一些人质疑研究的科学性,认为科辛斯基使用的数据有很多人脸之外的干扰因素。还有一些人认为,这可能让本就饱受歧视的性少数人群面临新的压力。

马里兰大学社会学家菲利普·科恩(Philip Cohen)就表示,人们本来并没打算把性取向公之于众,结果去了一趟机场或者看了一次体育比赛就被摄像头识别出性取向,这样的可能性令人恐惧。

科辛斯基本人则表示,研究人员花了很多时间考虑是否应将结果公开。“我们明白,能够决定自己何时透露、向谁透露性取向,对一个人的幸福与安全都至关重要。我们并未创建侵犯隐私的工具,只是展示了这种大家都可以获取并使用的手段确实构成了严重的隐私威胁。所以我们认为政策决策者和LGBTQ社区需要迫切意识到他们所面临的风险。”科辛斯基表示。


采写:实习生石悦欣 南都记者冯群星

编辑:李玲

1
对这篇文章有想法?跟我聊聊吧
李玲3.36亿
南方都市报记者
南都新闻,未经授权不得转载。授权联系方式:
banquan@nandu.cc,020-87006626。