AI换脸被色情业滥用?清华团队开发新用途:保护帕金森患者隐私

南方都市报APP • AI前哨站
原创2020-07-27 16:11

提到AI换脸,你的第一印象或许是色情视频和被换脸到女优身上的女明星。

然而,正如那句老话所说,技术能发挥什么作用,关键还要看用它的人。清华大学神经调控技术国家工程实验室研究人员今年2月发表的一篇会议论文,就展示了AI换脸的另一种可能性:保护帕金森患者的隐私。

据了解,清华大学神经调控技术国家工程实验室一直在围绕帕金森等疾病的诊断、治疗和康复开展科研攻关,近年来也在探索这方面的AI应用。

由于神经系统出现了问题,帕金森患者的病情也会体现在脸上:他们无法有效地控制面部肌肉群,面部表情会显得麻木、呆滞,俗称“面具脸”。

AI辅助诊断不可避免地要用到患者的面部数据,这给研究人员带来两难:简单的数据共享,涉嫌侵犯患者的隐私;传统的匿名化方法,比如模糊面部、打马赛克、添加遮挡,又会完全抹去面部的信息,使得患者脸上的特征和变化无法被识别。面部的不可识别,还会进一步影响到对患者身体的识别。

屏幕快照 2020-07-27 下午12.51.32.png

一些传统的匿名化方法:遮挡、模糊、像素化。

有没有什么办法,既能保护患者隐私,又能保留面部的关键点?抱着这样的想法,研究人员引入了AI换脸技术Deepfakes。

在具体实验中,研究人员把患者X和开源数据集人物Y的视频数据输入到Faceswap算法模型里,让模型将患者的脸换成Y的脸。结果显示,换脸视频中的面部关键点几乎不变,成功通过了高精度关键点检测测试。

屏幕快照 2020-07-27 下午12.34.28.png

用Faceswap算法模型来换脸。

但还有一个问题是,换脸的过程是否可逆?新生成的人脸,是否有可能被还原成患者的脸?对此,研究人员表示,只要攻击者不掌握模型的权重,就很难完成逆向还原,患者的隐私可以得到保障。

5-Figure6-1.png

换脸后的视频能有效检测关键点。

“尽管Deepfakes这种换脸方法因侵犯隐私和肖像权而受到批评,但它反过来也可以保护医疗视频中的隐私。”研究人员认为,这项技术能有效规避伦理上的风险,使得高质量的、开源的医学视频数据集成为可能,有助于推动未来的医学研究发展。


文/南都个人信息保护研究中心研究员 冯群星

想了解更多有关AI换脸的内容,欢迎查看南都·AI前哨站此前报道:

民法典新规出台,AI换脸哥还能让“朱茵变杨幂”吗?解读来了

N号房新进展:色情换脸专用房曝光 多名韩国女偶像惨遭AI换脸

芒果TV新剧开播 曾大闹车站的演员被AI换脸 网友:看着吓人

数说:AI换脸色情视频祸害了谁?韩国女偶像深受其害

加州新法案:未经当事人同意,不得用AI换脸技术制作色情视频

打假AI换脸!Facebook投千万美金,发起全球打假挑战赛

交出人脸永久权才能用?AI换脸软件ZAO疯传,隐私风险惹争议

被下架的AI脱衣软件现身电商平台!还有人出售女星换脸淫秽视频

美国众议院建议立法规制AI换脸:担心伪造视频影响明年总统大选

AI换脸让朱茵变杨幂,视频真假难分辨?安全专家帮你识破换脸术

编辑:李玲

南都新闻,未经授权不得转载。授权联系方式
banquan@nandu.cc. 020-87006626