人工智能技术的发展,带来了安全、隐私、伦理方面的新挑战,如何解决这些问题?行业大咖们怎么看? 5月27日,在中国国际大数据产业博览会的人工智能高端对话论坛上,行业嘉宾就这些问题进行了探讨。
清华大学国强教授聂再清认为,一定要通过技术手段来解决安全问题,例如,用技术应对电信诈骗。另外,在设计一个系统的时候,应该考虑到安全可控,权限要可以降级,让它在每个时刻都能保证安全。在责任归属方面,聂再清表示,每一个智能系统后面都是人在设计,要让人对系统安全负责。
海信集团高级副总裁陈维强指出,隐私保护对人工智能发展来讲是一个非常大的障碍。首先要从技术上保护隐私,例如,在传感器层面,尽量用非侵入式的传感器。此外,不仅是企业,也包括公安和政府这样的公权力,使用个人数据应当受到法律制约。他强调“我的数据我做主”,企业不能把用户数据当作自己的资产。
对于隐私问题,商汤科技副总裁张果琲认为,技术都是有两面性的,为了获取便利,有时候就牺牲掉了隐私,如果要很强地保护隐私,可能技术应用就会非常狭窄,很多技术没有办法推广。解决这个问题的一个很重要的途径是加强人工智能的科普教育,因为很多时候恐惧来自未知。“当我们更加了解这个技术的时候,我们首先知道这个技术在做什么,我应该怎么样来保护我自己的数据和个人隐私。因为我了解它,所以不害怕它,我可以拥抱和接受它,让它给我带来更多便利。”
聂再清同样认为,在隐私问题上,确实涉及便利和隐私的权衡。他表示,面对这个问题时,决策权应该交给用户,用户决策到底要不要用这个便利。但是,就算用户决定要用这个便利的时候,我们也希望算法做到“可用不可见”。算法可以用这些数据,但是数据不能够被人看见。并且,要用在用户统一功能上,而不要用在别的功能上。
国双科技创始人祁国晟提出了不同的看法。他认为,在人工智能伦理领域,隐私的问题还是其次,因为隐私问题关键在于拥有系统的人要自律,这通过相应法律法规去规范,是完全可以解决的。“偏见”才是人工智能最难解决的伦理问题。
祁国晟表示,人工智能一定会引起偏见,尤其是新一代人工智能主要以深度学习,是基于训练样本的,基于训练样本的结果就是谁贡献样本谁获益,不贡献样本的沉默的大多数就倒霉。这个道理就跟我们有时候说民主制度不够好是一样的,不同意的人一定会发言,同意的人就不爱发言。一部分人贡献了机器学习的样本,最后用于所有人,这就产生了技术偏见。“这是工程伦理学的范畴,是所有做人工智能的人必须要放在心里的一个准绳。”祁国晟说。
南都见习记者 李娅宁
编辑:蒋琳