清华大学梁正:算法治理没有通用方案,根据场景配备监管规则

南方都市报APP • AI前哨站
原创2022-12-24 20:14

“对于算法治理,一个可能的突破口就是分级分类精准管理。需要明确的是,分级分类本身不是目标,而是要针对不同风险场景配备不同监管规则。”

12月22日,在南方都市报个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办的“2022啄木鸟数据治理论坛”上,清华大学人工智能国际治理研究院副院长、人工智能治理研究中心(清华大学)主任梁正就算法治理现状谈到,目前国内算法治理的基本思路和框架是清晰的,但怎样去落实还有很多问题需要解决。

截屏2022-12-24 下午7.20.43.png

1

算法的不可解释、不可控性有增加趋向

对于国内算法治理的现状,梁正介绍了几大特点。首先是算法治理的“法治之网”已初具雏形,已初步建立起配备法律法规、标准指南、行业规范的分层次治理体系。特别是《互联网信息服务算法推荐管理规定》已对合成、个性化推送、排序精选、过滤、调度决策的五类算法进行了分类界定,算法治理的重点问题和场景基本明确。

在此基础上,借鉴国内外合理经验,结合自身实践特点,国内算法治理的工具设计主要从算法可问责的角度切入,包括算法备案、安全检测、审核和自评估等多种手段。从技术角度强调算法可解释,并赋予个人拒绝自动化决策以及获得诉讼救济的权利,这也是国际上比较通行的治理路径。

与此同时,算法治理也面临多重挑战。首先是技术固有的“黑箱”特征,也就是算法可解释性。对于普罗大众而言,算法的难以理解是其最直观特征。这种“为人不知的、既不能打开又不能从外部直接观察其内部”的状态,常常被形容为“黑箱”。梁正表示,随着模型的日趋复杂、数据日趋多元,算法的不可解释、不可控性有增加的倾向。

但实际上,算法应该公开到何种程度?如何理解可解释?梁正认为,大部分消费者没有能力也没有必要了解技术的细节,需要了解的是根据哪些因素做出公开决策。而这些因素很大程度是算法设计和商业模式的结合,包括特定场景下算法应用所考虑的因素。特别是在自动驾驶、医疗等高风险场景,如公众因信息不对称而无法信任,技术也就难以被推广使用。如何让公众对算法公开的程度感到满意?这是技术下一步发展要考虑予以完善的。

与此同时,梁正还直言算法治理追求的公平公正本质上是一个公共选择的问题。国外已有研究发现,当公平有多个不同定义时,算法在实践上是无法同时满足的。因此,如何在效率和公共利益最大化之间的权衡,是算法治理时要考虑的重要部分。

此外,梁正提及,针对算法合规审计,缺乏独立专业的三方机构和成熟统一的评估标准,同样是目前国内算法治理存在的困境。许多平台都是自主做相关工作,但是平台是否能够完全承担相应责任,无论从意愿还是能力上都有待商榷。

2

针对不同风险场景,提出不同要求

梁正认为,当前国内算法治理的框架已较为清晰,但怎样去落实还有很多问题需要解决。他介绍到,一个可能的突破口,也是国内外同时在探索的,就是分级分类精准治理的思路。关键在于针对不同风险场景,提出不同的要求。

“在人工智能,特别是机器学习领域,最典型的特征是不存在放之四海而皆准的通用解决方案。脱离场景谈算法、谈治理,意义都是不大的。”

他以欧盟正在讨论的人工智能法案为例。该法案以对健康、安全权益的影响程度为划分标准,将不同应用场景划分为不同风险等级。在较高风险的场景,部分技术甚至被禁用,同时提出了严格的事前、事中和事后监管要求;对于低风险应用场景,更多依赖自我规范、透明公开、社会监督和消费者选择来实现治理。

在国内信息和数据领域,分级分类管理的思路同样源远流长。除了前述提及的《互联网信息服务算法推荐管理规定》,信息安全、数据安全、平台治理等方面都有相关规定。

2021年10月,市场监管总局公开的《互联网平台分类分级指南(征求意见稿)》《互联网平台落实主体责任指南(征求意见稿)》就将互联网平台分为超级平台、大型平台、中小平台三级,并根据平台级别为经营者赋予反垄断、反不正当竞争、黑灰产管理、劳动者保护等各项责任。

在算法治理方面,目前亟待明确的是分级分类的依据。《互联网信息服务算法推荐管理规定》中提出,根据舆论属性、动员能力、内容类别、用户规模、算法推荐技术处理的数据重要程度、对用户的干预程度等因素进行分级分类管理。

梁正根据研究还建议,对算法分级分类要和数据安全、平台监管分级分类进行衔接,明确分级分类本身不是目标,而是针对不同风险场景配备不同监管规则。在接下来的监管中,他认为算法分级分类的标准需要更清晰,并在统一的标准下匹配一整套治理工具。

采写:南都记者黄慧诗

编辑:李玲

更多报道请看专题:2022啄木鸟数据治理论坛

南都新闻,未经授权不得转载。授权联系方式
banquan@nandu.cc. 020-87006626