面对人工智能(AI)迅猛发展,我们该装好“刹车”还是“踩油门”?如何平衡AI发展与监管关系,一直备受讨论。
3月28日,在2025年中关村论坛年会期间,中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅接受南都记者采访时表示,伦理安全研究,不是为了给AI装“刹车片”限制发展,而是确保技术不野蛮生长、无序发展的“方向盘”。
曾毅发现,随着生成式AI的广泛应用,一些风险问题已开始凸显。比如,AI制造大量虚假信息,影响人与人之间的信任,使得冲突加剧。虽然知道AI生成的内容并非完全可信,但有人却开始沉迷于跟大模型聊天。如果不设置安全护栏,那么AI风险将波及社会方方面面,最终给人类带来灾难性的影响。
“对于AI发展,我们可以有大胆的假设和想象,但是一定要稳健推进。”曾毅说。
南都记者注意到,3月28日闭幕的博鳌亚洲论坛2025年年会期间,AI治理与发展也是频频被提及的话题。不少观点提到,当AI能力越强,其不可控、被滥用等风险也会加剧,进而凸显治理与安全的重要性。
比如,清华大学讲席教授、清华大学智能产业研究院(AIR)院长、中国工程院院士张亚勤认为,在广泛运用Agent(智能体)之后,AI的安全风险至少上升了一倍。AI能力越大,它带来的风险越高,特别是AI从信息智能到物理智能到生物智能,风险会增加很多倍,因此在应用智能体时需要设置一些红线。
但也有人担忧,过于强调伦理安全将限制AI创新发展。这一“往监管走还是偏创新”的矛盾分歧,在今年2月召开的巴黎AI峰会上就被摆在台面上。美国副总统万斯公开抨击欧盟“过度监管”扼杀AI创新。
但是,监管与创新是不可调和的矛盾吗?曾毅认为,二者不是相互掣肘的关系。他分享了自己今年的一项研究,将十几款大模型的安全能力提升百分之二三十,对模型的问题求解能力的影响几乎可以忽略不计。这说明,在充分确保安全的情况下,AI能力几乎不受损。
谈及AI全球治理的趋势,曾毅表示,欧盟人工智能法采用分级方法监管生成式AI大模型,按算力达到的参数来确定监管的风险等级。这在技术上存在一些不合理之处——因为当一个AI大模型才开始落地时,它的参数虽小,但可能也达到了高风险等级。至于欧盟AI监管是不是过度?曾毅直言,“这种分层监管、按照不同的应用领域监管的方式,没有问题。”
同时他提到,美国在AI监管上并非全然放松。“万斯说得很清楚,过度监管会影响发展,但没有说不监管。而且,AI治理事关多方利益主体,需要协同共治。”曾毅认为,企业出于自身发展考虑,会大力呼吁行业自律,研究机构的学者在其中也发挥着推动技术向善的作用。为确保技术的稳步发展,他们都不会对AI零监管“坐视不理”。
“长远来讲,我相信美国在AI理性监管上也会有所动作。”曾毅对南都记者表示,“没有任何一个国家希望过度监管AI,但也没有一个国家会不做任何监管。”
采写:南都记者李玲 吕虹 发自北京
编辑:黄莉玲
更多报道请看专题:直击2025中关村论坛年会