近期ChatGPT横空出世,一时风头无两,成为各方讨论的焦点话题。讨论的内容不局限在ChatGPT未来如何让人类生活更便利,还包括ChatGPT发展过程中隐藏着哪些潜在的法律与道德风险,行业和监管应该起到哪些作用。从目前来看,引起公众热议的除了个人信息泄露、侵权等问题,还有信息真伪、学术不端、网络犯罪等乱象。对于这些潜在风险,行业和学界呼吁“新监管”,法律与伦理要与时俱进、相互配合,主动探索监管新方法新机制。
一问:未来虚假信息可能泛滥?
自ChatGPT爆火出圈以来,其生成的信息内容真实性、准确度就备受争议,公众担心未来虚假信息、网络谣言进一步泛滥。连OpenAI首席技术官Mira Murati在接受美国媒体采访时都承认,ChatGPT可能会“编造事实”。不少用户和专家都发现它有时会“一本正经地胡说八道”,存在事实性错误、知识盲区和常识偏差等诸多问题。越冷门、越小众的领域,这类错误就越明显,但很少出现“句不成句”式的表述硬伤。
另外,在不同语言环境下,ChatGPT的表现也大相径庭。国内媒体《科创板日报》观察到,在英语环境下,ChatGPT呈现“话痨”的状态,回答内容丰富且逻辑清晰,而在中文对话中,ChatGPT会在“人工智能”与“人工智障”中来回切换,出错率较高。
对此,中科院研究员、中科弘拓首席技术官周祥东解释道:“ChatGPT作为一个语言模型,它对于人类自然语言的理解和处理已经游刃有余。不过,它的开发重心是在语言的流畅性上,怎么更好理解人的语言,更好地和人交流,让‘聊天’变得更好玩、有趣,而不是在生成内容的真实性和准确性上。”周祥东认为,对于ChatGPT生成内容的真实性和准确性问题,可能还需要人来审核。
二问:学术不端现象可能增加?
ChatGPT作为拥有明显算法优势的全新检索、交互服务,对各类网络内容、数据有更强的聚合能力,但在教育界和学术界看来,这样的“聚合”,一定程度上跟抄袭、洗稿、作弊问题挂钩,会给现有的学术诚信体系造成混乱,未来学术不端现象可能频发,难以进行监管。
教育部门因此普遍对ChatGPT持谨慎态度,美国多所公立学校禁用了ChatGPT,原因是担心作弊。纽约市教育部门发言人认为,该工具“不会培养批判性思维和解决问题的能力”。
多家著名学术期刊也加强了对ChatGPT等人工智能技术的使用限制。《科学》明确禁止将ChatGPT列为合著者,且不允许在论文中使用ChatGPT所生产的文本;《自然》则表示,可以在论文中使用大型语言模型生成的文本,其中也包含ChatGPT,但不能将其列为论文合著者;2月10日,《暨南学报(哲学社会科学版)》发布声明,表示暂不接受任何大型语言模型工具(例如:ChatGPT)单独或联合署名的文章,如有使用相关工具或引用其创作的文章,需要进行详细解释;2月11日,《天津师范大学学报(基础教育版)》发布的声明提出,建议对使用人工智能写作工具的情况予以说明。
三问:网络犯罪将进一步蔓延?
ChatGPT给人类带来便捷性的同时,可能也容易成为犯罪分子手中的“武器”,让网络犯罪现象进一步滋生蔓延,严重影响网络生态安全,并给监管带来更大的压力。
一方面,ChatGPT的出现可能会加快恶意软件的开发和变异。奇安信人工智能研究院负责人介绍,美国在暗网中发现了1500多条恶意软件和验证代码中有ChatGPT的身影,甚至还利用恶意代码对ChatGPT进行“培训”,以生成可逃避病毒检测的恶意代码不同变体,研究人员已经确定ChatGPT可以有效生成信息窃取器、远程访问木马和加密货币窃取器等。
另一方面,ChatGPT可能还会被用于网络钓鱼和网络诈骗。ChatGPT可以非常真实流畅地模仿人类写作,这个特点使其有可能成为一种强大的网络钓鱼、网络诈骗工具,特别是当威胁分子需要进行跨语种的欺诈攻击时,ChatGPT很有可能会被用来分发恶意软件。Mira Murati就表示,犯罪分子会利用ChatGPT的编写功能,生成钓鱼电子邮件;利用ChatGPT的对话功能,冒充真实的人或者组织骗取他人信息等。
声音:“新事物”需要跟上“新监管”
为应对ChatGPT等人工智能技术引发的数据安全问题、法律与道德风险,业内人士也纷纷给出自己的看法。
站在企业角度,北京观韬中茂(上海)律师事务所合伙人吴丹君认为,企业除了要保证ChatGPT等人工智能技术“文本挖掘数据”的合规、安全,还需要将算法合规纳入数据安全合规体系,加强技术管理,定期审核、评估、验证算法机制机理。同时,企业还需将伦理道德融入人工智能全生命周期,促进大模型人工智能应用向上向善发展。最后是要加强信息内容管理,建立健全违法和不良信息识别机制和辟谣机制,对输入数据和合成结果进行审核。
而站在监管角度,不少学者希望上升到立法层面。目前国内主要出台了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等部门规章,仍停留在规定层面。北京师范大学互联网发展研究院院长助理吴沈括表示,目前国家层面的人工智能立法正处于预研究阶段,还没有正式的立法计划或者相关的动议草案。
推动伦理规范落地也呼声较高。上海和深圳等地方提出要建立人工智能伦理(专家)委员会,引导企业建立伦理安全治理制度等。据报道,国家科技伦理委员会人工智能分委会正在研究起草人工智能伦理高风险清单,以更好地推动人工智能科研活动的伦理监管。
业内也更亟待引入新监管机制。上海人工智能研究院副总工程师沈灏建议,政府主动探索分级治理和沙盒监管的模式,根据不同风险等级采取不同的管理模式,尤其是允许中低风险领域先行先试。
出品:南都大数据研究院 数据安全治理与研究
研究员:谢小清
编辑:谢小清
更多报道请看专题:数据安全治理与发展研究