喊停AI“军备竞赛”,然后呢?马斯克联名公开信遭抨击

南方都市报APP • AI前哨站
原创2023-03-30 18:38

当AI领域的“军备竞赛”愈演愈烈,有人猛踩油门,也有人赶紧喊停。

近日,特斯拉CEO马斯克、AI三巨头之一Yoshua Bengio、苹果联合创始人Steve Wozniak等千余名AI专家联名发布公开信,呼吁暂停训练比GPT-4更强大的AI系统。

bdf05fd0a0ff8fe6bc7867a440cd814.png

更为戏剧性的是,自这封公开信发出为止,公开信开头的署名数便反复横跳——只因有不少显示已署名的专家公开澄清自己“根本没有签过名”,其中就包括Facebook首席科学家和OpenAI的CEO。

签名与未签名者的交替佐证、加速派与喊停派的疯狂交锋、专家学者与普通大众的激烈争论……种种现象,都将这个疯狂而焦灼的“AI盛夏”真正推到了我们眼前。

1

公开信:暂停训练更强AI至少 6 个月

这是一封由美国非盈利性研究机构“生命的未来研究所”在其官方网站上发表的公开信。信中开门见山地表示,当前这种具有人类智能的人工智能系统可能对社会和人类构成深远的风险。

“最近几个月,AI实验室正在开发和部署越来越强大的数字思维,这种竞争逐渐失控——包括它们的创造者在内,没有人能理解、预测或可靠地控制它们。”信里直言,AI系统在一般任务上已经具备了与人类竞争的能力。

公开信还面向所有人发问:我们是否应该让机器用宣传和谎言充斥我们的信息渠道?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过我们的数量,胜过我们的智慧,淘汰我们并取代我们?我们是否应该冒着失去对我们文明控制的风险?

对此,公开信强调,“只有当我们确信强大的AI系统是积极的、风险是可控的,才应该继续这种开发。而且AI的潜在影响越大,我们就越需要充分的理由来证明其可靠性。”

基于上述风险,公开信呼吁所有正在训练比GPT-4更强大的AI系统的实验室立即暂停训练,至少暂停6个月。如果不能迅速实施,政府应该介入并发布禁止令。

同时,利用这段暂停时间共同开发和实施一套人工智能设计和开发的共享安全协议,由独立外部专家进行审核监督。而如果这种暂停无法迅速实施,还应允许各国政府介入实施暂停。

而公开信也表示,上述措施“并不意味着一般意义上的人工智能开发的暂停,只是从危险的竞赛退回到具有紧急能力的更大的黑匣子模型”。 公开信还提到,AI开发人员必须与决策者合作,大力推进强有力的AI治理系统的发展。

2

支持者:非常必要vs反对者:骇人听闻

截至稿件发布,公开信的署名已攀升至1377个。除了马斯克之外,还包括AI三巨头之一、图灵奖得主Yoshua Bengio,苹果联合创始人Steve Wozniak,一度爆火的AI绘画工具Stable Diffusion背后的AI初创公司CEO Emad Mostaque,《人类简史》作者Yuval Noah Hararias,伯克利计算机科学教授 Stuart Russell等专家学者及企业人士。

Bengio在接受媒体采访时强调,暂停六个月实验对于包括政府在内的治理机构是必要的,可以利用这段时间来审核和验证AI系统以保证公众安全。同样签了名的Stability.AI首席执行官Emad Mostaque发推表示,尽管自己不完全同意公开信内容,但其中确实存在有价值的部分。纽约大学心理学和神经科学教授Gary Marcus则认为“这封信并不完美,但精神是正确的”。

颇为戏剧性的是,有一些AI界大佬声称自己“被签名”了。除了澄清自己没有在公开信上签名,不少人还表达了对公开信的不满和不认可。

机器学习奠基人Thomas G. Dietterich发推表示:“我没有签名。这封信充斥着骇人听闻的言辞和无效或根本不存在的政策主张。现在确实存在重要的技术和政策问题,但我们中的许多人正在解决这些问题。”

这条推文得到了同样“被签名”的Facebook首席科学家、AI三巨头之一Yann Lecun转发。Lecun表示,他完全同意Dietterich的观点。

1.png

值得注意的是,公开信引用的第一篇论文的合著者、华盛顿大学语言学系教授Emily M. Bender也回应称,这封公开信曲解了她的研究成果。她逐字逐句地对比原论文与公开信内容,表示论文强调风险来自挥霍使用能源、破坏自然生态系统等,而不是因为超出控制的人工智能。

康奈尔大学数字和信息法教授James Grimmelmann在接受路透社采访时,直接讽刺马斯克连特斯拉自动驾驶带来的诸多问题都没能解决,此时签署这封信,无疑是“十分虚伪的”。

“AI具有很强的不可解释性”,华南理工大学计算机科学与工程学院教授、中国计算机学会(CCF)高级会员马千里对南都记者表示,由于AI采用了无监督学习,可解释性较差,因此不管它给出的答案正确还是错误,你都无法知道它为什么那么回答,也不知道它将来会变成什么样子、会不会变得危险,而这可能引发一定的威胁,值得我们去思考和关注。

3

从BERT模型到GPT-4,AI大模型角力白热化

AI竞赛的号角或许在近期才为大众耳闻,而事实上,这场加速跑的起点线或许比你想象得还要早。

早在2017年,一篇来自谷歌大脑Bengio团队(开头签署公开信的那位Bengio)的论文《Attention Is All You Need》发表,石破天惊地提出了一种叫做Transformer的深度学习模型,并采用了注意力(attention)学习机制。自此,这一框架就成为了自然语言处理领域的首选方法。

2018年,谷歌再次基于Transformer模型提出3亿参数BERT模型,一举改变了自然语言处理的范式,成为了该领域日后无数研究的基础与骨干。而其前所未有的性能也引来了圈内无数关注。

事实上,今天如日中天的OpenAI在同年稍早些推出了GPT-1模型,也是现在ChatGPT的雏形。而在两年后的2020年6月11日,GPT-3正式走上历史舞台。

这是一个1750亿巨量参数的模型,规模接近人类神经元数量,自出现起,就牢牢占据着业界公认的最强的语言模型的位置。也是自此开始,大模型的热潮开始翻涌,大模型的“暴力美学”开始成为国内外技术领域一道亮眼的道路。

一年后,国内阿里达摩研究院、北京智源研究院、百度也相继推出自己的大模型,为自然语言处理领域添砖加瓦。而当时间拨快来到2022年11月30日,ChatGPT横空出世,吹响了AI赛跑的第一道哨声。

微信截图_20230330172847.png

ChatGPT的背后就是GPT系列的大语言模型GPT-3.5,而搭载了GPT-3.5的ChatGPT仅凭能与使用者进行自然、持续的多轮对话这一朴素却强大的能力,就直接突破大众对AI能力的想象。

不到5天时间,100万用户涌入ChatGPT网站,无数人感叹人工智能将带来天翻地覆的变化,但,这似乎只是开始。相关技术更新迭代的赛跑即使称不上“失控”,也绝对算得上愈发焦灼——

今年2月初,科技巨头谷歌就开始测试类似产品Apprentice Bard,同时急投20亿押注ChatGPT竞品公司Anthropic。

2月中旬,阿里达摩院内测中的聊天机器人被提前曝光;科大讯飞确定将于5月6日正式发布自家相关产品;微软再次官宣将ChatGPT嵌入必应搜索。

3月14日, OpenAI推出新一代语言大模型GPT-4,在性能上全面超越ChatGPT背后的“基底”GPT-3.5。

3月16日,百度文心一言正式发布,称其中文理解能力超越其他任何模型。当日晚间,微软再次宣布,正式将GPT-4接入Office全家桶,号称能彻底颠覆当前互联网的工作方式。

一记又一记的重磅炸弹不禁接连轰炸着科技圈内,其焦灼的情绪也早已弥漫到圈外,让无数普通人产生了实际的惊叹、焦虑与恐慌。

1956年8月31日,一场在美国达特茅斯举办的夏季人工智能研究计划会议开始,信息论创始人香农、IBM信息研究主管罗切斯特皆出席到场。也正是在这场会议上,人工智能(Artificial Intelligence)这一名词得以诞生——这也就是著名的“AI盛夏”(AI summer)。

而在今天这封公开信的结尾,也有这样一句话:“希望我们享受一个漫长的AI盛夏,而不是在毫无准备的情况下匆忙进入秋天。”

在历史上真正的“AI盛夏”的六十多年后,ChatGPT及相关一系列产品技术的发布,似乎已切实让人感受到了一股蓬勃的热意,而这份炎热是否真的会引人“坠入”人工智能的秋天,现在还不得而知。

v2-d507ed40f734f399b64f3d2193bdcd63_1440w.jpg

1956年的达特茅斯会议现场


采写:南都记者杨博雯 实习生朱梓函

编辑:蒋琳

更多报道请看专题:马斯克中国行

2
对这篇文章有想法?跟我聊聊吧
南都新闻,未经授权不得转载。授权联系方式:
banquan@nandu.cc,020-87006626。