美国家工程院院士张宏江:过于聪明的大模型或带来灾难性后果

南方都市报APP • AI前哨站
原创2024-03-25 23:35

南都讯 记者胡耕硕 陈秋圆3月24日,中国发展高层论坛2024年年会召开。在当日下午的议程中,北京智源研究院创始理事长、美国国家工程院外籍院士张宏江出席会议并发表主题演讲。他表示,在今天的技术世界中,人们见证着AI大模型技术飞速发展,它重塑了我们的工作方式,在人们的生活中扮演着越来越重要的角色。也因此,他认为,必须设定一些基本的红线,确保技术的发展不会超出控制。其中包括限制AI系统的自主复制和改进能力,以及禁止利用AI研制大规模杀伤性武器等等。

2024年年初,Sora横空出世,给世人带来了极大的震撼。张宏江介绍,Sora之所以能够一鸣惊人,不仅仅是因为它的逼真,更因为它背后的技术实力——无需3D模型支持,仅凭借大数据驱动,就能够创建出逼真的三维场景。而反之,多模态大模型也能描述视频内的内容。

而在如今技术的基础上,多模态大模型未来的发展将如何?张宏江指出,未来多模态大模型可以被用于做“机器的大脑,用于识别外围世界、武装未来的自动驾驶,从而使信息系统、模型系统应用到未来的行动系统”——在张宏江看来,这是未来自主机器人的雏形,也是多模态大模型在今天令人震撼的原因。

而大模型势头迅猛,短短十个月内跨越语言、多模态、视觉等多种模型,背后的原理为何?张宏江认为,其中重要的原因之一是人们不再将人工智能作为单个算法,而是整个系统,“今天的模型不光是规模大,而且具备通用性,很重要的一点是它出现了涌现。”这背后的驱动定律是“规模增长定律”——即不断扩大的模型规模和数据需求,其规模效应能使大模型对各类问题都具备了处理能力。

技术发展同样会革新操作系统。大模型的交互界面已经是自然语言,和传统PC端的交互界面、逻辑并不相同,其产业链也不同于其他产业,正在快速成长,赋能于各种软件工具、人们的工作和生活。

然而,大模型的发展并不全然伴随着好消息,相较于此前人们已经耳熟能详的Deep Fake、假消息等可管理的问题,张宏江认为,在Gemini1.5和GPT-4.0出世时,已经达到了和人类平均智商相近的水平,继续发展下去,“过于聪明”的大模型可能带来灾难性的风险。

张宏江以深度学习领域权威专家杰弗里·辛顿的观点进一步解释道,如今,数字计算本身的效率事实上已经超过了生物计算的效率,因为数字系统可以彼此互相学习,能够将之前积累的信息传递至其他系统。张宏江认为,很快通用人工智能就会在各个方面超越人类的智能。

这意味着,AI的学习能力可能会超过人类,导致人类的工作被机器取代,甚至可能出现人类完全失业的情况。更严重的是,张宏江认为,如果AI系统能够自我改善,可能会对人类带来深层次的风险。

因此,张宏江认为,在AI发展的过程中,有三条不能跨越的红线,其中包括用AI协助武器(尤其是大规模杀伤性武器或者生化武器)的研制,网络安全和欺骗。

怎么保证这些红线不被越过?张宏江认为,这需要全球AI行业、工业和政府的共同协力推动。只有全球各个机构的协同合作,才能够保证人类能够不断地产生新的规范、法律,来保证这些红线不被跨越。

编辑:黄莉玲

2
对这篇文章有想法?跟我聊聊吧
南都新闻,未经授权不得转载。授权联系方式:
banquan@nandu.cc,020-87006626。