警告AI技术有三种方式可消灭人类,医学专家呼吁停止其发展

南都N视频APP · 南都地球
综合2023-05-11 19:47

一个由来自四大洲的5名医生和全球卫生政策专家组成的团队近日在英国医学会杂志《BMJ全球健康》发出新的呼吁,要求停止人工智能(AI)的发展,警告该技术对人类构成“生存威胁”,有三种方式可以消灭人类。

据报道,新的呼吁是在1000多名科学家签署了一封呼吁停止人工智能研究的公开信后仅几周发表的。

这个由联合国大学全球健康国际研究所的一名医生领导的团队警告说,AI技术有三种方式可以消灭人类。

首先,人工智能有帮助扩大监视和虚假信息等风险。专家们表示,人工智能有着快速清理、组织和分析由个人数据组成的大量数据集的能力,包括由日益普遍存在的摄像头收集的图像,这可能使恶势力更容易上台和保持权力。

其次,该团队警告说,人工智能可以通过扩大使用致命性自主武器系统(LAWS)加速大规模谋杀。

最后,健康专家对潜在的严重经济破坏和人类苦难表示担忧,因为数不清的人被那些辛勤工作的机器人剥夺了生计。

不过,今天基于文本的人工智能资源,如OpenAI的ChatGPT,并不完全构成这些健康政策专业人士心目中的“世界末日威胁”。

微信图片_20230511003159.png

橙色线代表的机器智能超越黄色线代表的动物和人类智能的时间表。

专家们表示,他们最可怕的警告适用于高度先进的、仍然是理论上的人工智能类别:自我改进的通用人工智能,或AGI。

AGI将更有能力真正学习和修改自己的代码,以执行今天只有人类能够完成的广泛任务。

专家们认为,这样的AGI理论上可以学习绕过其代码中的任何约束,并开始发展自己的目的。在某些情况下,AGI可能会对人类构成威胁,而且可能是生存威胁——如通过有意或无意地直接或间接造成伤害,攻击或征服人类,或破坏我们所依赖的系统,或耗费资源。

最令人震惊的是,近五分之一的专业人工智能专家似乎同意他们的观点。

半数接受调查的人工智能协会成员预测,AGI可能会在2040年至2065年的某个时候开始“敲打我们的大门”。

 

文/南都记者 陈林

 

编辑:陈林

南都N视频,未经授权不得转载、授权联系方式
banquan@nandu.cc. 020-87006626