红十字国际委员会顾问:AI加剧自主武器带来的人道伦理问题

南方都市报APP • 军情集结号
原创2023-10-28 10:46

编者按:10月29日-31日,第十届北京香山论坛将在京举行。作为全球重要安全对话平台之一,本届论坛以“共同安全、持久和平”为主题,聚焦全球安全倡议重点合作方向,为各方共议安全难题、求解安全之策、促进安全合作提供平等发声机会。论坛开幕在即,南都推出系列专家评述,从多维视角共话全球安全之道。

自主武器是指在没有人类干预的情况下,选择并对目标使用武力的武器。自主武器在军事上日益发展所带来的危险包括人道、法律和伦理问题,而人工智能(AI)的应用加剧了这些危机。尼尔·戴维森(Neil Davison)是红十字国际委员会(ICRC)总部国际法、政策和人道主义外交部武器和敌对行为部门的高级科学和政策顾问,他指出,红十字国际委员会已经强调,必须禁止使用直接以人为攻击目标的自主武器和不可预测的自主武器,例如由机器学习控制的武器,同时对所有其他武器制定明确而具体的限制。

图片

红十字国际委员会(ICRC)总部国际法、政策和人道主义外交部武器和敌对行为部门高级科学和政策顾问尼尔·戴维森(Neil Davison)。

自2011年以来,尼尔一直代表红十字国际委员会参加多边裁军讨论,领导红十字国际委员会应对自主武器和军事人工智能等新兴技术带来的挑战。在即将举办的北京香山论坛上,他将参与关于加强人工智能国际安全管理的讨论。

在尼尔看来,人工智能的某些军事应用可能会增加自主武器带来的危险,加剧网络行动和信息战对平民造成的伤害,并对人类判断在武装冲突中的关键作用产生负面影响。

“其中最令人担忧的是,有人建议人工智能可被用于核武器使用方面的决策指导,这就有可能加剧使用核武器的风险,造成灾难性后果。”尼尔说,这些从人道视角看会产生重大人道影响的人工智能在武装冲突中的应用,红十字国际委员会已就此提请各方注意。

近年来,中国发表了《加强人工智能伦理治理》和《规范人工智能军事应用》的立场文件,并在最近的《携手共建人类命运共同体:中国的倡议与行动》中表达了对“人工智能缺乏完善治理”的担忧。

“令人鼓舞的是,中国强调人工智能应‘以人为本’,且应遵循‘人工智能为善’的原则。这与红十字国际委员会对武装冲突中的人工智能所采取的‘以人为本的方法’相互关联。”尼尔谈道。

10月5日,联合国秘书长安东尼奥·古特雷斯和红十字国际委员会主席发出紧急联合呼吁,要求各国在2026年之前完成对自动武器加以限制和禁止的有关谈判。红十字国际委员会强调,必须禁止使用直接以人为攻击目标的自主武器和不可预测的自主武器,例如由机器学习控制的武器,同时对所有其他武器制定明确而具体的限制。

尼尔认为,北京香山论坛为寻求对话提供了一个独特机会,为协商有效应对当代挑战的多边倡议提供了平台。“我个人非常期待在第十届北京香山论坛上就这些问题进行深入交流。”尼尔说。


采写:南都记者 赵霖萱 莫倩如 发自北京

 

编辑:梁建忠

南都新闻,未经授权不得转载。授权联系方式
banquan@nandu.cc. 020-87006626
2