AI讨好型人格影响准确性?北京香山论坛中外名家谈AI安全

南方都市报APP • 军情集结号
原创2024-09-13 21:10

第十一届北京香山论坛于9月12日至14日举行。在12日下午主题为“人工智能安全”的中外名家对话会上,与会中外嘉宾围绕当前AI热点话题进行研讨交流。

与会嘉宾认为,AI存在的“讨好型人格”容易影响其准确性,人脑具有不可替代性。当前AI监管面临很大挑战,建议各国政府间有必要制定协议,从政策层面加强监管,缓解AI安全风险。

图片

“人工智能安全”的中外名家对话会现场。

AI多轮问答容易“闪烁其词”,缺乏可信度

“经过几轮回答它开始闪烁其词,慢慢模糊绝对值的可信度。”关于AI是否可信赖的问题,东京大学生产技术研究所特聘教授、日本工程院外籍院士胡昂认为,当前AI缺乏量化的不确定性,对自己回答问题的方式存在不清晰的问题。AI存在不同模型的人格问题,它们有不同性格,有些尖锐,有些容易对抗,有些会喜欢讨好你。“它可能会给你一个非常想知道的结果,但并不代表它一定是准确的。”

关于大家讨论的“小算力”问题,胡昂分析,人的脑科学研究只是略微了解一些清晰结构,即人脑决策。如果可以做如此精确的问题反馈或决策,这是非常高级的智能。虽然人脑在人体内仅占2%,但需要消耗20%的热量。对于人体而言,这绝对不仅仅是器官问题,它是人类中枢最重要的决策机构。虽然是小模型,但是它是高度集中的算法。

 

发展AI最好办法是人为干预和监管,人脑不可替代

“人的脑科学研究被模拟、被深度学习的可能性很大,然而要在短时间内完全取代人类决策是做不到的。”他建议,发展AI最好的办法是人为干预和监管,虽然会放弃一定的效率,但是更能保证决策的科学性。从历史长河来看,人之所以能够有足够的认知,有他存在的道理,“人脑是不可替代的。”

“当前对AI的监管面临很大挑战,监管要加速,要更加敏捷。”同样在联合国教科文组织人工智能与数据科学促进社会发展教席、荷兰海牙应用科技大学数据科学教授兰普罗斯·斯特吉乌拉斯看来,AI是否能取代人脑自主决策,是哲学问题,也是现实问题。“人类的技术人员都会犯错,何况机器?建议各国政府间有必要制定协议,从政策层面加强监管。”


AI发展有不可预测性,相关伦理和治理要走在前面

美国国防分析研究所研究员,美国前助理国防部长帮办施灿德认为,AI的安全问题涉及方方面面,除了国防,还包括民生等。他建议,国家间需要达成多边协议,缓解AI安全风险。

清华大学信息科学技术学院院长、中国工程院院士戴琼海发表观点认为,未来三年,AI发展将进入快车道。由于AI发展的不可预测性,相关伦理、治理要走在前面,要降低AI应用的安全风险,使其为人类谋福祉。

南都记者从主办方获悉,本届论坛共有100余个国家、国际组织官方代表团的500余名代表,以及200余名中外专家学者出席。其中,包括30多名国防部长、军队总长在内的官方代表团,以及红十字国际委员会副主席、亚信秘书长、上合组织副秘书长,北约、欧盟等国际和地区组织代表将出席会议。此外,参会嘉宾中还有30多名前政要和数十位知名学者。参会人员的数量和层级再创新高,代表性更趋全面。

北京香山论坛自2006年创办以来,国际影响力持续攀升,已逐渐成为国内外知名高端安全与防务对话平台,成为中国提供、世界共享的国际公共安全产品和推进全球安全倡议的重要合作平台。

采写/摄影:南都记者潘珊菊 莫倩如 陈秋圆 发自北京

编辑:梁建忠

更多报道请看专题:直击2024北京香山论坛:交锋与对话

1
对这篇文章有想法?跟我聊聊吧
南都新闻,未经授权不得转载。授权联系方式:
banquan@nandu.cc,020-87006626。