如何治愈AI职业焦虑?一组海报速览这场论坛大咖嘉宾观点

南方都市报APP • AI前哨站
原创2024-12-23 21:05

2024是大模型浪潮迈入应用深化与广泛落地关键阶段的一年,AI技术逐渐被广泛应用于生产生活多个环节,并且正以前所未有的速度推动产业和社会变革。12月18日,南都数字经济治理研究中心联合清华大学智能法治研究院以“AI应用落地提速,如何向善治理”为主题,在京举办“第八届啄木鸟数据治理论坛”。

会上,南都数字经济治理研究中心重磅发布3.6万字的《生成式AI用户风险感知与信息披露透明度报告(2024)》。该报告通过数据可视化分析、文本分析的方式,基于上千份问卷调研数据,呈现2024年大模型行业应用落地的合规现状,以及用户对生成式AI潜在风险的认知和态度。

图片

《生成式AI用户风险感知与信息披露透明度报告(2024)》

为了解当前国产大模型信息披露透明度情况,《报告》选取了15款常用的大模型产品作为测评样本,通过分析其隐私政策和用户协议,产品功能设计体验等方式,了解各家的信息披露透明度。报告也注重观察行业实践案例,对比了ChatGPT、Gemini等国外主流生成式AI在数据安全、隐私保护等方面的先进做法。

测评主要基于个人信息保护、知识产权、内容安全、特殊群体保护、投诉反馈等5个维度,并细分20个具体测评项。结果显示,15款被测大模型产品无一披露训练数据来源;基于技术的局限性,各家均称无法完全保证AI生成内容的真实性和准确性;绝大多数大模型产品声明,会将用户输入的信息内容、提示语等用于模型训练,仅有4款允许用户撤回语音信息授权等。

在生成式AI风险感知方面,《报告》披露,经问卷调研发现,近九成受访者对生成式AI的潜在风险有一定认识,但深入了解的比例相对较低;虚假信息与欺诈最令受访者担忧,隐私与数据安全、科研诚信风险、版权作品被盗用也引起普遍担忧;对于AI深度合成技术被滥用的问题,支持通过立法以及对生成内容添加明确标识扼制此类现象的人数最多等。

论坛当天,来自高校、集体管理组织、企业界等领域的专家学者围绕人工智能治理领域出现的新现象、新问题展开探讨。清华大学智能法治研究院院长、法学院教授申卫星以视频形式致辞。

主旨演讲环节中,中国工程院院士吴世忠分享了对AI安全与治理现状的观察;中国社会科学院法学所研究员周汉华围绕数据的乘数效应与数据确权主题发表新锐观点。

图片


图片


图片

聚焦行业前沿问题,中国文字著作权协会常务副会长兼总干事张洪波分享了在生成式人工智能数据使用的版权边界与利益平衡方面的思考,中国人民大学哲学院教授刘永谋则从人文角度分析了未来AI陪伴服务发展可能带来的六方面风险。另外,对外经贸大学数字经济与法律创新研究中心主任许可现场分享了一份最新调研成果,通过问卷数据分析摸底了当前用户对算法和AI大模型的认知与风险感知情况。

图片

图片

图片

此次论坛还设计了圆桌讨论环节,中国科学院科技战略咨询研究院科技发展战略所所长肖尤丹、清华大学智能法治研究院院长助理刘云、赛博昆仑创始人兼CEO郑文彬以及金山办公安全中心负责人刘振全四位来自AI产研一线的嘉宾齐聚一堂,共同探讨AI技术发展背景下数据治理面临的新形势与解决方案。

图片

图片

图片

图片

2024是啄木鸟数据治理论坛举办的第八年。会后,各界专家、学者纷纷表达了对南都数字经济治理研究中心进一步发展的期待。他们普遍提到,每届啄木鸟论坛都能揭露更多事实和真相,提供了一个让行业人士冷静思考待解决的问题,并且共同探讨解决方案的好机会。

出品:南都数字经济治理研究中心

采写:南都记者 樊文扬

制图:李蓓

编辑:李玲

更多报道请看专题:2024啄木鸟数据治理论坛

对这篇文章有想法?跟我聊聊吧
南都新闻,未经授权不得转载。授权联系方式:
banquan@nandu.cc,020-87006626。