AI聊天记录分享即变公开网页,实测8款大模型小心隐私泄露

南都N视频APP · 南都大数据研究院
原创2025-12-16 16:08
图片

“帮我拟一份个人求职简历”“分析下我近期的工资流水”——当用户在AI聊天窗口输入这类包含敏感信息的内容后,若点击“分享”按钮,这些隐私信息可能会以无密码保护的公开网页形式,暴露在互联网中。

此前南方都市报、南都大数据研究院曾报道ChatGPT存在聊天记录泄露风险,近日南都大数据研究院对国内8款主流AI大模型的同类功能展开实测,发现多款产品存在类似隐私风险,用户对外分享的对话记录以无密码的公开网页或小程序形式呈现;个别大模型产品即使删除对话历史,分享链接仍然有效。

【实测】

讯飞星火分享页暴露用户手机部分号码

12月5日—16日,南都大数据研究院选取了DeepSeek、Kimi、豆包、千问、元宝、讯飞星火、文心一言、智谱清言等8款国内AI大模型产品网页端及手机App端进行实测。结果显示,8款AI产品的对话记录分享功能均通过公开网页或小程序等形式实现,用户一旦点击“分享”按钮,对话内容即可能暴露在互联网上。

在操作流程上,8款产品的内容分享功能设计较为相似。用户与AI完成一轮对话后,点击AI回答内容下方的“分享”图标,聊天界面即弹出包含“复制链接”“生成图片”等选项的菜单,供用户选择对话记录的分享方式。随后,将生成的链接粘贴至浏览器,或扫描图片附带的二维码,无需登录账号、输入密码或进行身份验证,即可直接浏览完整对话记录。

在安全提醒方面,仅有DeepSeek在生成分享链接前主动提醒用户:“任何获得链接的人都可以查看你分享的对话,请检查是否包含敏感或隐私内容。”其余7款产品均未设置前置提醒,直接向用户提供分享链接。

值得注意的是,部分产品在App端设有“分享给好友”选项,看似只是单独分享给特定用户,但实测结果显示,千问、元宝、文心一言等分享给好友时,实际发送的同样是不设身份验证的公开网页;讯飞星火、智谱清言可通过小程序向好友分享内容,但小程序页面也不设身份验证,可随意二次转发。

至于分享页面展示的内容,8款产品均以卡片式布局展示用户提问、AI推理过程及回复内容,但部分产品还呈现了用户的账号信息。比如元宝的分享网页上方呈现了用户的完整头像、昵称和内容分享时间;讯飞星火更在分享网页右上角、小程序左上角以“账号名”形式,公开分享者注册手机号码的部分数字,经测试,该“账号名”不允许用户自行修改或隐藏。

图片

讯飞星火在分享网页、小程序公开分享者注册手机号码的前三位及后四位数字。

文心一言网页端分享内容后无法撤销

关于分享页面的取消机制,DeepSeek可通过“系统设置-数据管理”菜单管理此前分享过的链接;Kimi、豆包、千问、元宝、讯飞星火、智谱清言等6款产品则支持通过删除对话历史来撤销分享网页或小程序。用户在聊天界面侧边栏找到对应对话历史并点击删除时,元宝、智谱清言将主动提醒“若您之前主动分享过该对话,分享链接也将一并被删除”;Kimi、豆包、千问、讯飞星火删除对话时虽仅提示“对话记录不可恢复”,但实测结果显示,其分享网页或小程序也在相应对话历史删除后显示“内容暂不可查看”或“对话已被删除”。

但是,文心一言网页端与手机App端对分享页面的处理机制不一致。实测发现,在文心一言网页端与AI对话并分享记录后,其分享页面会在左上角展示用户的完整昵称,且即使删除对话历史,此前生成的分享链接依然有效,内容仍可被公开访问。但对于用户在文心(文小言)App上的AI对话记录,其分享页面能自动隐去用户昵称,并可通过删除对话历史来撤销分享链接。

12月5日,南都研究员就“网页端分享链接无法撤销”这一问题咨询文心一言人工客服,并向其提供了一条示例链接。对方回复称,该问题已记录并反馈。12月15日,南都研究员进行复测,发现此前向客服提供的示例链接内容已被删除,但其他已删除原对话的内容分享链接仍可访问,问题并未得到有效解决。12月16日,南都研究员再次就此问题咨询文心一言人工客服,对方表示会再将此问题反馈至相关负责人跟进。

风险

用户未必了解分享机制

需要明确的是,本次测试的8款AI大模型产品均不会自动公开用户对话内容,仅当用户主动点击对话记录“分享”按钮时,才会生成对应公开网页或小程序,且分享后新增的对话内容不会被纳入公开范围。

“从技术逻辑来看,AI聊天记录分享与网盘文件分享等功能并无本质区别,都是通过网页链接实现内容传递。”有网络安全领域从业人士向南都研究员表示,该功能在工作场景中确实能带来便利,比如用户可将AI生成的设计、报告等直接分享给同事,无需二次整理。风险的核心并非分享功能本身,而是用户可能未意识到“分享即公开”的风险。不少用户未关注分享链接的访问权限,或误以为仅接收分享的人能查看。这种认知偏差在包含个人信息、工作秘密等敏感内容的对话中,极易引发隐私泄露问题。

更值得注意的是,这些AI对话内容的网页分享链接大多为“网站域名+随机字符”的固定格式。网络安全领域从业人士向南都研究员透露,此类链接存在猜解风险,攻击者通过程序批量生成相似字符组合,有可能随机命中并访问到其他用户公开的对话记录。此外,除了纯粹的字符猜解,这类分享链接还可能因为用户误分享、链接被爬虫抓取后流传等意外情况引发隐私泄露事件。

今年8月,ChatGPT曾因大量用户对话记录可通过搜索引擎检索引发争议。随后,OpenAI宣布在对话分享功能中移除“允许对话被搜索引擎收录”的选项,并承认“该功能为用户意外泄露隐私提供了过多机会”。

本次实测中,南都研究员同样发现,通过特定关键词,可在某搜索引擎检索到大量用户分享的AI对话记录。对此,有网络安全领域从业人士解释,这可能是AI大模型网站未有效设置禁止爬虫抓取指令,或搜索引擎及相关爬虫出于商业需求,无视或规避AI大模型的禁止抓取指令。

除了搜索引擎外,南都研究员还发现,若向AI大模型提供部分分享链接,要求其自行检索类似地址,同样可找到大量用户分享的AI对话记录。其中既有某艺人粉丝请AI创作应援文案,也有用户要求AI协助修图,还有技术人员要求AI代为检查代码。

【建议】

用户与AI企业需共同筑牢隐私防线

结合实测结果及安全专家建议,南都研究员整理了以下隐私保护措施,帮助用户规避分享风险:

其一,谨慎使用分享功能。若用户确需向他人传递AI对话记录,可优先选择截图并手动打码敏感信息,或直接复制文本粘贴发送,避免分享原始对话链接。

其二,养成“聊后即清”的习惯。定期删除无需回顾的对话历史,减少敏感信息留存,避免长期闲置的链接成为隐私“后门”。

也有业内人士建议,AI企业应承担更多安全提示责任:例如在用户点击“分享”按钮时,强制弹出“请注意保护敏感信息”的提示框;同时提供“设置访问密码”“限制访问次数”“指定访问对象”等可选安全功能,让用户在便捷性与安全性之间拥有更多选择权。

随着AI技术的普及,唯有企业与用户共同重视、协同发力,才能在享受AI便利的同时,筑牢隐私安全的“防火墙”。


出品:南都大数据研究院

采写:南都研究员 李伟锋

南都N视频,未经授权不得转载、授权联系方式
banquan@nandu.cc. 020-87006626