近日,有博主发帖称,自己在使用Kimi处理工作时,竟意外收到了陌生人的简历,其中包含姓名、电话号码、邮箱等个人敏感信息。Kimi官方解释称这是AI出现幻觉,但这一解释并未获得当事人的认可。
南都大数据研究院采访的多位专家分析指出,Kimi本次事件由模型推理或幻觉引起的可能性较小,不属于典型意义上的AI幻觉,或与用户数据隔离、用户数据脱敏处理等问题相关。
用Kimi翻译图片时收到他人简历
是AI幻觉还是隐私泄露?
发帖博主称,自己在使用Kimi识别翻译工作PPT时,错发了一张包含3句英文的图片,结果Kimi先是发来了一段毫不相关的工程学文字,在被用户质疑答非所问后,又发来一份陌生人的简历,包括姓名、电话号码、邮箱以及详细的工作经历等信息。帖文评论区中,有人解释称可能是网络上的公开简历被Kimi录入。然而,博主联系上简历主人后,对方却表示曾让Kimi帮忙优化简历,发送的是文档信息,且并非公开简历。
“‘我和AI的聊天记录有很大概率被人看到’,这个(情况)是确实存在的”,博主表示,Kimi运营方月之暗面与其取得联系,解释称是AI出现幻觉,并希望博主删除笔记。随后,官方又声称“发串了”,将别人的信息误发给了博主。不过,博主对官方的解释并不接受。截至目前,月之暗面尚未作出进一步公开回应。
Kimi简历事件当事人帖文截图。
这次事件究竟是AI幻觉,还是数据泄露?多位专家、律师以及业内人士公开表示,这并非典型意义上的“AI幻觉”。
周敏超律师团队在微信公众号上发文表示,AI幻觉,是大模型基于算法训练、语义推理,凭空捏造、虚构不存在的信息,比如编造工作经历、虚假证件编号、不实个人信息,内容无真实数据源支撑。而本次的Kimi泄露的简历,全部都是用户上传的原始资料,信息真实、完整、可溯源,是客观存在的个人真实信息,与AI幻觉虚构编造的定义完全不同。
一位深耕人工智能安全领域的专家在接受南都采访时也指出,大模型是通过大量数据训练出来的,这些训练数据基本上都是从网络采集的。之前也发生过采集的数据中包含用户隐私信息,结果训练好的模型在回答问题的时候偶尔会输出一些个人隐私信息。但这种一般都是离散碎片的信息,比如只有一个真实名字、只有一个真实电话,或者偶尔出现一段个人工作经历但是没有具体人名等。像这种整个简历姓名、电话、经历都出现一模一样的情况,仅靠模型推理或幻觉,形成这样结果的概率较小。
AI为何向用户推送他人隐私?
专家称或与数据隔离、脱敏处理有关
至于Kimi为何会出现向用户推送他人真实简历的错误,多位业内人士公开表示,此事更可能涉及会话隔离、缓存复用、检索增强生成链路绑定错误等问题。
深耕人工智能安全领域的专家告诉南都记者,当前大模型的使用中,每个用户需注册登录自己的账号,每个账号拥有唯一ID,系统会为每个用户分配一个独立的空间用于存放用户自己的内容。理论上,不同的用户空间相互隔离,用户不应该能看到别人空间里的简历文件。“类似超市门口的储物柜,每个人开一个储物柜用于存放自己的物品。不同人的储物柜是隔离的,别人的东西不可能放到你的储物柜里来。”
在他看来,这次事件有可能是后台服务器的隔离管理和权限管理出现故障,一是在数据存储的时候用户隔离出了问题,比如给用户分配了错误的登录ID、给不同的用户分配了相同的缓存ID、大模型的用户历史记忆总结隔离失效等;二是Kimi把用户数据用于大模型知识检索增强,但是数据脱敏出了问题。“具体是哪种原因,只能Kimi自己内部做技术调查,找到对应的技术缺陷了。”
针对大模型知识检索增强,他进一步解释,因大模型预训练的知识有限,技术上一般会有一个数据库,把额外的知识都保存到数据库中。比如把各种简历的模板保存在数据库中,当有人问简历怎么写的时候,大模型会去搜索这个数据库,得到一些简历模板,然后再编写类似的简历返回给用户。一般情况下,如果是用户专用的数据库,那用户自己的简历只给自己参考;如果是公用数据库,那把用户简历放到公用数据库中,必须要做脱敏处理。“这个事件中,用户检索到别人的简历,如果Kimi设计是公用数据库,那说明它们脱敏没有处理好,导致带有个人隐私的信息进入到了公用数据库。”
Kimi或构成泄露个人隐私
专家提醒用户避免向AI输入敏感信息
在周敏超律师团队看来,剥开技术外壳,此次Kimi简历泄露事件的核心法律问题,是敏感个人信息处理违规与数据安全保障义务缺失。用户的姓名、手机号、住址、职场等信息组合,属于敏感个人信息,网络运营者也必须采取加密、访问控制、数据隔离、风险监测等安全措施,防止个人信息泄露、篡改、丢失。本次事件中,用户仅为使用文档解析功能上传资料,并未同意平台长期缓存、跨场景复用、无限制留存,出现用户个人简历被平台发送给他人的情况,或暴露出平台未履行数据安全保障义务。还有律师直言,Kimi的这一行为在法律上构成“个人信息处理者未经授权向他人提供个人信息”,属于典型的个人信息泄露,涉嫌违法违规。
南都大数据研究院查看发现,Kimi的隐私政策提到,在经安全加密技术处理、严格去标识化且无法重新识别特定个人的前提下,平台会将用户输入输出的内容用来优化模型。其中还有一条特别提示,“请谨慎上传您的个人信息,尤其是敏感个人信息。如果信息无法单独或结合其他信息识别到您的个人身份,则其不属于法律意义上您的个人信息”。
有业内人士指出,Kimi的这类提示不能免除平台法定的数据安全保护义务,记录并使用用户信息的行为本身并不违法,但一旦向第三方泄露了用户隐私,AI平台仍需要担责。
南都大数据研究院检索发现,在AI大模型高歌猛进的同时,AI数据安全和个人数据保护问题也时有发生。
2025年5月,国家网络与信息安全信息通报中心曾发布通告,Kimi、智谱清言等35款移动应用存在违法违规收集使用个人信息行为。
同年9月,国内首次针对AI大模型的众测结果显示,15款AI大模型和应用产品共发现各类安全漏洞高达281个,其中大模型特有漏洞就有177个,比例超过60%。
南都大数据研究院此前曾对国内8款AI大模型进行实测,结果显示其对话记录分享功能均通过公开网页或小程序等形式实现,用户一旦点击“分享”按钮,对话内容即可能暴露在互联网上。仅有一款大模型在生成分享链接前会主动提醒用户检查是否包含敏感或隐私内容。
国家信息技术安全研究中心技术研究部部长杨韬曾提醒,大家在和生成式人工智能交互的时候,往往会一问一答,在这种问答的过程中尽量避免输入个人信息,尤其是敏感个人信息以及相关工作秘密信息。
出品:南都大数据研究院AI新治向工作室
采写:南都研究员 罗韵