日前,南都第八届“啄木鸟数据治理论坛”在京举办,会上发布《生成式AI用户风险感知与信息披露透明度报告(2024)》。报告测评发现,用户的个人数据已被不少网络平台用于大模型的训练和优化,但仅有淘宝、携程、抖音少数几家平台会明确告知将用户数据用于AI大模型训练和优化,而国内主流平台普遍未提供用户拒绝和退出的渠道。
生成式人工智能正在深度嵌入每个人的生活。根据南都报告提供的数据,超九成受访者称使用过生成式AI,近45%的受访者已到“经常使用”的程度,但仅有12.01%的人自认对其中的潜在风险“非常了解”,而对于网络平台利用个人数据进行大模型训练和优化,有超过四成的受访者不赞成使用个人数据进行训练,且要求提供拒绝和退出功能。
生成式AI的快速迭代,有赖海量的数据“投喂”,这自然就涉及相关数据的合法性授权问题。2023年7月出台的《生成式人工智能服务管理暂行办法》就明确,生成式人工智能服务提供者“应当依法开展”预训练、优化训练等训练数据处理活动,不仅明示要求相关训练使用具有合法来源的数据和基础模型,要求对涉及知识产权的“不得侵害他人依法享有的知识产权”,同时强调训练涉及个人信息“应当取得个人同意”。
但南都测评发现,国内主流平台中仅有极少数会明确告知将用户数据用于AI大模型训练和优化。而值得注意的是,明确告知与明示同意之间依然存在属性上的差别,在常见的告知信息“小字化”、用户同意“概括化”的背景中,用户对个人信息用于大模型训练的知情抵达度可能依然存疑。更进一步看,对个人数据用于大模型训练的事实,国内平台普遍存在缺乏拒绝渠道和退出机制的问题。
个人信息用于大模型训练应当得到权利主体明示同意,而因为拒绝渠道的不畅和退出机制的不明确,使得现存为数不多的告知步骤也存在无法拒绝的困境。2023年发布的《个人信息保护合规审计管理办法(征求意见稿)》列出“个人信息保护合规审计”的诸多要点,其中就包括“处理个人信息是否取得个人同意,该同意是否在个人信息主体充分知情的前提下自愿、明确作出”“基于个人同意处理个人信息,是否为个人提供便捷的撤回同意的方式”。其所指向的监管执法态度非常明确,个人信息的处理应当得到权利人在充分知情前提下的明示同意,且必须为用户设置便捷的撤回同意方式。
不仅如此,公民个人信息在“投喂”平台自家大模型之外,还可能存在未经同意提供给第三方的情况,而权利主体对此的知情同意、证据收集等方面存在救济困境。报告测评显示,与国内主流平台未提供用户拒绝个人数据“投喂”大模型渠道同步,也尚未看到有平台对用户个人数据“提供给第三方平台进行大模型训练”履行知情同意程序,除了个人信息权利失守,还可能为某些大模型训练数据的合法性埋下合规隐患。
权利可以放弃,但不能被无视。尽管也有近六成受访者并不排斥平台挖掘数据“富矿”,但前提依然是平台做到明示告知和个人数据保护,而这也不是不提供拒绝按钮、不给出退出渠道的理由。生成式AI的迭代发展,同样应当谨守法律边界,而监管执法的有效跟进,包括媒体监督在内的线索提供,同样是确保新兴产业不跑偏、个人信息安全不“裸奔”的压舱石。
赶紧关注我们的官方账号吧~
清朗网络空间,我们共同守护!
扫码进入举报不良信息页面
来源丨南方都市报
编辑|李洋
柳州市互联网信息办公室出品