“为青少年营造风清气正的网络空间”“培养担当民族复兴大任的时代新人”,是时代要求,也是各方责任。而近年来,随着音视频及直播平台的迅速发展,未成年人网络保护更是全社会关注的焦点。为了进一步凝聚社会共识、搭建沟通桥梁、推动建育合力、营造共赢生态,南方都市报、南都大数据研究院立足音视频及直播平台未成年人保护,即日起推出观察报道及相关活动,试图从法治引领、平台担当、家庭履责、社会共建等方面展开探讨,并深入挖掘创新经验,提炼通用价值,发挥智媒协同共治功能,致力为互联网平台未成年人保护的“中国方案”注入动能,齐心协力“呵护下一代,传承价值观”!首个章节是专家访谈系列,一起听听来自不同领域的宝贵建议。
信息技术浪潮席卷全球,数字产业融入你我生活,也让未成年人沉迷网络、过度消费、遭遇不良信息诱导等社会问题逐渐暴露。平台企业要做到合规,不仅要将法律问题转化为技术语言,最后还要有效落实到技术中去。中国电子技术标准化研究院网络安全研究中心测评实验室副主任何延哲接受南都专访指出,目前身份验证难是未成年人个人信息保护最大难题,需关注身份验证黑灰产现象,采用人脸识别等技术不仅需要尊重用户知情权和选择权,还可考虑以“最少够用”原则选择适当的识别精度,以平衡隐私保护问题。最后,平台还要落实数据最小化储存和使用,加强数据安全风险管控能力。
何延哲,中国电子技术标准化研究院网络安全研究中心测评实验室副主任,长期从事网络安全标准与合规、个人信息保护和数据安全、云计算安全、风险评估方面的研究工作,是《个人信息安全规范》《个人信息安全影响评估指南》《个人信息告知同意指南》等国家标准主要编制人。
01 谈未成年人身份验证
身份验证难是未成年人个人信息保护最大难题
南都:当前市场上的网络音视频服务运营者收集、处理未成年人个人信息存在哪些问题?针对网络音视频平台领域的未成年网络保护,技术监管有哪些难点?
何延哲:从根上来看,我觉得未成年人个人信息保护最大的问题就是身份验证难的问题。如何验证这个人是不是未成年人,如果你明确知道这是一个未成年人,后面措施跟上,该防沉迷的防沉迷,该限制时长的限制时长,该限制打赏的限制打赏,这没有问题,但一开始这一步没有做到位,后面就全乱套了。另外,随着身份验证越来越严格,大量还没能戒掉网瘾的未成年人用户会从往下流,明面上看不见了,会不会有一些黑灰产提供其他隐蔽的认证方式服务,从未成年人网络保护的角度来讲,需要关注这一类现象。
南都:即使有实名认证,也有未成年人使用成年人身份证进行注册,目前部分平台已在尝使用声纹识别或尝试研发人脸识别技术用以识别未成年人,现在收集或分析提取这些生物识别信息存在哪些问题?
何延哲:从技术层面而言,人脸识别技术的大规模使用,基于人脸特征点的信息是以数字化信息进行存储的,相关数据库就面临着被黑客攻击或者自身防范不力导致泄露事件。人脸特征数据库的外泄将面临很大的隐患,首先以往密码被窃取,可通过重新设置实现密码更改,并提高安全防范级别,但人脸等生物特征信息是唯一且终身不变的,因此,一旦泄露就将导致人们个人财产、或者隐私等被公开,造成重大损失,并且无法挽回。还需要的注意的是,目前人脸识别强制使用的现象非常突出,忽略了用户的知情权,在个人信息保护的意识觉醒的情况下,要符合知情告知要求,必须要让用户清楚的知道平台要获取哪些信息、信息用处是什么以及有选择的权利。此外,绝大部分平台尚未实现向用户提供可以选择删除人脸信息的机制,用户一旦开通人脸识别,很难单独撤回对人脸信息的同意。
南都:一方面世界各国对个人信息保护的立法和监管逐渐加大,另一方面部分平台未成年人网络保护工作仍然依赖信息收集,以识别未成年人身份,如何防范过度收集、违规滥用?未成年人网络保护和隐私保护如何达成平衡?
何延哲:未成年人网络保护的第一个环节是身份验证,在这个信息收集过程中,其实涉及的不仅是未成年人个人的隐私,而且是包括所有成年人在内的隐私。身份证实名制早就有了,但是在防沉迷的效果不是特别好。现在没有法律法规要求在识别未成年人身份时要用人脸识别这样的手段,只是一些机构为了达到好的效果想尝试这么做,但即便是拿人脸识别验证,牺牲的也不只是未成年人的时间,而是所有用户的时间。是否能有更好的技术手段,让成年人不再牺牲隐私的前提下也能做到识别?比如说你可以识别一下人脸,成年人也一刷就过去了没问题,但是这个过程你能不能不收集完整的人脸,只是验证年龄,比如特征点大概取几个就能代表年龄,符合最少够用原则,不需要像网上支付时对人脸识别的要求那么精确,针对特定业务场景,将精度降下来,这是可以考虑的一种技术方案。
02 谈数据合规难点
法律问题转化为技术语言存在挑战
南都:是否存在技术上更安全或更便捷的操作方案但与法律要求相冲突的情况?在法律问题与技术语言的转化当中,网络音视频直播企业存在哪些数据合规难点?
何延哲:如今的相关规定要求越来越复杂和严格,企业要做到数据合规,不仅要将法律问题转化为技术语言,最后还要有效落实到技术中去。法律规定只是原则性的框架,但真要把它变成代码,在一个大平台复杂的业务逻辑上,说起来容易做起来难。在技术上更安全或更便捷的操作方案但与法律要求相冲突的情况当然也存在,比如人脸识别当然是技术上更好的方案了,但是已经遭到很多人的反感。法律上要求告知同意等等,得设计很多弹窗,考虑用户体验,得设计撤回同意的机制,整个数据库里的所有的数据重新编排逻辑,都涉及技术实现,比如撤回同意这个数据,平台内部可能分很多业务线,业务线都有自己的权限管理。用户这边更改了主意,背后的数据该怎么流动和处理,权限怎么流动,授权给谁,不授权给谁,都得跟上,这就是数据治理的问题,这个问题不比社会治理容易。
南都:新修订的《未成年人保护法》第八十条规定,“网络服务提供者发现用户发布、传播可能影响未成年人身心健康的信息且未作显著提示的,应当作出提示或者通知用户予以提示;未作出提示的,不得传输相关信息。”但部分直播平台内容有即时性,这对平台带来怎样的挑战?是否有好的解决方案?
何延哲:对于直播业务性质的平台而言,难以预测会出现什么样的状况,又要求不良信息内容要给未成年人做提示,从技术角度而言,用算法审查内容很难做到百分之百准确。一方面有漏判,一方面有误判,漏判肯定是要不得,而误判也涉及到内容制作者的正当利益。所以说技术是在帮助我们提高效率,但不能代替一切,用技术提高效率以后,剩下的人工审核就要跟上。技术肯定会不断优化,但有一个过程,哪个平台技术好,人工可以少一点,技术不好,人工就需要多一点,各家平台进行商业竞争,希望可以达到良币驱逐劣币的效果。
03 谈算法策略披露
算法策略披露制度要把握平衡
南都:提升平台算法透明度一直在提,对算法策略披露制度有何看法或建议?
何延哲:算法模型、参数设置等几乎都属于企业的重要商业信息,涉及核心业务的算法甚至属于商业秘密,因此企业没有公开的动力。此外,相关法律也没有对此作太具体的规定,也是企业迟迟难以履行公开义务的重要原因。算法现在就没怎么披露,现在要求披露,怎么披露?是不是巨细无遗披露,肯定也不是,数据系统能公开透明到什么程度,连源代码都公开了那肯定不行,不管你算法到底有没有作恶,起码知识产权和商业秘密都没了,还可能被其他恶意人员从中找到漏洞并攻击利用,这就是利大于弊,弊大于利的问题,也涉及平台的主观态度和客观能力的问题。一点都不披露的平台态度上肯定有问题,但是披露到什么程度,能解决什么样的问题,还需要研究。比如说,实际上有些个别平台尝试披露算法,也就一千字以内,这个意义也不大,因为无法验证这个算法是否公正。还有部分平台想披露,但又顾虑重重,不知道怎么披露,因为没有具体的标准。算法的公开可能只面向监管部门,但如何设计合理的算法策略披露制度,还需要继续研究探讨,把握平衡点。
南都:对于收集使用未成年人个人信息的平台企业而言,强化数据安全能力还有哪些重点?
何延哲:第一,目前平台数据最小化储存和使用做的可能还不够。用户使用音视频直播平台过程中产生的很多数据,到底有没有按照最小期限的方式去定期清理,很多平台都还没有公开具体的规则。举个例子,原则上提取人脸特征信息完成身份核验后,从法律法规提出的最小化原则出发,应该及时删除原始样本,以实名认证为由收集的人脸信息上传至服务器端,应按照与用户约定的实名认证功能使用,在调用第三方接口进行真实身份比对,目的实现后删除原图像。很多平台在实名认证时,没有说明此信息在完成相应功能后将被删除,在实践中,大部分运营者都有长期留存的习惯。第二,数据安全风险管控还需要加强,数据在内部管理或者流通过程中有一些实际风险需要监测,防止数据泄露,这也是个重点,因为我们最近在做一些测试的时候,发现很多应用程序的服务器接口之间可以直接拿到用户非常敏感的数据,在数据安全工作上形成完善内部管理体系的企业还少之又少。网络安全风险很常见,面对不同的风险,要达到一个动态风险平衡。首先是平台主观性尽责的问题,再来是客观上的风险控制的问题。风险是不可能被消灭的,而是要通过行之有效的管理手段、技术措施使造成的危害可控,就已经是比较理想的状态了。
出品:南都大数据研究院
总策划:戎明昌
统筹:王卫国 邹莹
执行:张雨亭 杨小
设计:尹洁琳
本期采写:林芯芯