中心经纬12月14日电 题:“AI换脸”等深度合成服务应用要守住安全底线
作者 陈兵 南开大学法学院副院长、教授
近日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(简称《规定》),要求深度合成服务提供者和技术支持者加强训练数据管理和技术管理,保障数据安全,不得非法处理个人信息,定期审核、评估、验证算法机制机理等。
首先,应当明确的是,深度合成服务属于算法推荐服务的一种,应用场景十分广泛。其被应用于视频制作等场景,往往可以提升视频特效的真实性,达到以假乱真的效果。随着相关技术的不断进步,深度合成服务的技术应用门槛不断降低。用户往往仅需要进行上传照片等简单操作,就可以轻松获得极为逼真的视觉效果。
不过,在带来逼真视觉效果的同时,深度合成服务技术也存在一定的法律风险和侵权纠纷。比如,一些“AI换脸”软件正走红网络,用户在操作人脸替换软件时,仅需上传个人照片就可生成新视频,但其他内容均与原视频保持一致。这种“换脸”软件的走红,不仅对于他人的肖像权带来了侵害,对于他人对个人信息享有的权利、他人对原视频享有的著作权同样存在负面影响,在一定程度上还会影响相关视频平台所享有的信息网络传播权,引发算法滥用纠纷。《民法典》明确,未经肖像权人同意,不得制作、使用、公开肖像权人的肖像;《个人信息保护法》明确,个人对其个人信息的处理享有知情权、决定权,有权限制或者拒绝他人对其个人信息进行处理。而人脸替换软件的应用很有可能涉及对他人个人信息的处理。而且,他人对原视频的制作享有著作权,使用人脸替换软件生成新视频可能对著作权也构成了侵犯。
《规定》的出台,主要正是为了解决在人脸生成场景中可能存在的侵犯公民对个人信息享有的权利、侵害个人名誉权、危害国家和社会安全稳定等问题,为深度合成服务的规范发展树立了安全底线。
具体而言,首先,《规定》明确深度合成服务的应用不得侵犯国家、社会、个人的合法权益。尽管技术具有中立性,但技术的应用应当坚持积极向上的价值观。其次,《规定》明确深度合成服务提供者应落实信息安全主体责任。履行在数据、个人信息、算法、信息发布、科技伦理等方面的安全保障义务,提供相应的技术措施进行保障。再次,深度合成服务提供者应加强深度合成内容管理,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核,同时应当制定和公开管理规则、平台公约,完善服务协议,依法依约履行管理责任,以显著方式提示深度合成服务技术支持者和使用者承担信息安全义务。加强深度合成服务提供者的行业自治,鼓励自主合规、积极合规,形成“有效市场+有为政府”的更好结合。最后,《规定》提出深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息,有助于保证互联网空间的清朗秩序。
整体来看,《规定》聚焦于深度合成服务技术,统筹安全与发展。发展是安全的前提,安全是发展的保障。在人工智能的其他技术与场景中,同样需要秉持发展与安全并重的理念,确保各项技术行稳致远。第一,可以充分发挥监管部门、行业协会、相关企业、人民群众等不同主体在治理中的不同优势,形成“有效市场+有为政府”的更好结合,构建多元主体共治的治理模式;第二,推动相关企业进行高质量发展。在保障安全的基础上,促进各企业创新驱动,形成人工智能领域的新技术、新模式、新业态;第三,以各种政策措施,服务保障人工智能领域数据和算法产品和产业的高质量发展,形成公平有序的竞争环境,推动各企业积极出海竞争,构建人工智能领域发展的新格局。(中新经纬APP)
本文由中新经纬研究院选编,因选编产生的作品中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。选编内容涉及的观点仅代表原作者,不代表中新经纬观点。
责任编辑:张芷菡