来源:蓝鲸财经
蓝鲸TMT频道12月14日讯,在数据安全与隐私计算论坛上,瑞莱智慧RealAI首席架构师徐世真表示,从技术角度看,隐私计算是AI能力的重要补充。AI高度依赖数据基础,规模化且多样化的高质量数据,能够训练出效果更好的模型,隐私计算通过解决数据的“链接”问题,为算法的持续进化提供数据补充。
相应的,这也倒逼企业在落地AI应用的过程加大对数据的拓展。但随着越来越多的数据被收集和利用,数据风险和隐私保护也成为AI系统在开发和应用过程中面临的一项挑战。9月26日,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,其中数据与隐私安全内容贯穿了人工智能管理、研发、供应等特定活动的具体伦理要求。
产品层面来看,复制性低和通用性差是当前隐私计算产品化面临的一大局限。徐世真提供了两方面的解决思路,一是尽量从规范成熟、少定制化的需求场景切入,二是将隐私计算嵌入现有的成熟产品,比如隐私保护数据库、隐私保护大数据分析引擎。后者思路下,在与AI技术能力的结合中,隐私计算可看成AI中台2.0,即在原有机器学习平台中添加隐私计算功能模块。
“这也是用户理想的隐私计算产品形式,对外依旧输出AI建模能力,用户操作层面几乎无感,在使用原有机器学习建模技术的同时,底层已经通过密码学、MPC技术实现了隐私保护功能。”徐世真表示。
某种程度上,AI也可看成隐私计算的上层应用。徐世真介绍道,隐私计算目前不存在场景通用解决方案,单一技术路线无法适配所有场景。实际应用中,隐私计算无法与上层应用解耦,不同技术路线之间也无法解耦,多数情况下,用户需要的仍是AI相关功能,AI也因此成为牵引隐私计算的一项核心需求。
在徐世真看来,现阶段隐私计算的商业化落地仍面临四大挑战。第一,生态壁垒。目前各厂商隐私计算技术互不相通,也无法互相连接,解决数据孤岛问题的过程中反而带来技术孤岛的问题,这意味着需要上层进行大量集成。第二,计算性能。密码学操作的引入、分布式通信问题,以及同态加密导致计算性能慢,难以支撑大规模数据训练。第三,安全性。从知识产权保护的角度,各家厂商不会公开底层协议,导致协议不透明的问题,难以审计。第四,可用性。目前的隐私计算技术服务商不具备数据生态、数据链接的能力,无法提供开箱即用的数据和解决方案,用户的应用成本和难度增加。
徐世真表示,结合AI发展历程,隐私计算的未来发展可借鉴两大经验。首先技术路径方面,基于底层数据流图的编译器路线将推动技术的兼容互通;性能优化当前可通过优化底层密码库来实现,未来仍需借助新硬件;提升安全性需要抵御密码协议层和应用层的恶意攻击。
其次在产业路径方面,隐私计算需要逐场景落地,根据不同的场景需求采用合适的技术路线,比如多方安全计算效率高、安全可证明,但通信量大、仅支持简单计算逻辑;联邦学习支持复杂机器学习,但主要面向建模场景;TEE路线具备较好的性能和算法生态,但依赖硬件厂商硬件可信性和用户接受数据集中式处理。