全文共2550字,阅读大约需要6分钟
数字化转型的大浪潮之下,人工智能、云计算、区块链等新兴技术发挥着重要作用。
日新月异的发展背后,离不开海量用户数据,而这也引发了业内对该类技术安全性的新担扰。6月7日,北京商报记者注意到,在人工智能领域,可信赖的人工智能(即“可信AI“)概念开始兴起。可信AI又将如何打破现阶段技术的限制、兼顾用户对数据安全保护的诉求,如何补齐算法短板突破安全难题?
可信AI打破数据孤岛
北京商报记者多方了解到,可信AI实际上是通过底层技术框架解决人工智能应用过程中可能存在的多类问题,由此建立可靠的人工智能生态。事实上,近年来, AI换脸被黑产盯上、买卖隐私信息等各类围绕用户个人隐私数据产生的安全问题屡见报端,公众对于隐私保护、数据安全等问题关注程度也在不断提高。
在6月7日举办的2021全球人工智能技术大会可信AI专题论坛上,科技部高技术研究发展中心研究员、ACM中国理事会常务理事嵇智源指出,可信AI就是确保人工智能的公平性、可解释性、健壮性和透明性,确保算法可被人信任。
针对这些乱象,一方面监管频频出手,在用户数据收集、使用方面做出明确要求,从法律层面为数据安全提供保障;另一方面,北京商报记者注意到,多家从事人工智能相关业务的科技公司针对构建可信AI也在不断推陈出新。
以同盾科技提出的“知识联邦”为例,“知识联邦” 通过将数据转化成为模型策略知识,再对分散的知识聚合,最终实现智能决策。同时,围绕可信AI,同盾科技开发了天启智能开放操作系统,并进一步开放了联邦市场,提供数据商店、模型商店和应用商店,方便数据生产要素的充分流通和使用。
同盾人工智能研究院院长李晓林告诉北京商报记者,数据孤岛是制约人工智能发展的重要阻碍,知识联邦以更合规的方式来打破数据孤岛,在利用数据的同时,做到保护数据隐私。“通过数据安全交换协议来有效利用多方的数据,进行知识共创、共享和推理,实现数据可用不可见。”
隐私计算作为人工智能的底层支撑技术之一,其对于构建可信AI也有贡献。隐私计算全栈技术与基础设施提供商星云Clustar于2021年4月发布了“星云隐私计算全栈解决方案”,进一步帮助合作机构实现数据安全共享与流通。
星云Clustar创始人陈凯指出,星云隐私计算平台集成了主流隐私计算技术,包括联邦学习、多方安全计算等,重点关注安全和效率问题。以目前星云Clustar为某国有大型银行构建的全行级隐私计算平台为例,星云Clustar结合该银行需求进行了定制化开发,为其提供基于联邦学习的多方安全建模平台,帮助该银行以“可用不可见”的方式打通全行内外部的数据共享,优化流程标准与降低管理成本,充分盘活了不同业务板块的数据价值,也为该银行未来进行数据开放提供了技术基矗
在冰鉴科技研究院高级研究员王诗强看来,人工智能是基于“大数据+算法”得出的技术结论,这一结论在落地过程中是否值得相信、是否能产生长期的正面影响有待考量,可信AI实际上是为规范人工智能发展提出的自律性要求。
苏宁金融研究院金融科技研究中心主任孙扬则进一步表示,从当前行业现状来看,违规采集、使用用户数据等问题依旧频发,人工智能的安全性、可靠性与可信性都需要增强,打破数据孤岛过程中如何防止技术公司滥用数据优势,也向技术公司提出了更高的数据使用要求。
金融领域仍是主战场
随着技术的不断发展,人工智能技术在金融、医疗、教育等众多行业中找到落地场景。北京商报记者了解到,由于涉及到多类用户信息,金融领域场景尤为火热。多位人工智能行业从业者也向北京商报记者坦言,金融领域当前仍是最主要的“战场”, 人工智能在风控、投顾、营销、理赔等方面发挥了突出作用。
对于传统信贷业务投入产出不对等或者无法进行风险评估等情况,人工智能技术可以帮助银行等金融机构识别风险客户,降低逾期率,线上化的金融业务也更为便利。“在风险可控的情况下,更多长尾客户获得金融服务,对于普通用户来说,这也是可信AI的体现方式之一。”王诗强表示。
除了助力传统金融机构转型外,人工智能在防控金融风险方面发挥着重要作用,并进一步开始向监管科技领域拓展。北京商报记者梳理发现,在多个试点城市披露的金融科技创新监管应用中,也大量出现了人工智能的身影。
广州于6月4日公示的第二批4个创新应用中,便包括“基于知识图谱技术的风险交易预警服务”“基于知识图谱的外汇违法违规风险行为识别应用”等产品。通过聚焦大数据、人工智能、区块链等前沿技术,进一步增强金融监管的专业性与传统性。
孙扬指出,在金融领域的相关活动中,金融机构应用科技分析数据、科技公司通过技术获取数据,都要保持穿透式的监管。在监管科技方面,可以利用联邦学习、知识图谱、区块链、物联网金融等技术来实现金融活动监管。比如物联网金融用于供应链金融,区块链用于反洗钱,知识图谱用于贷款中介识别等。
此外,有从业机构负责人向北京商报记者透露,在通过可信AI强化监管科技方面也在发力,例如在自主研发的系统中嵌入监管中心使用板块,便于监管层对体系内金融机构处理用户数据是否违规等行为进行管控,但目前相关板块业务仍处于完善调整阶段。
防止矫枉过正
值得一提的是,可信AI发展的过程同样面临难题。李晓林直言,在同盾知识联邦体系中,如何确立一个可信的第三方充当合格的协调者和监管者,如何完善各参与方的激励方式,激发各方的积极性和配合度等问题,仍需要进一步克服。
“人工智能技术不断更新换代,可信AI是针对可能出现的安全问题构建的新防线,”王诗强认为,除了发展可信AI所面临的问题外,可信AI越成熟,也意味着技术对数据分析等各方面能力越高,也越可能出现更为精准的大数据杀熟、价格歧视等矫枉过正的情况。部分企业甚至可能出现过分追求先进技术,在实际落地过程中忽略了安全、隐私等问题。
王诗强表示,人工智能技术是一把双刃剑,需要小心对待,规范其发展进步需要企业与监管等多方合力。监管部门要制定合适的政策标准,及时处理负面的技术创新,以良币驱逐劣币,要加强违法处置力度,对于违法行为进行惩罚、震慑;企业则要守住道德底线,加强自律,将数据安全放在首位,最终保证技术服务社会并创造价值。
“相关机构都应该严格遵守监管框架,确保不侵犯消费者的权益,确保提供给消费者的业务是可信的、安全的、符合伦理的。切忌以科技之名,侵犯用户的数据和隐私权力。”孙扬补充道。
记者丨岳品瑜 廖蒙
编辑丨胡可