展会信息港展会大全

专家:部分AI伦理研究仅起到洗白作用,应思考重建社会信任
来源:互联网   发布日期:2021-08-05 16:19:04   浏览:23405次  

导读:人工智能的伦理规则该如何与技术创新相协同?如何重塑社会公众对科技企业的信任?8月3日,多位专家在2021全球数字经济大会人工智能产业治理论坛对此进行了探讨。 中国科学院自动化研究所研究员、国家新一代人工智能治理专委会委员、联合国教科文组织人工智能...

人工智能的伦理规则该如何与技术创新相协同?如何重塑社会公众对科技企业的信任?8月3日,多位专家在2021全球数字经济大会人工智能产业治理论坛对此进行了探讨。

中国科学院自动化研究所研究员、国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理特设专家组专家曾毅表示,治理与发展之间从来不是竞争关系,要真正为人类与生态创建可持续的人工智能。同时,要注意伦理规则在技术落地方面还存在很多瓶颈。

中国社科院哲学所科技哲学研究室主任、科学技术和社会研究中心主任段伟文指出,在新的治理环境下,产业界应着眼于“长期主义”,重新构建社会对科技企业的信任,否则很难长期发展下去。

专家:部分AI伦理研究仅起到洗白作用,应思考重建社会信任

论坛现常图自瑞莱智慧

1

以赚钱为目标,可持续AI就很难实现

人工智能应该是治理优先还是发展优先?曾毅表示,治理与发展之间从来不是竞争关系,要实现人工智能的稳健发展,前提就是真正实现为人类与生态创建可持续的人工智能。

而要实现人工智能的可持续,首先要实现技术本身的可持续性。曾毅说,一些看似智能、实际上几乎没有理解能力的信息处理工具,并不是真正可持续的人工智能,在这个基础上如果再扩张其应用场景和能力,另一方面又缺乏对其负面影响的关注,就会带来很大的问题。相反,如果创造真正意义上的人工智能,并将其应用到人类生态、社会、全球的健康发展,将负面影响最小化,这样的技术就是可持续的。

此外,曾毅还强调,并不是将人工智能应用于社会的可持续发展目标,就是可持续发展的人工智能。比如,目前有不少企业将人工智能应用于健康、教育,但也可能给健康和教育带来了负面影响。有些企业瞄准这两个领域,是因为这两个领域机遇多、能赚钱。然而,如果大家的目标都是利用人工智能赚钱,那么人工智能帮助全球可持续发展就很难实现。

“所以不存在治理和发展谁更优先的问题,只有二者相互协作,才能实现可持续发展的愿景。”曾毅说,“少了任何一个都不行。”

2

伦理规则落地面临技术瓶颈

不过,曾毅指出,人工智能的一些伦理规则制定相对容易,但在技术落地方面还存在很多瓶颈。

“人工智能真的做到符合伦理吗?现状很惨痛。”曾毅举例,许多西方国家禁用人脸识别,却没有引起企业很大的反对声音。一个不争的事实是,企业可以找到替代方案,当人脸识别被禁用的时候,还可以用固态识别、指纹识别、声纹识别等。实际上人脸识别存在的隐私泄露、公平性侵犯、算法歧视等问题,其他识别方式也都存在。这些技术没有进入公众视野,所以没有被关注,但禁用人脸识别技术并不代表问题被真正解决。

曾毅举的另一个例子,是数据撤销。用户不再同意授权,可以从数据库中删除用户信息。但实际上,在人工智能的模型和服务中删除用户数据和特征,在技术上存在极大的困难,几乎没有人可以做到在一个深度学习模型中删除单个用户信息的同时,可以避免产生对训练结果的影响。可以采取的办法就是重新训练人工智能模型,但训练的成本十分高昂,一些大模型的训练一次甚至需要五百万元。所以现状是,更多的时候企业会选择不更新。

联邦学习技术可以使不同的研发者在不分享自己数据的情况下,在数据模型上进行联合学习,但这回避了用户是否同意分享数据的问题,如果没有就会违反知情同意原则。拆分隐私数据曾经在数据库时代非常好用,但引入人工智能模型后,会使识别率下降10%至30%。保护隐私还是保证服务效率,这对企业来讲也是非常困难的选择。

“可以看到,我们对伦理规则的设想,技术落地时困难重重,所以需要设计者、研发者、供应者、部署者、管理者共同作为。”曾毅说。

3

科技企业应重视重塑社会信任

值得关注的是,曾毅观察到,在全球范围内,当前对伦理谈论最多的人工智能企业,出现的伦理问题也最多。这说明人工智能的伦理研究与技术研发之间存在脱节。

曾毅发现,有些公司建立了自己的伦理研究团队,有些公司是广告、公关等团队承担了这一任务,他们负责跟民众、政府、媒体、学术界和潜在用户进行交流,但是很难将伦理研究的成果应用到设计、研发、部署等步骤中,仅仅是起到一个“伦理洗白”的作用。

对此,段伟文表示,产业界应着眼于“长期主义”,重新构建社会对科技企业的信任,否则很难长期发展下去。

近年来,舆论越来越关注大数据杀熟、个人信息不当索娶算法歧视、平台控制、游戏沉迷等问题。“有些企业问我,在目前的数字经济治理环境下,大家究竟怎样看待科技企业?怎样看待科技?”段伟文说,这个问题的本质,是在谈数字时代的社会信任危机与重建。

他分析,数字时代给人们的生活带来了很多便利,但同时又是很脆弱的。因为数字技术作为一个新事物出现的时候,人们是特别喜欢它的,包括短视频、各种新的支付方式等。因为它是新事物,所以没有信任赤字,大家都相信它。但另一方面,因为人们对风险认识不足,当最后造成伤害的时候,就会严重破坏整个社会对科技的信任。当社会舆论不再信任之时,该风险就有可能被定义为公共风险。

面对创新带来的巨大变化,治理方越来越感知到风险,于是监管就出现两种特点:一是要先发制人,把风险扼杀在摇篮之中;二是技术滥用无法被社会接受时,会溯及既往。

“这种情况下,企业不能仅仅满足于是否合规,也应该更多地去考虑‘好不好’,去重塑科技企业的社会形象,这其中有很大的差别。”段伟文建议,面对既先发制人也追溯既往的治理格局,企业一方面要改进技术,另一方面也应实行伦理关怀。

“技术是价值中立的,但它需要通过努力来实现真正意义上的创新,面向用户、面向社会价值的创新,而不只是增加财富、加强资本的创新。”段伟文说,现在有很多技术手段可以解决伦理问题,但更重要的是超越技术手段,用更广泛的社会关怀来补充。

采写:南都记者马嘉璐


赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港