5月2日消息,世界经济论坛人工智能和机器学习负责人Kay Firth-Butterfield,在近日举办的应用人工智能大会上强调,科技巨头和企业应该创建咨询委员会以帮助指导人工智能的道德使用。
Kay Firth-Butterfield表示,近年来,在微软、Facebook和谷歌等公司建立这样的委员会,使得这一概念在科技行业成为了一种的准备规范,但最近几周,谷歌解散了两个人工智能伦理委员会,这使人们质疑其有效性。即便如此,她说:“我们非常明确地认为,在公司中使用人工智能的道德咨询小组是一个非常好的主意,所以我们非常支持谷歌的做法。”
随着科学技术的快速发展,人工智能给人类生活带来更多便利的同时,也引发了许多伦理道德方面的问题。如今,已有越来越多的组织和国家都开始纷纷严格要求人工智能道德问题。
2019年4月8日,欧盟委员会发布了《人工智能伦理准则》,旨在提升人们对人工智能产业的信任。该准则由欧盟人工智能高级别专家起草,列出了“可信赖人工智能”的7个关键条件:人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。
2019年4月20日,民法典人格权编草案二审稿提交十三届全国人大常委会第十次会议审议,其中对人体基因胚胎科研活动、“AI换脸”、人体试验、个人信息保护等问题作出了规范。针对AI换脸,草案规定:任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。
没有道德束缚的人工智能,未来难以预料。因此,针对人工智能制定相应的法规和准则将有利于促进人工智能产业的有序和规范发展。