展会信息港展会大全

赛迪智库丨在符合伦理规范下做好AI全球化治理
来源:互联网   发布日期:2019-08-14 06:12:47   浏览:13558次  

导读:近日,继旧金山市之后,美国的萨默维尔市也禁止在公共场所使用面部识别。旧金山市和萨默维尔市的民众反应是,我们不应该只是规范面部识别技术的使用,而应该彻底禁止这项技术。这既反映出人们对新技术应用的接受有一个缓慢且曲折的过程,又说明美国在法律上...

近日,继旧金山市之后,美国的萨默维尔市也禁止在公共场所使用面部识别。旧金山市和萨默维尔市的民众反应是,“我们不应该只是规范面部识别技术的使用,而应该彻底禁止这项技术”。这既反映出人们对新技术应用的接受有一个缓慢且曲折的过程,又说明美国在法律上对隐私权利保护的深厚传统。

视觉识别是人工智能一个重要的场景应用,未来在自动驾驶、智能制造、医疗诊断、安保安防等各领域都有着广阔前景。但是,由于存在巨大的侵害个人信息风险,在普及视觉识别等方面,人工智能在应用时也存在着伦理和法律的“障碍”。旧金山和萨默维尔的规定具有显著的示范性,纽约、奥克兰等城市也在考虑出台类似的立法。

AI治理日益成为国际共识

人工智能技术不同于传统的工业化技术。传统工业化技术限于制造、加工或工艺流程的优化提升,其指向性在于产品,而人工智能技术的指向性却在人本身。人工智能视觉识别技术不同于传统的摄像技术,摄像机无论将像素提到多高也只是一个工业产品,但人工智能视觉识别却有着实时海量的搜索、对比和处理信息能力,甚至在自主系统下可以决策或做出“判决”。被人工智能视觉识别的人像,包含着性别、年龄、种族等传统照片不明确的信息,获得者进而可以预测匹配“你的”需求或行为,这种明显“侵入性”的技术对于权利意识极强的美国人是难以接受的。

关于人工智能的治理日益成为国际共识。美国人的权利和法律意识很强,但以伦理的眼光看待人工智能和提出治理规范,欧盟却走在了世界前列。2019年4月,欧盟《可信人工智能伦理准则》提出7个关键条件人的能动性与监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉和问责机制,以确保人工智能足够安全可靠。其他如IEEE发布了《合伦理设计的一般人工智能准则》并不断更新,确保人工智能为人类服务。

日本也提出过《以人类为中心的人工智能的社会原则》,以及生命未来研究所《阿西洛马人工智能23条原则》、蒙特利尔大学《人工智能负责任开发宣言》等。不论是法律还是伦理,这些人工智能的治理文件,都表现出人类对人工智能技术发展的担忧要利用人工智能技术实现我们生产效率的提高和社会的进步,这一切都要建立在对风险的了解和预防的基础上。

中国正在积极融入人工智能全球治理体系。虽然有逆流和阻挠,但须知人工智能带来对人类的挑战是全球性的,任何一个致力于现代化的国家都应该负起自己的责任。中国作为一个负责任的大国,在人工智能全球治理中积极贡献自己的实践经验。2019年5月《人工智能北京共识》发布,提出了研发、使用、治理三方面的15条原则;国际人工智能与教育大会还发布了专门的《北京共识人工智能与教育》;6月份,在日本筑波举行的G20数字经济部长会议以及G20贸易和数字经济部长联席会议通过了联合声明以及《G20人工智能原则》;国家新一代人工智能治理专业委员会《新一代人工智能治理原则》提出,发展负责任的人工智能。6月份,2019《亚太及日本企业人工智能伦理道德研究》报告显示,中国企业在运用人工智能指导方针及管理标准方面位居亚洲前列。

在符合伦理规范下做好AI全球化治理

世界各国法律细节虽然有所不同,但伦理价值观念是基本一致的。如何在符合伦理规范的前提下发展人工智能,进而做好人工智能全球化的治理,达到“AI for good”的目的,是下一步我们政府、学界和产业界应当共同关注的事情。

第一,实施国家规划。2017年,国家发布了《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(20182020年)》,其中对人工智能伦理道德、法律政策提出了明确要求。要秉持“一张蓝图绘到底”的精神,根据规划要求实施人工智能法律政策三步走:到2020年部分领域的人工智能伦理规范和政策法规初步建立;到2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;到2030年建成更加完善的人工智能法律法规体系。

第二,凝聚伦理共识。在上述很多人工智能伦理和治理的文件中,已经研究了很多人类伦理要点,需要各个国家或经济体结合自身政治、经济、文化和民族特性,做好本土转化工作。从早期的阿西莫夫机器人3原则,到近期的阿西洛马23原则,以及欧盟委员会、IEEE等不同机构提出的各成体系的伦理准则,透过不同的具体内容其实都是在表达发展与安全的核心价值。应当说在工作层面,“鼓励创新(发展)、包容审慎(安全)”,就是现阶段人工智能发展最大的共识。

第三,拟定评价规则。凝聚起伦理共识后,要做的工作就是制定规则。围绕合法、安全、稳舰透明、可解释、负责任、科技向善等核心伦理价值,构建人工智能的评估评价体系,指引人工智能健康持续发展。要积极参与人工智能相关的国际标准规范制定,鼓励国家、行业和团体标准的创新尝试。要加强传统企业智能化改造评价和管理体系建设,加强互联网企业数据经营、算法审查等工作规范指引。积极搭建与欧盟GDPR、人工智能伦理准则实施的沟通协调机制,学习借鉴其评价指标体系。

第四,履行社会责任。发展人工智能归根到底要靠市场真正的主体企业,人工智能相关企业能够履行好企业社会责任,才是真正达到了负责任的人工智能要求。创新是民族的灵魂,也是企业的生命线,要在企业社会责任考核中更加突出技术创新度和安全平衡度指标。要把企业社会责任作为企业发展战略的重要组成部分,探索企业和技术都可持续发展的路径,完善企业经营监督机制保证企业在追求利润的同时不会越过伦理红线和法律底线,这对于拥有人工智能技术的企业来说尤为重要。

第五,管好重点行业。每一种革命性的技术发展都会让一部分行业消亡,让一部分行业兴起,但是新兴行业兴起不是一蹴而就的,如果不能处理好发展与安全这对基本矛盾,就会导致新兴产业成长缓慢,甚至“夭折”。历史给予一个国家的挑战和战略机遇期也是短暂和相对的,一旦错失就会陷入相当长期的被动甚至落后挨打的局面之中。要在合法、合伦理的前提下,加强视觉识别、用户画像、精准推送、虚拟助理等人工智能技术应用的重点行业监管,加强商业APP规范管理,避免出现侵犯消费者权益的恶性事件。同时,大力推进法治政府建设,营造优化经营环境,让所有主体的行为都在法治的轨道内运行。


赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港