本文摘自龙卫球:《人工智能立法规范对象与规范策略》,载《政法论丛》2020年第3期。
【作者简介】龙卫球,北京航空航天大学法学院院长、博士生导师,教育部长江学者特聘教授,兼任工业和信息化法治战略与管理重点实验室主任、网络空间国际治理研究基地主任、科协-北航科技组织与公共政策研究院执行院长,研究方向为民商法、工业信息化法。
【内容摘要】随着人工智能技术的广泛运用,人工智能立法急需提上日程,而制定一部人工智能法,首先需要明确其规范对象与规范策略。人工智能科技基于自身专业科技和赋能科技的双重属性及其不同实现要求,其开发应用活动也相应形成了两个迥然不同领域。为此,人工智能立法调整对象也存在双重区划必要,并应依据两大领域基本功能、利益和风险预设的不同作出调整策略区分。其中,对于专业科技活动部分,鉴于人工智能科技具有战略竞争地位以及基础共性环节研发具有攻关复杂性,应在鼓励促进资源市场化配置同时,加大政府战略和政策支持力度;对于赋能科技活动部分,应该立足“人工智能+”框架下赋能与应用场景的叠加关系,注重赋能与应用场景之间的权衡,避免因引入赋能效率而导致被赋权场景的价值功能偏移异化或利益风险关系的严重失衡。
【关 键 词】人工智能立法 规范对象 专业科技活动 赋能科技活动 规范策略
一、人工智能发展应用
不断蔓延的规范需求
人工智能领域过去十几年最重要突破就是近年来机器学习特别是其中深度学习的出现。人工智能(Artificial Intelligence,缩写为 AI) ,公认是计算机科学的一种旨在使得机器能够实现人类智慧的科学技术;所谓机器学习,是指一种在计算机上运行能够从数据中识别和提取有用的模式的算法。长期以来,统计、计算机科学和认知心理学等许多不同的研究领域出现了不同的统计技术,也统称为“人工智能”。由于这些技术已经应用于不同的业务领域,它们已经与其他任务相关,因此它们也很可能在讨论“数据挖掘”和“预测分析”中发挥作用。近年来,在不断加速的信息互通基础上,随着计算能力的进步和大数据集的可用性增加,深度神经网络的训练更加可行,得以构建具有适当泛化能力而不只是记忆能力的生成模型,成为可以“自动改进经验的计算机程序”或者说“根据自己的输出而改变的算法”。通过它,不仅获得基于海量数据的分析能力,还形成了机器自身前所未有的一种与人类认知能力相通的自动学习能力和决策能力。人工智能深度学习技术的出现,挑战了我们对计算机的作用和我们与它们的关系的一些假设,它不只是对现有过程的简单自动化,而是一种创造性的通过设定结果和让计算机程序在那里找到自己的方式。这种基于大数据和算法的自动化决策能力或认知能力,对于实体经济和各种类型的管理导致新的巨大赋能可能性,因此引发世界范围对这种新型科技的剧烈竞争。
世界主要国家纷纷出台人工智能战略,加速推进对其开发和应用。例如,美国政府在2016年就积极推动人工智能战略发展,2016年发布《为人工智能的未来做准备》、《国家人工智能研发战略规划》和《人工智能、自动化和经济》三大报告。2019年2月,美国白宫科学和技术政策办公室(OPTP)又颁布总统签署的《美国人工智能倡议》,将人工智能提升到经济安全和国家安全的双重层面,要求保持美国人工智能领先地位;同年6月,发布了第二版的《国家人工智能研发战略规划》。新版战略为了使人工智能更加值得信赖,对此前7个重点领域进行了全面更新,包括人工智能研究投资、人机协作开发、人工智能伦理法律与社会影响、人工智能系统的安全性、公共数据集、人工智能评估标准、人工智能研发人员需求;同时增加并特别强调了第8项战略即“公私伙伴关系”,要求更加重视与私营部门合作以及其他必要事项。我国以后发优势,紧抓人工智能科技发展新机遇,2017年出台《国务院新一代人工智能发展规划》,提出深入实施创新驱动发展战略,以加快人工智能与经济、社会、国防深度融合为主线,以提升新一代人工智能科技创新能力为主攻方向,发展智能经济,建设智能社会,维护国家安全,并设定了2020年、2025年、2030 年目标,核心产业规模分别为1500 亿元、4000 亿元和1 万亿元。
2018年,我国开始跨越成为人工智能投入布局的主要大国。目前,人工智能开发应用出现多方位蔓延趋势,覆盖到经济运行、社会服务管理等领域,并基于信息科技跨界融合能力而形成交叉渗透趋势。一边,它与传统行业生产和经营发生巨大融合效应;另一边,又不断跨界、拓宽人工智能新经济版图乃至形成许多全新领域。2019 年艾伦咨询发布的《2019 年中国人工智能产业研究报告》显示,中国2019 年人工智能赋能实体经济产业规模接近570亿元,包括安防、金融、客服、医疗健康、零售、广告营销、教育、城市 交通、制造、农业等传统领域都形成了人工智能产业化链条,融合路径多样,包括与loT结合的AloT、与平台能力结合的AI PaSS、与产业全面联通相结合的 AI +产业互联网等;下一步,将是更加快速的渗透与场景应用优化,预测2020年达到819.8亿,2021年达到1157 亿,2022达到1573亿。
笔者认为,从目前人工智能开发和应用的蔓延态势而言,人工智能立法已经到了应当提上日程的阶段。既有科技法治经验表明,科技发展与法律应当同步,法律与科技发展应用良性互动,是近代以来科技有效转化或赋能经济社会发展的有力支持和基本保障,而且只有如此,科技才能真正得到合乎人类价值的促进和应用。人工智能当前发展应用不应例外。人工智能发展应用的迅速蔓延,使得人工智能的法律需求也日益迫切。目前相关研究有风起云涌之势,仁者见仁智者见智。人工智能发展应用具有许多新的特点,既有科技法规则虽然可以发挥一定的作用,却明显不敷其用,因此需要及时加以改进甚至做出创制。鉴于人工智能作为新兴科技的本质,其立法与既有科技法存在内在的关联,总体上应当归入科技法范畴,从其与既有的科技法律体系衔接来说,也可以划分为人工智能市场法、风险治理法以及政策法三个细分领域;从规范模式来说应当从“技术-经济”向“技术=经济+社会”迭代,突破单一技术经济思维,强化技术社会思维,重视技术安全和社会风险规制。本文认为,在廓清人工智能立法为新型科技基本立法路径和应当采取“经济-社会”模式的基础上,制定一部人工智能法最需要明确的是其规范对象与规范策略问题。人工智能科技基于自身属性及其实现要求,其开发和应用等活动形成了相当复杂的合理需求和利益风险关系,特别是出现了迥然不同的活动划分以及伴随而来的极其复杂的赋能应用场景问题,使得以往科技法关于规范对象及相关规范策略的认识,不宜简单套用,而需要做出合理调整和发展。本文研究,除了关注当下人工智能科技活动的特点和实际应用场景,也关注未来一个时期人工智能科技活动的特点变化和可预见的应用场景。
二、人工智能立法的
规范对象及其确定方法
人工智能立法必须明确自己的规范对象是什么。我们很难想象一个特定法域或者一部特定立法没有明确的规范对象的情况;否则,既无法确定自己的适用定位,也无法形成正确的调整方法。任何立法的规范对象都应该说是指向特定社会活动,根据既有的立法经验,科技本身不会成为规范对象,需要规范的是科技活动及其产生的社会问题。人工智能立法也不例外,同样不是以人工智能科技本身作为规范对象,而是应以人工智能科技活动及由此引发的特定社会问题作为规范对象。但是,人工智能立法的规范对象不易确定。这是因为,人工智能科技活动作为当代科技最为前沿的实践活动之一,是迄今为止最为复杂的科技活动之一。归纳起来,法学领域用来认识特定社会规范对象的方法有二:一是本质论角度的,所谓千变万化不离其宗。20世纪初期之前十分盛行,这种法学认识论根基于20世纪之前主流哲学的认识论,比如柏拉图的理念论,康德的先验观念论,马克思的历史规律论等;二是非本质论角度的,大概在20世纪初期开始作为一种反思理论出现,其根基于20世纪以来的哲学思想,比如胡塞尔的现象学、海德格尔的存在论、后马克思主义者的实践论等。比较起来,前一种方法通常指向一种简明的认识效果,而后一种方法往往导致繁复凌乱的认识效果。但是我们发现,人类走到今天,很多试图抓住本质、化繁为简的努力往往不易成功,很多时候是表面上似乎对认识对象一目了然了,但是实际上却并没有真实反映复杂社会的实际情况,相反导致认识对象被过度简化,包括对许多重要特殊或分叉情况的不当忽略。所以,现代认识范式越来越偏爱运用后一种方法,希望通过揭示更多复杂性、多样性,甚至希望深入到具体现象或者存在场景之中来细化理解。但是,后一种方法又有明显不足,特别是在应用于确定规范对象时,不仅容易挂一漏万,更是难以聚焦、过于分散,容易导致认识碎片化,进而模糊价值问题。为此,当代立法认识论通常立于二者之间,来回于折冲于本质和现象、理性与经验、价值与问题之间,追求抽象与具体结合,重视类型化区分方式,关注结构稳定与动态实践的互动。
人工智能科技活动作为当下最具前沿的科技活动极具复杂性,使得其研发、生产和部署具有复杂性和较大不确定性风险,对其认识无法依赖简单的本质化方法。我们可以比照美国经济学家布莱恩阿瑟的复杂经济学理论来看待人工智能科技活动的复杂性对于其确定性的挑战。布莱恩阿瑟提出,当代经济是一个不均衡、不确定、非线性、永远在进化的复杂系统。市场中个人行为也往往都是根据当前的环境做出自以为是的最优行为,消费者、企业、银行和投资者都在不断获取信息,每个人都在不断适应变动的市场形势,作出自己对于市场的判断和预测,然后以此调整策略与他人交易;而且个体和系统的影响是相互的,整个市场也因此不断迭代和进化。
人工智能科技活动的复杂性,有过之而无不及。前已述及,人工智能科技最新发展是对机器学习算法的引入,是一种具有自动决策功能的技术系统。这是前所未有的一种技术迭代,内部关系构造更加复杂,也促进了一种全新的应用效应,因此导致比以往科技活动更加复杂的规范要求。人工智能立法规范对象的确定,应该认识到人工智能科技活动作为当代最具前沿的表征科技的实践活动,并不是像简单世界时代里发生的人与人之间的科技活动那样,具有相对确定、相对稳定的特点,而是从内到外都体现出许多不确定和动态变化的特点。
首先,人工智能属于计算机信息技术中最为复杂的系统化技术,内部具有众多技术节点构成,运行中存在技术多节耦合和多主体互动配合的复杂要求,在这种情况下人工智能仅从自身内部系统的组织和运行而言,已是一种典型的“社会技术系统”,具有内部系统复杂性和运行安全的极大不确定性,应十分谨慎,尤其要注意系统确定性和安全性的保障问题,避免在“节点耦合”或“主体互动”上出现问题,导致整个系统的“闪电崩溃”效应。其次,人工智能科技作为一种以机器深度学习和人机互动为特征的新型信息科技,其应用极具广泛性,从而导致了基于多样性的特殊复杂性和不确定性。人工智能因具有支持自动决策能力,除了自身作为专业定向科技的研发、生产和部署,同时也作为赋能科技可以广泛应用于相关经济或管理的多种场景。这种广泛应用,表面上呈现为从场景到场景的现象罗列,但实际上彼此之间各自功能、结构乃至主体互动关系千差万别,从规范上来说极具挑战性,极大增加规范的困难性。此外,在人工智能科技活动,人与人的关系开始模糊,机器自主出现了,介入不同形态的所谓人机关系;而在此前的科技活动,基于科技活动所形成的生产、商业和管理等社会关系,主要是通过人与人相互沟通进行,中间可能借助市尝借助身份或借助物质。
三、人工智能规范对象的区划:
专业科技活动与赋能科技活动
人工智能立法的规范对象的确定,与以往科技法还存在一个重要差异,就是要注意到人工智能科技及其活动所具有的双重性。人工智能与互联网、云计算、大数据、区块链一样,属于计算机科技领域发展到信息科技阶段的重要新型科技,具有专业科技和赋能科技的双重性,其据以实现的科技活动也体现出相应的双重性。科技大体可以区分专用科技和通用科技两种类型。前者使用范围相对狭窄,例如机械科技、化工科技、生物科技,本质上都是专业定向科技,其影响基本上是领域性的,虽然随着科技应用交叉也产生了某种程度的跨用效应,但其本身并不具有通用性; 后者则属于通用性的或者说在许多领域具有应用可能的科技,典型的是所谓“赋能科技” (enabling technology,也有译为“使能科技”),以应用面广、具有多学科特性、为完成任务而实现目标为技术特点,能够被广泛地应用在各种产业上,并能协助现有科技作出重大的进步,而且其每一次迭代往往都会在政治和经济的整体格局上产生影响。两种不同科技属性,其实现所要求的活动类型自然不同,前者需要通过对自身专有的科技开发和部署加以实现,后者则需要通过赋权应用促成其功效,因此二者存在性质、功效和实现手段的根本差别,涉及到的活动特点、主体结构、利益关系和风险情况也不同。
人工智能科技在信息化背景下,首先具有专业科技的特点,其实现体现为一种专业科技活动。人工智能依据自身专业科技要求进行的相关科技产品或技术系统的研发、生产和部署活动,属于众多专业科技活动的一种类型。人工智能作为一种专业科技,本身是在“要让计算机像人类一样推理思考”的目标下发明的一种技术系统,从专业技术特点上来说不仅建立在以往的计算机和信息科技的基础上,目前随着机器学习算法的发明和不断提升要求,更体现了以研发和改进承载这种机器学习运行为中心的新技术系统的要求。人工智能在当今代表了信息科技的最前沿的发展,其自身研发、生产和部署,也属于信息科技领域最具先进性的专业科技活动。人工智能作为一种复杂前沿技术,其开发并不容易,依赖于许多环节和条件。从环节上来说,不限于成型的成果生产和部署,也不限于相对确定的产品或者技术的研发,还要求将相关科技活动有效投入到基础前沿理论攻关和重大关键共性技术解决上;从条件上说,这种复杂前沿技术的研发、生产和部署,需要相应创新平台的支持,特别是依赖于快速信息联通基础上计算能力提升和大数据集增强,需要专业人才的支持等。
人工智能科技作为信息科技,同时兼具赋能科技的属性。前已述及,人工智能科技近年取得重大新发展,特别是在机器深度学习方面取得重大进步,使得人工智能科技产生了极大的赋能应用价值。人工智能兼具赋能科技的属性,使得其除了在信息技术专业化领域应当依据固有功效加以研发和部署之外,还可以突破技术设计之初的目的限制,作为一种通用的或者说泛在的技术加以开发和应用,对相关事物产生赋能或增强的效果,此即赋能科技活动。这种赋能或增强,最终是要具体表现为不同能力形态,比如在工业应用中,可能体现为增强跟踪、控制的能力。而在国防和情报系统的运用中,则主要是增强数据收集和分析能力。这类特殊科技活动旨在发挥人工智能的赋能作用,体现为可以采取“人工智能 + ”的方式应用于广泛场景,不仅在经济领域应用,也可以在管理领域应用,还可以跨界应用。弱人工智能,仅仅是增加了计算机部分的思维特征,本身仍然是完成或者解决特定任务的工具,并不包含人类的情感更遑论智慧层级的认知能力。强人工智能,则无论是否以配置机器的形态出现,本身作为一种新型计算机技术,拥有思考的智慧和能力,与人类无异甚至可能超越,包括拥有对突发事件的自我决策能力和应变能力,且认识到了自我的存在。现在人工智能发展就定位而言,还存在一个相当漫长的通过制度鼓励和引导而提升赋能的时期。总的来说,许多计算机学家和信息科技家相信,人工智能和机器人具有意识只是时间早晚的问题;但也存在不同看法。从发展阶段来看,人工智能技术目前仍然处于爆发初期即所谓“弱人工智能” ( Weak AI) 时期,借用一种形象说法,人类刚刚走到人工智能大山脚下,从经济与社会等赋能的角度来说还存在十分巨大的上升空间,需要很长时间才能推进到更加高级的人工智能阶段。目前表面看虽然在某些感知识别技术等方面也已经有所突破,强人工智能(Strong AI)基本上还可以说是遥遥无期。
即便如此,近年来可以看见人工智能相关赋能应用场景的快速落地和席卷。通过简单浏览,就可以看到大量赋能应用情况:通过人工智能开发应用,普通人可以与智能手机交谈,通过它推荐喜欢的音乐、描述照片;办公人员可以越来越将归档、筛选和排序等日常工作自动化;管理者可以改善服务,克服视觉障碍,优化交通管理,避免火灾隐患,合理化能源网格,更加有效利用资源和保护环境,促进智能医疗,消灭传染病;环境或经济部门通过人工智能识别变化和发展的模式,可以用来处理数以百万计的卫星观测的数字图像,分析环境或社会经济趋势;交通管理者通过嵌入式传感器和神经网络系统,可以构建智能公路,预测和管理交通流;金融顾问通过使用预先确定的决策标准,引入高频交易算法,在金融市场作出比人更快的自动反应;目前,人工智能也在努力开发相应系统并且希望不久将来就可部署在无人机和无人驾驶汽车,形成机器自主飞行或驾驶状态。
四、人工智能规范对象区划下的
相应规范策略
人工智能科技活动发生区划的后果,使得其作为立法规范对象产生了一种需要遵循区划而加以规范调整的要求。以往科技法规范对象指向的通常是专业科技为实现自身固有科技价值的开发和应用的科技活动;但现在人工智能立法规范对象指向的科技活动,基于其双重性特点,除了需要为实现自身专业科技属性而开展的开发和应用活动(可称专业科技活动)之外,同时还包括为了实现其巨大赋能功能而做出开发和应用活动(可称赋能科技活动)。人工智能科技活动的这种区划性,导致需要面向迥然不同的两类科技活动分别做出规范的必要。遗憾的是,目前国内外对于人工智能立法的研究,大多对这两类科技活动的区分性似乎意识不足,不少研究往往以列举特定法律问题为路径,但很少深入论证这种区分基矗
(一) 人工智能专业科技活动的相应规范策略
人工智能专业科技活动,与以往专业科技活动具有许多共通性,从规范策略上说,当然可以援引或者根据自身情况转化适用以往科技法形成的相关市场规范、风险规范和政策规范。近代起,既有科技法对于科技的开发和应用,通常是在科技市场化的基本意识下,以科技市场法作为重点发展起来,并立足科技驱动经济的效率思想形成基本规范。既有科技法通常依据科技市场化一般规律设计相关制度,不过也兼顾科技公益。以专利权制度为例,从促进科技开发和应用的角度设计专利权,但也同时从科技共益的角度 (科技社会利益的角度) 对专利权做出必要限制,包括专利期限、使用人的积极权利等。美国著名知识产权法学者罗伯特P莫杰思在其《知识产权正当性解释》一书中,提出在“效率作为中层原则”与“关于基础理论的多元主义或者底部空间”之间存在一种复合关系。他认为,这个底部空间,其正当性不能简单用关于净社会效用的功利主义论加以解释,而应该看成是罗尔斯所说的那样的一个“重叠共识”意义上的“公共空间”。对于知识产权的底部空间而言,就是“对于个人才能所投入的开发与应用,就产生了一种合法奖赏的主张,并因此...就是一种对知识产权的正当性主张。然而...许多的个人行为其实是无所不在的社会影响的结果,因此社会对于个人的创造成果也享有一种合法利益但并非一种同等的权利”。以往科技法仅在偶尔的时候才会兼顾技术安全和风险:早期主要是工业应用领域,当时在劳工保护运动推动下逐渐关注了工厂事故;后来在化工领域,特别是核科技的应用领域,基于人类安全威胁意识逐渐关注特殊科技安全问题,逐渐发展出科技安全和风险法。20世纪50年代以后,随着知识经济时代的到来,各国又启动对科技市场传统模式的调整,不断开展国家之间的科技竞争,引入科技促进、转化和创新公共政策机制,加强政府的参与和管理。
但是,人工智能立法对其专业科技活动也应根据自身特点,为适应合理变化而做出必要规则变通或创制要求。例如,人工智能科技本身是一种以计算能力、大数据为条件和以算法为基础的信息技术系统,因此需要法律提供适合于促进和保护提升计算能力、改进大数据集以及完善算法的规则。通过深入规范对象的特点和需求分析,不难发现,既有的财产权制度、合同制度、专利制度、公平竞争制度、商业秘密制度、侵权责任制度、计算机及其软件保护制度、网络安全制度甚至个人信息保护制度等并不完全契合其合理需要。例如,人工智能产品严重依赖网络,因其高度信息化和复杂化而面临巨大的网络安全隐患,需要更加严格的网络安全制度:比如,智能网联汽车就需要加强通信、系统与硬件层面的安全技术保障,保证认证、访问、关键节点的安全性,这就使得加强对人工智能相关网络安全管理至关重要。又例如,人工智能依赖于大数据集,但是对于人工智能技术系统开发者而言,往往缺少足够的数据集,因此需要数据协同,但是现在这种协同存在个人信息保护和企业数据保护的双重障碍,因此需要有所调整,在保护个人信息和企业数据同时也能够有利于合理形成大数据集。再例如,人工智能的机器自主学习不断提升使得其越来越具有与人相通的认知能力,却导致了由此而来的特殊安全和伦理风险,因此需要特别应对。这些都是之前法律考虑不足或者根本没有考虑到的。总之,关于人工智能专业科技活动的规范策略,应该体现为一般规范与特殊规范的结合。
此外,各国目前都将于人工智能科技视为当前正在爆发的第四次科技革命具有决定性影响的表征科技之一,因此立于国家科技竞争战略高度对于人工智能专业科技水平的提升予以重点支持,更加注重发挥政策机制的作用,而不是简单地依赖于市场化机制。各国在此领域既注重市场力量,积极鼓励人工智能企业自主投资研发和转化部署相关人工智能科技产品与服务,同时意识到单个企业、研究机构的力量难以突破基础和前沿理论以及关键共性技术,基于国家战略布局考虑,均在不同程度引入战略规划和政策扶持机制,在基础前沿理论和关键共性技术上毫不犹豫加大政府支持,有的采取公私协力机制。我国也采取了相近做法,《国务院2017年新一代人工智能发展规划》在第三部分重点任务之(一)“构建开放协同的人工智能科技创新体系”部分,提出将人工智能自身作为一类新兴产业进行开发应用布局,强调了要发挥战略和政策引领机制的重要性,要求“围绕增加人工智能创新的源头供给,从前沿基础理论、关键共性技术、基础平台、人才队伍等方面强化部署,促进开源共享,系统提升持续创新能力,确保我国人工智能科技水平跻身世界前列,为世界人工智能发展作出更多贡献”。其中前沿基础理论攻关,包括突破应用基础理论瓶颈、布局前沿基础理论研究、开展跨学科探索性研究三大领域;关键共性技术,体现为以算法为核心,以数据和硬件为基础的旨在以提升感知识别、知识计算、认知推理、运动执行、人机交互能力为重点的一套具有开放兼容、稳定成熟特点的技术体系,包括知识计算引擎与知识服务技术、跨媒体分析推理技术、群体智能关键技术、混合增强智能新架构与新技术、自主无人系统的智能技术、虚拟现实智能建模技术、智能计算芯片与系统、自然语言处理技术等。
(二) 人工智能赋能科技活动的相应规范策略
人工智能赋能应用目前形成了丰富多样的场景,而且存在不断扩展之势。随之而来的,便是对于这些赋能科技活动如何规范问题。我们在以往科技法所见到的科技市场法、科技风险法、科技政策法的策略,基本上是按照专业科技活动的合理需要而设计的,对于赋能科技活动基本上没有多少涉及。从这个意义上说,人工智能赋能科技活动的规范问题具有新颖性,也存在较大的挑战性。法律作为最重要的社会规范,最终要来源于社会存在的合理要求,而不应该来自空洞的想象力。人工智能赋权科技活动的规范策略也是一样,应当建立在对赋能科技活动自身特点及其存在规律的准确分析基础上,合理规范策略就隐藏在这种赋能活动的事理之中。
通过与专业科技活动比较,我们不难发现人工智能赋权科技活动,其关键结构就在于特殊的叠加结构:“人工智能+应用场景”。在这一结构里面,前者代表赋能行动,后者代表被赋能的本体(也可以称为被赋权事项或者领域),形成了一种“赋能”与“本体”的叠加关系或结合关系。在这种认识意义上,对于人工智能赋能科技活动,合乎逻辑地产生了一个基本规范策略,即必须就赋能和被赋权的本体之间做出一种合理平衡。人工智能科技赋能代表效率工具,应用场景则代表价值功能,它们的关系是作为人工智能科技赋能产生的效率与作为应用场景蕴含的本体价值功能的关系,二者之间如何合理对接并不简单。人工智能虽然具有赋能的无限可能,但开展“人工智能+” 的政策,并不是可以毫无节制或限制的。例如,在证券交易市场,监管部门可否通过人工智能赋能加强自己的监管能力?相反,又是否允许交易者使用人工智能机器帮助炒股?类似的,在保险市场,是否允许保险公司开发和应用人工智能装置来支持自己精确估算投保人?无论传统保险公司还是新型互联网保险公司,似乎都在努力将人工智能等运用于保险,优化保险经营流程,改善客户在保险报价、承保、理赔和客户服务等过程中的体验,让保险变得简单、透明、高效。但是是否也存在对于保险法律关系特别是投保人一方不合理的人工智能科技运用呢?这些问题值得关注。航空公司是否可以通过人工智能赋能对乘客实施动态定价或者价格区分策略? 美国民航产业是较早从动态定价中获利的行业,例如在周末高峰期采取高价策略的定价,这种情况被认为不等于区分定价。其中,美国航空公司自20世纪90年代开始率先采取动态定价,通过这种动态定价每年可以额外获得5亿美元的回报动态定价。打车软件平台公司为了服务便利或者用户乘车安全,使用人工智能赋能时可以在多大程度收集用户数据或者用来进行所谓的动态定价?研究者认为,美国优步( Uber) 打车软件公司就被认为并没有奉行“数据最小化原则”,而是借助人工智能技术过度追踪和收集用户信息,其“要么接受,要么离开”的政策使得用户无可奈何。同时,这种人工智能科技技术还被用来赋能设计所谓独家定价,从而遮蔽了真实市场的合理交易价格。美国学者米特尼克则认为,优步完全侵蚀了用户的匿名性,它通过技术的使用除了拥有“上帝视角”可以跟踪你的行程之外,“根据修订后的隐私政策,优步还会收集你的通讯录信息”。政府税务部门可否适用面部识别方式来加强自己的收税能力?是否允许自动驾驶的系统开发者为了自动驾驶汽车可以开到每小时200公里以上,添加相应的人工智能支持装置?等等。这些问题都不容易回答,需要通过复杂的“赋能+应用场景”的结构分析来做出具体权衡。这种规范策略是人工智能作为专业科技活动这一面所不需要的,但是却又是其作为赋能科技活动所必不可缺的。
首先,为了做好这种结构分析和权衡,必须面向赋能的具体应用场景,或者说深入到应用场景之中,具体理解和把握被赋权本体的内在平衡需要。我国学者有的虽然关注到了人工智能应用场景问题,但是相关研究通常没有深入到赋能与应用场景的复杂结构关系之中,因此往往难以切中要害。这是因为,每一种作为现象的应用场景背后,都隐藏着被赋权本体自身的独特功能和相关利益风险的具体预设,由此对于特定的被赋权本体来说,因其特定功能和利益风险的具体预设,对于来自外部的赋能总是存在某种既定承载空间和方式限制,有时可能非常敏感,并非任何时候都是欢迎的。人工智能赋能科技活动规范策略在这一面向的要求,具体又包括三个方面:其一,尊重应用场景既有法律秩序的功能、利益、风险设定和基本边界,以此来权衡实施人工智能赋能的可行性、限度及其方式。其二,应该着力避免因为引入赋能而导致被赋权本体价值功能偏移或异化,或者导致利益、风险关系的严重失衡。赋能的结果,不能简单地有利于一方而损害另外一方,特别是导致特定个人隐私、财产、自由乃至人格的丧失或减损等。相反,应该是增进彼此的合理价值、合法利益,或者减少彼此不合理风险。所谓利益风险通常是具体的,但在某些具有重大意义的应用场景,也可能引发整体意义的生产、 商业或管理模式的不当影响和风险。此外,人工智能科技作为赋能科技还有另一层含义,就是由于它具有的与人相通的认知能力,在某些赋能应用场景还可能导致对人类自身的替代,产生替代或者超越人自身的效果。这种情形还会导致极其敏感的人类伦理或安全问题。例如,产业机器人大量替代工作岗位导致的劳动者伦理和安全问题,警用机器人或军用机器人代行特殊职责导致特定职业人的伦理和安全问题,将来仿真人替代人类某些人格功能可能导致人类局部或者根本伦理和安全问题,等等。
我国《国务院2017年新一代人工智能发展规划》在第三部分“重点任务”,规划了目前和未来一个时期的应用,其中包括对赋能活动领域的区划,往下根据领域性质的不同又区分了“人工智能+经济领域”和“人工智能+社会服务和管理”两大领域。其中第(二)项为“培育高端高效的智能经济”,将相关赋能应用场景主要归类为经济和社会两大领域应用场景,各自在项下又做出更进一步的细分。首先是经济领域,特别提出了要发展“人工智能+”的赋能式产业应用,以便加快产业智能化升级,范围很广,即“推动人工智能与各行业融合创新,在制造、农业、物流、金融、商务、家居等重点行业和领域开展人工智能应用试点示范,推动人工智能规模化应用,全面提升产业发展智能化水平”;此外可以改进企业管理本身,使其成为智能企业,还可以从产业布局平台上优化环境,打造人工智能创新高地。第(三) 项为社会服务和管理的智能化,列举了“人工智能 + ”在这一领域的应用。包括:在教育、医疗和养老等社会领域发展便捷高效的智能社会服务; 围绕行政管理、司法 管理、城市管理、环境保护等社会治理的热点难点问题,促进人工智能技术应用,推动社会治理现代化;促进人工智能在公共安全领域的深度应用,提升公共安全保障能,推动构建公共安全智能化监测预警与控制体系;促进社会交往共享互信等。可见,《规划》关注赋能领域并且予以充分重视,但遗憾的是,《规划》在相关人工智能立法规划要求中却没有明确提出应当区分规范策略。
其次,人工智能赋能应用规范策略,为了做好基于“赋能 + 应用场景”的结构分析与权衡,除了面向赋能的具体应用场景,还必须注意到赋能的作用方式,简称赋能方式或赋能模式。人工智能赋能科技活动并不是单一的,赋能主体往往会就在应用场景使用人工智能预设特定目标,由此出发选择自认为合适的赋能方式。在这种情况下,对于人工智能赋能活动的规范不能忽视对赋能方式的关注,因为这些赋能方式侧重不同、强弱不一,不同赋能方式对于应用场景的影响差别很大,有的甚至完全不同,所以有必要结合起来考量。所谓“赋能+应用场景”的结构,其实应该是“具体的赋能方式+具体的应用场景”的结构。现实中,将具体赋能方式应用于不同应用场景,必须十分慎重,配置不当很可能引发方式与合法目的脱节,导致应用场景功能异化或者削弱,或者导致利益风险关系失衡,甚至产生人工智能究竟是“工具还是武器的两面性”的困惑。例如,人工智能基于技术发展已经可以开发识别功能,包括图像和语音识别、面部识别、音频和声音识别、文本识别等,可以将之称为识别模式,对于这种方式的使用,从赋能功能上说可以增强发现准确发现和识别对象或事物的能力。但是,如果出现“控制蔓延”式的滥用,则可能导致个人无法匿名、无处遁形的全监视社会后果,或者说产生自由公民变成边沁所说的囚徒效应。
目前人脸识别技术成为各国关注热点,我国最近也因为浙江一起案件而引发讨论。我国对于人脸识别在规范适用上一直存在较大困惑,虽然从理论上看公民生物识别信息至少应该纳入现行法律中的个人信息保护,但是现实中许多公共机构、事业单位甚至企业存在几乎无节制使用脸部识别技术的情况。在此不妨对比英国的一个案例:2019年9月4日,英国的英格兰和威尔士高等法院行政庭通过一个上诉判决,明确了警方使用人脸技术的合法界限。威尔士警方以“AFR Locate”方式部署自动人脸识别技术,对从闭路电视中获取的公众人脸进行识别,对比监视名单,若匹配不成功抽取的面部数据和相关照片不会存储,匹配成功的相关数据也最多会被保留24个小时,而闭路电视记录根据相关标准可以保留31天。法院认为,个人面部信息作为个人生物识别信息并不属于《2018年数据保护法》下的敏感信息,而且警察具有法律框架权力如此以公开部署而不是隐蔽监视的方式使用这种设备,因此认定警方具有合法性。相比较,一些国家已经注意到这种赋能方式不加节制使用可能导致的负效应,特别是对于个人生物识别信息保护带来的冲击,逐渐建立对这种赋能方式的应用控制底线。这些国家就人脸识别技术正在试图从应用限制角度建立基本底线规范。2019 年11月,欧盟基本权利局发布了《人脸识别技术: 执行中的基本权利考虑》报告,明确人脸识别技术中涉及的基本权利的含义,并重点关注将该技术用于执法和边境管理的目的,提出欧洲需要更加严格监管其在国家边境及公共场所的应用,避免带来的诸如数据歧视、侵犯隐私和未成年者权利的风险,并提醒当局使用该种技术时应确保使用性质“特定、明确、合法”。2019年11月,法国数据保护机构 CNIL 也发布了关于面部识别的报告,梳理了相关风险和法律框架,讨论监管机构的角色,呼吁关注这一主题。2020年3月12日,美国华盛顿州参众两院通过第 6280 号参议院议案,将于7月1日生效。该州法明确了州或地方机构在满足特定条件下能够使用脸部技术;对政府机构使用提出了一系列规制要求,包括应向相应的立法机构提交意向通知,准备责任报告,使用该技术做出决策时应当进行有意义的人工审查和运营测试,培训相关人员,对使用情况进行披露、记录、审计和汇报;同时严格限制用来持续、实时的监视和追踪,除非获得许可或者紧急情况下才能用于上述目的。
但是,人们也需要担忧,如何才能避免因为应用不合理或者不慎而导致难以预测的灾难。特别是在军事领域,我们看到,人工智能进步不断催生新的军事能力,例如美国海军研发的X-47B无人机可以自我飞行和降落;韩国、以色列等国已经开放出了放哨机器人,这些机器人甚至可以自主决定是否开火;需要格外注意的是,民用人工智能技术也具备着军用的可能性。哈佛大学肯尼迪政治学院贝尔弗科学与国际事务中心2017年7月发布的《人工智能与国家安全》注意到了人工智能技术的军民两用特征,因此从安全的视角提出对此应当进行一定的国家安全层面的管理;同时建议国防部开展聚焦于人工智能的军事演习,以确定潜在的颠覆性军事创新,资助多种形式的、长期的关于人工智能技术及其应用的战略分析,重点投资在攻防两端“反人工智能”的能力。那么,对于人工智能军事赋能是否应当予以某种控制,或者说如何避免因引入人工智能自主模式而发生机器人自动或者错误发动军事行动的恶果呢?美国学者瓦 拉赫认为部署和使用目标可能对准非战斗人员的ADS(主动拒止武器) 违反了《武装冲突法》 (LOAD) ; 在其著作中也披露了美国国防部每年投入数十亿美元资助先进武器装备的研发,例如 2014 年下属高级研究计划局(DAPRA) 预算为 28.17 亿美元,秘密赞助人工智能、网络战、无人武器系统、激光防疫系统以及21世纪士兵增能等。该学者进一步指出,包括人权观察组织在内的许多非政府组织关注和呼吁禁止致命自主机器人( LARS) ,越来越多的国际专家也支持有必要控制机器人手臂。2014年 5 月联合国在日内瓦举行关于特定常规武器公约(CCW) 的会议上,讨论了自主武器带来的危险,这是正式承认这一议题重要性的开始(117个国家加入了CCW,该公约旨在限制使用视为对战斗人员或平民造成不合理的损害的特定武器)。但机器人武器反对者认为,这种武器的使用可能降低开始新战争的门槛。
一直以来,人工智能随着自身技术发展并针对各种应用需要,不断开发相应赋能手段,迄今为止已经形成了较为丰富的技术模式。知名研究企业 Cognilytica 最近发布了一份名为《全球AI法律法规 (Worldwide AI Laws and Regulations) 》的报告,探讨了世界各国采取的最新法律法规举措,涉及九个AI相关领域,其中分析了人脸识别与计算机视觉应用、无人驾驶汽车的操作与开发、AI 相关数据隐私问题、对话系统与聊天机器人引发的挑战、AI 应用可能引发的人身财产威胁等法律法规议题,同时从法律层面讨论了自主武器系统(LAWS) 、AI 伦理与偏见问题、AI 支持型决策、对AI技术的恶意利用可能性及方式、AI系统创建及交互等问题。Cognilytica 公司这份报告在列举上述法律问题的背后,也明显关注了相关的赋能技术架构基础,大体可以归纳七种不同赋能模式。(1)个性化服务模式。包括浏览模式和搜索创建个性化推荐,可以对客户提供个体化的体验或推荐,或者建立个体化联系。(2)对话模式。包括聊天机器人、语音助手等,可以使机器与人交流互动,或者促进人际交互。(3)辅助预测分析和决策模式。包括搜索和检查、预测行为、预测故障、识别对象、优化或提出建议、智能导航等,可以帮助人类做出更好决定。(4)识别模式。例如图像和语音识别、面部识别、音频和声音识别、文本识别等,可以帮助准确发现和识别对象或事物。(5)异常识别模式。包括欺诈和风险检测,可以发现异常,避免风险,优化应急。(6)解决难题模式。包括玩游戏、优化资源、解决问题以及机器投标和拍卖等,旨在强化目标驱动机器的学习和处理能力。(7)加强自主或者完全自主模式。包括机器自主实现系统、汽车等交通工具的自动驾驶 系统,旨在减少人的手工劳动或参与。可以预计,随着人工智能科技进一步发展和赋能应用需要,相关赋能方式会更加丰富。
五、结语:认识人工智能立法规范
对象特殊性及其影响
人工智能因为自身科技的特点在应用上极具特殊性和复杂性。人工智能,建立在会模仿人类学习思考的相关统计模型基础上,其实质是一系列算法,或者说计算机可以按照步骤执行的指令来完成的自动化程序,通过排序数据、发现模式和预测技术,选择一系列规则来应用于输入,从而引导特定的输出。这种技术特点导致提供丰富赋能的可能。例如,可以支持业务工作数字化使其更快和更一致,可以开发在线学习语言的翻译和语音识别服务,可以对用户提供相关性的搜索引擎服务,可以基于用户体验中做出个性化产品推荐,可以基于以前的例子识别垃圾邮件的过滤器,可以通过分析数据来模拟世界的某个方面,还可以用这些统计模型的推论来预测和预测未来可能发生的事件,包括建立医学自我诊断系统或者设计交易智能合约等。人工智能赋能可能导致了“人工智能 + ”的现实驱动。
人工智能应用的特殊性和复杂性导致了立法特殊性和复杂性,首先便反映在其规范对象的认识和确定上。人工智能科技具有专业性和赋能性的双重性,使得其据以实现自身属性的科技活动也相应区分为专业科技活动和赋能科技活动两大类型,前者是其作为信息科技领域的一项前沿专业科技,需要通过有效的专门化活动促进和提升自身研发、生产和部署,后者则是为了发挥作为新型信息科技具有的特殊赋能功能所形成的开发和应用活动。二者呈现出性质、功能和结构形式等方面的重要差异,因此要求迥然不同的规范策略。特别是对于后者而言,在“人工智能+”的架构下存在“赋能”与“应用场景”的叠合关系,需要通过复杂的结构分析与权衡才能把握合理规范界限。一方面,要紧密结合具体应用场景,尤其要注意维护关于功能、利益和风险的预设要求,另一面重视如何选择好赋能方式,注意处理好赋能方式与应用场景的正向衔接,避免超越关系界限的滥用。
人工智能立法规范对象的双重区划及其导致规范策略差异,使得人工智能立法在体系上出现了一种“合而不同”的内在分化特点。制定人工智能法必须面对两个不同的领域、区分两种不同的规范策略来进行,而不能忽略其中任何一个领域,否则,不能达成规范体系的完整。但是,两个范畴差异又是如此明显,统合在一部法律之中,十分考验智慧。特别是在赋能应用情况,且不说“人工智能+经济”与“人工智能 + 社会”之间存在巨大鸿沟,即使是经济领域或社会领域各自内部同样存在多样化的差异,不同具体应用场景之间往往存在重要差别,因此在这一领域能够形成统一的规范有限,存在进一步分类规范的要求;此外,对于某些极其特殊的应用场景,有必要单独规范。例如,对于人工智能在交通工具(自动驾驶汽车)的应用,我国 2017 年底开始陆续出台关于自动驾驶道路测试的地方性的监管规范,2018年正式出台中央级别的管理办法。2017年12月18日,北京市交通委正式印发《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见(试行)》和《北京市自动驾驶车辆道路测试管理实施细则(试行)》,为北京地区的自动驾驶测试活动提供正式管理规范,为国内首次关于自动驾驶测试的规定。《意见》和《细则》定义自动驾驶并要求:申请方需要是中国境内的公司,每家公司最多申请5台车;测试主体需要向第三方授权监管机构申请测试资格,并定期上传测试数据;每台测试车需要购买不低于500万的交通事故责任保险;每辆车必须在驾驶座上配备测试员,不能搭乘无关人员;出现事故后,按照交管规定处理,但需要由测试员承担相应的法律责任;测试车辆需要申请专用的测试牌照并张贴,并需要先通过封闭场地的测试才能进行公开道路测试;对违反细则规定的行为,测试主体的自动驾驶测试资格将被取消、公示,被禁测至少一年。2017年12月29日,工信部、国家标准化管理委员会共同组织制定了《国家车联网产业标准体系建设指南》系列文件,旨在发挥标准在车联网生态环境构建中的顶层设计和基础引领作用。2018年4月11日,由工业和信息化部、公安部、交通运输部共同印发了《智能网联汽车道路测试管理规范(试行)》,2018年5月1日起施行,该规范主要明确了测试主体、测试驾驶人及测试车辆应具备的条件,以及测试申请及审核,测试管理,交通违法和事故处理等内容。
无论如何,在各国将人工智能视为战略竞争科技的当下,为了更好促进人工智能科技快速发展和有效 推进人工智能合理应用,一部高水平的人工智能法是非常必要的,值得我们诚挚期待。