新熵原创
作者 | 伊页 编辑 | 明非
破壁人,是《三体》中的人类叛徒地球三体组织,为了识别出面壁者内心真实想法而安排的人。
侵略者三体人思维透明、无法撒谎,只能利用人类身份的破壁人,来瓦解地球人最后的希望,面壁计划。
现实社会文明中,每一个人的内心真实想法,其实也在被高速发展的人工智能,即AI技术所窥见。
《三体》中的地球难逃被殖民的命运,现实中的人类又该如何避免,未来可能会发生的AI支配?
去年年底,谷歌AI伦理部门的联合负责人Gepu发推表示自己被公司开除。只因身为黑人女性的她,一篇引发争议的论文内容指出,不加区分地使用现有数据训练人工智能,会进一步加深 AI 语言模型中对少数边缘群体的偏见。
AI中涉及的伦理偏见现象一直贯穿至今。早在2015年就有谷歌相册将两个深肤色的人标记为“大猩猩”的事件。新冠疫情期间又爆出AI技术将手持测温计的深肤色人员图像标记为“枪”,而将相同条件下浅肤色人员的图像标记为“电子设备”。
当AI没有沿着技术研发之初,所设想的为人类服务、促进社会发展的道路前行,反而屡次触及文明社会伦理道德的红线,这个“破壁人”显然需要一个补完计划来修正其轨道。
AI伦理的进一步研究和落地,就成了计划的关键。
新兴技术或事物的横空出世,由于场景应用经验不足、普罗大众认知落后等缘由,被视作洪水猛兽遭受歧视并不罕见。
历史上,美国加州就曾出现过,要求汽车司机在接近马匹的300英尺外停车等待,让马车先行通过的不平等法规。
但新科技的妖魔化,最终还是抵挡不了,人类社会对美好生活的追求。AI技术也注定成为,影响人类生活现状的第四次工业革命的核心单元。
市场探索、行业规范、学术科研、国家监管,多方主体关于AI伦理道德问题的生态研究及建设,就需要发挥相应的作用,急需行动起来。
AI伦理需多个维度补完
自古以来,先哲们就非常强调人类伦理秩序与技术的和谐发展。柏拉图在对希腊神话的解读中,就指出普罗米修斯给人类所带来的技术,与赫尔墨斯所带来的秩序,共同构成了完整的文明社会。
控制论之父维纳,其著作《人有人的用处》中,关于自动化技术和智能机器,得出过一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。”
这类激进的论调,以及大多文艺作品中,对于未来人造机器掌控世界的担忧,不免有些夸张,但也绝不是杞人忧天。
事实上,目前AI发展最大的问题,早已不是技术上的瓶颈,而是AI与人类的关系问题,这也催生了AI伦理学和跨人类主义伦理学的课题。
2018年,时任微软全球执行副总裁沈向洋博士在其主持编撰的《未来计算:人工智能及社会角色》一书中提出了AI开发的六大原则:公平、可靠和安全、隐私和保障、包容、透明、责任。
随后,有另一家科技企业,百度也提出了AI伦理四原则:安全可控;促进平等;教人学习、让人成长,而非取代人、超越人;为人类带来更多的自由和可能。
而在去年,人工智能垂直头部企业,商汤科技联合上海交通大学清源研究院发布《AI可持续发展白皮书》,为解决人工智能治理问题提出了一个新观念和新思路。
其中提出的协商包容的AI伦理原则、普惠利他的AI惠民原则、负责自律的AI产融原则、开放共享的AI可信原则,对于建立AI可持续发展体系,推动数字经济领域治理研究,贡献良多。
归纳来看,AI伦理问题涉及涵盖如下几个维度:
AI安全可控:包括“AI模型安全”,数据和训练的不完整性,会导致模型偏见和可解释性缺乏。如果模型存在心理、统计等偏见,会造成算法歧视;而如果模型结构不能解释不够透明,那么公众对其信任度会下降。“AI数据和隐私安全”,使用者善意地去使用技术,但仍然可能会被黑客找到漏洞。训练完毕的模型有可能会遭到黑客的窃取,或者被反向还原暴露用户数据隐私。“AI系统安全”,系统威胁分为两类,一类是硬件设备被破解,造成采集数据泄露;另一类是软件系统漏洞被利用,从而在采集或传输过程中被窃取数据。
AI公平平等:不同区域的人、不同等级的所有人在AI面前是平等的,不应该有人被歧视,包括有功能障碍的人群也应该能够平等地使用人工智能;
AI信息透明:尽管人工智能技术具备自动识别理解现实世界,从现实场景中挖掘信息的能力,但只有在告知人且获得同意的基础上,才能收集、保存和使用这些信息。
AI行为问责:人工智能不应作为独立的主体存在,具备自主权利,人类需要始终为使用人工智能造成的结果负责。
作为衔接前沿技术与民生应用的市场主体,国内外的企业,均已在AI伦理生态研究的大道上,迈出了强有力的步伐。
今年3月,《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》全文正式发布。在共19篇65章的纲要全文中,“智能”“智慧”相关表述达57处。
市场先行摸索,政策配套跟进,理论学研支撑,国内的人工智能行业发展,已然领先于世界。
中国的AI行业得益于全球最大的市场环境,储备了非常丰富的数据资料,以及在技术场景落地的过程中,对大量一手数据进行分析学习并得到持续训练。
国内企业亦在行业发展,AI伦理道德生态建设工作中功不可没。在具体行动上,商汤科技作为最早涌现出的一批先驱代表,就在其内部设立了三重安全防护:伦理委员会、安全委员会、产品委员会。2019年商汤科技以组长单位的身份,领衔27家企业机构共同组建人脸识别技术国家标准工作组,全面启动人脸识别国家标准制定工作。
一年之后,全国信息技术标准化技术委员会人工智能分技术委员会正式成立,商汤科技作为计算机视觉企业代表当选为首批委员单位。从单项人脸识别技术,参与到AI技术各个应用领域的国标制定工作之中。
同时,其牵头主编的《信息安全技术 生物特征识别信息保护基本要求》国家标准也正式立项。
国家层面行业标准的建立,就为全部行业内的参与单位,划定了行为边界和规范。AI的安全使用,就不再是一句空谈无法落地。
随着标准覆盖范围的扩大、细则的完善,AI技术才能真正成为可信赖、可控制、可依靠的市场化产品服务。
制定规则并非画地为牢,AI产业的可持续发展同样至关重要。2020年的疫情冲击,更加凸显AI技术的多元化场景积极作用。
回归到普通消费者,日益感知强烈的个人隐私安全问题上,数据保护也是AI伦理补完计划中的要害所在。
近两年,商汤科技相继获得ISO/IEC 27701:2019 隐私信息保护管理体系证书、ISO29151个人身份信息保护实践指南认证、ISO27001信息安全管理体系认证,以及公安部“网络安全等级保护2.0”三级要求等权威认证,成为首批同时获此四大认证的人工智能企业,并代表中国企业加入全球范围内首个系统化定义了隐私信息管理体系(PIMS),成功对接国际上最权威、最被广泛接受的隐私保护标准。
不仅如此,商汤科技一直力推的AI基础教育、AI智慧医疗,在国计民生领域,利用先进技术推动资源的普惠分配,让每一个社会成员都能享受到科技进步的红利。
这也恰好体现了AI伦理中的公平、平等原则。在多维度建设AI伦理生态,补完AI伦理发展空缺方面,AI企业应当仁不让。
产学研一体实践理论结合
人工智能作为一项人类探索未知领域的前沿科学技术,就如同始祖、先辈对于火焰热力、电气磁力的探索利用,需要经历无数次实践、论证、总结的循环往复。
辩证唯物主义认识论问题的著作《人的正确思想是从哪里来的?》中就详细阐述了实践与认知的辩证关系。
正确思想的获取,需要经历两次飞跃。一次是实践感性认识的不断积累,量变引起质变,形成理性认知;第二次则是拿理性认知投入到新的实践当中,经过结果成败的检验,方能掌握行之有效的办法和规律。
AI技术发展过程中的补完工作,AI伦理体系的生态建设,亦要遵循这一路径。
在当下社会大分工的市场环境中,企业更多面向适应市场需求的产品研发改进工作,学术科研单位则是专注于技术成果的研发,这就导致中间缺少一道技术转化成产品,产品成果反哺上游研发的桥梁。
日前,在商汤科技和上海交通大学的支持下,上海交大中国法与社会研究院和清源研究院共同成立计算法学与AI伦理研究中心。
该研究中心的合作就是典型的产学研一体化模式,AI产业内的大企业和具有技术优势的科研院所、高校实施强强联合,形成有利于科技成果市场化的联合体,便能加速AI伦理生态建设工作的有效落实,进而推动整个产业的进步发展。
上海交通大学中国法与社会研究院有着丰富的学术资源,并在风险社会与复杂系统理论、大数据治理和人工智能治理的比较制度分析、智慧司法等领域有深厚底蕴。而商汤科技则能够为法学与人工智能的交叉研究提供技术支撑和产业界资源。
两者的有机融合,可以让计算法学与AI伦理研究中心成为在新兴计算机系统研发、智能生态圈构建、围绕数字经济的规则博弈、人工智能立法等方面成为国内顶级、国际知名的学术重镇和高端智库。
据悉,研究中心将针对隐私保护、算法公正、网络安全、城市及社会的数字化治理、智慧法院、认知科学与类脑计算、科技与法律及政策等重大课题进行深入研究,并搭建计算法学交流与合作平台。
因此,才能从产业和学术两个角度,深入地挖掘AI伦理问题产生的根源和背景,然后从源头去针对性地解决隐患,并把 AI伦理渗透到整个学术界和产业界当中。
当然,完整的AI伦理生态,不仅仅局限于产业和科研双方,国家相关监管部门的支持和市场大众消费者的认知提升,也是AI补完计划不可缺少的两环。
前者需要完善相关立法,加强技术与产品的管理力度,后者则应该主动提高对于前沿技术的客观认知。
AI技术产品的市场应用,已经处于从小规模验证走向了大规模应用的阶段,根据现有经验谨慎推导,完善相关事前、事中、事后的审查、处罚机制,才能为更大范围的普及推广,杜绝伦理问题产生的可能。
同样,作为消费端的市场大众,理应树立正确的科学价值观,既不能盲目追求新鲜潮流,又不该固步自封拒之于千里之外。尤其是作为产学研体系内的专业人士,更需要以身作则坚持正确的AI伦理观,主动引导普罗大众的认知行为。
相信在各方的不懈努力下,越来越多像计算法学与AI伦理研究中心这样类型的主体出现,将进一步促进监管主体和普通民众的同步跟进,国内AI伦理的生态建设将日趋完善,独步全球。
被视作人类“破壁人”的人工智能,在得到AI伦理体系的补完之后,也能回归中性工具的角色,不再具有未来威胁的可能性。
但到了那时,新的“破壁人”又会以何种形式出现,就仰赖于人类自身的想象力了。