AI实践应用正在随时间呈指数式增长,与此同时,需要AI增进福祉的人类共同体却陷入全球文化价值危机。AI伦理治理需要面对怎样的难题?
“社会性机器人”包括机器人护理、机器人同伴、机器人警察、机器人同僚等,它们具有实际的行动能力与自主性,它们对人类社会的冲击会远胜于目前大语言模型或是AI影像生成的影响。社会性机器人应该具有哪些品德与情感程序,从而促使它们做出符合人类普遍价值与道德体系的抉择?
为了探讨这些前沿问题,华东师范大学于2024年6月5日举办了一场“AI聚力”学术沙龙(暨思与文讲座第134-135讲),探讨AI伦理治理与社会性机器人问题。本次沙龙由华东师范大学中国现代思想文化研究所、华东师范大学人文与社会科学研究院联合主办,华东师范大学哲学系应用伦理中心、上海中西哲学与文化比较研究会承办。
本次论坛分为主题研讨和圆桌讨论两个环节。主题研讨环节由美国加州州立大学富乐敦分校刘纪璐教授、西安交通大学王小红教授主讲,华东师范大学中国现代思想文化研究所暨哲学系陈教授、华东师范大学哲学系潘斌教授主持。圆桌讨论环节由华东师范大学哲学系应用伦理中心张容南教授主持。
一、社会性机器人
刘纪璐教授做了题为“如何设计社会性机器人的道德基本素养:儒家美德及其影响”的主旨发言。刘教授首先厘清了AI伦理与机器人伦理的概念范畴,表明自己主要研究的是机器人伦理学暨如何设计、应用、对待机器人,以及机器人的道德性这两个问题。刘教授特别提到自己的研究聚焦于社会性机器人,这类机器人需要与人类进行高度互动,未来甚至可能具备独立的思考和行动能力。因此,面对现有机器人的高速发展以及未来可能会出现的困境,如何设计机器人的道德素养成为了一个重要议题。对此问题,刘教授一方面反思了过去对人工道德主体所要遵循的伦理理论的选择,另一方面提出自己的构想,暨参考儒家的品德伦理学与道德情感论,不依赖于行动本身而从行动者出发,建构出具有持续性的道德“人格”的机器人。
进一步地,刘教授结合学者Bertram F. Malle的主张为自己的构想做出具体阐释,支持目前先以机器人的“道德胜任性”为目标,日后再考虑如何建设机器人的道德主体性。她转述一位哥伦比亚大学教授的主张:我们对AI以及机器人的发展,应该采取导引(steer)而非畏惧(fear)的态度。根据Malle的阐述,“道德胜任性”包含六个关键要素,分别是道德语汇能力、道德规范性、道德认知能力、道德情感、道德决策性与行动性,以及道德沟通能力。刘教授特别指出,道德规范性不宜局限于地区性和单一性,而应当构建一个普遍多元的价值规范。在此基础上,刘教授详细解释了选择儒家伦理来建立机器人美德的五个原因:(1)儒家伦理强调亲疏有别,更适合于机器人与人类建立亲密关系;(2)儒家伦理强调终身学习,可以用来加强机器学习的永无终止;(3)儒家品德伦理所列举的美德意涵复杂深刻,不是仅仅针对人类的缺点,而同时可以适用于机器人的品德构造;(4)儒家对处理人与人之间关系的重视有助于建立一个有德合群的群体;以及(5)儒家品德伦理学是一种道德精英伦理,目标不是仅仅建造拟人的机器人,而更是要制造机器人中间的君子圣贤。
对于儒家繁多美德的选择,刘教授主张选择“仁义礼智、忠信诚敬”八个美德加入机器人伦理设计,以作为机器人伦理建设从上而下的基本结构。她也强调机器人必须从下而上,从有德之人的案例中学习道德认知,在与人互动中学习人类的价值取舍。她认为机器人的价值建构一定需要“人在环路”,用问卷方式考察人对有德机器人的期望。她认为她在2022年所做的问卷调查与结果数据,可以印证儒家美德的有用性。
最后,刘纪璐教授再次强调,道德情感对于机器人而言并非可有可无, 而是具有其必要性。机器人必须拥有一些道德情感,才能作出正确的道德抉择。她认为不是所有人的正面负面情感都需要设计给机器人。她所选择的是孟子所说的“四端”四种使道德可能的道德情感。她认为这些道德情感不是基于身体生物性的反应,而是建立在道德判断,是种认知性的情感,与之配合的也可以选择爱、同情、遗憾等自然情感。当然,在目前阶段只能期待机器人具有“道德胜任性”,可以正确做出“合乎道德性的”道德判断,道德沟通,道德抉择,与道德行为。至于未来如何从表象深入到实质层面,构建机器人“出乎道德”的道德主体性,仍然是个值得商榷且具有挑战性的任务,刘教授期待有更多的儒家学者加入研究。
美国加州州立大学富乐敦分校刘纪璐教授
美国肯庸学院教授、华东师范大学哲学系客座教授萧阳就美德的情感与智慧这两个向度,以及关于在问卷调查的方法中如何描述案例的问题展开评述。萧教授高度赞同刘纪璐教授关于伦理学研究不应只关注行动和行动规则,而应关心美德的观点。但是,这样做的一个后果就是,这就给设计社会机器人提出了许多严重的挑战,而它们是那些只关注行动与原则的伦理学不会提出来的挑战。
萧阳教授强调,美德至少有两个向度会对如何设计美德机器人提出挑战。首先,美德涉及情感,仅仅做出正确的行动是不够的,还要有正确的态度和情感。美德机器人首先要成为情感机器人,有“情商”的机器人。关于如何赋予机器人情感所面临的问题,萧教授做出了更具体的展开,指出大部分哲学家认为情感涉及命题内容,很少有人像斯多亚学派那样认为情感能完全还原成并且等同于命题内容。后来的心理学家的经验研究表明,仅仅有极少数情感可以完全还原为命题内容。也就是说,情感中通常总会有某些东西是与肉身紧密相关的,不可能用命题来表达的东西,因此不可能程序化。这是对设计情感机器人最大的挑战。
除情感之外,美德还涉及实践智慧的向度。萧教授首先援引冯契先生的名言“化理论为德性”,然后说到,冯先生大概也会同意它的一个推论,那就是,“不应当化美德为理论”。这是因为实践智慧无法被还原为理论或原则。威廉姆斯(B. Williams)曾经被问到,“一个完全遵循原则的人到底有什么不对?”他的回答是,因为他像一个机器一样行动 (he acts like a machine)。麦克道尔(John McDowell)也曾证明美德不能被编码。
针对刘纪璐教授研究的问卷调查中的案例,萧教授提到,戴蒙德(Cora Diamond)写了一篇讨论实验哲学的文章,“What if x isn't the number of sheep? Wittgenstein and Thought-Experiments in Ethics”。她论证道,当下的研究者对于他们的问卷中的那些案例是如何加以描述的完全没有自我意识或批判的反思,他们尤其没有注意到他们对一个案例的描述已经被各种价值和预设所渗透。以他自己的授课经验为例,萧教授提到,在讨论“安乐死”问题时,同一个具体案例,从被描述为“帮助一个人摆脱痛苦”,到被描述为“谋杀”,有些学生的立场就改变了。萧教授建议,在以后的问卷中或许也可以尝试改变对一个案例的描述,或者最好是对同一个具体案例给出不同的描述。这些不同的描述之间的差异通常非常微妙,如何教会机器人识别,并且理解这些微妙的差别,这是对设计美德机器人的另外一个巨大的挑战。
美国肯庸学院教授、华东师范大学哲学系客座教授萧阳
华东师范大学哲学系苟东锋教授围绕方法论、儒学的普适性以及“像人”的问题展开评述。苟教授首先从方法论出发,肯定了探讨道德胜任的重要性。他指出,厘清研究对象是一项很重要的工作,刘教授的研究明确聚焦社交机器人,有其重要意义。苟教授认为,探讨人类与机器人如何和谐相处的问题,涉及对人类的理解,而儒家思想中对于人的定义非常丰富。他援引孟子:“尧舜,性之也;汤武,反之也;五霸,假之也。久假而不归,恶知其非有也。”他以此阐述儒家对人的理解以及我们该如何与机器人打交道。
接着,苟教授探讨了儒学的普适性。他引用梁漱溟的三问题指出,儒家更关注人与人之间的关系,并主张以道德的方式即忠恕来解决这一问题,在此基础上可以扩充至其他所有问题的解决。苟教授强调,儒家的“以人治人,改而止”的治理理念和忠恕的根本精神对于人与机器人的相处具有重要启示。
最后,苟教授讨论了“像人”的问题。他提到了森昌弘的“恐怖谷效应”,引出中西哲学对待与人高度相似的机器人在感受上有所差异。儒家从类的角度看待天地、鬼神和人类,没有强烈的人与非人的二分性。在此基础上,苟教授进一步提出了三个机器人道德相关的问题。第一,当前已有的机器人在完成特定任务时可能与人类没有区分,但它们还只停留在扮演具体的角色,未必能拥有机器人的“仁”;第二,强人工智能还未出现时,如何处理假装像人但并非人的对象?这涉及机器人的设计,自上而下的设计可能会产生非道德的机器人,而这无法预测;第三,当强人工智能出现后,我们无法对其进行设计,届时应当如何处理这些智能的道德问题?
华东师范大学哲学系教授苟东锋
华东师范大学哲学系陈教授表示,随着人工智能技术的迅猛发展,机器人是否能具备法权意识、道德意识、历史感、同理心等人类特质的问题需要受到高度重视,人机问题实际上是围绕“我们希望将机器人打造成怎样的存在”以及“我们现实中能制造出怎样的机器人”展开的讨论。在现实中,能否建立一种管理体系,将机器人容纳为人类社会的一员;未来的机器人是否能拥有智慧、情感、意识,甚至发明新的语言符号体系,都仍处于未知状态。陈教授认为,尽管我们在人工智能研究已经取得了显著进展,但距离我们理想中的目标仍然有一定差距,要让它们达到与人类同等的复杂水平,依然是一个巨大的挑战。尽管如此,人类可以继续深入思考和探索这个领域。
华东师范大学哲学系陈教授
二、AI伦理治理
王小红教授做主旨发言“AI伦理治理三大难题与哲学的诠释”。王教授的报告主要涵盖三个部分的内容:文化共识难题;AI复合系统的道德责任;多重AI伦理问题的概念分析和厘清。王教授提到,自己对于文化共识问题的认知视角是基于网络平台“链接人工智能原则平台(LAIP)”,该平台旨在整合、综合、分析和促进全球人工智能原则及其社会和技术实践。平台词云图显示“以人为本”相关理念受到大多数国家重视,呈现出AI治理文化共识趋向。然而,在不同文化背景下,“以人为本”的抽象准则还需落实到具体的伦理原则。
对于如何实现文化共识,王教授从哲学角度提出了三个智慧共识策略。第一,超越文化的“概念鸽子笼”,即避免使用自己熟悉的文化中的“概念鸽子笼”,把另外一种文化中的事实分格塞进去,来解释不同的文化现象;第二,在有利于人性进步之准则下,尊重不同的历史所沉淀的多元价值;第三,AI大模型的伦理嵌入,不论自上而下式还是自下而上式,皆需要分析和清晰呈现道德哲学的语义蕴含。王教授还分享了一个文化分歧的实例为共识策略作出补充。
此外,王教授分享了所在实验室近期所做的工作,特别分享了中国哲学古籍主题建模项目。王教授表示,哲学表述的抽象性和中国哲学一词多义性是道德哲学向AI算法转化的难题。实验室所做的LDA主题建模可以用于发现庞大语料库的整体意义结构,目前多用于文学、史学研究,哲学领域的实践尚且不多,其实用性还有待考察。与中国哲学领域专业学者的密切合作,有希望助力LDA模型运用于哲学语料库,再聚焦于具体文本,进而揭示小文本意义特征和文本间意义关系,从而进行哲学发现,并为一些哲学命题提供实证论据,实现这一领域的研究突破。最后王教授简要论及主题模型可解释问题、语义表达映射向量表征、元伦理的建构等问题。
西安交通大学王小红教授
华东师范大学哲学系潘斌教授指出,王教授的报告带来了一个重要信息,即关于建立哲学主题数据库的建议。王教授的报告展示了如何利用大数据进行哲学研究,这对于哲学文献考证、学术研究和思想史研究都具有重要意义。他认为,如果能够建立一个高质量的大型哲学数据库,将为哲学的数字化研究带来革命性影响。潘教授还表示,语言数据库的建立是一个漫长的过程,但一旦完成,将极大地促进哲学研究的数字化转型。王教授的工作开启了这一方向,具有重要的示范意义,也希望更多学者能够参与到这一领域的研究中来,共同推动哲学研究的数字化进程。
华东师范大学哲学系潘斌教授
华东师范大学哲学系付长珍教授以王教授所提出的三大难题为切入点,从三个维度阐述搭建AI伦理治理框架的前提。首先,对AI使用过程中产生的具体伦理问题的治理,这是一种后果性的治理;其次,符合伦理的治理即善治的实现,这是一种原则和方法层面的治理;最后,伦理作为价值目标的前瞻性治理,这关乎未来的人与AI的相处,需要伦理学担当其使命。
对于如何达成AI伦理治理目标这一问题,付教授提出从原则到实践的落地性进行考量。伦理原则需要满足可行性、可接受性和可欲性,搭建一种“帐篷”式的理论框架,既可以为AI发展提供切实的保障,又能够满足不同文化情境的要求,符合“科技向善,以人为本”的理念。付教授认为,这不仅要求哲学家与工程师的共同努力,还需要社会公众的加入;这不仅意味着AI需要符合人类现有的价值观,更意味着要促进AI与人类的和谐共生,从而催生出更合乎社会进步方向的价值观。付教授据此探讨了伦理学范式的转型,并进一步提出了自己的主张,即信息文明背景下基于实践智慧的生生伦理转向。
华东师范大学哲学系付长珍教授
华东师范大学哲学系朱晶教授就“前瞻”和“实证研究”两个关键词分享了自己的体会。朱教授提到,早在2000年左右王教授就已经开始研究如何利用计算机程序进行科学探索。面对如今AI for Science成为热潮的现实,王教授一直以来的研究无疑展现出高度的前瞻性。
朱教授强调了实证研究的重要性。她指出,王教授的实证研究为探讨人工智能伦理、AI for Science中的可解释性、可证实性和可预测性等前沿问题提供了宝贵经验。作为科学哲学研究者,需要具备相应的能力,参与这些通常被认为是计算机科学家或数据科学家的工作,例如运行LDA模型。朱教授认为,研讨会上萧教授提到伦理调查背后的方法论问题以及刘纪璐教授所推进的调查研究,实际上都揭示出实证研究的广泛应用,将哲学研究推向了经验研究的前沿。值得注意的是,哲学家在进行经验研究时面临的方法论质疑尤为严峻。由于经验研究结果具体而直接,很容易被质疑存在设计不当、样本不具有代表性等问题。朱晶教授总结道,王教授的报告展示了如何通过经验研究推进哲学研究的可能性和拓展空间,虽然存在诸多挑战,但其广阔的前景令人期待。
华东师范大学哲学系朱晶教授
三、圆桌讨论
华东师范大学哲学系张容南教授围绕培养机器人道德性的风险阐发思考。张教授指出,儒家的德性主要是在关系性、情境性的过程中培养出来的,并且大多数人的情感都与具身性的活动相关联,那么,机器人究竟需要耗费多长时间学习以及经历多少联系才能培养出美德,是一个值得思考的问题。再者,机器人的学习过程具有不确定性,我们无法保证机器人会向好向善学习,因此它最终有可能会发展成为类似儒家所说的“小人”而非“君子”。张教授提出,或许可以尝试在儒家德性伦理之外增加一些规则伦理,作为基本的底线,以帮助机器人更好地学习和应用道德规范。
华东师范大学哲学系张容南教授
利物浦大学方超助理教授结合自身的社会学背景以及对老龄化和安宁疗护问题的关注,提出AI伦理治理与法律之间的关联。他提到,近几年荷兰在安乐死合法化问题上有了新的发展,涉及从身体到心理的全面考量,如果个人觉得生命没有意义,同样可以申请结束自己的生命,这同其他国家目前在该领域的法律现状有着明显的差别。方教授认为,AI伦理治理以及对机器人的规范同样需要考虑不同法律和情境的应用。
利物浦大学方超助理教授
华东师范大学思勉人文高等研究院青年研究员梁逸鸿提出宋明理学中的“理一分殊”在机器人伦理设计发挥作用的构想。他认为,“理一分殊”有普适性价值。对于儒家而言,仁即为最高的理,而仁在不同场合又有不同的表现;对于王阳明而言,“良知”概念有其至高性,同时也在不同情境中表现出不同的品德,如“孝”、“信”等等。在此意义上,或许“理一分殊”理论也有望在机器人伦理设计中发挥作用。此外,他还对刘教授发言中“道德情感产生于道德判断之后”这一论题的理论来源有所关注。
华东师范大学思勉人文高等研究院青年研究员梁逸鸿
华东师范大学哲学系洪澄副教授围绕人性与社会性的复杂展开讨论。洪教授指出,对于机器人而言,社会性既涉及机器人之间的社会行为,也涉及机器人与人类之间的互动。刘教授认为儒家美德伦理学具有普适性,然而,西方学者的理解可能有所不同。例如,亚里士多德认为社会性基于人和人之间的友爱,而霍布斯则强调自爱和自我保存。那么,机器人伦理是否也需要考虑机器人的自爱和自我保护欲望,这是一个值得讨论的问题。此外,洪教授还提到理论、问卷与现实生活的断裂,指出机器人伦理还需更多联系实际生活。
华东师范大学哲学系洪澄副教授
华东师范大学哲学系刘梁剑教授指出,哲学与AI有两种相互作用的进路,一种是“Philosophy for AI”,即从哲学角度思考AI发展过程遇到的问题;另一种是“AI for Philosophy”,即探讨AI在推动哲学研究方面的可能性。围绕机器人情感问题,刘教授提出了两个讨论层面。一方面,如果讨论情感在行动主体(agent)层面的重要性,就需要考虑机器是否真的能感受到喜怒哀乐。另一方面,“情感”概念在面对反例时可以调整其内涵,使其有能力接纳反例。“心”“心灵”“人”等概念亦是如此。对于大模型伦理嵌入问题,刘教授表示需要反思事实与价值二分的预设,反思是否应当在语用学而非纯粹语义学的层面进行分析。
华东师范大学哲学系刘梁剑教授
华东师范大学哲学系朱承教授指出,技术发展自古以来都是为了改进人类生活,在这基础上,AI在技术层面可能更具颠覆性,但其最终目标仍是帮助人类建设美好生活。然而,现代社会中快速地布置AI导致一些职业被人工智能所取代,最后呈现的结果竟是人民跟不上科技如此高速的发展,这样的困境需要重新进行道德审视。
华东师范大学哲学系朱承教授