12月16日,在由复旦大学主办的“2023科技伦理高峰论坛”上,多所高校的学者围绕数字技术时代,中国科技伦理的理论与实践问题进行探讨。
李真真发表主题演讲 本文照片为 澎湃新闻记者 李思洁 图
AI“价值对齐”可能吗?
如何将人类的规范、道德、价值接入AI系统?是否能实现人工智能与人类的价值对齐?中国科学院大学教授、中国科学院科技战略咨询研究院研究员李真真在论坛上表示,AI的“价值对齐”可理解为使人工智能的价值体系和人类的价值观相一致。
近年来,人们一直十分关注人工智能的价值对齐问题与人机伦理关系,尤其是生成式AI的出现,再次唤起人类对人机伦理关系的关注。
目前,许多将“价值对齐”概念纳入AI大模型的研发实践,也表现出将AI置于人类可控范围内的价值目标,但实施价值对齐仍然面临很大的挑战。有学者认为,AI的价值对齐是一种AI的社会化进程,就像一个人类儿童成长的过程,AI也要学习并遵守社会价值规范。
李真真认为,这种说法“非常有吸引力”但现阶段做不到,因为AI和人类的思维方式并不相同,它只是模仿了人类的理性思维方式而不具有感性思维。人类文明的开化始于爱,得益于情感、意志、情绪和经验等方面的自然交互,而目前,在拥有自身的自由意志之前,AI并不具有这些属性。
李真真还提到,要实现AI价值对齐需要具备两个前提条件。一是在人机关系中,人要处于主导地位,因为人类受到法律和道德的约束。然而,道德实际上是最大公约化的价值共识,它的本质是“空洞”的,具象化的道德依据个体差异而不同。如何给智能机器进行道德编码,这还需要技术人员与社科学者的进一步探索。其次,要明确人类对AI的需求与目标,明确是要设计通用型AGI还是解决特定问题的AI系统,这也是一种规避大规模风险的方式。
曾毅发表主题演讲
当人类忽略蚂蚁的时候,超级智能为什么要听人类的?
“现在人工智能的实存风险是什么?在我看来,当人工智能进入社会的时候,它会以一种非常不合适的方式在误导公众。”被评为“全球百大AI人物”之一的中国科学院自动化研究所研究员、人工智能伦理与治理中心主任曾毅表示。
曾毅说,当我们在问生成式AI“你对某某问题怎么看”的时候,它所回复的“我认为/我建议/我觉得”只是依据统计到的信息的显著性做出的呈现。有的公众就会认为,AI的回复就像一个“朋友”,像一位“长者”,但它本身并非一个道德的主体,更不是一个负责任的主体,迄今为止没有任何一个AI能够负责任,目前阶段一定是人在为人工智能负责任。作为人工智能的工作者,应当做到技术上不要误导公众。
曾毅回忆起大一上人工智能课程时,老师给他们放的斯皮尔伯格《人工智能》影片里的一句台词:“如果机器人真的能爱一个人,这个人对机器人又该负有什么责任?”如果影片成为现实,在人工智能演化成“超级智能”的时代,我们应该怎么和超级智能共处?
曾毅提出一个有趣的类比。当我们在网上搜索“人与蚂蚁的关系”时,800条搜索结果中,799条在讲的是世界各地的人用不同的方式吃蚂蚁,只有一条讲到“蚂蚁的合作范式是人类合作范式的典范”。
“当人类忽略蚂蚁的时候,超级智能为什么要听人类的?”曾毅说,“如果我是超级智能,我会问人类,当你都不尊重其他生命的存在的时候,我作为一个认知能力全面超越你的智能体,为什么要尊重你的存在?”
曾毅认为,未来我们并非要将人工智能与人类进行价值对齐(alignment),而是一种价值协调(coordination)。面对超级智能,人类社会的价值观需要调整和演化,“我们要从人类中心主义变成生态中心主义(ecology centrism),这是必须做出的变化。”