上海交通大学机器人研究所最近完成了“助行机器人”的研发。这种像一部“智能小车”的机器人(许多机器“人”其实并不是“人形”的),能自己识别道路,自行确定行驶路线……带着行动困难或视力有障碍的人出行。
但这款机器人真要实际应用,甚至推向市场,障碍还很多:它应该遵守什么交通规则?是针对行人的交通规则,还是机动车行驶规则?如果它造成了交通事故,该如何处理?上海交大机器人研究所常务副所长曹其新教授说:“这些问号已经让我们纠结了很久。”
曾经在上海世博会露过面的另一些机器人,比如伴侣机器人、餐厅机器人、医疗机器人,一样让人纠结:如果它们在工作中出了差错造成事故,该由谁负责?特别是,这些机器人都是“高智能”的,有学习功能、能“自学成才”,也就是说,一段时间之后,它不再是出生时的它了;它会像人一样,根据自己的所“见”所“想”自作主张——要是想法走偏瞎搞一气怎么办?
人类创造了机器人,但机器人一旦拥有智能,需要的就不仅仅是维护和修理,更得做规矩约束,要让它的想法和行为合乎人类世界的伦理道德。
“机器人三原则”
“研究机器人,都知道‘机器人三原则’——机器人不能伤害人类,也不能眼看人类将要遇到伤害而袖手旁观;机器人必须服从人的命令,除非这些命令与第一条原则相违背;机器人应该能保护自己,但与前两条原则相违背的情况除外。”德国汉堡大学多模式技术研究所所长张建伟教授告诉记者,这三条原则,最早由美国科幻作家阿西莫夫在他写于1942年的一个短篇小说中提出;后来,有的科学家加了“第零原则”——“机器人可以什么都不做,除非他的行动符合三原则”,又有人加了“第四原则”——“机器人不得参与机器人的设计和制造,除非新的机器人的行为能服从三原则。”不过,大家广泛认同的还是“机器人三原则”。
“机器人三原则”已经实际应用。
曹其新教授介绍说,对于机器人用于医疗领域和研发医疗机器人,目前美国未加限制,欧洲定了一些规矩,而日本根据“机器人三原则”,明确禁止。这类机器人直接跟人的生命打交道,伦理问题最为突出:它具备人工智能,可以自主学习并独立手术,但如果“学艺不精”出了事故,那是不是意味着没有遵守“三原则”?或者,机器人在手术时发现患者病入膏肓、已没有继续手术的必要,因此不做了,那又如何评判这种行为的对错?曹教授说,“伦理道德还不完善”的机器人,不适合用在敏感领域。
其实,现在大多数用于医疗的机器人,并不是智能机器人,都需要人工操作,可以说是一种高端医疗器械。