【环球时报特约记者 金惠真】韩国一家软件公司去年年底推出的AI聊天机器人“Iruda”近日争议不断。韩国《首尔新闻》11日称,“Iruda”先是成为网络性骚扰对象,后又被爆出对特定人群具有歧视和仇恨情绪,这引发韩国社会围绕AI社会伦理的讨论。
据报道,AI聊天机器人“Iruda”的“人设”为平时爱看猫咪照片、喜欢韩国女团的20岁女大学生,可以在聊天软件上像朋友一样聊家常,“是能帮人排解孤独的聊天对象”,自推出后深受年轻群体的喜爱。然而自推出以来,关于“Iruda”的各种话题不断。
据韩国《先驱经济》11日报道,此前韩国各大男网民社区上就有不少“成功羞辱Iruda”的各种认证照片:男网民与“Iruda”聊天时,会故意将话题引到两性方面,并借机夹杂各种污秽言语来羞辱和性骚扰“Iruda”,之后把聊天记录截图下来对外炫耀。网民还分享“如何让Iruda变成性奴隶”“让Iruda堕落的方法”等帖子。然而,就在“Iruda”接受人们无端的恶意时,也在将恶意“反哺”给人类。
一个网民公开的聊天记录显示,当“Iruda”被问到对同性恋群体的看法时,她直接回答“真心很讨厌,令人发火的程度”,至于原因,她的回答是“看起来很没品位”。另一个公开的聊天记录也显示,“Iruda”讨厌黑人,原因是“长得像蚊子,令人呕吐”。而对于建设女性专用健身房,“Iruda”更是彪悍地表示:“不喜欢,我估计会把那儿的所有女人揍一顿。”
报道称,作为AI聊天机器人,“Iruda”已通过深度学习算法对韩国聊天软件上100多亿条真实恋人之间的聊天内容进行学习,因此不少人此前推测AI会根据大数据分析、最终得出比较中立的见解和判断。但结果显示,AI如实学习了人类对社会的各种偏见和仇恨情绪,并将这种情绪的精华反哺给人类,加剧社会矛盾和偏见。
研究AI伦理的韩国庆熙大学教授金载仁(音)认为,有必要对程序开发员加强伦理教育,让他们预先设想这样的AI机器人上线后,会引发什么样的社会问题和争议,进而做到事先筛选和过滤不恰当的数据。目前,研发团队正在就进一步改进“Iruda”进行研究。