现在的人工智能属于“弱智”(相对强智能),不存在内在的意识和情感,连模仿都完成得过于生硬
所以,如果人工智能也知道歧视,那它一定不是主观的歧视,即“我讨厌你”,而是在行为模式上存在歧视,即“我排害你”。
人可能既讨厌又在行动上排害一种东西,但人工智能只能在大量的样本中建立不同事物之间的相关性,却不能理解为什么相关,以及具体的因果关系。所以不能主观地把一种情绪投射出去
介于这点,人工智能早已知晓“歧视”了。谷歌在17年也推出过一款聊天机器人,一样是通过分析人类语言文本来把握人类对话的方法和特点。
当时,一些恶趣味或纯粹是歹毒的人,大量地对这个机器人发送辱骂、歧视的话语,导致这个机器人不到一夜就变成了“祖安机器人”,疯狂攻击与它沟通的人们。更可怕的是,由于极端种族主义者的参与,这个机器人进一步进化为“纳粹机器人”,出现了反人类的倾向。
谷歌最终被迫关闭了这个聊天的页面。
从这个案例我们可以看到,人工智能哪有什么歧视,它只是一面的镜子,照出了人类自身的歧视而已。像OpenAI开发出的人工智能GPT3,关于什么是神还说得头头是道。
但它哪知道什么神和人的哲学关系,是互联网存在这样的文本,它在一套更高效的机制下,识别和连接了问答两端的内容。
当然,GPT3超强的识别和适应力,应用前景十分广阔,但仍未跳脱人工智能“高效工具”的本质。
基于此,人工智能知道歧视的唯一后果,也无非是提高了仇恨散播和歧视执行的效率而已。GPT3的开发者如果有心设置这样的系统目标,你输入一句“甜粽子更好吃”,假设是翻译的场景,它可能翻译出来的文本是“咸粽子好吃”;假设是聊天的场景,它可能回复你“我为你感到羞耻,甜粽子是目前已知最垃圾的食物之一”。
自动的执行歧视,且可以在各种各样的场景适应性地进行,人工智能真是太高效了!
进一步说,这样的机制对世界也并不会产生颠覆性的影响。16年美国大选,特朗普竞选团队利用脸书、推特的大数据系统,对民粹主义信徒和潜在的种族主义者精准投放竞选广告,这些广告的内容大多存在歧视性的暗示,对移民和其他国家的政权进行了攻击。
在这个过程中,大数据推送不就执行了歧视吗?要说有什么影响,特朗普当选是一个,对移民的排害以及反华思潮的汹涌,不是美国本来的社会舆论基础吗?
所以,在人工智能只是一个高效工具的前提下,它知道歧视,也只是提高了仇恨散播的效率而已。世界要解决的问题,归根结底,还是本就存在于社会中的那些错误观念。