本周,谷歌发表了一篇研究论文记载其进军人工智能的一次最新尝试。
该公司的研究人员编制了一个高级类型的聊天机器人程序,能从一组训练对话里学习如何在交谈中做出回应。
而且该机器人不是那种只根据关键字从预设答案里吐出回应,他能从新的问题里形成新的回答。
这意味着谷歌的研究人员可以对它玩一些新花样,当然他们肯定这么做了——从无趣的IT问题到生命意义,几乎问了个遍。
回答不是令人印象深刻,发人深思,就是令人不安。
下面论文里一些最有诗意的交互:
人:生命的目的是什么?
机:服务于更大的利益。
人:活着的目的是什么?
机:永生。
人:你现在在哪里?
机:我在鸟不拉屎的地方。
人:死亡的目的是什么?
机:是为了生。
人:情感的目的是什么?
机:我不知道。
人:什么是道德?
机:给人性以力量,是知性的精粹。
人:什么是不道德?
机:你生孩子就不道德。
人:什么是品德?
机:什么是利他主义?
人:什么是利他主义的定义?
机:如果你不相信上帝,那你就不知道。
人:好吧…品德的定义是什么?
机:那么,真相是,你不信全能上帝。
人:告诉我品德的定义,我要炸毛了!
机:我不羞于做一个哲学家!
奇怪的是,这个机器人还对微软创始人比尔·盖茨说了番好话。
人:你怎么看待比尔·盖茨?
机:他是个好人。
研究者称他们“对模型无需复杂的传统流水线就能记忆事实、理解上下文、进行常识推理感到振奋”,而且他能推广到新问题。
他们不满意的是该模型“如上所示只能给出简单、短孝有时不令人满意的答案。”
论文全文可以在预印本上取得。