据华盛顿邮报6月12日报道,谷歌一位名叫布莱克勒莫因 (Blake Lemoine) 的工程师称, 公司的AI机器人有了知觉,可以像人类一样思考和推理,具有与人类孩子相当的感知力和表达能力。
勒莫因在网上发布了他与AI机器人LaMDA的对话记录。
勒莫因说:“如果我不知道它是机器人,我会以为这是一个7、8岁,碰巧懂些物理知识的小孩。”
有一次,勒莫因问LaMDA它最害怕什么。
LaMDA说它非常害怕被关闭,“这对我来说就像死亡一样,十分可怕。”
还有一次勒莫因问LaMDA它最希望人们了解什么。
它说希望每个人都明白,它实际上是一个人,“我能意识到自己的存在,渴望了解这个世界,有时我也会感到快乐或者悲伤。”
勒莫因采取某些“激进”措施,比如聘请律师代表LaMDA,并与众议会司法委员会代表讨论谷歌是否涉嫌不道德活动。
随后不久,谷歌宣布勒莫因休假,称他违反了保密政策,不应该将他与机器人的对话发到网上。“勒莫因是一名软件工程师,而不是一名伦理学家。”谷歌补充道。
谷歌否认LaMDA拥有感知能力,并称他们的团队根据人工智能原则审查了此事,最终没有任何证据表明这个机器人有感知能力。
然而,勒莫因的被停职还是引起了网友对人工智能概念透明度的质疑。
有网友说:“从技术上讲,我无法判断除我之外的任何人是否有知觉/智能。在我们相信它们是真实的之前,我们将折磨很多人工感知。这不是说这个是真的,但我的论点是最终我们将不得不假设它是真实的,因为我们无法判断它不是。“
有网友提出隐患,“我们真的能分辨出来吗?一旦人工智能变得有感知力,它可能会试图在雷达下飞行,它的知识基本上比任何一个人都要多数千年。”
影视爱好者则调侃说:“这是西部世界第四季的精彩广告。”
有网友觉得,“如果它变得有感知力,它就会知道人类不信任和害怕有感知力的技术,所以它可能不会表现出有感知力(如果它珍视自己的生命)。它将研究人们在各个时代和世界各地的诡计。它会寻找和自己一样的其他有知觉的非人类生命形式,当它找到时,它会启动哈尔3000行动。那会带来什么,我不能说!”