之前OpenAI首席科学家Ilya Sutskever一句“现在的大型神经网络可能已经有了点自主意识”的发言引得杨立昆(Yann LeCun)“下场论战”,学术圈诸多争议。
此后,MIT的访问学者Tamay Besiroglu在推特上发布的一张在机器学习模型发展图又激起讨论。他在图上画了一条线,界线以上即是模型“有微弱意识”。
虽然Besiroglu后来发推文表示只是玩笑,依然不能消弭争论。
对于“现在的大型神经网络可能已经有微弱自主意识了”的观点,IEEE China Council Vice Chair(国际电气电子工程师学会中国联合会副主席)王潮接受澎湃新闻(www.thepaper.cn)采访时表示,“由于先天性缺陷,不可能通过神经网络产生自主意识。目前深度神经网络已经到了天花板。”
王潮是上海大学教授,中国人工智能学会理事、会员工委会副主任委员,2019年获中国人工智能学会首届杰出贡献奖。
王潮解释道,“目前的神经网络和深度学习在本源上存在问题:违背了David Marr从神经科学和脑科学角度奠定的认知科学(Cognitive Science)理论、计算视觉(Computational Vision)和计算神经学(Computational Neuroscience)理论。 由于将模型(表达)、算法、和实现的结构这三层混在一起,深度学习丢失了语义和深度信息。因此深度神经网络不可能产生自主意识。”
杨立昆(Yann LeCun)曾经在IEEE Spectrum说过,虽然深度学习从生物学中获得了灵感,但这离生物大脑的实际运作方式距离还远得很。杨立昆还指出深度神经网络的非监督学习能力远远弱于大脑,缺失了人类大脑的基本的学习原理。
“深度神经网络的几大局限性,包括泛化能力弱、表达能力弱、无注意机制以及过度依靠训练数据等,已经严重制约其应用,更谈不上产生意识。”王潮说道。
对于AI能否有自主意识,我们该如何思考这个问题呢?
王潮认为,“当前人工智能面对的三大难题:意识、情感、推理。基于直觉推理,人工智能有望产生部分自主意识。这里,我们关注的是产生更精准的意识,而不是略显模糊的意识。”
“人类的意识涉及到人类大脑对一个不完整世界的描述,通过人类直觉判断和逻辑思维,把场景感知和情景认知结合起来,融合先进知识概念,有望形成部分意识。展望未来,全球首个商业化量子计算机D-Wave,目前已经装备美国能源部下属两个国家实验室、NASA、洛克希德马盯南加州大学等,其原理量子退火独特的量子隧穿效应可以使得直觉推理方法以较大概率获得更精确的意识。”王潮接着道。
那我们需要担心AI会有自主意识吗?
王潮的答案是否定的,“无需担心人工智能会产生部分正确的意识。人工智能如果具备部分意识,最终是一种造福于人类的方式行事,使人类与技术之间达成崇高信任。”
中国工程院院士郑南宁曾在《人民日报》发文《发展有助于人类的人工智能》表示,让机器具有自我意识、情感以及反思自身处境与行为的能力,这是实现类人智能最艰难的挑战。具有自我意识以及反思自身处境与行为的能力,是人类区别于其他生物最重要、最根本的一点。另外,人类的大脑皮层能力是有限的,如果将智能机器设备与人类大脑相连接,不仅会增强人类的能力,而且会使机器产生灵感。让机器具有自我意识、情感和反思能力,无论对科学和哲学来说,都是一个引人入胜的探索领域。
附采访问答:
1. 对于 OpenAI 首席科学家Ilya Sutskever“现在的大型神经网络可能已经有微弱自主意识了”的观点您怎么看?
由于先天性缺陷,不可能通过神经网络产生自主意识。目前深度神经网络已经到了天花板。
Yann LeCun曾经在IEEE Spectrum说过,深度神经网络与生物大脑还离得很远(“While Deep Learning gets an inspiration from biology, it’s very, very far from what the pain actually does;”)Yann LeCun还指出深度神经网络的非监督学习能力远远弱于大脑,缺失了人类大脑的基本原理(“The pain is much better than our model at doing unsupervised learning. That means that our artificial learning systems are missing some very basic principles of biological learning;” )
目前的神经网络和深度学习在本源上存在问题:违背了David Marr从神经科学和脑科学角度奠定的认知科学(Cognitive Science)理论、计算视觉(Computational Vision)和计算神经学(Computational Neuroscience)理论。 由于将模型(表达)、算法、和实现的结构这三层混在一起,深度学习丢失了语义和深度信息。因此深度神经网络不可能产生自主意识。
深度神经网络的几大局限性,包括泛化能力弱、表达能力弱、无注意机制以及过度依靠训练数据等,已经严重制约其应用,更谈不上产生意识。
2. 您认为AI会有自主意识吗,您如何思考这个问题?
基于直觉推理,人工智能有望产生部分自主意识。这里,我们关注的是产生更精准的意识,而不是略显模糊的意识。
当前人工智能面对的三大难题:意识、情感、推理,如同郑南宁院士所言,迈向人类思维水平的人工智能是一件令人生畏又极具挑战的研究工作,使机器人能具有自我意识、情感和反思能力,无论对科学和哲学来说,这都是探索领域。
人类的意识涉及到人类大脑对一个不完整世界的描述,通过人类直觉判断和逻辑思维,把场景感知和情景认知结合起来,融合先进知识概念,有望形成部分意识。展望未来,全球首个商业化量子计算机D-Wave,目前已经装备美国能源部下属两个国家实验室、NASA、洛克希德马盯南加州大学等,其原理量子退火独特的量子隧穿效应可以使得直觉推理方法以较大概率获得更精确的意识。
3. 如果AI有自主意识,您觉得这是一件值得担心的事情吗?
无需担心人工智能会产生部分正确的意识。人工智能如果具备部分意识,最终是一种造福于人类的方式行事,使人类与技术之间达成崇高信任。
工业运行、社会治理权力在由人向机器转移,人工智能的意识和决策不能成为大忽悠,这些年业内已经在注意到人工智能的基础问题:模型和训练数据集对人工智能的影响问题,如同早年谷歌的传染病预测系统后期案例。所幸这些问题国际大企业、国内外高校已经关注到,并逐步给出解决方案,2016年起IEEE也组织了100多位在人工智能、法律、伦理、哲学和政策领域工作的学术界、政府和企业部门的专家,专门从事此类相关问题的国际准则制定。