多年来,人工智能那几乎无限的潜在能力已经形成了科幻小说和电影的情节。在电影中,我们都能看到人工智能已经变得自我意识并接管了世界的可能性,人工智能的发展真的是无所不包,而每年我们都离实现其中一个科幻故事情节越来越近,只有时间才能告诉我们智能系统将朝哪个方向发展。
埃隆马斯克表示,虽然许多人对人工智能的未来以及在认知机器的帮助下运行的世界可能出现的可能性寄予了很大希望,但他对人工智能的创造以及脑机接口开发的研究并不抱太大希望。尽管马斯克在这一领域投入了大量精力,但他仍然对机器运行的未来感到担忧,并估计目前为使人工智能对人类安全所做的努力只有5%到10%成功的机会,这一可怕的预测意味着人工智能几乎肯定会对人类构成巨大的风险,马斯克并不是唯一一个认识到并表达这些担忧的人。
斯蒂芬霍金反复声称,他确信人工智能系统相当危险,可能会完全取代人类,但人工智能领域尚未出现稳定向前推进的趋势,非人类人工智能系统的能力也随之发展,可以创造语言,表达好奇心,诊断疾病,识别不同或不寻常的行为,执行军事模拟,甚至可以创造其他人工智能系统的系统。似乎只需少量的进一步开发,机器就可以实现不再需要我们。
当然,马斯克更关心他在人工智能运行的未来看到的潜在障碍和可能性。首先,他对创造一个不仅比人类更聪明,而且具有独立学习能力的系统的潜力持谨慎态度。尽管算法可以被编程或训练来识别好的和坏的行为,但当这种拥有无限的知识与人工智能机器缺乏情感、悔恨或内在道德代码这一事实相结合时,人工系统能做什么的可能性令人担忧。
不仅如此,马斯克也担心这一巨大的权力将由少数几家有资金开发这项技术的公司控制,目前没有监督或法规来检查,因此控制人工智能领域的人拥有几乎无限的权力。马斯克的预测能否实现还有待观察。但史蒂芬霍金的警告让人背脊发凉,霍金认为人工智能可能会终结人类。这是为什么呢?
多年来,科幻电影中已经一直在利用发展的技术与人类进化相匹配,进而超越人类进化的恐惧,但近年来,一些世界领先的人工智能头脑已经证实,这些感觉并非完全没有根据。斯蒂芬霍金虽然同意技术进步促进了许多长期存在的全球问题的非凡进展,但他也指出,与算法自身重新设计的速度相比,我们的生物进化速度慢得可笑,根本无法与学习能力超强的人工智能竞争,埃隆马斯克、比尔盖茨和史蒂夫沃兹尼亚克也担心快速的技术进步带来的危险。
霍金认为人工智能本身就是一种生命,可以自我改进和复制。他警告说,计算机事实上可以完全取代人类物种。天体物理学家认为,事实上,人类面临着许多人为的潜在威胁。在几年前的葡萄牙举行的网络峰会技术会议上,霍金引用了气候变化、人口过剩以及与地球之外的生命交流的风险话语。他说,成功地创造出有效的人工智能可能是我们文明史上最大的事件,也可能是我们不知道的最糟糕的事件,因此我们无法知道人工智能是会无限地帮助我们,还是会忽视我们。为了防止最坏的情况发生,霍金建议我们积极关注立法机构,通过实施最佳实践和负责任的管理来帮助我们保持安全。
确实,人工智能是一项革命性的进步,可以用来解决世界上的许多问题,但当人工智能能够模仿自然智能和模仿意识,变得越来越像人类时,这确实让一些人看起来有点不太正常。我们无法知道人工智能在未来会为我们带来什么,我们的许多焦虑仅仅源于对未知的普遍恐惧,最好的前进方式是谨慎乐观,着眼于进步才是最关键的。
相比于人类的人工智能,我更认为外星文明更令人好奇,如果运气好的话,我们可能会在本世纪从外层空间的智能文明中接收到一个信号。它们可能在数百光年之外,因此需要数百年的时间才能完成。当然,如果我们探测到一个在外太空的智能文明,这可能是地球文明史上的一个转折点,这并不是不可能。我们的银河系挤满了数十亿个潜在的类地行星,它们可能拥有各种不同的生命形式,而且实际的系外行星数量远远超过了我们银河系中已经记录和证实的四千个类地行星的数量,因此我觉得地球上的人工智能发展是至关重要的一步。你对这些人工智能发现有何看法?你认为未来会发生什么呢?欢迎留下你的看法!