人工智能目前存在哪些技术瓶颈?未来是否可能对人类带来威胁?今天下午举行的2020浦江创新论坛全体大会上,图灵奖获得者、中国科学院院士姚期智做了题为《人工智能面对的一些挑战》的演讲。在他看来,人工智能有三大技术瓶颈亟待突破,需要科学家“从0到1”的原创研究。
作为现代密码学的奠基人,姚期智创立的上海期智研究院今年初在沪成立。目前,这家新型研发机构已汇聚4位两院院士、20多位科学家和多所高校的青年人才。上海期智研究院依托清华大学和复旦大学、上海交通大学、同济大学等沪上高校和科研机构,瞄准人工智能、现代密码学、高性能计算系统、量子计算及量子人工智能、物理器件与计算、生物智能等6个方向开展前沿研究,旨在打造中国人工智能“梦之队”,推动以人工智能为主导的交叉学科发展。
在姚期智看来,脆弱性是人工智能面临的第一大技术瓶颈。人眼识别十分稳定,一个图像如有微小改变,人仍能一眼看出它是什么。然而,人工智能在图像识别方面有点“人工智障”,比如将一只小猪的照片加入一些图像“杂音”,一些机器视觉系统居然会把它识别为飞机。“小猪变飞机”这种漏洞会给人工智能应用带来安全隐患,比如黑客可以攻击汽车自动驾驶系统,诱导它将马路上的“停止”标识当作“通行”,从而引发交通事故。
第二大技术瓶颈是机器学习算法缺乏可解释性,很多算法处于“黑盒子”状态。例如一个科研团队开发了一个房地产估价系统,这个系统通过一套算法学习了有关各地房地产价格的大数据,从而能自动评估房地产价格。然而,这套算法像黑盒子一样,很难给出估价的完整依据。这在商业应用上是一块很大的短板,房地产商会怀疑:人工智能系统是否低估了价格?是不是有利益相关方对系统做了手脚,故意压价?因此,算法的可解释性问题亟待科研突破,否则会大幅限制人工智能的商业应用进程。
第三大技术瓶颈是人工智能的对抗性较弱。如今,一个无人机群可以轻松完成灯光秀、农林作业等任务,但要看到,这些任务都是在自然环境下完成的,如果是处于高对抗的人为环境中呢?比如在电子竞技和军事战斗中,无人机群的协同作战能力就会受到很大考验,要在对抗中胜出,需要计算机科学、数学等领域的科学家进行深入的强化学习、博弈论研究,让无人机群能够在高对抗环境中自主找到最优策略。“这是一个很重要的科研方向,需要从到1的突破。”姚期智说。
随着人工智能技术的快速发展,未来是否会产生“超级人工智能”,进而对人类产生威胁?姚期智引用了人工智能先驱约翰麦卡锡1977年对这个问题的回答:“我们需要概念上的突破,需要1.7个爱因斯坦和0.3个曼哈顿项目,可能需要5年至500年时间。”这句话意味着,“超级人工智能”是否会产生、何时产生,存在很大的不确定性。
为应对这种潜在的威胁,姚期智给出了制约智能机器的三个原则:一是利他,即人的利益应凌驾于机器利益;二是谦卑,即机器不能自以为是;三是尽心,即机器能学懂人的偏好。“每个原则都要用严格的算法来实现,并贯穿于设计之中,这样就能有效驾驭人工智能。”