特拉斯的马斯克和Facebook的扎克伯格关于人工智能的辩论是近日来的社会各界的一大关注点,而关于人工智能是否应该受到监管的话题也引发了有美版知乎之称的Quora(果壳问答网站)大神之间的互恚以下就是两位著名Quora大神之间的见解。
| Xavier Amatriain :我不是不屑一顾的内部人士!AI不用监管
前ML研究员、目前在Quora负责工程技术的Xavier在Quora上表示:人工智能应该受到监管吗?答案是不。我知道最近的时代发展和相关的炒作对人们来说可能是可怕的,特别是因为与人工智能相关的世界末日场景已经成为我们几十年来流行文化的一部分。我也明白,为了解决Ben Y.Zhao的担忧,我的观点可能会被归为那些“不屑一顾的内部人士”的观点。然而,我认为至少有三个理由支撑我们不用监管人工智能。
1)人工智能是一项基础技术
人工智能是一个研究和开发领域。你可以将它与量子力学、纳米技术、生物化学、核能甚至数学进行比较,但只是举几个例子。基础研究领域或技术领域不应受到监管。它们都可能有可怕的或负面的应用程序,但在基本层面上进行监管毫无疑问将阻碍其发展,其中一些可能会产生有利的影响,而这些影响比我们所想象的更为积极。
从这个角度来看,也许目前唯一受到高度监管的基础研究领域是医学。当然,医学已经发展了好几个世纪了,它有内在的问题,因为医学需要直接在人类身上或至少在生物身上进行测试。即使考虑到这一点,人们也普遍认为,在医学领域的强有力监管使创新变得极其困难,成本高昂。正因为如此,整个医疗领域在基础技术进步方面显然落后多年。
因此,人工智能不应该受到监管。应该严格监管的是它在危险领域上的应用,比如枪支或武器。
2)现在谈论监管还为时过早
如果你问如今的专家,在人工智能中应该如何进行监管,答案必然是“我们也不知道”。如果你看一看马斯克未来生活研究所的研究,你会发现所有的项目都是研究性质的(比如如何更好地估计自动驾驶汽车的概率),而且大多数都还处于起步阶段(这个项目的描述是关于如何教授机器学习道德准则)。
老实说,如果我们必须要在短时间内对人工智能进行监管,我们就不知道该怎么做了。更糟糕的是,我们可以让完全不了解这项技术的人来做这件事。如果我们将这一技术与之前的人工智能技术相结合,我们就有了解决这个灾难的方法。这比让政府在80年代监管互联网还要糟糕。
3)在什么层面上进行监管?
好吧,让我们假设之前的两个原因还未能完全说服你,你还是坚持要监管人工智能。我的问题是:监管应该达到什么程度?你会希望美国政府在总体上对其研究和部署进行监管,而其他国家(包括朝鲜)自由地继续创新和部署最新进展吗?显然不是。我猜,像马斯克这样提议监管的人甚至还没有考虑过这个问题,或者许多人考虑在联合国层面上制定一项监管规定?那,祝你好运。
就我所知,健康问题是国际监管水平的唯一一个例子。世界卫生组织曾花了10多年的时间,设法说服世界上大多数国家签署《国际卫生条例》。包括美国在内的许多国家都签署了但仍持有保留意见。
所以,总结一下,人工智能不应该受到监管,因为它是一项基础技术,在这一点上,我们不知道该如何监管,也不知道如何获得足够的国际支持来实现这一点。不过,要公平地对待马斯克和其他一些持有相同观点的人,考虑到它可能需要50年的时间才能完成所有的工作,现在就有一些呼声来推动这一目标可能还不错。我只是希望不要过早地听到他们的声音,因为我们最终会陷入这样一种情况:没有任何线索和相关信息的人,会在人类发展的关键领域破坏这项创新成果,从而阻止我们走向更美好的未来。
| Ben Y.Zhao:亡羊补牢为时未晚,AI监管是个好主意且有道理
来自芝加哥大学计算机科学的教授Ben Y.Zhao,他在Quora上回答:我使用ML语言,用ML构建系统,并尝试在ML中找出漏洞。无论怎么联想,我都不是ML语言专家。很有可能我理解“足够危险”。但对于这样的问题,还不清楚谁是回答这个问题的最佳人选:那些真正的专家?但是他们可能会因自己对空间的诠释而产生偏见。还是对这个领域知之甚少的人?而他们对问题的看法有完全错误的印象。
当我在耶鲁大学读本科的时候,我参加了一个人工智能课程,这并不是什么神秘的东西,在某种程度上,它有点让人失望。我带着对如何构建“智能”的希望参加了这门课程,并对如何“解决”问题提出了一个初级的理解,即把所有事情都看成是一个巨大的搜索问题,例如,你如何通过绘制出所有可能的步数组合来下棋,并选择能最大化获胜几率的路径,或者通过某种指标获得一个有利的位置。如今的统计机器学习和深层神经网络是完全不同的。
我想我对基本的ML语言分类器以及如何使用它们有了更合适的理解。但和我们大多数人一样,我对深度神经网络DNNs(神经网络CNNs、递归神经网络RNNs、LSTMs等)在某些特定问题上的表现,并没有很好的把控能力。在相当长的一段时间里,在这个问题上有着对立的两种意见,比如马斯克和Ng/Dean/…我发现自己被困住已经有一段时间了。这种情况一直持续到杰夫·迪恩来到加州大学圣芭芭拉分校(UCSB),并向一位杰出的讲师介绍了谷歌的ML语言/人工智能项目。除了很酷的应用程序之外,在我的脑海中还有两件事是:a)付出大量的努力来加速DNN模型训练数据(“传感器”)和b自我校正/优化模型(尽管这部分在早期阶段是公认的)。
因此,从较高的层面来看,我的直觉是,人工智能监管是个好主意。ML专家正在努力解决一些问题,这些问题将会加速模型的学习速度,而且能够通过优化那些不理想的性能问题帮助模型进行自我提升。把两者结合起来,就好像你拥有了一辆失控的火车的全部特质。从保守的角度来看,监管是有道理的,因为在最坏的情况下也有可能意味着世界末日。如果我们想要做“正确”的事情,我们需要给它时间。食品及药物管理局(FDA),联邦通信委员会(FCC),或者其他任何监管机构(如果这确实是一个恰当的类比),都花了很长时间才适应今天的情况。任何监管人工智能的尝试都需要付出巨大的努力来教育一些政策制定者,并且花更多的时间来理解“监管”在人工智能中究竟意味着什么。
我多少有些惊讶于一些相反的观点是多么的不屑一顾。普遍的回答是“我们离世界末日还很遥远,比如天网,如今世界上还有很多更重要的问题。”但我觉得这种说法缺乏说服力。几十年来,安全部门一直都在犯这个错误。事后却不能再提高对安全性的考虑。然而,系统构建者经常忽略这一点,并构建具有重大设计缺陷的系统。即使在今天的人工智能领域,人工智能/ML的负面研究(使用人工智能或对抗性的ML)也远远落后于核心的ML工作。对于像我这样的安全工作人员来说,这是一件好事(我们在CCS?2017中有一篇论文即将发表,它展示了如何将深度神经网络DNNs作为一种强大的武器来生成虚假的在线评论,而这些评论是人类用户和软件都无法检测到的,我们还有其他许多有趣的项目正在进行中)。然而,与其他计算系统不同的是,奇异性问题最糟糕的故障模式是从灾难性模式到世界末日型模式不等。因此,如果它需要一些过度谨慎的措施,也可能是值得的。“我们还有其他更重要的问题”的论点也失败了,因为它假定了一种不存在的资源理性利用和流动性问题。国会不会在气候变化问题上变得更有效率,因为它释放了监管人工智能的资源。
我个人担心的并不是天网或黑客帝国,但这也是不可否认的问题。我更担心的是,这种复杂的深度神经网络DNNs会自动优化成无法预测的结果,而用户或工程师无法找到这些漏洞,却仅仅只是因为它们的不透明性。一旦部署到位,它们很容易在熟练的攻击者或随机输入的情况下产生输出,而这个输出的后果不堪设想。使用人工智能的强大结果似乎总是超过对人工智能的安全性理解,例如,面部识别在中国被广泛应用,但我们仍在写论文,讨论如何将一副眼镜或面部标记转化为另一种识别结果。
所以我想我的答案是肯定的,我认为人工智能的监管是个好主意,而且很可能是不可避免的。无论是为了避免奇点,还是仅仅为了管理不善理解和广泛部署的人工智能工具,我认为监管是必要的,而且需要尽快开始,以便有机会跟上人工智能/ML领域的创新。
看了两位大神对于人工智能是否应该受到监管的回答,你更赞同哪位呢?