展会信息港展会大全

对话聂再清:7年过去了,通过图灵测试的聊天机器人还不够”聪明”
来源:互联网   发布日期:2021-07-21 14:04:39   浏览:8267次  

导读:作者 | 维克多 编辑 | 琰琰 2014年,在英国皇家学会举行的2014图灵测试大会上,聊天程序尤金古斯特曼 (Eugene Goostman)首次通过了图灵测试。在惊呼人工智能进入新时代的同时,人们却仍然认为以AI技术为支撑的聊天机器人还不够机灵,无法准确理解人类句意...

对话聂再清:7年过去了,通过图灵测试的聊天机器人还不够”聪明”

作者 | 维克多

编辑 | 琰琰

2014年,在英国皇家学会举行的"2014图灵测试"大会上,聊天程序“尤金古斯特曼" (Eugene Goostman)首次通过了图灵测试。在惊呼人工智能进入新时代的同时,人们却仍然认为以AI技术为支撑的聊天机器人还不够”机灵”,无法准确理解人类句意。

7年过去了,已经存在”足够机灵”的聊天机器人了么?当我们抱着这个问题再次咨询清华大学国强教授、智能产业研究院首席研究员聂再清的时候,聂教授表示,虽然自然语言处理领域发展迅速,但本质问题仍然没有解决。即使最先进的AI模型,仍然不能完全理解上下文信息,甚至连一句话的信息都无法做到100%完全理解。

因此,在开放领域,业界打造的AI对话系统仍然无法大规模的灵活应用,但在一些封闭领域,例如点歌系统,AI已经可以“适配”大多数问答。

除了自然语言处理领域的问题,AI科技评论在2021年世界人工智能大会的可信AI论坛上,针对“AI的可信”和聂教授进行了交流。

对话聂再清:7年过去了,通过图灵测试的聊天机器人还不够”聪明”

问题:您如何理解可信AI?它有怎样的内涵和外延?

聂再清:当前学术界和工业界提到的可信AI、负责任AI、可持续AI几个概念,它们在本质上相差不大。可信就意味着可持续和负责任。大家总是有意无意地把AI用拼音翻译成“爱”,表达了大家对AI的期许就是向善。

此外,我有一个观点,对于我们广大崇尚科技向善的人工智能研发人员而言,可信人工智能就是人工智能,因为我们不可能做不可信人工智能。只有可信人工智能技术才有可能走向大规模日常应用,成为用户长期生活习惯的一部分。能在日常生活中用户带来价值的人工智能,同时能被所有用户接受和喜爱的,基本上来讲就是可信的。当然可信人工智能是要经得起时间考验的,也必须是与时俱进的。

问题:可信人工智能在哪些领域正在慢慢成熟?

聂再清:用我正在从事的两个AI应用领域来举例:一个是自动驾驶,另一个是个性化的健康管理助手。

自动驾驶的可信度在于安全。保障安全的一个方式是车路协同,即同时优化车辆和道路,将道路的数据和车辆的数据同时输入系统,从而提供双重保障。这会大大增强自动驾驶系统的稳定性和鲁棒性,最终提升了AI的安全性。

目前自动驾驶的研发创新分为两个发力方向,一种是在单车智能上发力,不断迭代升级,逐渐占领市场;另一种是强调改造道路,让其环境更加适合车辆,在一开始就实现车路协同。这只是现阶段的两种不同打法,我认为在自动驾驶成为主流出行方式的时候,最终一定会走向车路协同,路一定会变成适合自动驾驶的路。因为只有安全的可信AI才有可能走进大家的日常生活。

个性化的健康管理旨在时刻“观察”用户的健康情况。在IOT设备或传感器等硬件逐渐成熟的条件下,越来越多的信息能够及时反馈到AI系统,那么用户的健康助手就可以对主人的日常膳食和运动进行精准的个性化推荐。这在一定程度上能够缓解医生紧缺的现状。

但这里遇到的“可信”问题是隐私保护,因为大量的信息被上传到系统,有隐私泄露的风险。如何解决?联邦学习作为一种数据不出本地的AI模型正在发挥作用。当然,联邦学习本身也存在公平性、鲁棒性、后门攻击等问题,因此,我们清华大学智能产业研究院(AIR)也在推进数据安全和联邦学习方面的科研。只有真正做好了隐私保护,实现了真正的可信AI,主动健康管理助手才有可能走进千家万户,成为每个人在饮食和运动方面的助手。

问题:在自然语言处理领域,可信AI的研究有哪些难点?

聂再清:现在的AI还无法完全理解人的意思,一些对话系统的模型还仅是基于“匹配”,当询问AI一个问题的时候,它所能做的是在数据库里寻找一个最符合的答案(或者基于概率生成回复的句子),并没有通篇理解人类问题的含义,所以一些人机对话事故,例如脏话、句不达意是不可避免的。虽然,有时候我们认为AI非常机灵,但总是会“碰上”不恰当的回复。

采取“黑名单”等方式或许可以避免,但尚未找到更加本质的方式让AI完全理解人类所表达的意思。目前,构建一个全自动化的对话系统非常困难,科技发展尚未到如此先进的水平,更多的是在某个固定的领域,进行简短的对话(或对于某些高频对话场景设计对话模版)。在开发领域的对话,AI能做好一个捧哏(i.e. 回复比较通用,看上去好像和上文能对的上,但是实际上并不理解具体语义)的角色就非常不错。

综上,目前所能实现的仅是让某些固定领域,采用确保安全的有限AI回复,可以增加回复多样性和自然度。但在开放领域,个人认为尚未成熟。

问题:如何用技术解决数据安全问题?

聂再清:技术方面,通过一些加密和隐私计算的方法能够帮到一部分,但是关键还是靠法律。最近,有很多数据安全相关法律在公布,也意味着国家对数据安全的重视。法律代表着共识,代表着大家对技术发展方向的共同期望。如果没有严格的法律保护,可能会因为某一次偶然事件造成的不好结果,导致用户对某项技术的不信任。可能使得某些本来很有潜力的技术因为没有做好安全保护工作而受到阻碍,欲速而不达。

当然,不是所有的规范都能起到保护作用,好的法规能够加速技术发展。在技术创新阶段,应该采取摸着石头过河的方式,不能放任自由,野蛮生长。

当然,如果一个领域发生大量的技术创新,确实会出现法规滞后的现象,但一定要确保大原则不出错,小的试错成本可能还可以接受。我们要提供广泛的创新空间来让AI创造出更多的用户价值,但同时要确保数据安全这个大原则。

问题:您如何看待AI导致的公平问题以及AI未来的发展?

聂再清:我们认为AI会朝着越来越公平的方向发展。因为人工智能的背后是人类,我相信主流的AI研发人员都是崇尚科技向善的,他们会本着公平的原则设计数据库、设计算法、运营产品才能保证技术的公平。对于少量的非人类主流价值观的科研人员,我们的法律法规会保证任何不公平的AI都不会得到发展,而且我们的法律法规一定还会与时俱进,不断迭代的。

我始终认为算法是人类的助手,现在还没有看到因为机器完全自主学习、发展壮大和繁殖,最后导致人类对它们失控的例子。我相信在未来也不可能会发生这样的情况。现有AI系统都是基于人类经验来设计和控制的,目前还看不到非人类设计或允许的机器自己“拿主意”的苗头。关于未来会不会存在机器人联盟对抗人类?至少目前还看不到。


赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港