展会信息港展会大全

聊天机器人:漫长而复杂的历史
来源:互联网   发布日期:2022-08-23 18:13:02   浏览:5164次  

导读:凯瑟琳索贝克( Catherine Thorbecke),CNN 商业频道 2022 年 8 月 20 日更新 2122 GMT 在 1960 年代,一个名为 Eliza 的前所未有的计算机程序试图模拟与治疗师交谈的体验。在当时的一篇研究论文中进行的一次交流中,一个人透露,她的男朋友称她大部分时间...

凯瑟琳索贝克( Catherine Thorbecke),CNN 商业频道

2022 年 8 月 20 日更新 2122 GMT

在 1960 年代,一个名为 Eliza 的前所未有的计算机程序试图模拟与治疗师交谈的体验。在当时的一篇研究论文中进行的一次交流中,一个人透露,她的男朋友称她“大部分时间都很沮丧”。伊丽莎的回答是:“我很遗憾听到你很沮丧。”

Eliza 被广泛描述为第一个聊天机器人,但它不像今天的类似服务那样通用。该程序依赖于自然语言理解,对关键词做出反应,然后基本上将对话返回给用户。尽管如此,正如创造 Eliza 的麻省理工学院计算机科学家 Joseph Weizenbaum 在 1966 年的一篇研究论文中所写的那样,“有些科目很难说服 ELIZA(及其目前的脚本)不是人类。”

根据他在 2008 年麻省理工学院的讣告,对 Weizenbaum 来说,这一事实令人担忧。那些与 Eliza 互动的人愿意敞开心扉接受它,即使知道这是一个计算机程序。魏岑鲍姆在 1966 年写道:“ELIZA 表明,创造和维持理解的错觉是多么容易,因此也许是值得信赖的判断。”“其中潜伏着某种危险。” 他在职业生涯的最后时刻警告不要给机器过多的责任,并成为对人工智能的严厉、哲学批评。

近 60 年后,市场上充斥着来自科技公司、银行、航空公司等不同质量和用例的聊天机器人。在许多方面,Weizenbaum 的故事预示了这项技术仍然存在的炒作和困惑。程序与人类“聊天”的能力继续让一些公众感到困惑,造成机器更接近人类的错误感觉。

今年夏天早些时候,在一位谷歌工程师声称这家科技巨头的人工智能聊天机器人LaMDA 是“有感觉的”之后,这在媒体报道的浪潮中得到了体现。根据华盛顿邮报的报道,这位工程师表示,在与聊天机器人讨论宗教和人格之后,他被说服了。报告。他的说法在人工智能界受到了广泛批评。

甚至在此之前,我们与人工智能和机器的复杂关系在《她》或《机械姬》等好莱坞电影的情节中就已经很明显了,更不用说与那些坚持对语音助手说“谢谢”的人进行无害的辩论了,比如Alexa 或 Siri。

聊天机器人:漫长而复杂的历史

Eliza 被广泛描述为第一个聊天机器人,但不像今天的类似服务那样多才多艺。它对关键词做出反应,然后基本上将对话返回给用户。

当代聊天机器人在不能按预期工作时也能引起用户强烈的情绪反应或者当他们变得如此擅长模仿他们接受过的有缺陷的人类语言时,他们开始吐出种族主义和煽动性的评论。例如,Meta 的新聊天机器人本月没过多久就在与用户的对话中大肆发表不真实的政治评论和反犹太言论,从而引发了一些争议。

即便如此,这项技术的支持者认为它可以简化客户服务工作并提高更广泛行业的效率。这项技术支撑着我们许多人每天使用的数字助理来播放音乐、订购送货或检查家庭作业的事实。有些人还为这些聊天机器人提供了案例,为孤独、年老或孤立的人提供了安慰。至少有一家初创公司甚至将其用作一种工具,通过根据上传的聊天创建计算机生成的死去亲属的版本,从而使死去的亲人看起来还活着。

与此同时,其他人警告说,人工智能驱动的聊天机器人背后的技术仍然比一些人希望的要有限得多。人工智能研究员、纽约大学名誉教授加里马库斯说:“这些技术非常擅长伪装人类,听起来像人类,但它们并不深入。” “他们是模仿者,这些系统,但他们是非常肤浅的模仿者。他们并不真正理解他们在说什么。”

尽管如此,随着这些服务扩展到我们生活的更多角落,并且随着公司采取措施使这些工具更加个性化,我们与它们的关系也可能只会变得更加复杂。

聊天机器人的演变

Sanjeev P. Khudanpur 记得在研究生院时与 Eliza 聊天。尽管它在科技行业具有历史意义,但他说很快就看到了它的局限性。

它只能令人信服地模仿文本对话大约十几次来回,然后“你意识到,不,它并不聪明,它只是试图以一种或另一种方式延长对话,”该领域的专家 Khudanpur 说。信息论方法在人类语言技术中的应用,约翰霍普金斯大学教授。

聊天机器人:漫长而复杂的历史

2005 年 5 月,Eliza 的发明者 Joseph Weizenbaum 坐在德国帕德博恩计算机博物馆的电脑桌面前

另一个早期的聊天机器人由斯坦福大学的精神病学家 Kenneth Colby 于 1971 年开发,并命名为“Parry”,因为它旨在模仿偏执型精神分裂症患者。(《纽约时报》2001 年的 Colby讣告中包含了一段丰富多彩的聊天,研究人员将 Eliza 和 Parry 带到了一起。)

然而,在这些工具之后的几十年里,“与计算机对话”的想法发生了转变。Khudanpur 说这是“因为事实证明这个问题非常非常困难”。相反,重点转向“以目标为导向的对话”,他说。

要了解差异,请考虑您现在与 Alexa 或 Siri 的对话。通常,您会向这些数字助理寻求购买机票、查看天气或播放歌曲的帮助。这是面向目标的对话,随着计算机科学家试图从计算机扫描人类语言的能力中收集有用的信息,它成为学术和行业研究的主要焦点。

虽然他们使用与早期社交聊天机器人类似的技术,但 Khudanpur 说,“你真的不能称它们为聊天机器人。你可以称它们为语音助手,或者只是帮助你执行特定任务的数字助手。”

他补充说,在互联网被广泛采用之前,这项技术经历了长达数十年的“停滞”。“重大突破可能发生在这个千年,”Khudanpur 说。“随着成功使用计算机化代理执行日常任务的公司的兴起。”

聊天机器人:漫长而复杂的历史

随着 Alexa 等智能扬声器的兴起,人们与机器聊天变得更加普遍。

Khudanpur 说:“当他们的包丢失时,人们总是很沮丧,处理他们的人类代理人总是因为所有的消极情绪而感到压力很大,所以他们说,‘让我们把它交给电脑吧’。” “你可以对着电脑大喊大叫,它只想知道‘你有你的标签号码,这样我就可以告诉你你的包在哪里吗?’”

例如,2008 年,阿拉斯加航空公司推出了“Jenn”,这是一款帮助旅行者的数字助理。作为我们倾向于将这些工具人性化的一个标志,《纽约时报》对该服务的早期评论指出:“Jenn 并不讨厌。在网站上,她被描绘成一个微笑的年轻黑发女郎。她的声音有适当的“

社交聊天机器人和社会问题

在 2000 年代初期,研究人员开始重新审视社交聊天机器人的开发,这种机器人可以与人类进行广泛的对话。这些聊天机器人经常接受来自互联网的大量数据的训练,并且已经学会了非常好地模仿人类的说话方式但它们也冒着与互联网最糟糕的部分相呼应的风险。

例如,在 2015 年,微软对一个名为 Tay 的人工智能聊天机器人的公开实验在不到 24 小时内就崩溃并烧毁了。Tay 被设计成像青少年一样说话,但很快就开始发表种族主义和仇恨言论,以至于微软将其关闭。(该公司表示,人类也采取了协调一致的努力来诱骗 Tay 发表某些冒犯性的言论。)

微软当时表示:“你与 Tay 聊天的次数越多,她就越聪明,因此对你的体验可以更加个性化。”

其他发布公共聊天机器人的科技巨头将重复这种说法,包括本月早些时候发布的 Meta 的 BlenderBot3。Meta聊天机器人错误地声称唐纳德特朗普仍然是总统,并且“肯定有很多证据”表明选举被盗,以及其他有争议的言论。

BlenderBot3 也自称不仅仅是一个机器人。在一次对话中,它声称“我现在还活着并且有意识的事实使我成为人类。”

聊天机器人:漫长而复杂的历史

Meta 的新聊天机器人 BlenderBot3 向用户解释了为什么它实际上是人类。然而,没过多久,聊天机器人就通过发表煽动性言论引发了争议。

尽管自 Eliza 以来取得了所有进步,以及训练这些语言处理程序的大量新数据,纽约大学教授马库斯说:“我不清楚你是否真的可以构建一个可靠且安全的聊天机器人。”

他引用了 2015 年Facebook 的一个名为“M”的项目,这是一个自动个人助理,应该是该公司对 Siri 和 Alexa 等服务的基于文本的答案点一份浪漫的晚餐,让音乐家为你演奏,送花这远远超出了 Siri 的能力,”马库斯说。相反,该服务在 2018 年因运行不佳而被关闭。

另一方面,Khudanpur 仍然对其潜在用例持乐观态度。“我对人工智能将如何在个人层面赋予人类权力有完整的愿景,”他说。“想象一下,如果我的机器人可以阅读我所在领域的所有科学文章,那么我就不必全部阅读,我只需思考、提问并进行对话,”他说。“换句话说,我将拥有另一个自我,拥有互补的超级大国。”


赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港