展会信息港展会大全

技术拟人化,是人工智能和机器人发展道路上的一个雷区
来源:互联网   发布日期:2021-07-23 08:03:32   浏览:16288次  

导读:现在,大多数人都会把人工智能和机器人联系在一起,认为它们是一回事。 事实上,人工智能这个词在研究实验室里很少使用,针对某些种类的人工智能和其他智能技术的术语更有意义。 20世纪50年代,人工智能一词最早由约翰麦卡锡和马文明斯基等科学家率先使用,...

技术拟人化,是人工智能和机器人发展道路上的一个雷区

现在,大多数人都会把人工智能和机器人联系在一起,认为它们是一回事。

事实上,“人工智能”这个词在研究实验室里很少使用,针对某些种类的人工智能和其他智能技术的术语更有意义。

20世纪50年代,人工智能一词最早由约翰麦卡锡和马文明斯基等科学家率先使用,并且几十年来时常出现在科幻小说或电影中,现在则被代指智能手机的虚拟助手和自动驾驶汽车算法。

然而,人们常常有这样的偏见,认为人工智能是人类智能的人工实现形式。而这种先入为主的观念可能来自于我们作为人类的认知偏见。

切勿将机器人或AI直接与人类相比较

2017年,DeepMind开发的人工智能AlphaGo击败了九段围棋选手李世石,当时你有什么感受?你可能感到惊讶或恐惧,认为人工智能已经超过了天才的能力。

可尽管如此,赢得像围棋这样具有指数级可能的棋类游戏,只意味着人工智能已经超过了人类智慧的一个非常有限的部分。

技术拟人化,是人工智能和机器人发展道路上的一个雷区

我相信很多人都对现在越多越多的各类“机器狗”印象深刻。但与实现稳定行走的算法相比,“机器狗”特定动作的算法可以说是简单得令人难以置信,因为实现稳定行走需要更复杂的反馈回路。

发现了没有?实现对我们来说看似容易的机器人任务,往往是极其困难和复杂的。之所以会出现这种差距,是因为我们倾向于根据人类的标准来考虑任务的难度。

一直以来,我们都倾向于将人工智能的功能泛化。例如,当我们在街上看到有人在做后空翻时,我们倾向于认为这个人擅长走路和跑步,也有足够的灵活性和运动能力,擅长其他运动。一般来说,这种判断是不会错的。

然而,我们是否也可以将这种判断应用于机器人?我们很容易根据对特定机器人运动或功能的观察来归纳和判断人工智能的表现,就像我们对人类所做的一样。

通过观看人工智能研究实验室OpenAI的机器人手解魔方的视频,我们认为人工智能可以完成所有其他更简单的任务,因为它可以完成如此复杂的任务。但我们忽略了这样一个事实:这个人工智能的神经网络只是为“解魔方”这个有限的任务类型而训练的。如果情况发生变化,如在操纵魔方时将其倒置,那么算法的效果就不会像预期的那样好。

与人工智能不同,人类可以将单个技能结合起来,并将其应用于多个复杂任务。一旦我们学会了如何解魔方,即使被告知要倒持魔方,我们也能快速地处理魔方。而大多数机器人算法需要新的数据或重新编程才能做到这一点。

一个能用勺子把果酱涂在面包上的人也能用叉子做同样的事情。很明显,我们理解“涂抹”果酱的概念,并能很快习惯于使用完全不同的工具。另外,虽然自动驾驶车辆需要针对每种情况的真实数据,但人类司机可以根据预先学习的概念做出理性的决定,以应对无数的情况。

这些例子显示了人类智能与机器人算法形成鲜明对比的一个特点,即机器无法在数据不足的情况下执行任务。

从古至今,哺乳动物已经连续进化了6,500多万年。人类花在学习数学、使用语言和玩游戏上的全部时间加起来也不过一万年。换句话说,人类花了大量的时间来发展与生存直接相关的能力,如走路、跑步和使用我们的双手。

因此,计算机的计算速度比人类快得多也就不足为奇了,因为计算机最初就是为这个目的而开发的。同样,计算机不能像人类那样轻易获得自由使用手和脚的各种能力也很自然,因为这些技能是通过1,000多万年的进化获得的。

说了这么多,为的就是要说明将机器人或人工智能的性能与动物或人类的能力进行比较是不合理的。仅仅看了“机器狗”在田野上奔跑并跃过障碍物的视频,就认为像动物一样行走和奔跑的机器人技术已经成熟可就太轻率了。大多数的机器人演示仍然依赖于在有限环境中为特定任务设置的算法。

事实上,研究人员倾向于选择那些看起来很难的演示,因为它可以令观众印象深刻。但是,从人的角度来看,这个难度级别可能与实际的算法性能无关。

在任何逻辑思维之前,人类很容易受到瞬时感知和反思性认知的影响。而当主题非常复杂,难以进行逻辑分析时,这种认知偏差就会加强例如,一个使用机器学习的机器人。

那么,我们人类的认知偏见从何而来?我认为它来自我们的心理倾向,即下意识地将我们看到的对象拟人化。人类已经进化为社会性动物,可能在这个过程中发展了理解和同情对方的能力。

而我们将主体拟人化的倾向也会来自于同样的进化过程,如人们在提到编程算法时往往会使用 “教学机器人”这个说法。可尽管如此,我们还是习惯于使用拟人化的表达方式。正如18世纪的哲学家大卫休谟(David Hume)所说:“人类有一种普遍的倾向,即把所有的生命都设想得像他们自己。”

当然,我们不仅将其他主体的外表拟人化,也将他们的精神状态拟人化。例如,当波士顿动力公司发布其工程师踢机器人的视频时,许多观众的反应是:“这太残忍了”、“同情这个机器人”、“总有一天,机器人会对那个工程师进行报复”。

实际上,这位工程师只是在测试机器人的平衡算法。然而,在理解这种情况的任何思维过程之前,踢人的攻击性动作与动物般的机器人挣扎动作相结合,瞬间传递到我们的大脑,给我们留下了深刻的印象。就像这样,这种瞬时的拟人化对我们的认知过程产生了深刻的影响。

人类定性处理信息,而计算机是定量

环顾四周,我们的日常生活中充满了算法,而所有的算法都是基于数字的。我们使用诸如“目标函数”这样的术语,它是一个代表某种目标的数值函数。许多算法的唯一目的是达到这个函数的最大值或最小值,而一个算法的特性取决于它是如何达到这个值的。

像围棋或国际象棋这样的任务的目标相对容易量化。量化越容易,算法的效果就越好。相反,人类在做决定时往往没有量化思维。

技术拟人化,是人工智能和机器人发展道路上的一个雷区

举个“打扫房间”的例子,我们打扫的方式每天都有微妙的不同,这取决于具体情况,取决于房间的位置,也取决于我们的感觉。在这个过程中,我们是否试图使某种功能最大化?我们没有做这样的事情。清洁的行为一直是以“足够干净”这个抽象目标进行的。此外,多少是“足够”的标准很容易改变,这个标准在人与人之间可能是不同的。

还有很多其他的例子。当你每天洗脸时,你打算用你的手的动作来最大化哪些量化指标?你擦的力度如何?当选择穿什么衣服时?当选择晚餐吃什么的时候?当选择先洗哪个盘子时?这样的例子不胜枚举。

我们习惯于把已经掌握的信息放在一起,做出足够好的决定。然而,我们往往不检查每一个决定是否是最优化的。大多数时候,我们不可能知道,因为我们必须用有限的数据来满足众多相互矛盾的指标。

但在设计我们期望机器人执行的工作或服务时,人和算法之间的这种操作差异可能会带来麻烦。这是因为,当算法根据量化值执行任务时,人类的满意度,即任务的结果,很难被完全量化。

要量化一个必须适应个人喜好或不断变化的环境的任务的目标并不容易,比如前面提到的房间清洁或洗碗任务。也就是说,为了与人类共存,机器人的进化可能不是为了优化特定功能,而是为了实现“足够好”。当然,后者在现实生活中更难稳健地实现,因为你需要管理这么多相互冲突的目标和定性约束。

事实上,我们并不知道自己在做什么

试着回忆一下你最近吃的那顿饭。你能记得你吃了什么吗?然后,你还能记得咀嚼和吞咽食物的过程吗?你知道你的舌头在那一刻到底在做什么吗?

我们的舌头为我们做了很多事情。它帮助我们把食物放进嘴里,在牙齿之间分配食物,吞下细嚼慢咽的碎片,甚至在需要时把大块的食物送回牙齿。我们可以自然而然地做到这一切,甚至在与朋友交谈时,用你的舌头也负责发音。我们有意识的决定在多大程度上有助于我们同时完成这么多复杂任务的语言运动?

看起来我们的舌头在随心所欲地运动,但事实上,有更多的时候,舌头是自动运动的,从我们的意识中接受高级指令。这就是为什么我们无法记住吃饭时舌头的详细动作,因为我们首先对它们的运动就知之甚少。

那如果我们换个器官呢?“手”可能是我们身上最有意识可控的器官,但许多手部运动也是自动和无意识地发生的,或者最多就是下意识地发生。不信的话,你可以试着把钥匙之类的东西放进你的口袋,然后再拿出来。在那短短的一瞬间,无数的细微操作瞬间无缝协调,完成了这项任务。

我们往往无法单独感知每个动作。我们甚至不知道应该把它们分成哪些单位,所以我们把它们统统表达为抽象的词语,如整理、清洗、涂抹、擦拭等。这些动词是定性的,它们通常指的是精细动作和操作的总和,其构成因情况不同而变化。当然,即使是儿童也很容易理解和思考这个概念,但从算法发展的角度来看,这些词是无限模糊和抽象的。

技术拟人化,是人工智能和机器人发展道路上的一个雷区

还是举一个在面包上涂抹花生酱来做三明治的例子。我们可以展示这是如何做到的,并用几个简单的词来解释。但假设有一个外星人,他和我们使用同样的语言,但对人类文明或文化一无所知,我们能向他解释清如何制作花生酱三明治吗?

我们可能会在解释如何从罐子里舀出花生酱时卡壳。即使是抓取面包片也不是那么简单,我们必须用力抓住面包,这样才能涂抹花生酱,但又不能太用力,以免破坏软面包的形状。换句话说,我们很容易想到如何抓住面包,但要通过语言或文字来表达这一点并不容易。

即使是一个人在学习一个任务,我们能通过语言学会木匠的工作吗?我们能通过语言精确地纠正网球或高尔夫的姿势吗?我们很难辨别我们看到的细节在多大程度上是有意识或无意识地完成的。

归根结底,并不是我们用手和脚做的所有事情都可以直接用我们的语言来表达。发生在连续行动之间的事情往往是无意识地自动发生的,因此我们用比实际发生的方式简单得多的方式解释我们的行动。

这就是为什么我们的行动看起来非常简单,也是为什么我们忘记了它们到底有多么不可思议。表达的局限性常常导致对实际复杂性的低估。我们应该认识到这样一个事实,即语言描述的困难会阻碍词汇不发达领域的研究进展。

直到最近,人工智能已经被实际应用于与数据处理有关的信息服务。今天一些突出的例子包括语音识别和面部识别。现在,我们正在进入一个人工智能的新时代,它可以在我们中间有效地进行物理服务。也就是说,复杂物理任务的自动化时代即将到来。

特别是,我们日益老龄化的社会带来了巨大的挑战,劳动力的短缺不再是一个模糊的社会问题。我们迫切需要讨论如何开发增强人类能力的技术,使我们能够专注于更有价值的工作,追求人类特有的生活。这就是为什么不仅是工程师,而且来自各个领域的社会成员都应该提高他们对人工智能和无意识认知偏见的理解。

如上所述,人工智能很容易被误解,因为它与人类智能截然不同。对人类来说很自然的事情可能是对人工智能和机器人的认知偏见。如果不清楚地了解我们的认知偏见,我们就无法为技术研究、应用和政策制定适当的方向。为了使科学界的发展富有成效,我们需要敏锐地关注我们的认知,并在促进技术的适当发展和应用过程中进行慎重的辩论。

参考资料:https://spectrum.ieee.org/automaton/robotics/robotics-software/humans-cognitive-biases-facing-ai


赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港