展会信息港展会大全

为什么我们都应该支持“无趣”的人工智能?
来源:互联网   发布日期:2023-08-24 20:22:05   浏览:12365次  

导读:在我放假的一周里,我的同事报道了将人工智能应用在战争中可能导致的混乱和伦理问题。这话题激起了我的兴趣,同时也让我血压飙升。 战争和军队正在越来越多地使用人工智能工具,围绕由此带来的复杂而微妙的伦理问题,我的同事亚瑟霍兰德米歇尔(Arthur Holla...

在我放假的一周里,我的同事报道了将人工智能应用在战争中可能导致的混乱和伦理问题。这话题激起了我的兴趣,同时也让我血压飙升。

战争和军队正在越来越多地使用人工智能工具,围绕由此带来的复杂而微妙的伦理问题,我的同事亚瑟霍兰德米歇尔(Arthur Holland Michel)进行了出色的报道。人工智能有无数种可能导致灾难性失败或在冲突中被滥用的方式,而且似乎还没有任何真正的规则来约束它。米歇尔的故事展示了,当事情出错时,追究人们的责任是多么的困难重重。

2022 年,我报道了乌克兰战争如何开启了国防人工智能创业公司的新热潮。最近的人工智能炒作只会加剧这种情况,因为公司和军方都在竞相将生成式人工智能嵌入到产品和服务中。

本月早些时候,美国国防部宣布将成立一个生成式人工智能工作组,旨在“分析和整合”整个国防部的人工智能工具,如大型语言模型。

该部门看中了人工智能工具在改进“情报、操作计划、行政和业务流程”方面的巨大潜力。

但是米歇尔的研究指出,为什么前两个用例可能是糟糕的主意。生成式人工智能工具,如语言模型,是有问题和不可预测的,它们会编造一些东西。它们也有大量的安全漏洞、隐私问题和根深蒂固的偏见。

在高风险的环境中应用这些技术可能会导致致命的事故,我们甚至不清楚谁该为此负责,甚至不清楚问题发生的原因。每个人都同意人类应该作为最终的决定者,但由于技术的不可预测性,尤其是在快速发展的冲突局势中,这一点变得有为困难。

有些人担心,当事情出错时,层级最低的人将付出最高的代价:“在事故发生时,不管是人错了,是计算机错了,还是他们都错了,做出‘决定’的人将承担责任,并保护指挥链上的其他人免受承担责任的负面影响,”米歇尔写道。

当人工智能在战争中失效或带来负面影响时,似乎唯一不会面临后果的是提供这项技术的公司。

当美国为管理战争中的人工智能制定的规则仅仅是建议,而不是法律时,这显然帮助了企业。这使得追究任何企业的责任变得非常困难。就连欧盟即将出台的,针对高风险人工智能系统的全面监管法案《人工智能法案》(AI Act)也将军事用途排除在外,而军事用途可以说是所有应用中风险最高的。

虽然每个人都在为生成 AI 寻找令人兴奋的新用途,但我个人却迫不及待地想让它变得无聊。

有早期迹象表明,人们开始对这项技术失去兴趣,公司可能会发现,这类工具更适合于日常、低风险的应用,而不是用来解决生死存亡这种人类所面临的最大的问题。

例如,将人工智能应用于 Excel、电子邮件或文字处理等生产力软件,可能听起来很无聊,但与战争相比,这是一个风险很低的应用,而且足够简单,有可能像公司宣传的那样真正发挥作用,创造价值。它可以帮助我们更快更好地完成繁琐的工作。

无趣的人工智能应用不太可能轻易崩溃,最重要的是,它不会杀死任何人。希望很快我们就会忘记我们是在与人工智能互动:不久之前,机器翻译还是人工智能领域一个令人兴奋的新事物,而现在,大多数人甚至不会意识到它在驱动谷歌翻译方面所起的作用。

为什么我们都应该支持“无趣”的人工智能?

(来源:AI 生成)

这就是为什么我更有信心,像国防和军方这样的组织将成功地在行政和业务流程中应用生成式人工智能。

无趣的人工智能并不容易陷入道德困境。虽然它听起来缺乏一种魔力,但它是有效的。

作者简介:梅丽莎海基莱(Melissa Heikkil)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。

支持:Ren

赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港