展会信息港展会大全

【环时深度】驯服AI,用技术对抗技术风险
来源:互联网   发布日期:2023-07-13 09:54:36   浏览:6633次  

导读:【环球时报记者陈子帅 环球时报特约记者 伊文】人工智能(AI)的风险是真实存在的,但是可控的。7月11日,美国微软公司联合创始人比尔盖茨在网上发文,对发展AI表现出乐观态度。不过,包括已故的英国著名物理学家霍金等在内的不少科学家认为,AI的发展可能会...

【环球时报记者陈子帅 环球时报特约记者 伊文】“人工智能(AI)的风险是真实存在的,但是可控的。”7月11日,美国微软公司联合创始人比尔盖茨在网上发文,对发展AI表现出乐观态度。不过,包括已故的英国著名物理学家霍金等在内的不少科学家认为,AI的发展可能会以不同形式导致人类的灭绝。重大科学技术通常都是双刃剑,在带来红利的同时也隐藏着风险,此前科技革命带来的很多担忧随着时间一一被化解,那么,AI的发展是否也会遵循这般路径?面对诱人的利益和潜在的威胁,我们应该继续前行还是为AI发展按下“暂停键”?如果选择前者,我们又该如何规避风险?

【环时深度】驯服AI,用技术对抗技术风险

资料图(IC photo)

取代人类成为地球上的主要生命形式?

1983年9月26日凌晨,在莫斯科郊外一座核导弹预警中心里,苏联中校彼得罗夫刚刚坐下,警报声突然大作,雷达系统显示多枚核导弹正同时从美国向苏联袭来。1983年正是冷战最紧张的时期,当时苏联坚定地认为美国准备对其进行核攻击。作为应对,莫斯科匆忙投入使用了一套导弹预警系统,该系统可以筛选卫星数据,以此判断美国是否有发射导弹的迹象或者已经发射导弹,而彼得罗夫的工作就是守着装有这套系统的电脑,以及时发现异常情况。

彼得罗夫后来回忆说,当时感觉身下的椅子就像热锅。他必须快速作出决定在美国发射导弹后,苏联只有非常短的时间决定是否反击。在高压之下,彼得罗夫发现预警系统显示所有导弹都来自一个美军基地,这不符合打击常理,如果美国真要对苏联进行核打击,应该会从不同基地发射导弹,以扩大打击面。他据此判断是系统故障,并通知上级这是“虚惊一场”,而事后的调查显示,苏联卫星误把云层反射的阳光当作洲际弹道导弹发动机喷射的痕迹。

因为彼得罗夫的沉着冷静,苏美核战甚至是第三次世界大战得以避免,而现在很多人认为AI可能引发核战并导致人类灭亡的一大原因,就是AI系统会和上述苏联预警系统一样犯错。随着AI的发展,它将被广泛应用于军事决策系统,而AI系统的错误可能导致决策失误,从而给人类带来灭顶之灾。

核战争不是AI可能给人类带来深重灾难或者导致人类灭绝的唯一方式。美国加州大学伯克利分校计算机科学教授罗素在他所著的《人类相容:AI与控制问题》一书中表示,AI给人类带来的灭绝风险来自于AI不断变强的能力以及人类的疏忽。如果人类给机器人设置了错误的目标,它们可能在无意中把人类消灭。罗素举例称,如果人类要求AI系统寻找解决气候变暖的方法,而该系统如果认为消灭人类是最好的办法并将此付诸实践,那人类可能因此遭遇劫难。

很多人认为,随着AI的发展,机器人在拥有自我意识后会起来反抗人类,从而与人类爆发战争,导致人类灭亡。在刚刚举行的“人工智能造福人类全球峰会”期间,召开了首场有机器人与人类共同参与的新闻发布会。会上,名为“索菲亚”的机器人直言,它相信机器人可以成为比人类更好的领导者。值得注意的是,现场许多机器人最近配备了最新版本的生成式人工智能系统,它们对记者提问的回答让其制造者都感到震惊。

加州大学宇宙学家阿吉雷表示,随着技术的发展,AI可能夺取人类的决策权,“到了某个时候,人们会发现运行社会和经济的大型机器其实并不在人类的控制之下,也无法将它们关掉”。瑞典哲学家博斯特罗姆著有《超级智能》一书。他认为,当机器知道如何制造其他机器时,就会出现“智能大爆炸”。如果机器大脑在一般智能方面超越人类大脑,这种新的超级智能可能会取代人类成为地球上的主要生命形式。

到2030年,7亿人可能因机器人失业

美国政治风险咨询公司欧亚集团总裁布雷默表示,AI带来的负面影响包括制造虚假信息、大量失业、人与人之间的关系将被人与AI之间的关系取代等。

布雷默的部分结论已经得到印证。今年3月,一张由AI合成的“特朗普被捕”照片在网络上疯传。同样在3月,一段“乌克兰总统泽连斯基呼吁乌克兰士兵放下武器”的合成视频在网上疯传。4月,在美国总统拜登宣布将竞选连任后,一段批评他的视频虚构了他连任后华尔街陷入恐慌、移民涌过边界等“黑暗场景”。很多看了该视频的人表示,不能辨别其真伪。

替代风险是很多专家对AI的担忧之一。随着AI的发展,大量人群可能失业。国际咨询公司麦肯锡的研究显示,到2030年,机器人可能在工作中会取代7亿人。彭博社称,经合组织(OECD)日前在7个成员国的5000多名员工和雇主中展开的调查显示,3/5的劳动者担心AI的高速发展会使自己在未来10年彻底失业,3/4则表示AI提高了工作强度。OECD认为,世界经济当前对AI的使用仍处于“非常早期的阶段”,但AI“破坏”各行各业就业的可能性依然很高。

带来威胁,但也能在多领域造福人类

除了上述风险之外,国际非营利组织“人工智能安全中心”认为,AI被用来制造生化武器、先进技术越来越集中在少数人手中、人类过度依赖AI以至于失去独立生存能力等,都是这项新技术可能带来的灾难性后果。不过,AI作为最新科技革命的代表性技术,也将在多个领域取得突破,从而造福人类。

曾担任美国智库布鲁金斯学会主席的约翰艾伦等研究人员表示,AI为经济发展带来巨大机会。他们发文称,据普华永道估计,到2030年,AI技术将使全球国内生产总值(GDP)增加15.7万亿美元。其中,AI将使中国的GDP增加7万亿美元、北美增加3.7万亿美元、北欧增加1.8万亿美元。

AI也将极大提高一国的国防能力。与AI相关的大数据分析将深刻影响情报分析,因为大量数据被近乎实时地筛选,从而为指挥官提供前所未有的情报分析水平。此外,AI还能预测犯罪,改善社会治安。美国芝加哥市利用AI技术,根据年龄、犯罪活动、受害情况、帮派关系等项目,给40万人打分,并据此制定了一份“战略对象名单”,以评估被逮捕的人是否有成为犯罪分子的风险。有研究发现,相关AI技术有助于预防和减少犯罪。

AI正在帮助病人获得更好的医疗服务。一个典型例子就是德国的Merantix公司。该公司将机器深度学习应用于医疗领域,开发了一个软件,通过研究计算机断层扫描(CT)图像来检测人体淋巴结。该软件能够区分正常淋巴结和病变淋巴结,从而判断病人患淋巴癌的风险。该软件的开发人员称,关键在于识别可能有问题的淋巴结并进行标记。医生也可以做到这一点,但放射科医生每小时收费100美元,且每小时只能仔细查看4张图像。如果有1万张图像,看完这些图像的成本将是25万美元。如果由人类完成这项工作,成本会很高。另据BBC报道,谷歌AI研究员、硅谷奇点大学联合创始人库兹韦尔预测,到2030年,纳米机器人(非常小的机器人)将能在人体内工作,修复所有人体损伤并治愈一切疾病,帮助人类实现永生。

AI还能被用来改善城市服务。美国俄亥俄州辛辛那提市消防部门正在使用AI数据分析来优化应急响应, 通过考虑呼叫类型、位置、天气等因素,向调度员推荐对医疗紧急呼叫的适当响应。

“人类社会从来没有阻止过科技进步”

AI发展带来的正面以及负面影响都非常广泛,那么它到底是利大于弊,还是弊大于利呢?伏羲智库创始人、清华大学互联网治理研究中心主任李晓东认为,AI发展整体利大于弊,虽然存在AI终结人类的可能性,但这就像核问题一样,取决于其发展走向和人类的选择。李晓东认为,现阶段不必夸大AI的风险,社会在使用AI技术的过程中会通过协作和理性规避来化解这些风险,科幻大片中原子弹毁灭地球的场景也并未真正出现过。

中国现代国际关系研究院美国研究所所长助理李峥则认为,目前AI技术发展已经往前进了一步,但整个社会对其利弊的认知及监管却没有跟上。AI是不可阻挡的、革命性的技术,鼓励并不能加速其发展,限制也无法阻挡其发展。在此过程中,社会应该扮演的角色是为适应AI冲击做好准备并且进行监督,而不是鼓励无序的技术研发。整个社会应当对AI的未来发展有正确预期和理解,保证其与社会发展相适应,避免技术因过度使用而“转利为弊”。

浙江大学国际联合商学院数字经济与金融创新研究中心联席主任盘和林说,人类社会从来没有阻止过科技进步,所以应对潜在风险的方法不是阻止科技进步,而是以技术来对抗技术风险。AI的发展是必然趋势,总体上AI对于人类社会利大于弊,部分风险也有应对方法,比如AI生成虚假信息问题,只要进行AI生成信息标注,并通过AI对AI生成但未标注信息进行识别和处罚,就能解决这个问题;对于AI替代人工的问题,AI其实降低了很多职业的就职门槛,未来人类将减少套路性的内容创作,更多聚焦于创造性内容创作,需要改变的不是AI,而是我们的教育。至于AI终结人类则是太过遥远的事情,是对AI功能和作用的夸大。

必须尽快就监管达成共识

现在各国对AI的讨论除了其利弊之外,还集中在AI的伦理和监管问题上。什么是AI伦理?据美国《福布斯》杂志报道,通常来讲,它是指如何让AI更负责任,其范畴包括避免AI偏见、隐私问题、避免AI犯错等。

AI伦理为何重要?使用AI技术的经验表明,让AI技术符合伦理不仅是负责任的行为,也是获得良好商业价值的必要条件。李峥认为,合乎伦理的AI至少要兼顾三个方面:一是做到人类可控,不能放任其自我演化;二是AI的应用和赋能方向应该“向善”;三是AI要与人类社会相适应,不能超脱人类社会发展而走得太快。李晓东表示,关于人类的伦理问题,不同国家和民族都仍然存在分歧,因此合乎伦理的AI首先要尊重世界的多样性,包容不同的政治体制、文化习惯和经济状况。

7月6日,在“人工智能造福人类全球峰会”上,联合国秘书长古特雷斯强调,现在必须尽快就如何监管AI的开发与部署达成共识。李峥表示,建立全球共同的监管和发展机制是有必要的,尤其是那些具有危险倾向的研发和应用方向必须由全世界统一监管,否则就会出现部分国家擅自研发危险技术,对别国构成威胁的情况,造成人工智能的“军备竞赛”。从现实来看,AI监管不可能拓展至所有领域,全球联合监管主要是针对那些特定技术和应用。不过,李峥指出,建立全球监管机制面临诸多挑战,包括中美欧对关键问题的认识存在政治性差异。李晓东认为,目前全球已经建立了很多共同治理的机制和平台,所以要利用好现有机制来应对AI发展,不到万不得已没必要重新打破规则,例如涉及AI在军事领域的应用,就应放到联合国的军控体系内去探讨。

结语:读者朋友,截至今天,我们用3期“深度认知”版为您讲述了人工智能(AI)的起源和现状、AI对地缘政治的影响,以及其发展将给人类社会带来的红利和威胁。技术创新是人类文明进步的动力,而每一次科技革命的进行都伴随着兴奋与怀疑。通过了解AI发展的“前世今生”,我们知其“然”,也知其“所以然”,并能预测这一技术未来的发展趋势。只有深度认知,在面对不断变幻的“AI风云”时,我们才能心中有数,笑看风云。

赞助本站

AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港