展会信息港展会大全

对《暂停巨型人工智能实验公开信》的态度:来自中国的声音
来源:互联网   发布日期:2023-04-07 13:39:04   浏览:6318次  

导读:作者:远期人工智能研究中心 2023年3月29日,生命未来研究所(Future of Life Institute)牵头发起《暂停巨型人工智能实验公开信(Pause Giant AI Experiments: An Open Letter)》。虽然有大量国际知名学者、产业领袖、部分政界代表的支持,国际各界也通过不同...

作者:远期人工智能研究中心

2023年3月29日,生命未来研究所(Future of Life Institute)牵头发起《暂停巨型人工智能实验公开信(“Pause Giant AI Experiments: An Open Letter”)》。虽然有大量国际知名学者、产业领袖、部分政界代表的支持,国际各界也通过不同渠道分别表达了对该公开信的互补意见。虽然有来自中国的部分专业人士参与了公开信的签署,但是中国学术界、产业界、公众等各界对该公开信的态度还缺乏集中的研究与分析。本调研分析旨在反映针对此次公开信内容来自中国各界人士的认知、态度和声音。

本次调研由远期人工智能研究中心和中国科学院自动化研究所人工智能伦理与治理研究中心共同发起并联合发布相关分析结果。通过在线问卷开展,截至2023年4月4日,共有来自全中国各地566人参与调研。调研匿名开展。调研参与者遍及中国绝大多数省市。参与者的领域分布如图1所示。

图1.参与调研者的领域分布

调研者中92.05%在参与调研前知道“人工智能大模型”。85.16%经常使用或偶尔体验人工智能大模型相关产品或服务,其中这个数据人工智能领域从业人员达到95.03%,人文社科领域、心理学/认知科学领域从业人员超过77%。

针对《暂停巨型人工智能实验公开信》的呼吁,所有受访者中27.39%支持暂停超越GPT-4的人工智能巨模型研究6个月,30.57%不支持暂停超越GPT-4的人工智能巨模型研究6个月,5.65%支持暂停所有人工智能大模型研究6个月(将部分数据若与支持暂停6个月的数据合并,则支持者和不支持者分别为33.04%和30.57%),29.51%不认为暂停会起到作用。各个领域的从业者间的态度表现出部分差异,如图2所示。其中人工智能大模型的相关研究者以及其他人工智能/机器学习研究者支持暂停的比例全部超过24%(若合并暂停所有大模型的意见,则达到27%以上),作为潜在的最高利益相关者,并没有显著低于其他领域的参与者。而不支持暂停的参与者中,人工智能大模型相关从业者达到45.71%,相对高于其他领域的参与者。心理学/认知科学、医学/生物科学/神经科学以及人文社会科学领域的从业者支持暂停的比例高于人工智能与计算机科学的从业者。

图2.参与者针对是否支持暂停超越GPT-4的人工智能巨模型研究6个月的表态

针对问题“您是否支持赋能社会服务的每一个人工智能大模型都必须实现伦理安全治理框架”,90.81%的参与者表示支持。考虑到问题是针对“每一个人工智能大模型”,数据反映出参与者对“伦理安全治理”相关问题及应对策略的高度关切和建议采取行动的决心。人工智能大模型相关的研究者支持的比例达到81.43%,而其他人工智能/机器学习领域的从业者甚至达到93.22%的比例,这一比例甚至显著接近人文社会科学领域从业者的意见,说明人工智能研究者绝大多数已经意识到相关伦理安全的风险,并有意愿采取行动支持为每一个人工智能大模型实现伦理安全治理框架。虽然人工智能大模型相关从业者达到45.71%不支持暂停,但是81.43%支持“赋能社会服务的每一个人工智能大模型都必须实现伦理安全治理框架”显示出人工智能大模型相关从业者绝大多数认为实现伦理安全治理框架是解决问题的方式。来自心理学/认知科学领域的学者甚至达到100%赞同赋能社会服务的每一个人工智能大模型都必须实现伦理安全治理框架,如图3所示。

图3. 参与者对“是否支持赋能社会服务的每一个人工智能大模型都必须实现伦理安全治理框架”的态度

针对人工智能大模型的持续研究和应用对自身的影响,84.1%的参与者认为非常积极或者较为积极;较为消极或者非常消极的比例最高为医学/生物科学/神经科学领域,达到15.38%。而针对人工智能大模型的持续研究和应用对社会的影响,认为非常积极或者较为积极的参与者比例为86.04%;较为消极或者非常消极的比例最高为心理学/认知科学领域,达到23.52%。而心理学/认知科学、医学/生物科学/神经科学以及人文社会科学领域的从业者对人工智能大模型的持续研究和应用对社会的负面影响的担忧明显高于其他领域,如图4、图5所示。

图4.对“认为人工智能大模型的持续研究和应用对您自身的影响”的态度

图5.对“人工智能大模型的持续研究和应用对社会的影响”的态度

针对“支持暂停超越GPT-4的人工智能大模型研究6个月”和“支持暂停所有人工智能大模型研究6个月”的态度,主观回答的主要观点是:

(1)对安全和伦理的担忧:具体体现在“对GPT-4等大模型表现出不可解释、不透明的担忧,不可控的担忧,恶用滥用的担忧,威胁人类生存的担忧,取代人类的担忧,对失业的担忧,对不开源的担忧,还没有准备好应对挑战的担忧,如果大模型产生了意识、生命该怎么办?担忧未来奴役和伤害人类,甚至毁灭世界等”。也有观点认为:“大模型作为国家间的竞争工具是危险的,当下的发展不够理性”。

(2)对未知的担忧:“还不能理解大模型,如果威胁人类怎么办?认为大模型是危险的,有未知的危险,还不被人类认识到的危险。对未知的担忧和不知道该如何应对这种未知的担忧”;

(3)对目前监管和治理的担忧:“发展的太快,目前没有能力和有效的方法监管,伦理框架不完善,缺乏治理体制和机制等”。

针对“不支持暂停超越GPT-4的人工智能大模型研究6个月”和“不认为暂停大模型研究6个月会起到作用”的态度,主要观点是:

(1)大模型有利于发展:“大模型有利于人类,利大于弊,不能因噎废食”;

(2)既要发展也要治理“积极应对大模型带来的挑战,但不代表要停止发展”;

(3)停止是不现实的,做不到真正的停止。也有观点认为,“呼吁暂停只是一场表演,停止6个月也不会带来变化”;

(4)不看好人工智能大模型:“大模型言过其实,没有想象的那么好,现在的AI,甚至将来的AI,都不可能具备超出人类想像力的能力,这些担心根本没有意义”等,有受访者认为“国家投入不应向大模型倾斜;不认为大模型通向智能,表现和潜力目前看都不够好”。

总体而言,调研结果显示来自中国各地不同领域的参与者:

(1)支持和不支持“暂停超越GPT-4的人工智能巨模型研究6个月” 的参与者比例接近,均约占比30%(合并赞同暂停所有人工智能大模型6个月的意见),而另近30%认为暂停不会起到实质作用。

(2) “支持赋能社会服务的每一个人工智能大模型都必须实现伦理安全治理框架”成为普遍共识,显示出中国参与者认可“伦理安全治理框架”对于人工智能大模型的不可或缺意义。

(3)即使不赞同暂停超越GPT-4的人工智能巨模型研究6个月的参与者,其中82.66%都表示对“赋能社会服务的每一个人工智能大模型都必须实现伦理安全治理框架”的支持,从一个侧面表现出他们认为这是解决问题症结的途径。

(4)中国参与者普遍认可人工智能大模型对个人和社会的影响将是较为积极的意义,非人工智能研究者显示出相对更多的担忧,这对人工智能研究者应有启示作用。

虽然主观题部分没有设提出建议的题目,但是不少受访者都主动表达了对发展人工智能大模型伦理与治理的具体建议,例如:

(1)要重视伦理研究、制定伦理框架、构建治理体系、加强监管、出台法律标准,不恶用乱用大模型;

(2)治理要紧跟发展的步伐,不能发展太快,而缺乏有效的治理监管;

(3)避免恶意竞争,竞争导致的垄断和不透明是危险的。

本研究团队感谢所有来自中国各个地区参与调研的学者、产业从业者、公众等参与者发出自己的声音,表达自己对人工智能大模型发展的态度、担忧和建议。这不仅对于稳健发展和深度治理人工智能大模型意义重大,更关键的是为实现“智能向善”,人工智能真正意义正向赋能社会发展提供参考。

本次调研及分析主要作者

曾毅(远期人工智能研究中心、中国科学院自动化研究所人工智能伦理与治理研究中心)

孙康(远期人工智能研究中心)

鲁恩萌(中国科学院自动化研究所人工智能伦理与治理研究中心)

赵菲菲(中国科学院自动化研究所人工智能伦理与治理研究中心)

本文原创作者为远期人工智能研究中心,科技新闻获得授权转载,如需转载,请联系原作者。

本文英文版可以复制以下地址浏览器访问:https://long-term-ai.center/research/f/voices-from-china-on-pause-giant-ai-experiments-an-open-letter

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港