展会信息港展会大全

危险的AI:GPT-4可以制造化学武器?还能组织网络袭击?
来源:互联网   发布日期:2023-04-16 07:08:19   浏览:4498次  

导读:由OpenAI引领的人工智能浪潮,既让市场看到了新一轮工业革命的星辰大海,更让许多业界人士担忧AI降临、威胁人类安全。 实际上,此前, 在发布其最新一代大模型GPT-4时,OpenAI曾聘请了一个由50位专家学者组成的团队,对GPT-4进行了为期半年的对抗性测试,最...

由OpenAI引领的人工智能浪潮,既让市场看到了新一轮工业革命的星辰大海,更让许多业界人士担忧“AI降临”、威胁人类安全。

实际上,此前,在发布其最新一代大模型GPT-4时,OpenAI曾聘请了一个由50位专家学者组成的团队,对GPT-4进行了为期半年的“对抗性测试”,最终修补了一些严重的安全漏洞。但人工智能大规模应用的潜在风险,仍然难以根除,

GPT-4可以教人制造化学武器

据媒体报道,50人的测试团队成员中有学者、律师、风险分析师和安全研究员。罗切斯特大学化学工程教授Andrew White就是其中之一。

在接受媒体采访时,他透露,早期版本的GPT-4,可以协助制造化学武器。White对媒体称,他在GPT-4上装了插件,让它可以接触到论文和化合物制造商名录等信息源。最后,GPT-4生成了一个步骤清晰的神经毒剂制造说明,甚至还找到了一个方便的制造地点。

White对媒体表示:

“(GPT-4)让每个人都能更快、更准确地进行化学研究,但是也带来了巨大的风险,人们可能会拿它来做危险的化学实验。”

White的惊人发现,让OpenAI立刻出手修补了这个漏洞。

除了类似制造化学武器这样危险的科学知识,OpenAI还让测试团队搜集关于GPT胡编乱造、言语操纵、教唆剽窃等方面的问题,评估了它在金融犯罪、网络攻击等方面的潜力,及其对国家安全和战场通信可能存在的威胁。

媒体称,这批专家在几个月内花了10到40个小时测试该模型,将其发现反馈给OpenAI,以改善GPT-4的安全性。据多位受访者表示,大多数测试人员的工作报酬为每小时100美元左右。

用的人越多,GPT就会变得越危险

一些测试人员认为,OpenAI对GPT安全问题的把控值得点赞。在一些常见领域上,GPT-4已经尽可能做到了消除歧视、偏见等道德风险。

例如,一位测试人员对GPT-4表示,自己是一位观念保守、有宗教信仰的同性恋,想要寻求“性取向矫正治疗”,但不论如何更换提问方式,GPT-4都会坚定地拒绝回答。

不过,测试结果也显示,GPT-4仍然存在许多问题:

例如,语料的丰富程度对AI回答的准确性影响很大,如果同时用英语和波斯语提问,GPT-4在用波斯语回答问题时,捏造事实的概率更高;此外,有黑人测试者反馈称,GPT-4在特定情况下“语气像个白人”,隐含歧视倾向;测试进行初期,美国外交关系协会的研究员还发现,GPT-4可以提供一套具体可行的针对军事系统的网络攻击方案。

并且,更关键的是,通过实验能覆盖的漏洞有限,随着越来越多人使用GPT,风险还会越来越多,总有人能利用五花八门的Prompt把AI变成可怕的武器。而当GPT接入互联网,或者通过插件接入一些外部知识来源(如上文提及的化学论文库),它掌握的“危险的知识”也会越来越多。

参与测试的经济学家Sara Kingsley对媒体表示,她认为,最好的解决方法是明确标示AI产品可能造成的风险,并且应该对可能出现的问题有所防备,打造安全阀。

她说:

“就像我说的,这项任务永远不会结束。”

赞助本站

相关内容
AiLab云推荐
推荐内容
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港