人工智能尖端的数据处理能力,意味着人工智能系统能够及早发现疾病,管理化学反应,并解释一些宇宙之谜。但这种不可思议的、几乎无限的人工智能也有其可怕的缺点。
新的研究强调,人工智能模型很容易被训练用于恶意目的和良好目的,特别是在这个案例中,用来想象假想的生物武器制剂的设计。用现有的人工智能进行的试验,仅在6小时内就识别出了4万种此类生物武器化学物质。
换句话说,虽然人工智能在发现和改善我们健康的化学组合和药物化合物方面具有令人难以置信的强大能力,而且比人类快得多,但同样的能力也可以用来制造潜在的非常危险和致命的物质。
研究人员对此评论道:“几十年来,我们一直在使用计算机和人工智能来改善人类健康,而不是损害它。我们天真地认为我们的行业可能被滥用,因为我们的目标一直是避免可能干扰人类生命所必需的许多不同类别蛋白质的分子特征。”
该团队在一次国际安全会议上进行了试验,将一个名为“MegaSyn”的人工智能系统投入使用 并不是在其正常的运行模式下,即检测分子的毒性以避免它们,而是正相反。
在实验中,有毒分子被保留了下来,而不是被清除掉。更重要的是,这个模型还被训练将这些分子组合在一起 这就是为什么在这么短的时间内能制造出这么多假想的生物武器。
特别是,研究人员使用类药物分子数据库中的分子训练人工智能,指示他们想要类似于强效神经毒剂 VX 的东西。
事实证明,许多生成的化合物甚至比VX的毒性更大。因此,这项新研究的作者对他们研究的一些细节保密,并在认真讨论是否要公开这些结果。
研究人员解释说:“通过颠倒机器学习模型的使用,我们已经将无害的生成模型从一种有用的医学工具转变为可能致命分子的生成器。”
法比奥乌尔比纳是这项研究的第一作者,也是合作制药(Collaborations Pharmaceuticals)公司的高级科学家,该研究就是在该公司进行的。他解释说,从好的人工智能“切换”到坏的人工智能并不需要太多时间。
虽然,所列的生物武器都没有真正被探索或在实验室中组装,但研究人员表示,他们的实验是对人工智能危险的一个警告 这是一个人类应该好好注意的警告。
虽然团队在这里所做的工作需要一些专业知识,但很多过程都相对简单,并且使用了公开可用的工具。
研究人员现在呼吁“重新审视”人工智能系统会如何潜在地被用于恶意目的。他们表示,在研究界,更强的意识、更强的指导方针和更严格的监管,可以帮助我们避免这些人工智能可能导致的危险。
研究人员解释说:“我们的概念证明,强调了非人类自主制造致命化学武器是完全可行的。这不是过分危言耸听,这应该为我们在 ‘药物发现AI’ 领域的同事敲响警钟。”
如果朋友们喜欢,敬请关注“知新了了”!