人工智能(AI)的例子无处不在。我们对于AI的使用可能超出想象,并且在许多方面将这种使用视为理所当然。智能手机助手就是一个很好的例子,尽管我们可能并不认为这与AI有关。许多场景中,我们已经习惯于与Siri或Google Assistant的互动。面部识别也已成为新一代智能手机的标准解锁功能。
机器学习属于AI的一个子集,原理是通过训练基于计算机的神经网络模型来识别给定的模型或声音。在神经网络完成训练后,就可以推理出结果。例如,如果我们用数百张狗和猫的图像训练神经网络,那么它应该能够正确地识别图片中是狗还是猫。网络模型会确定答案并指示预测的类别概率。
随着基于机器学习的应用越来越深入日常生活,系统开发人员已经逐渐意识到神经网络当前的运行方式不一定正确。让我们回到上面的例子,如果我们向神经网络展示一匹马的图片,那么仅经过猫狗推理训练的神经网络不得不在已训练的类别中选择一个。更令人担忧的是,神经网络模型给出错误预测的概率很高,有时用户甚至都不会注意到,模型就已经无声无息地失败了。
然而,人类应对类似情况的方法大不相同,我们会使用更合理的决策方法。我们希望神经网络诚实地回答说它不知道答案,或者从未见过马的图像。这看似简单的例子说明神经网络仍然存在缺陷,难以在充满突发情况和不确定性的人类世界中运作。然而,现实情况是,即使在某些情况下会存在这些问题,许多工业和汽车系统仍在继续开发神经网络。
恩智浦多年来投资构建AI功能,并一直在关注神经网络模型的上述缺陷。相较于智能手机助手推断语音的错误,机器学习在工业或医疗保健环境中出现错误的危险性要大得多。因此,我们正在为客户提供先进的机器学习解决方案,并且正持续研究一种名为“可解释的AI”(xAI)的方法。xAI通过添加更合理的、类似于人的决策方法和额外的确定性维度,扩展了机器学习的推理和计算概率能力。xAI将AI的所有优势与推理机制相结合,使其更接近人类的反应方式。
假设您是自动驾驶汽车的乘客,如果车辆缓慢地行驶,您自然会想知道为什么车辆要如此小心。如果驾驶员是人类,您可能会直接询问驾驶员为什么汽车行驶速度如此之慢。驾驶员会解释说,下大雨时能见度很差,他们不确定前面会有什么危险。这一解释是基于不确定性做出的。xAI的决策也会遵循类似的行为模式来表达模型推理的不确定性存在于哪些方面。
恩智浦已经在研究如何将xAI功能整合到我们为汽车、工业和医疗保健系统开发的机器学习解决方案中。
鉴于史无前例的全球新冠肺炎(COVID-19)大流行,xAI研究团队认为,恩智浦xAI可能有助于实现对患者疾病的快速检测。虽然现在研究尚处于初期,但是已有的可行性证据让我们深受鼓舞。另外,我们与一些技术领先的医院建立了互动,积极了解xAI技术对全球面临的医疗保健挑战有何帮助。
除了规定的PCR测试和诊断方案以外,CT放射和X射线影像的使用提供了快速的替代检测功能。通过适当培训的xAI模型来处理CT和X射线影像,就能区分未感染病例和感染病例。xAI能够提供实时推理可信度和可解释的洞察,以帮助临床人员确定下一步治疗方案。
xAI研究团队相信他们的推理模型已经趋于成熟,目前正在与欧洲和美洲的医学和AI专家进行讨论。但是,为了进一步推动研究,我们必须访问更大的匿名数据集,积极寻求新冠肺炎研究人员和潜在合作伙伴的反馈,共同合作以改进这种检测技术。
AI使我们能够在涉及不确定性的情况下,做出更接近人类的反应。它提高了基于概率的决策分类的确定性和可行度。恩智浦在面向汽车、工业和医疗保健应用的关键安全系统中发现了xAI的机遇。
(以上内容整理自网络,如有侵权请联系删除!)