Sunghoon Im 教授,DGIST(右)和 学位相关课程的学生,Seunghoon Lee(左)。来源:DGIST
DGIST信息与通信工程系的Sunghoon Im教授开发了一种人工智能(AI)神经网络模块,可以使用深度学习将复杂图像形式的环境信息分离和转换。开发的网络有望为人工智能领域的未来发展做出重大贡献,包括图像转换和域适应。
近来,作为人工智能技术基础的深度学习越来越发达,图像创建和转换方面的深度学习研究也随之活跃起来。传统的研究集中在寻找一个领域中常见的图像信息,这是一组具有多个相似特征的图像。因此,无法正确使用图像信息,限制了适用数据和模型的性能。另一个限制是,由于使用的图像信息具有线性简单的结构,因此只能获得一个转换后的图像。
Im教授的研究团队假设图像信息的结构可能会因领域而异,而且结构可能并不总是简单的,例如线性结构。研究团队设计了一个分离器,可以将图像信息清晰地划分为整体形式信息和风格信息。基于此,他们对每个域使用不同的权重来反映域之间的差异。此外,他们成功地开发了一种神经网络结构,使用分离的图像信息之间的相关性为每个图像组合确定合适的风格信息。
DGIST 教授 Sunghoon Im 研究团队设计的神经网络结构。图片来源:IEEE 计算机视觉和模式识别会议
开发的神经网络具有以下优势:即使只有一个模型,也可以轻松地对多个领域进行图像转换。当开发的域自适应算法应用于视觉识别问题时,准确率提高了一倍多。
Im 教授说:“在这项研究中,开发了一种结合了对图像信息的新分析的神经网络,我们预计如果相关技术在未来进一步改进,它可以应用于多个领域,积极地影响人工智能的发展。”
Seunghoon Lee,信息与通信工程专业的学位相关课程学生,作为第一作者参与了这项研究。此外,该论文发表在人工智能领域领先的国际期刊IEEE计算机视觉与模式识别会议上,并于6月25日星期五在线发布。