[연구] 우사이먼성일 교수 연구실(DASH Lab) 2023 ACM SAC Best Paper 수상
- 소프트웨어융대학
- 조회수993
- 2023-04-24
우사이먼성일 교수 연구실(DASH Lab) 2023 ACM SAC Best Paper 수상
우사이먼성일 교수 연구실 (DASH Lab)의 김정호 (인공지능학과 석사 졸업), 김태준 (소프트웨어학과 융합보안트랙 석사과정) 학생들과 강북삼성병원 혈액종양내과 이윤규 교수, 영상의학과 함수연 교수의 “MGCMA: Multi-scale Generator with Channel-wise Mask Attention to generate Synthetic Contrast-enhanced Chest Computed Tomography” 논문이 The 38th ACM/SIGAPP Symposium on Applied Computing (SAC) 2023에서 Best Paper로 선정되었습니다.
일반적으로 CT촬영시 사용되는 조영제는 혈관의 대조도를 높여 조직이나 혈관의 병변을 명확하게 구별해 내는데 도움을 주는 의약품으로 사용됩니다. 하지만 신체에 투여되는 약물이기 때문에 과민반응 또는 신독성 부작용, 갑상성중독증, 폐부종, 혈전 등의 부작용을 유발할 수 있습니다. 이에 따라 본 연구에서는 CT 조영제 없이 촬영된 CT스캔 이미지로부터, 조영제를 투여한 CT스캔이미지를 생성하는 인공지능 네트워크인 Multi-scale Generator with Channel-wise Mask Attention (MGCMA)를 제안합니다.
본 연구에서 제안된 MGCMA 네트워크는 생성 네트워크인 Generative Adversarial Network (GAN)에 다중 스케일 특징을 고려하는 모듈을 접목시킴으로써 복잡한 의료 CT 이미지의 혈관의 대비를 효과적으로 증강시킬 수 있습니다. 또한, CT 조영증강 전 이미지와 증강 후 이미지의 쌍을 맞추는 것이 현실적으로 매우 어렵기 때문에, 쌍을 맞추지 않고도 image-to-image translation이 가능하도록 하는 CycleGAN Loss를 사용하여 효율적인 학습 파이프라인을 구성하였습니다.
본 모델을 학습 및 평가하기 위해 강북삼성병원으로부터 총 76,486장의 조영증강 전 이미지와 67,640장의 조영증강 후 이미지를 제공받았으며, PSNR, SSIM, MS-SSIM, FID, LPIPS의 5가지 평가 지표 사용하였고, 모든 지표에서 최신 모델의 성능을 능가하였습니다.
논문명: MGCMA: Multi-scale Generator with Channel-wise Mask Attention to generate Synthetic Contrast-enhanced Chest Computed Tomography
초록: Medical images, including computed tomography (CT) assist doctors and physicians in diagnosing anatomic structures and various internal pathologies. In CT, intravenous contrast media is often applied, which are chemicals developed to aid in the characterization of pathology by enhancing the capabilities of an imaging modality to differentiate between different biological tissues. Especially, with the use of contrast media, thorough examinations of the patients can be possible. However, contrast media can have severe adverse and side effects such as hypersensitive reaction to generalized seizures. Yet, without contrast media, it is difficult to diagnose patients that have disorders in the internal organs. With the help of DNN models, especially generative adversarial network (GAN), contrast-enhanced CT (CECT) images can be synthetically generated from non-contrast CT (NCCT) images. GANs or autoencoder-based models have been proposed to generate contrastenhanced CT images; however, the synthesized image does not fully reflect and have crucial spots where contrast has not been synthesized. Thus, in order to enhance the quality of the CECT image, we propose MGCMA, a multi-scale generator with a channel-wise mask attention module for generating synthetic CECT images from NCCT images. Our extensive experiments demonstrate that our model outperforms other baseline models in various metrics such as SSIM and LPIPS. Also, generated images from our approach achieve plausible outcomes from the domain experts’ (e.g., physicians and radiologists) evaluations.
<그림 1. 최신 모델과의 정성적/정량적 성능 비교>
<그림 2. Best Paper Award>