(23.01.20)
medical ai 논문 리뷰 1탄
처음으로 정리할 medicial 분야의 ai 논문은 MICLe라고 불리는 논문인데, Self-supervised learning을 적용한 논문이다.
SimCLR을 알고 읽는다면, 빠르게 읽을 수 있다.
- 논문 제목: Big Self-Supervised Models Advance Medical Image Classifications (ICCV 2021)
- https://arxiv.org/pdf/2101.05224.pdf
Abstracts
이 논문은 2가지의 classification task에 대해 다룬다.
1. Dermatology domain: skin condition classification from digital camer images
2. Multi-label classification of chest X-rays among five pathologies
저자는 medical image classification에서 self-supervised learning을 통한 pre-training 전략이 효과가 있다고 이야기한다. 논문에서 소개하는 method는 Multi-instance contrastive learning (MICLe)이다.
Introduction
medical image의 경우, 일반 task에 비해 dataset이 부족하며 labeling하기 위한 비용이 크다. 이러한 이유들로 인해, 부족한 data, unlabeld data를 가지고도 좋은 성능을 낼 수 있는 방법에 대한 연구가 계속되고 있다.
pre-training approaches는 크게 2가지로 나누어 볼 수 있는데, 아래와 같다.
- supervised pre-training on a large labeled dataset(ImageNet)
- self-supervised pre-training (using contrastive learning) on unlabeled data
Method
저자가 제시한 방법은 3단계로 진행된다.
1단계) unlabeled natural images (ImageNet)으로 self-supervised learning
2단계) unlabeled medical images로 self-supervised learning (SimCLR) + Multi-instance Contrastive learning (multiple image가 있을 경우
3단계) labeled medical images로 supervised fine-tuning
논문에서는 Dermatology image에 대해서만 한 환자의 피부 촬영사진에 대한 multiple image가 존재했기 때문에 Dermatology task에만 MICLe를 적용하였다.
왼쪽 두 아키텍쳐는 SimCLR를 medical image에 적용했고, 가장 오른쪽 아키텍쳐는 MICLe를 적용한 것이다. 하나의 이미지를 서로 다른 두 방식으로 augmentation 한 것이냐, 아니면 두 장의 이미지를 각각 다른 방식으로 augmentation한 것이냐의 차이이다.
SimCLR과 마찬가지로 NT-Xent 를 loss function으로 사용했다.
Experiments
- imagenet 사용한 후, task에 필요한 image 사용하면 더 좋은 성능이 나온다.
- MICLe 적용하면, 더 좋은 성능이 나온다.
Main contributions
- SimCLR을 처음으로 medical에 적용했다는 점
- 특정 medical task에서 여러장의 view를 가진 image를 사용할 수 있을 때 적용할 수 있는 MICLe를 제안했다는 점