HeYStRanGeR
article thumbnail

(23.01.20)

medical ai 논문 리뷰 1탄

 

처음으로 정리할 medicial 분야의 ai 논문은 MICLe라고 불리는 논문인데, Self-supervised learning을 적용한 논문이다.

SimCLR을 알고 읽는다면, 빠르게 읽을 수 있다.

- 논문 제목: Big Self-Supervised Models Advance Medical Image Classifications (ICCV 2021)

- https://arxiv.org/pdf/2101.05224.pdf


Abstracts

이 논문은 2가지의 classification task에 대해 다룬다.

1. Dermatology domain: skin condition classification from digital camer images

2. Multi-label classification of chest X-rays among five pathologies

 

저자는 medical image classification에서 self-supervised learning을 통한 pre-training 전략이 효과가 있다고 이야기한다. 논문에서 소개하는 method는 Multi-instance contrastive learning (MICLe)이다. 

 

 

Introduction

medical image의 경우, 일반 task에 비해 dataset이 부족하며 labeling하기 위한 비용이 크다. 이러한 이유들로 인해, 부족한 data, unlabeld data를 가지고도 좋은 성능을 낼 수 있는 방법에 대한 연구가 계속되고 있다.

 

pre-training approaches는 크게 2가지로 나누어 볼 수 있는데, 아래와 같다.

- supervised pre-training on a large labeled dataset(ImageNet)

- self-supervised pre-training (using contrastive learning) on unlabeled data

 

 

Method

저자가 제시한 방법은 3단계로 진행된다.

1단계) unlabeled natural images (ImageNet)으로 self-supervised learning

2단계) unlabeled medical images로 self-supervised learning (SimCLR) + Multi-instance Contrastive learning (multiple image가 있을 경우

3단계) labeled medical images로 supervised fine-tuning

 

 

논문에서는 Dermatology image에 대해서만 한 환자의 피부 촬영사진에 대한 multiple image가 존재했기 때문에 Dermatology task에만 MICLe를 적용하였다. 

왼쪽 두 아키텍쳐는 SimCLR를 medical image에 적용했고, 가장 오른쪽 아키텍쳐는 MICLe를 적용한 것이다. 하나의 이미지를 서로 다른 두 방식으로 augmentation 한 것이냐, 아니면 두 장의 이미지를 각각 다른 방식으로 augmentation한 것이냐의 차이이다.

 

 

SimCLR과 마찬가지로 NT-Xent 를 loss function으로 사용했다. 

 

 

 

 

Experiments

- imagenet 사용한 후, task에 필요한 image 사용하면 더 좋은 성능이 나온다.

 

 

 

- MICLe 적용하면, 더 좋은 성능이 나온다.

 

 

 

Main contributions

- SimCLR을 처음으로 medical에 적용했다는 점

- 특정 medical task에서 여러장의 view를 가진 image를 사용할 수 있을 때 적용할 수 있는 MICLe를 제안했다는 점

 

728x90
profile

HeYStRanGeR

@HeYStRanGeR

포스팅이 좋았다면 "좋아요❤️" 또는 "구독👍🏻" 해주세요!