• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea.)



Computer-aided diagnosis(CADx), Deep learning, Early gastric cancer, Image augmentation

1. 서 론

2020년 통계청에서 발표한 국내 사망원인 1위는 암이 차지하였다. 특히, 40대 이상에서 사망원인 1위가 암으로 나타나고 있는 것은 고령화가 진행되는 국내 상황에서 병변의 조기 발견을 통한 암 치료의 필요성을 보여준다(1). 또한, 암은 조기 발견 시 90%의 생존율을 보이기에 정기적인 검진을 통해 조기에 진단받는 것이 중요하다. 하지만 정기적인 검진에도 불구하고 진단은 사람의 업무라는 특성상 의사의 숙련도와 피로도에 따라 정확성이 결정되므로 오진을 받는 경우가 발생한다. 암 오진과 관련하여 한국소비자원에 2017년부터 2021년 6월까지 접수된 피해 사례는 총 131건이다(2). 오진 내용을 보면 암을 암이 아닌 것으로 진단한 사례가 114건, 암이 아니지만, 암으로 진단한 사례가 17건으로 암을 암이 아닌 것으로 진단한 사례가 대다수를 차지하는 것을 알 수 있다. 이와 같은 오진은 환자의 적절한 치료 시기를 놓치게 하고 병을 악화시켜 건강에 심각한 문제를 불러올 수 있다.

위암의 경우 2015년부터 2018년까지 국내 암 발병률 1위를 차지할 만큼 매우 빈번하게 발생하는 암이다. 위암은 발병 원인이 정확하지 않고 초기 증상이 일반적인 소화 장애와 비슷한 특징을 가지기에 증상만으로는 조기 발견이 어렵고, 정기적인 위 내시경을 통해 진단받는 과정이 요구된다.

하지만 조기 위암은 미세한 점막 변화 혹은 양성 궤양과 구분이 어려운 형태로 나타나기에 정확한 진단이 어려워 오진이 발생하기 쉽다. 이러한 이유로 그림 1을 보면 한국소비자원에 접수된 위암의 오진 사례는 17건으로 폐암 25건에 이어 2위를 차지하고 있다.

그림. 1. 암 오진 통계 (출처 : 한국소비자원)

Fig. 1. Cancer misdiagnosis statistics in Korea

../../Resources/kiee/KIEE.2022.71.9.1259/fig1.png

내시경 검사와 의료기술의 발전에 따라 국내 위암 환자는 감소하는 경향을 보이지만 2020년 전체 암 사망자의 14.6%를 차지할 정도로 여전히 치명적이라 할 수 있다. 따라서 정확한 진단을 기반으로 사망률 및 발병률 완화를 위한 연구가 필요하다. 이를 해결할 방법으로 의사의 진단을 보조하는 딥러닝 기반 CADx (Computer-aided Diagnosis)가 현재 활발하게 연구되고 있다.

위암에 CADx를 접목하여 조기 진단을 수행하려는 연구는 다양하게 진행되었다. 관련 연구로 위 내시경 이미지로부터 병변의 특징을 학습하여 위암의 여부를 판단하는 분류(Classification) 연구가 수행되었다(3,4). 위암 환자의 위 내시경 이미지를 학습한 CADx는 성능 검증을 위해 전문의와 딥러닝 모델 간 정확도 비교가 이루어졌다. 연구결과로 딥러닝 모델이 정확도와 민감도 측면에서 전문의보다 더 정확한 분류를 수행하면서 CADx가 조기 위암 진단에 효과적일 수 있음을 보였다.

위암의 여부를 판단할 뿐만 아니라 병변의 위치를 찾아내는 객체 탐지(Object detection)와 병변을 분할하는 객체 분할(Instance Segmentation) 연구도 진행되었다(5,6). 딥러닝 기반의 CADx를 활용한 객체 탐지와 객체 분할 연구는 숙련된 전문의도 진단하기 어려울 정도의 미세한 병변을 제외하면 이미지로부터 높은 성능으로 병변 탐지 및 분할을 수행하였다.

CADx를 학습하기 위해 사용되는 모든 위 내시경 이미지는 환자의 개인 정보에 해당한다. 따라서 환자의 동의 및 임상 심사 위원회(Institutional Review Board, IRB)의 승인을 받는 절차가 필수적이다. 이 과정에서 많은 인력과 시간이 소요되기에 의료 데이터는 다른 연구 분야에 비해 대규모의 데이터 수집에 어려움이 존재한다. 적은 양의 의료 데이터는 병변의 특징을 충분하게 학습하지 못할 수 있고 과소적합과 과적합이 발생할 수 있다. 이러한 데이터 부족 문제를 극복하고자 이미지에 Rotation, Shift, Shear, Flip 등의 영상처리 기법을 적용하여 데이터를 증대한 연구도 이루어졌다(7,8). 이러한 접근법은 의료 데이터 수집의 어려움을 보완함과 동시에 딥러닝 모델의 분류 성능을 향상시키는 결과를 가져올 수 있다. 본 연구에서는 위 내시경 이미지에서 비정상과 정상의 분류를 진행하고 비정상 이미지 중에서도 조기 위암과 조기 위암을 제외한 다른 비정상 이미지를 분류하는 딥러닝 기반 CADx 시스템을 연구하였다. 데이터의 부족을 해결하고자 구글의 AutoAugment 증대기법 중 하나인 Cifar10 증대정책을 통해 데이터를 증대를 진행하였다. 또한, 증대된 데이터는 원본 데이터로 학습된 딥러닝 모델의 분류 성능에 따라 필터링을 진행함으로써 병변의 특징이 변형, 왜곡된 이미지를 제거하여 성능 향상을 이루고자 하였다.

2. 본 론

본 연구는 CADx의 학습 데이터로 위 내시경 이미지를 수집하였다. 위 내시경은 원리 및 방법에 따라 백색광 내시경, 색소 내시경, 협대역 영상 내시경(Narrow band imaging, NBI) 등이 존재한다. 일반적으로 백색광 내시경으로 검사 후 병변이 의심될 경우 색소 내시경과 협대역 영상 내시경을 사용하여 추가 진단을 진행한다. 하지만 색소 내시경의 경우 색소가 균등하게 살포되지 않을 시 오히려 병변 탐지를 어렵게 하고 협대역 영상 내시경은 내강이 넓은 위에 사용하였을 때 어둡고 화질이 떨어진다(9). 따라서 본 연구는 일반적으로 사용되는 백색광 내시경 영상을 수집하였다.

2.1 위 내시경 데이터셋 제작

연구에 사용된 백색광 위 내시경 영상은 국립 경상대학교 병원의 소화기내과를 통해 수집하였다. 모든 영상은 내과 전문의의 진단과 조직 검사를 통해 검증함으로써 데이터의 신뢰도를 높였다. 또한, 모든 데이터는 환자의 동의 및 임상 심사 위원회의 승인을 받았다. 총 192명의 환자로부터 1,200장의 내시경 영상을 수집하였고 수집된 데이터의 구성은 표 1에 나타내었다.

표 1. 위 내시경 데이터셋 구성(단위 : 장)

Table 1. Configuration of the gastroscopy dataset

Type

Number

Train

Test

Normal

300

300

Abnormal

Early Cancer

152

148

Gastritis

73

89

SMT

27

19

Ulcer

28

27

Polyp

12

9

Others

8

8

Total

600

600

비정상 이미지 중 병변은 조기 위암, 위염, 종양, 궤양, 용종 등이 포함되고 기타 병변에는 출혈, 황색종, 혈전이 포함된다. 이미지는 환자 당 최소 1장부터 최대 18장까지 수집되었고 평균적으로는 약 6장이 수집되었다. 이처럼 한 환자 당 여러 장의 이미지가 수집되기에 동일한 병변에 대해서도 비슷한 사진이 다소 포함될 수 있다. 따라서 한 환자로부터 수집한 이미지를 딥러닝 모델의 학습과 테스트에 임의로 분배한다면, 모델 성능 평가에 있어 신뢰성을 감소시킬 수 있는 요인이다. 본 연구에서는 이러한 경우를 방지하고자 이미지는 딥러닝 모델의 학습과 테스트에 환자 구성이 중복되지 않는 조건하에 무작위로 분배되었다. 결과적으로 비정상과 정상 분류에는 각 클래스 당 48명씩 분배되었고, 조기 위암과 조기 위암이 아닌 비정상의 분류에는 각 클래스 당 24명씩 분배되었다.

2.2 데이터 증대

딥러닝 모델 학습에서 많은 양의 데이터는 모델의 과적합을 방지하고, 좋은 품질의 데이터는 가중치의 수렴을 빠르게 만들어준다. 하지만 의료 데이터는 보호받아야 할 환자의 개인 정보이고 IRB의 승인을 받는 과정이 필수적이기에 다른 분야에 비해 데이터 수집에 많은 인력 및 시간이 소요된다. 따라서 본 연구에서는 이러한 점을 극복하고자 구글의 증대정책인 AutoAugment를 사용하여 데이터를 증대하였다. 연구에 사용된 AutoAugment의 증대정책 결정 과정은 다음과 같은 과정을 통해 결정된다. Recurrent Neural Network(RNN)을 Controller로 사용하고, 증대정책인 Strategy(S)를 자식 네트워크에 적용한 후 그에 대한 성능 R을 얻는다. 그 후 R을 Controller에 갱신시켜 업데이트된 증대정책을 얻는다. 결과적으로 이 과정을 반복함으로써 최적의 증대정책을 얻게 된다. AutoAugment에는 Cifar10, ImageNet, SVHN 등 3가지 데이터 셋에 대한 최적의 증대 정책을 제공한다. Cifar10은 32 x 32 크기의 비행기, 자동차, 새, 고양이, 사슴, 개, 개구리, 말, 배, 트럭 등 총 10개의 클래스로 구성된 데이터셋이다(10). ImageNet은 140만 장 이상의 데이터가 1000개의 클래스로 구분되어있는 데이터셋이다(11). SVHN은 Google Street View에서 수집된 숫자 데이터셋이고 약 10만장의 이미지가 포함되어 있다(12). 본 연구에서는 분류 클래스의 개수가 많지 않은 점을 고려하여 클래스 개수가 적은 Cifar10으로 증대를 진행하였다. Cifar10 증대정책에는 25개의 Sub-policy가 존재하고 Sub-policy에는 영상처리 증대기법과 적용강도 및 적용확률이 포함된다. 결과적으로 위 내시경 데이터셋에 Cifar10 증대정책을 적용하여 원본 대비 25배 된 데이터를 얻을 수 있었다.

2.3 이미지 선별

본 연구에서는 부족한 데이터셋의 보완 및 딥러닝 모델의 과적합을 방지하기 위해 Cifar10 증대정책을 통해 원본 데이터셋을 25배 증대하였다. 하지만 Cifar10 데이터셋에 최적화된 증대정책을 사용하였기 때문에 증대된 이미지는 병변의 특징이 왜곡되거나 변형되었을 수 있다. 따라서 본 연구에서는 Cifar10으로 증대된 데이터셋을 원본 데이터셋으로 학습한 딥러닝 모델에 입력으로 넣어주고 모델의 분류 결과를 기준으로 선별 과정을 거쳤다.

그림 2는 증대 이미지 선별 과정을 보여준다. 분류를 위한 임곗값은 0.9로 설정하여 병변의 특징을 최대한 보존한 증대 이미지만을 수집하고자 하였다. 표 2에 네트워크별 선별된 이미지 장 수를 나타내었다. 기존 연구를 보면 각 질병에 대한 데이터 수가 충분한 경우 병변별 특징 학습이 정확히 이루어질 수 있으므로 다중분류를 수행하였다(13). 하지만 데이터가 부족한 연구에서는 이진분류를 여러번 수행하는 연구가 진행되기도 하였다(14). 본 연구의 데이터는 조기 위암을 제외한 다른 병변의 데이터 양이 부족하기에 두가지 Task를 통해 조기 위암을 분류한다. Task1은 비정상과 정상의 분류를 진행하고 Task2는 Task1에 포함된 비정상 중 조기 위암과 조기 위암이 아닌 비정상 이미지 분류를 수행한다. 결과적으로 EfficientNetV2-L는 Task1에서는 1,869장이 제거되었고 Task2에서는 318장이 제거되었다. Xception은 Task1에서 4,730장이 제거되었고 Task2에서 1,187장 제거되었다.

그림. 2. 학습 데이터셋 제작 과정

Fig. 2. Process of generating the train dataset

../../Resources/kiee/KIEE.2022.71.9.1259/fig2.png

표 2. 네트워크별 선별된 이미지 장 수

Table 2. The number of selected images per network

Group

EfficientNetV2

Xception

Task1

Task2

Task1

Task2

Abnormal

Normal

Cancer

Abnormal

Abnormal

normal

Cancer

Abnormal

Original dataset

300

300

152

148

300

300

152

148

Cifar10 dataset

7500

7500

3800

3700

7500

7500

3800

3700

Selected dataset (Threshold 0.9)

6842

6289

3694

3488

5112

5158

3395

2918

2.4 EfficientNetV2

본 연구에서는 위 내시경 이미지에서 병변의 특징을 학습하고 진단하기 위해 Convolution Neural Network(CNN) 구조의 딥러닝 네트워크를 사용하였다. CNN은 컨볼루션 연산과 풀링 등의 과정을 거치면서 이미지 특징을 효율적으로 학습하기에 결과적으로 이미지 분류에서 높은 성능을 보인다. 이러한 딥러닝 네트워크를 제한된 하드웨어 상황이나 여러 분야에서 사용하기 위해서는 높은 성능을 유지하면서 더 적은 파라미터로 최대한의 효율을 내는 개발이 요구된다. 대부분의 연구에서는 이론적인 지식을 바탕으로 연구자가 직접 구조를 설계하는 방식으로 진행되었다. 하지만 네트워크의 구조를 인공지능을 통해 설계하는 Neural Architecture Search(NAS)가 연구되면서 적은 파라미터로 높은 성능을 가지는 네트워크가 등장하였다(15). 그 중 EfficientNetV2는 EfficientNetV1을 백본으로 선택하고 Training- Aware NAS를 통해 구조가 결정되었다(16).

그림 3은 EfficientNetV2에 사용된 레이어의 구조를 보여준다. MBConv와 Fused-MBConv 구조가 사용되었고 두 구조의 차이는 다음과 같다. MBConv은 Depthwise Seperable Convolution 연산을 수행하는 반면, Fused-MBConv에서는 일반 Convoluton으로 변경함으로써 초기 레이어에서의 연산속도를 증가시켰다. 또한, SENet에서 제안한 SE Block(Squeeze-and-Excitation Block)을 사용하여 피쳐맵의 채널간 중요도를 학습에 활용하였다(17). 추가로 EfficientNetV1은 채널 수, 레이어 수, 이미지 해상도를 동시에 키우는 Compound scaling을 제안하였다. EfficientNetV2에서도 Compound scaling을 적용하지만 이미지 해상도를 최대 480으로 제한하고 Non-uniform 하게 Scaling하여 최종적으로 S, M, L 세 가지 크기의 모델을 설계하였다. 본 연구에서는 가장 큰 모델인 EfficientNetV2-L로 이미지 학습 및 테스트를 진행하였다.

그림. 3. EfficientNetV2 레이어 구조

Fig. 3. Structure of EfficientNetV2 layer

../../Resources/kiee/KIEE.2022.71.9.1259/fig3.png

2.5 Xception

Xception은 Cross-channel correlations와 Spatial correlation를 완벽히 분리하고자 설계된 딥러닝 네트워크이다(18). 이를 위해 Depthwise Separable Convolution를 주로 사용하는 구조로 모델이 설계되었다.

따라서 초기 레이어에서 Depthwise Separable Convolution을 사용하지 않은 EfficientNetV2와의 성능 비교를 위해 Xception을 활용하였다. Xception은 Pointwise Convolution을 먼저 수행하여 출력 채널 개수를 조절한 후 Depthwise Convolution을 수행한다. 이 과정에서 일반 컨볼루션보다 연산량을 감소시켜 적은 연산량으로도 특징 추출이 효율적으로 이루어졌다. 또한, 비선형 함수는 딥러닝 모델의 표현성을 높이기 위해 사용되지만 오히려 Depthwise 연산처럼 채널이 얕은 특징 맵에서는 정보의 손실이 발생할 수 있어 성능을 감소하게 하는 원인이 될 수 있다. 따라서 Xception은 Pointwise 연산과 Depthwise 연산 사이 비선형 함수를 제거함으로써 수렴 속도와 성능 향상을 이루어냈다. 추가로 ResNet의 Skip Connection과 Batch normalization을 적용함으로써 그레디언트 손실을 해결하여 더 깊은 층의 구조가 설계되었다. 그림 4는 Xception 레이어의 구조를 보여준다.

그림. 4. Xception 레이어 구조

Fig. 4. Structure of Xception layer

../../Resources/kiee/KIEE.2022.71.9.1259/fig4.png

3. 연구결과

본 연구에서는 위 내시경 이미지에서 비정상과 정상을 분류하고 비정상 중에서도 조기위암을 분류하는 것을 목표로 하였기에 두 가지 카테고리에 대한 학습 및 테스트가 이루어졌다. 분류 네트워크로는 EfficientNetV2-L와 Xception을 활용하여 성능 비교를 진행하였다. 학습된 모델의 성능 평가 지표는 혼동행렬(Confusion matrix)과 F1-Score, AUC를 사용하였다. 각 데이터셋에 따른 모델의 성능은 표 3표 4에 각각 나타내었다. 표 3을 보면 EfficientNetV2-L의 경우 선별된 데이터셋으로 학습한 경우가 모든 평가 지표에서 가장 우수한 성능을 보였다. 특히, Accuracy가 원본 데이터셋에 비해 약 16% 성능 향상이 이루어졌다. Xception의 경우 선별 데이터셋으로 학습했을 때, 원본 데이터셋 대비 약 3%의 Accuracy 성능 향상이 이루어졌다. CADx는 비정상에 대한 오진이 발생 시 질병을 악화시키고 이는 곧 환자의 건강에 직접적인 영향을 끼친다. 따라서 비정상과 정상의 분류는 실제 비정상 이미지 분류에 성공한 정도를 나타내는 Sensitivity가 중요하다고 볼 수 있다. 이러한 점을 고려할 때 EfficientNetV2-L는 0.973의 성능으로 Xception의 0.667에 비해 46% 더 높은 유의미한 성능 차이를 보였다.

표 3. 정상 이미지과 비정상 이미지 분류 성능

Table 3. Performance for normal and abnormal image classification

Group

Accuray

Perception

Sensitivity

F1-Score

EfficientNetV2-L

Xception

EfficientNetV2-L

Xception

EfficientNetV2-L

Xception

EfficientNetV2-L

Xception

Original dataset

0.845

0.702

0.848

0.720

0.840

0.660

0.844

0.689

Cifar10 dataset

0.890

0.718

0.893

0.727

0.887

0.700

0.890

0.713

Selected dataset (Threshold 0.9)

0.983

0.723

0.993

0.752

0.973

0.667

0.983

0.707

그림 5는 정상과 비정상 분류에 대한 EfficientNetV2-L의 ROC 커브를 보여준다. 데이터 증대 및 선별을 진행함에 따라 EfficientNetV2-L의 AUC 값이 향상되어 데이터 증대와 선별이 분류 성능에 효과적임을 보였다. 특히, 선별 데이터셋으로 학습한 모델이 0.995로 가장 높은 성능을 보였다.

그림. 5. 정상과 비정상 이미지 분류에 대한 EfficientNetV2-L의 ROC 커브

Fig. 5. ROC curve of EfficientNetV2-L for normal and abnormal image classification

../../Resources/kiee/KIEE.2022.71.9.1259/fig5.png

그림 6은 Xception의 정상과 비정상 분류에 대한 ROC 커브를 보여준다. 증대와 선별 데이터셋은 원본 데이터셋에 비해 향상된 AUC 값을 보인다. 하지만 EfficientNetV2-L의 0.995 보다 낮은 성능을 나타내며 결과적으로 본 논문에서 제안하는 EfficientNetV2-L 기반 CADx가 비정상과 정상 분류에 더 효과적임을 확인할 수 있다.

그림. 6. 정상과 비정상 이미지 분류에 대한 Xception의 ROC 커브

Fig. 6. ROC curve of Xception for normal and abnormal image classification

../../Resources/kiee/KIEE.2022.71.9.1259/fig6.png

표 4에서 EfficientNetV2-L는 선별 데이터셋으로 학습한 모델이 Accuracy 기준 약 4%의 성능 향상이 이루어져 0.943으로 Xception의 0.933보다 높은 분류 정확도를 보인다. Xception은 증대 데이터셋으로 학습한 모델이 Sensitivity 측면에서 0.980로 높은 성능을 보이지만 Precision이 낮기 때문에 신뢰성 있는 수치라고 보기 어렵다. 또한, Xception은 선별 데이터셋의 성능이 Cifar10 데이터셋에 대한 성능과 비슷하거나 감소하는 경향도 보인다. 그 이유는 Xcepion이 정확한 병변의 특징을 학습하지 못해 선별 과정에서 불필요한 이미지까지 제거한 것으로 판단된다. 이미지 선별의 신뢰성을 위해선 정확한 병변의 특징 학습이 기반이 되어야 한다. EfficientNetV2에는 SE Block을 통해 특징맵의 채널 간 중요도를 활용하여 효과적으로 병변의 특징을 학습하였지만, Xception에서는 이러한 과정이 진행되지 않았기에 EfficientNetV2와는 다른 성능 추세를 보인다고 판단된다.

표 4. 조기위암과 비정상 이미지 분류 성능

Table 4. Performance for early gastric cancer and abnormal image classification

Group

Accuray

Perception

Sensitivity

F1-Score

EfficientNetV2-L

Xception

EfficientNetV2-L

Xception

EfficientNetV2-L

Xception

EfficientNetV2-L

Xception

Original dataset

0.907

0.897

0.875

0.863

0.946

0.939

0.909

0.900

Cifar10 dataset

0.927

0.937

0.932

0.901

0.919

0.980

0.925

0.939

Selected dataset (Threshold 0.9)

0.943

0.933

0.952

0.929

0.932

0.941

0.942

0.935

그림 7그림 8은 EfficientNetV2-L와 Xception의 조기 위암과 비정상 이미지 분류에 대한 ROC 커브를 보여준다. 데이터 증대와 선별 과정을 거친 후 최종 성능에서 EfficientNetV2-L이 0.991, Xception은 0.962를 보이며 EfficientNetV2-L가 정상과 비정상 분류뿐만 아니라 조기 위암 진단에서도 Xcption 네트워크보다 더 우수한 성능을 보임을 알 수 있었다.

그림. 7. 조기 위암과 비정상 이미지 분류에 대한 EfficientNetV2-L의 ROC 커브

Fig. 7. ROC curve of EfficientNetV2-L for early gastric cancer and abnormal image classification

../../Resources/kiee/KIEE.2022.71.9.1259/fig7.png

그림. 8. 조기 위암과 비정상 이미지 분류에 대한 Xception의 ROC 커브

Fig. 8. ROC curve of Xception for early gastric cancer and abnormal image classification

../../Resources/kiee/KIEE.2022.71.9.1259/fig8.png

4. 결 론

위암은 발병률이 높지만 초기에는 특별한 전조증상이 없고 위 내부에도 미세한 변화만을 동반하여 조기 진단에 어려움을 겪고 있다. 따라서 본 연구에서는 위 내시경 이미지로부터 정상과 비정상을 분류하고 비정상 중에서도 조기 위암을 분류하는 조기 위암 CADx 시스템을 연구하였다. 수집된 원본 데이터셋의 경우 수량이 충분하지 못하여 조기 위암 병변의 특징을 정확히 학습하지 못할 수 있기에 Cifar10 증대정책을 통해 25배 증대하고 학습에 활용하였다. 결과적으로 EfficientNetV2-L이 비정상과 정상 분류에서는 Accuracy가 약 5%의 향상된 결과를 얻었고 조기 위암과 조기 위암이 아닌 비정상 이미지의 분류에서는 약 4%의 성능 향상을 이루어냈다. 또한, 증대된 데이터셋을 원본 데이터셋으로 학습된 딥러닝 모델에 입력으로 넣어주고 분류 결과에 따른 필터링을 수행함으로써 선별된 데이터셋을 구성하였고 이를 통해 추가적인 분류 성능 향상을 확인하였다. 성능의 향상 정도를 볼 때, 비정상과 정상의 분류가 조기위암과 비정상의 분류보다 큰 폭의 증가가 이루어졌다. 그 이유로 조기 위암은 이미지상에서 특징이 미세하기에 비정상과의 분류에서 정확한 특징 추출에 어려움이 존재하기 때문이다.

두 가지 모델의 전체적인 성능을 볼 때 EfficientNetV2-L는 Xception보다 대부분의 평가 지표에서 우수한 성능을 보이며 본 연구에서 제안한 EfficientNetV2 기반 CADx 시스템이 조기 위암 진단에 효과적임을 보였다.

본 연구에서 Cifar10 증대정책을 활용하여 데이터를 증대할 때, 이미지에는 Shift, Shear, Equalize 등의 영상처리 기법이 적용되었고 이때 원본 이미지가 가지는 병변의 특징에 변형이 가해졌을 가능성이 존재한다. 이미지 선별을 통해 최대한 병변의 특징을 유지한 이미지를 사용하고자 했지만 선별된 모든 이미지가 병변의 특징을 훼손 없이 보존했다고 보기엔 어려움이 있다. 향후 연구에서는 이러한 점을 개선하고자 원본 데이터셋의 병변에 객체 분할을 사용하여 분리한 후 증대된 데이터셋의 병변과 비교하여 병변의 특징을 유지한 정도에 따라 이미지를 선별하는 방식을 적용하여 연구를 진행할 것이다.

Acknowledgements

This work was supported by the National Research Foundation of Korea(NRF) grant funded by the Korea government(MSIT) (No. 2017R1E1A1A03070297). This research was supported by Basic Science Research Program through the National Research Foundation of Korea(NRF) funded by the Ministry of Education (No. 2022R1I1A3053872)

References

1 
Korean Statistics Information Service, , Statistics on the cause of death in 2020.Google Search
2 
Korea Consumer Agency, 2017, Cancer Misdiagnosis Consumer Damage Prevention Advisory, July. 13Google Search
3 
Li, Lan, 2020, Convolutional neural network for the diagnosis of early gastric cancer based on magnifying narrow band imaging, Vol. 23, No. 1, pp. 126-132Google Search
4 
Sakai, Yoshimasa, 2018, Automatic detection of early gastric cancer in endoscopic images using a transferring convolutional neural network, 2018 40th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC). IEEEDOI
5 
Shibata, Tomoyuki, 2020, Automated detection and segmentation of early gastric cancer from endoscopic images using mask R-CNN, Applied Sciences, 3842, Vol. 10, No. 11DOI
6 
Hirasawa, Toshiaki, 2018, Application of artificial intelligence using a convolutional neural network for detecting gastric cancer in endoscopic images, Gastric Cancer, Vol. 21, No. 4, pp. 653-660DOI
7 
Zhu, Yan, 2019, Application of convolutional neural network in the diagnosis of the invasion depth of gastric cancer based on conventional endoscopy, Gastrointestinal endoscopy, Vol. 89, No. 4, pp. 806-815DOI
8 
Teramoto, Atsushi, 2021, Automated detection of gastric cancer by retrospective endoscopic image dataset using u-net r-cnn, Applied Sciences, 11275, Vol. 11, No. 23DOI
9 
Weon Jin Ko, 2017, Diagnosis of Early Gastric Cancer Using Image-enhanced Endoscopy, The Korean Journal of Medicine, Vol. 92, No. 3, pp. 264-268DOI
10 
A. Krizhevsky, G. Hinton, 2009, Learning multiple layers of features from tiny imagesGoogle Search
11 
J. Deng, W. Dong, R. Socher, L-J. Li, K. Li, L. Fei-Fei, 2009, Imagenet: A large-scale hierarchical image database, IEEE conference on computer vision and pattern recognition, pp. 248-255DOI
12 
Y. Netzer., T. Wang., A. Coates., A. Bissacco., B. Wu., A. Y. Ng., , Reading digits in natural images with unsupervised feature learning, 2011.DOI
13 
Qiu, Wengang, 2022, Endoscopic image recognition method of gastric cancer based on deep learning model, Expert Systems, e12758, Vol. 39, No. 3DOI
14 
Lee, Jang, Hyung, 2019, Spotting malignancies from gastric endoscopic images using deep learning, Surgical endoscopy, Vol. 33, No. 11, pp. 3790-3797DOI
15 
Zoph, Barret, 2016, Neural architecture search with reinforcement learning, arXiv preprint arXiv:1611.01578DOI
16 
M. Tan., Q. Le., 2021, Efficientnetv2: Smaller models and faster training, In International Conference on Machine Learning(PMLR), Vol. 139, pp. 10096-10106DOI
17 
Hu. Jie, Li. Shen, Gang Sun, 2018, Squeeze-and-excitation networks, Proceedings of the IEEE conference on computer vision and pattern recognitionDOI
18 
Chollet Francois, 2017, Xception: Deep Learning With Depthwise Separable Convolutions, The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1251-1258DOI

저자소개

이한성(Han-sung Lee)
../../Resources/kiee/KIEE.2022.71.9.1259/au1.png

Han-sung Lee received the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, South Korea in 2022.

He is currently working toward the M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, South Korea.

조현종 (Hyun-chong Cho)
../../Resources/kiee/KIEE.2022.71.9.1259/au2.png

Hyun-chong Cho received his M.S. and Ph.D. degrees in Electrical and Computer Engineering from the University of Florida, USA in 2009.

During 2010- 2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA.

From 2012 to 2013, he was a Chief Research Engineer in LG Electronics, South Korea.

He is currently a professor with the Department of Electronics Engineering and Interdisciplinary Graduate Program for BIT Medical Convert- gence, Kangwon National University, South Korea.