• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea.)
  2. (Dept. of Electronics Engineering Kangwon National University, Korea.)



CADx, Cancer Diagnosis, Classification, Convolution Neural Network, Deep learning, Lung cancer, Malignant Tumor

1. 서 론

폐암은 폐에 생긴 악성 종양을 뜻하며 전 세계적으로 암 사망의 주요 원인을 차지하는 주요 관심 질병이자 정복해야 할 질병 중 하나이다. 2022년 대한민국 보건복지부에서 발표한 2020년 국가암등록사업 연례 보고서에 따르면 폐암은 췌장암에 이어 2위로 낮은 생존율을 보인다(1). 또한 폐암 발생률은 생존율이 낮은 다른 암보다 높다. 이러한 통계는 폐암의 위험성이 매우 높고 생명에 치명적임을 의미한다. 그림 1은 1993년부터 2020년까지의 상대 생존율이 가장 낮은 4개 암의 생존율과 2020년 암 발생률을 나타냈다.

그림. 1. 주요 암 5년 상대 생존율 및 2020년 암 발생률(출처 : 보건복지부)

Fig. 1. 5-year relative survival rates for major carcinomas and cancer incidence rates in 2020

../../Resources/kiee/KIEE.2023.72.11.1406/fig1.png

폐암은 오진율이 다른 암에 비해 높은 만큼 발견하기 어려운 암이다. 폐암은 초기 증상이 없어 외관상 건강하고 운동 능력에도 변화를 보이지 않는다. 한국소비자원에 2017년부터 2021년 6월까지 접수된 암 관련 의료서비스 피해구제 신청 347건 중 암 오진 사례가 131건을 차지하였다(2). 특히 폐암은 25건 오진 사례를 기록하며 가장 많은 오진 사례를 차지하였다. 따라서 폐암 예방과 조기 발견을 위해 대한민국 보건복지부에서는 국가암검진 항목에 폐암을 추가하여 54세 이상 74세 이하의 폐암 발생 고위험군을 대상으로 2년마다 흉부 CT(Computed Tomography)를 통해 검진받도록 지원하고 있다. 국민건강보험공단에서 발표한 국가암검진 수검률에 따르면 2019년 폐암 국가암검진을 실시한 이후 수검자는 33,100명에서 2022년 52,600명으로 점점 증가하는 추세를 보였다(3). 수검자가 증가할수록 검진하는 의사의 피로도 또한 증가하며 이는 오진율이 증가하는 원인이 될 수 있다.

이를 해결하기 위해 CT 검진 단계에서 일정하고 정확한 진단을 기반으로 의사에게 보조 의견을 제시하는 딥러닝 기반 폐암 진단 CADx(Computer-Aided Diagnosis) 시스템의 개발이 활발히 연구되고 있다. 딥러닝 기반 CADx 연구는 CT 이미지를 통해 분류(Classification)하는 연구가 수행되었다(4). 기존 연구에서는 SVM(Support Vector Machine)과 FFBPNN(Feed-Forward Back Propagation Neural Network)를 조합하여 분류 정확도를 98.08%를 달성하며 우수한 성능을 보였다. 또한, CNN(Convolutional Neural Network)을 이용하여 폐암을 분류하고자 한 연구도 진행되었다(5). VGG-16 모델을 통해 AUC 0.71을 달성하며 CNN 모델 또한 충분히 폐암 이미지 분류가 가능함을 보였다. 폐암을 단순히 분류할 뿐만 아니라 CNN을 적용하여 흉부 방사선 이미지로부터 폐암을 검출하는 연구가 진행되었다(6). 총 788명의 환자로부터 이미지를 수집하여 연구를 수행하였고 결과적으로 Sensitivity 0.73과 Dice 계수 0.52를 달성하였다.

전반적인 기존 연구는 다른 분야의 데이터에 비해 수집에 오랜 기간이 소요되고 작은 데이터셋을 구성함을 알 수 있다. 이를 해결하기 위해 데이터 증대를 통해 성능을 향상하고자 한 연구가 진행되었다(7). 악성을 분류하기 위해 306개의 양성 이미지와 315개의 악성 이미지를 회전, 뒤집기, 필터링 및 색상을 조정하여 60,000개의 이미지를 생성했다. 그 결과 Sensitivity 0.893, 특이도 0.833을 달성하여 증대하지 않은 데이터셋보다 성능이 향상했음을 보였다. 기존 연구에서 확인할 수 있듯이 데이터의 품질과 양은 딥러닝 학습에 있어 중요한 요소이다. 본 연구에서는 폐 CT 이미지를 통해 악성(폐암)과 음성 분류를 위한 CADx 시스템 개발을 목표로 한다. 의료 데이터는 수집 기간이 오래 걸리고 환자의 동의와 IRB의 승인이 필수적이어서 작은 데이터셋이 주로 구성된다. 이를 해결하기 위하여 Google에서 제안한 증대정책인 AutoAugment를 적용하여 데이터 부족 문제를 해결하고 CNN기반의 EfficientNetV2와 ConvNeXt 모델을 활용하고자 한다. 또한 CT 이미지에서 발생할 수 있는 Noise에도 강인한 폐암 분류 컴퓨터 보조 진단 시스템을 개발하고자 Gaussian Noise를 이미지에 삽입하여 모델의 분류 성능을 평가 및 비교하고자 한다.

2. 본 론

본 연구에서는 IQ-OTH/NCCD(Iraq-Oncology Teaching Hospital / National Center for Cancer Disease)에서 2019년에 3개월에 걸쳐 수집한 CT 이미지 데이터셋을 사용하여 진행하였다(8)-(10). CT 이미지는 DICOM형식으로 수집되어 IQ-OTH, NCCD 두 센터의 종양 전문의와 방사선 전문의가 검증하여 데이터의 신뢰도를 향상하였다. 또한 본 연구에 사용된 폐암 이미지 데이터셋은 참여 의료 센터의 기관 검토 위원회의 승인을 획득하였다.

2.1 데이터셋 구성

수집된 데이터셋은 110명의 환자로부터 추출한 CT 스캔 슬라이스 1,190장이 존재한다. 이 중 40건은 악성(Malignant), 15건은 양성(Benign), 55건은 음성(Normal)으로 분류하였다. 그러나 본 연구는 양성이 아닌 폐암을 의미하는 악성 분류를 위해 양성이 아닌 악성과 음성 두 클래스로만 데이터셋을 재구성하였다. 본 연구에 적용한 자세한 데이터셋 구성은 표 1과 같다.

표 1. 폐암 CT 이미지 데이터셋 구성(단위 : 장)

Table 1. Lung cancer CT image dataset composition

Type

Number of images

Train

Validation

Test

Malignant

361

100

100

Normal

256

80

80

2.2 데이터 증대

다양한 병변 및 패턴은 딥러닝 학습에 있어 일반화 성능 향상 및 과적합 방지라는 이점을 가진다. 그러나 폐암 데이터 이미지는 의료 영상으로써 개인정보보호를 위해 익명화 및 각 환자의 승인을 요한다. 그렇기에 시간과 비용이 많이 소모되며, 결과적으로 작은 데이터셋이 구성되었다. 이러한 의료 영상 부족 문제를 해결하기 위하여 본 연구에서는 AutoAugment를 적용하고자 하였다. AutoAugment는 Google에서 개발한 증대정책이다(11). AutoAugment의 증대정책은 25개의 하위 정책으로 구성된다. 각 하위 정책은 flip, rotation 등 16가지 이미지 처리 방식 중 2가지 방식과 각 방식의 적용 확률 및 강도로 구성된다. 이를 통해 데이터 증대기법의 일반화 능력을 향상하였다. 사전 학습된 모델을 통해 정해진 policy를 폐암 이미지 데이터에 적용하여 원본 데이터셋의 25배를 증대하였다.

AutoAugment는 Cifar10, ImageNet 및 SVHN의 세 가지 데이터셋에 대한 최적의 증대정책을 제공한다. Cifar10은 10개의 클래스로 구성된 32×32 이미지 크기의 데이터셋이다(12). ImageNet은 140만 개 이상의 이미지와 1,000개 이상의 클래스를 포함하는 데이터셋이다(13). SVHN은 Google Street View에서 수집한 숫자 이미지 데이터셋으로 약 10만 개의 이미지로 구성되었다(14). 이 중 가장 많은 이미지와 클래스를 보유한 ImageNet의 증대정책을 적용하여 연구를 진행하였다. 다음 그림 2는 AutoAugment를 통한 증대예시를 나타냈다.

그림. 2. AutoAugment를 통한 Malignant 및 Normal 이미지 증대 예시

Fig. 2. Example malignant and normal image through AutoAugment

../../Resources/kiee/KIEE.2023.72.11.1406/fig2.png

2.3 EfficientNetV2

본 연구는 CNN 기반의 딥러닝 네트워크를 적용하여 폐암 병변의 특징을 학습하고 이를 통해 진단하고자 한다. EfficientNetV1은 모델 성능을 향상하기 위하여 깊이, 채널 폭, 이미지 해상도의 세 가지 네트워크 구성 요소를 최적화하는 방법을 활용하였다(15). 인공지능을 통한 NAS(Neural Architecture Search)의 발전으로 고성능이면서 낮은 매개변수를 갖는 네트워크가 제안되었다(16). EfficientNetV1은 Training-Aware NAS를 통해 최적의 구조를 얻고자 하였다. 또한 설계된 기본 모델을 기반으로 각 구성 요소에 compound scaling을 적용하여 다양한 크기의 모델을 생성하였다. 또한 MobileNet에서 제안한 3×3 MBConv를 스테이지마다 배치하였다(17). 하지만 이는 학습의 효율성을 고려하지 않아 메모리 효율성이 떨어지는 오버헤드 문제가 발생하였고, 이를 해결하기 위해 EfficientNetV2에서는 일반 MBConv 대신 3×3 Depthwise Convolution과 1×1 Convolution을 일반적인 3×3 Convolution으로 변경한 Fused-MBConv를 초반 스테이지에 배치하고 후반에는 일반 MBConv를 배치하여 학습 속도 및 효율성을 높였다(18). 또한 학습 시 Feature map에서 채널의 중요도에 가중치를 부여하기 위해 SENet에서 제안한 SE Block(Squeeze-and-Excitation Block)을 적용하여 학습의 효율성을 높였다(19). EfficientNetV2에서는 학습의 효율성을 위해 compound scaling의 최대 이미지 크기를 380×380으로 제한하고, 128×128 사이즈에서 이미지 크기를 점차적으로 증가하면서 학습을 진행하여 S, M, L 세 가지 모델을 생성하였다. 본 연구에서는 데이터셋의 크기를 고려하여 1,000만 장 이상의 이미지와 21,000개의 클래스로 구성된 ImageNet21k 데이터셋을 사용하여 사전 훈련된 EfficientNetV2-Large 모델을 사용하였다. 그림 3에서는 EfficientNetV2의 Architecture를 나타내었다.

그림. 3. EfficientNetV2 및 MBConv, Fused-MBConv 구조

Fig. 3. EfficientNetV2 and MBConv, Fused-MBConv Architecture

../../Resources/kiee/KIEE.2023.72.11.1406/fig3.png

2.4 ConvNeXt

2020년을 기점으로 Computer Vision Task는 Vision Transformer(ViT)가 SOTA(State-of-the-Art)를 차지하였다(20). 하지만 ViT는 Input image 크기의 제곱의 계산량을 요해 시간 복잡도가 ConvNet에 비해 매우 높다. ConvNeXt는 classification task뿐만 아니라 다른 task에도 좋은 성능을 가진 Swin transformer와 비교하고 이를 통해 고성능의 ConvNet을 만들고자 하였다(21).

ConvNeXt는 ResNet-50을 베이스 모델로 하여 Swin transformer에서 사용한 training technique를 적용하고 다양한 최신화 기법을 적용하여 성능을 향상하였다. 각 stage의 비율을 3:4:6:3에서 3:3:9:3으로 변경하고 kernel size를 기존의 3×3에서 7×7로 높여 성능을 향상하였다. 또한 ResNeXt의 ResNeXt-ify를 적용하였다(22). 256차원 Input을 여러 path로 나누고 4차원까지 채널 수를 줄인 후 다시 256차원으로 키워 모든 path를 합치고 나서 Depthwise separable convolution을 추가하여 연산량은 줄이고 성능은 향상하였다. 다음 그림 4는 ResNeXt-ify의 자세한 구조를 나타내었다.

그림. 4. ConvNeXt bottle neck의 ResNeXt-ify 구조

Fig. 4. ResNeXt-ify architecture that ConvNeXt bottle neck

../../Resources/kiee/KIEE.2023.72.11.1406/fig4.png

Transformer 구조에는 ConvNet 구조보다 더 적은 활성화 함수만 사용한다. 이를 ConvNeXt에 적용하여 1x1 Convolution layer를 제외한 모든 layer에서 활성화 함수를 제거하였다. 또한 배치 정규화 또한 개수를 줄이고 Layer Normalization을 적용하여 성능을 향상하였다. 본 연구에서는 EfficientNetV2-L와 같이 1,000만 장 이상의 이미지와 21,000개의 클래스로 구성된 Image Net21k 데이터셋을 사용하여 사전 훈련된 ConvNeXt-Base 모델을 사용하였다.

2.5 Gaussian Noise 삽입

CT 이미지는 X-선을 통해 인체를 슬라이스로 촬영하고, 이러한 이미지를 컴퓨터가 3차원 이미지로 재구성하는 방식으로 생성한다. 이러한 과정에서 조직의 물성에 따라 X-선을 흡수하거나 투과하는 과정에서 무작위한 Gaussian Noise가 생길 가능성이 존재한다. 이는 이미지의 품질을 저하할 뿐만 아니라 CADx의 분류 정확도를 감소시킬 수 있는 요인이 된다. 실제 의료 현장에서 노이즈가 있는 이미지가 입력되어도 모델이 정확하게 예측할 수 있는 강건성을 평가할 수 있도록 테스트 데이터셋에 평균이 0, 표준편차 0.01인 Gaussian Noise를 삽입하여 일반 CT 이미지와 비교하고자 하였다. 다음 식(1)에 Gaussian Noise를 이미지에 추가하는 수식을 나타내었다.

(1)
$I_{noise}(x,\:y)= I(x,\:y)+ N(0,\:\sigma)$

원본 이미지의 픽셀값인 $I(x,\:y)$에 평균이 0이고 표준편차가 $\sigma$인 Gaussian 분포에서 난수를 생성하여 더하여 Gaussian Noise를 추가한 이미지를 생성하였다.

3. 연구결과

본 연구는 CNN기반의 EfficientNetV2와 ConvNeXt를 통해 악성과 음성 두 등급의 클래스를 분류하고자 하였다. 모델은 과적합이 일어나지 않도록 Train 및 Validation loss가 충분히 수렴하였을 때 학습을 종료하였다. 또한 분류 성능을 향상하기 위해 AutoAugment를 적용하여 학습 데이터를 25배 증대하였다. 원본 데이터셋과 증대한 데이터셋의 학습 데이터를 표 2에 자세히 나타내었다.

표 2. 폐암 CT 이미지 학습 데이터 구성(단위 : 장)

Table 2. Lung cancer CT image training datasets composition

Type

Number of Training images

Original

Augment

Malignant

361

9,386

Normal

256

6,656

증대 데이터셋은 AutoAugment를 통해 증대한 데이터와 원본 데이터를 합쳐 구성하였다. 학습된 딥러닝 모델의 성능 평가를 위해 모델마다 원본 데이터셋, 증대 데이터셋에 대한 테스트를 진행하였다. 분류 성능에 대하여 Precision, Sensitivity, F1-score, Accuracy, AUC(Area Under the ROC Curve) 값을 평가지표로 사용하였다. Precision은 정밀도로 딥러닝 모델이 분류한 악성 이미지 중 실제 악성 이미지인 경우의 비율을 의미한다. Sensitivity는 민감도로 전체 악성 이미지 중 모델이 악성 이미지 분류에 성공한 비율을 의미한다. F1-score는 Precision과 Sensitivity의 조화평균으로 편향되지 않은 평가를 보여준다. Accuracy는 전체 이미지 중 모델이 정확하게 악성과 음성을 분류한 비율을 의미한다. AUC는 ROC Curve의 아래 면적에 해당하는 비율로 클래스 간 분류 정도를 나타낸다. AUC는 여러 임계값에 대한 모델의 성능을 종합적으로 평가하므로 특정 임계값에 의존하지 않는 모습을 보인다. 다양한 임계값에서 모델의 민감도(TPR, True Positive Rate)와 1에서 특이도를 뺀 값인 FPR(False Positive Rate) 사이의 관계를 표시한다. FPR와 TPR의 자세한 수식은 식(2), 식(3)에 나타내었다.

(2)
$F P R=1-$ Specificity $=\frac{F P}{F P+T N}$

(3)
$TPR=Sens iv y=\dfrac{TP}{TP + FN}$

표 3은 원본 데이터셋과 증대한 데이터셋으로 학습된 두 가지 딥러닝 모델의 악성과 음성 분류 테스트 결과를 보여준다. 모든 학습은 3-fold 교차 검증을 통해 평균을 표기하였다.

표 3. 각 CNN 모델에 따른 세부 분류 성능

Table 3. Detailed classification performance for each CNN model

Model

Type

Malignant vs Normal

Original

AutoAugment

EfficientNetV2-L

Precision

0.8846

0.9640

Sensitivity

0.8354

0.9638

F1-score

0.8587

0.9639

Accuracy

0.8352

0.9630

AUC

0.9967

0.9974

ConvNeXt

-Base

Precision

0.9782

0.9963

Sensitivity

0.9796

0.9963

F1-score

0.9796

0.9963

Accuracy

0.9778

0.9963

AUC

0.9973

1.0000

모든 평가지표를 비교했을 때, EfficientNetV2보다 ConvNeXt가 우수한 성능을 보였다. 의료 영상을 통해 개발한 CADx의 평가지표는 Accuracy보다 Sensitivity와 AUC가 중요한 의미를 내포한다. 의료 데이터는 불균형한 경우가 많아 Accuracy만으로 평가하면 신뢰도가 감소할 수 있다. 실제로는 악성이나 음성으로 분류할 경우, 환자의 치료 시기를 놓쳐 사망에 이를 수 있다. 따라서 Sensitivity가 중요한 평가지표로 사용된다. EfficientNetV2의 Sensitivity를 확인하면 원본 데이터셋으로 학습하였을 때 0.8354를 달성하였으며 증대 데이터셋으로 학습하였을 때 0.9638을 달성하여 원본 데이터셋 대비 13%의 성능 향상을 보였다. ConvNeXt의 경우 0.9796에서 0.9963으로 EfficientNetV2보다 성능 향상 폭은 적지만 보다 우수한 성능을 발휘하여 ConvNeXt가 더 우수한 성능을 가졌음을 보였다. 불균형한 데이터셋에서도 모델의 성능을 안정적으로 평가할 수 있는 AUC 또한 평가지표로 주로 사용한다. EfficientNet의 경우 0.9967에서 0.9974로 약 0.07%의 성능 향상을 보였다. ConvNeXt의 경우에는 0.9973에서 1.0000으로 0.27%의 성능 향상을 보여 AUC 측면으로도 ConvNeXt가 월등히 높은 결과를 보여줌을 확인할 수 있다. 또한 모델의 강건성을 평가하고자 평균 0, 표준편차 0.01을 가지는 Gaussian Noise를 테스트 이미지에 삽입하여 모델별로 비교하였다. 이에 대한 자세한 성능은 표 4에 나타내었다.

표 4. CT 이미지에 가우시안 노이즈를 추가한 모델의 분류 성능

Table 4. Classification performance of a model adding Gaussian noise to CT images

Model

Type

Malignant vs Normal

Original

AutoAugment

EfficientNetV2-L

Precision

0.8734

0.9189

Sensitivity

0.7417

0.8954

F1-score

0.7975

0.7066

Accuracy

0.7704

0.8852

AUC

0.9844

0.9947

ConvNeXt

-Base

Precision

0.9735

0.9979

Sensitivity

0.9746

0.9983

F1-score

0.9741

0.9981

Accuracy

0.9722

0.9981

AUC

0.9963

1.0000

EfficientNetV2의 Sensitivity는 0.7417, 0.8954를 달성하여 원본 이미지 대비 각 9.37%, 6.84%의 성능 하락을 보였다. 그러나 ConvNeXt의 경우 0.9746, 0.9983을 달성하여 원본 데이터셋으로 학습했을 때 0.5% 성능 하락을 보였지만 오히려 증대 데이터셋으로 학습한 모델은 0.2%의 성능 향상을 보였다. AUC 또한 EfficientNet은 0.9844, 0.9947로 전체적인 성능 하락을 보였지만 ConvNeXt는 원본 데이터셋에 대해서만 0.1%의 성능 하락을 보였고 증대 데이터셋은 성능 하락을 보이지 않았다.

4. 결 론

본 연구에서는 공개 데이터셋인 The IQ-OTH/NCCD lung cancer dataset을 활용하여 악성(폐암)과 음성 이미지를 분류할 수 있는 CADx 시스템을 개발하는 연구를 진행하였다. 수집된 원본 데이터셋은 의료 영상으로 수집에 어려움이 따라 작은 데이터셋이 구성되었다. 이는 다양한 폐암 병변의 특징과 패턴을 학습할 수 없어 과적합을 유발하고 성능을 하락할 수 있는 요인이 된다. 이를 해결하기 위해 Google에서 제안한 AutoAugment를 ImageNet 증대정책을 적용하여 원본 데이터의 25배를 증대하여 충분한 패턴과 병변의 특징을 학습에 적용하였다. 분류 성능 비교를 위한 모델로 최신 CNN 딥러닝 모델인 Efficient NetV2-L와 ConvNeXt-B를 적용해 ImageNet으로 사전학습된 모델로 전이학습을 진행하였다. 결과적으로 악성과 음성 분류에서 원본 및 증대 데이터셋에서 EfficientNetV2에 비해 ConvNeXt모델이 Sensitivity 0.9796, 0.9963으로 14.4%, 3.25%의 성능 차이를 보였다. 또한 Gaussian Noise를 삽입한 테스트 데이터셋에 대하여 EfficientNet은 9.37%, 6.84%의 하락을 보였지만 ConvNeXt는 0.5% 하락, 0.2% 상승하며 강건한 모델임을 입증하였다. AUC또한 ConvNeXt 모델이 더 우수한 성능을 보이며 ConvNeXt 기반 CADx 시스템이 폐암 진단에 효과적임을 확인하였다.

본 연구에서는 ImageNet기반으로 학습된 증대정책을 적용하였다. 하지만 폐암 원본 이미지가 가지는 병변의 특성이 변형되어 훼손되었을 가능성이 존재한다. 이는 폐암에 최적화된 증대정책이라고 보기엔 어려움이 존재한다. 추후 연구에서는 이러한 점을 개선하기 위하여 병변을 추출하여 증대한 데이터셋의 병변과 변형 정도에 따라 이미지를 선별하여 연구를 진행할 것이다. 또한 병변을 별도로 추출하여 크기를 다양하게 조절 후 적절한 위치에 붙여 증대하는 기법을 적용하여 다양한 폐암 병변에 대한 강건한 모델을 개발하는 연구를 수행할 것이다.

Acknowledgements

This research was supported by Basic Science Research Program through the National Research Foundation of Korea(NRF) funded by the Ministry of Education (No. 2022R1I1A3053872) and was supported by "Regional Innovation Strategy (RIS)" through the National Research Foundation of Korea(NRF) funded by the Ministry of Education(MOE)(2022RIS-005).

References

1 
Ministry of Health and Welfare, 2022, Annual report of the National Cancer Registration Program 2020, Seoul: Ministry of Health and WelfareDOI
2 
Korea Consumer Agency, 2017, Cancer Misdiagnosis Consumer Damage Prevention Advisory, July. 13, 2017DOI
3 
Korea National Health Insurance Corporation, 2023, National cancer screening rate, 2023DOI
4 
P. Nanglia, S. Kumar, A. N. Mahajan, P. Singh, D. Rathee, 2021, A hybrid algorithm for lung cancer classification using SVM and Neural Networks, ICT Express, Vol. 7, No. 3, pp. 335-341DOI
5 
T. L. Chaunzwa, A. Hosny, Y. Xu, A. Shafer, N. Diao, M. Lanuti, D. C. Christiani, R. H. Mak, H. J. W. L. Aerts, 2021, Deep learning classification of lung cancer histology using CT images, Scientific reports, Vol. 11, No. 1, pp. 5471DOI
6 
A. Shimazaki, D. Ueda, A. Choppin, A. Yamamoto, T. Honjo, Y. Shimahara, Y. Miki, 2022, Deep learning-based algorithm for lung cancer detection on chest radiographs using the segmentation method, Scientific Reports, Vol. 12, No. 1, pp. 727DOI
7 
A. Teramoto, A. Yamada, Y. Kiriyama, T. Tsukamoto, K. Yan, L. Zhang, 2019, Automated classification of benign and malignant cells from lung cytological images using deep convolutional neural network, Informatics in Medicine Unlocked, Vol. 16, pp. 100205DOI
8 
H. F. Al-Yasriy, 2023, The IQ-OTH/NCCD lung cancer dataset, Mendeley Data, version 4DOI
9 
H. F. Al-Yasriy, M. S. Al-Husieny, F. Y. Mohsen, E. A. Khalil, Z. S. Hassan, 2020, Diagnosis of Lung Cancer Based on CT Scans Using CNN, IOP Conference Series: Materials Science and Engineering, Vol. 928DOI
10 
H. F. Kareem, M. S. A.-Husieny, F. Y. Mohsen, E. A. Khalil, Z. S. Hassan, 2021, Evaluation of SVM performance in the detection of lung cancer in marked CT scan dataset, Indonesian Journal of Electrical Engineering and Computer Science, Vol. 21, No. 3, pp. 1731-1738DOI
11 
E.D. Cubuk, B. Zoph, D. Mane, V. Vasudevan, Q.V. Le, 2019, Autoaugment: Learning augmentation strategies from data. Proc, In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, pp. 113-123DOI
12 
A. Krizhevsky, 2009, Learning multiple layers of features from tiny images, Technical reportDOI
13 
J. Deng, W. Dong, R. Socher, L.-J. Li, K. Li, L. Fei-Fei, 2009, Imagenet: A large-scale hierarchical image database, IEEE Conference on Computer Vision and Pattern Recognition, pp. 248-255DOI
14 
Y. Netzer, T. Wang, A. Coates, A. Bissacco, B. Wu, A. Y. Ng, 2011, Reading Digits in Natural Images with Unsupervised Feature Learning, Neural Information Processing Systems (NIPS)DOI
15 
M. Tan, Q. V. Le, 2019, EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks, International Conference on Machine LearningDOI
16 
T. Elsken, J. H. Metzen, F. Hutter, 2019, Neural Architecture Search: A Survey, Journal of Machine Learning Research, Vol. 20, pp. 1-21DOI
17 
A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, M. Andreetto, H. Adam, 2017, MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications, arXiv preprint arXiv:1704.04861DOI
18 
M. Tan, Q. V. Le, 2021, EfficientNetV2: Smaller Models and Faster Training, International Conference on Machine LearningDOI
19 
J. Hu, L. Shen, S. Albanie, G. Sun, E. Wu, 2018, Squeeze- and-Excitation Networks, In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 7132-7141DOI
20 
Dosovitskiy, Beyer, Kolesnikov, Weissenborn, Zhai, Unterthiner, Dehghani, Minderer, Heigold, Gelly, Uszkoreit, Houlsby, 2020, An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale, arXiv preprint arXiv:2010.11929DOI
21 
Z. Liu, H. Mao, C.-Y. Wu, C. Feichtenhofer, T. Darrell, S. Xie, Mar. 2022, A ConvNet for the 2020s, In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, pp. 11976-11986DOI
22 
S. Xie, R. Girshick, P. Dollár, Z. Tu, K. He, 2017, Aggregated residual transformations for deep neural networks, In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 1492-1500DOI

저자소개

박재범 (Jae-beom Park)
../../Resources/kiee/KIEE.2023.72.11.1406/au1.png

Jae-beom Park currently working toward B.S and M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, South Korea.

신소영 (So-young Shin)
../../Resources/kiee/KIEE.2023.72.11.1406/au2.png

So-young Shin currently working toward the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, South Korea.

조현종 (Hyun-chong Cho)
../../Resources/kiee/KIEE.2023.72.11.1406/au3.png

Hyun-chong Cho received his M.S. and Ph.D. degrees in electrical and computer engineering from the University of Florida, USA, in 2009.

During 2010–2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA.

From 2012 to 2013, he was a Chief Research Engineer at LG Electronics, South Korea.

He is currently a Professor with the Department of Electronics Engineering and Interdisciplinary Graduate Program for BIT Medical, Kangwon National University, South Korea.