• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National)
  2. (Dept. of Internal Medicine & Institute of Health Sciences, Gyeongsang National University School of Medicine and Gyeongsang National University Hospital, Korea.)



CADx, Classification, Data augment, Deep learning, Gastric cancer

1. 서 론

최근 인간의 수명을 늘리기 위해 의료와 IT 기술이 융합되어 발전하고 있다. 세계 보건기구에서 가장 많이 발생하는 사망원인이 암임을 발표했다(1). 따라서, 암을 정복하게 된다면 인간의 기대수명은 더 커질 수 있을 것이다. 2018년에 실시한 통계에 따르면 암중에서도 위암이 전 세계에서 5위이며, 전 세계 위암 환자 중 3/4이 아시아인으로 나타났다. 특히 대한민국과 일본에서 가장 많이 발생하고 있다(1). 실제로 한국 통계청에 따르면 2018년에 암중에 위암이 가장 많이 발생하고 있으며, 그림 1을 통해 알 수 있다(2). 위암은 초기에 발견하면 완치율이 높으므로 우리나라에서는 만 40세 이상 국민에게 2년마다 위내시경검사 또는 위장조영검사를 권유하고 있다. 위내시경검사는 위암을 발견할 확률이 높고 사망률을 최대 53% 낮출 수 있다. 이 이점 때문에 정부에서는 위내시경검사를 권고하고 있다(3)-(5). 따라서 대한민국에서는 많은 사람이 위내시경검사를 받으므로 업무의 피로도가 쌓여 내시경검사 진단정확도가 낮아진다. 또한, 위내시경검사 전문의의 경력에 따라 진단의 편차가 발생한다. 인적오류로 발생하는 문제를 줄이기 위해 컴퓨터보조진단 (Computer-aided Diagnosis, CADx) 연구가 필요하다(6), (7). 관련 연구로 2003년에 발표한 컴퓨터 보조진단은 대장내시경에서 용종을 색상 특징을 추출하는 방식인 CWC(Color Wavelet Covariance)를 이용하여 용종의 특징을 찾아낸다. 이 방법은 민감도와 특성도를 각각 2.4%, 12.2% 증가시킬 수 있었지만, 연산량이 많아 용종을 찾는 데 시간이 오래 걸리는 단점이 있다(8). 다른 연구로 2006년에 Sobel Mask와 Otsu 알고리즘을 이용하여 윤곽선을 추출하는 방법을 발표하였다. Otsu 알고리즘은 영상의 픽셀분포를 히스토그램을 한 후 분포의 가중치와 분산을 구하여 임계 값을 구하게 된다. 이 임계 값 기준으로 영상을 이진화를 한 후 Soble Mask를 이용하여 윤곽선을 추출한다(9). 이 방법은 용종의 윤곽선을 잘 보이게 하지만 경험에 따라 수학적 알고리즘으로 임계 값을 찾는 것에 오랜 시간이 걸릴 수 있는 단점이 있다. 앞서 언급한 2가지의 연구들은 영상의 색감이나 윤곽선들을 부각하여 특징 부분을 부각하는 방법이었다면, 현재는 특징들을 추출하여 학습하는 기계학습 연구가 진행되고 있다. 초기의 기계학습은 개발자가 수학적 알고리즘을 통하여 데이터의 특징을 추출하였다. 기계학습 종류 중 하나인 SVM은 두 개의 클래스 간의 거리를 측정하여 중심을 구한 후 중심에서 최적의 초평면(Optimal hyper Plane)을 찾음으로써 학습을 진행한다. 이 SVM을 대장 용종을 분류에 적용했을 때 ROC 커브가 93.15$+-$0.09%의 성능을 보여주었다(10). 또한, SVM을 이용하여 위암을 분류하는 연구로 최대 정확도 92%를 달성하였다(11). 최근에는 신경망을 통해 학습하는 방식인 딥러닝 연구가 진행되고 있다. 딥러닝을 이용한 연구로 2020년에 발표되었으며, 연구는 대장 내시경검사 교육생 대상으로 CADx의 사용 여부에 따라 용종 탐지 정확도가 차이 나는 것을 알 수 있다. 연구의 결과는 CADx를 사용한 교육생 정확도가 81.3~82.4%였고 비사용자는 63.8~71.8%였다. 이는 전문의의 정확도가 82.4~87.3%이기 때문에 딥러닝을 이용한 CADx가 숙련자와 비숙련자의 정확도 편차를 줄여주는 것을 알 수 있다(12). 하지만, 의료데이터는 IRB(Institutional Review Board) 허가가 필요하므로 수집이 어려워 데이터가 적으므로 학습 시 성능이 높고 실제 데이터에서 성능이 떨어지는 과적합이 발생한다. 이러한 과적합을 방지하기 위해 데이터를 생성하는 데이터 증대 연구가 필요해지고 있다. 2020년에 데이터 증대에 관한 연구로 분류 모델 LeNet-5, AlexNet을 이용하여, 원본 데이터와 증대한 데이터 성능을 비교하였다. 증대방법은 원본 데이터를 학습하여 유사한 데이터를 생성하는 DCGAN(Deep Convolutional Generative Adversarial Networks)을 사용하였다. 원본데이터로 학습한 모델의 정확도는 LeNet-5가 0.73 $+-$ 0.03이고 AlexNet이 0.82 $+-$ 0.02였으며 증대된 데이터로 학습한 모델의 정확도는 LeNet-5가 0.79 $+-$ 0.06이고 AlexNet이 0.83 $+-$ 0.05였다(13). 이미지를 회전, 기울이기, 좌우 반전, 색 대비, 밝기 등을 이용한 증대방법인 Autoaugmet는 위내시경에 적용했을 때 증대 전의 결과 0.82에서 0.87까지 성능을 높혔다(14). 이 결과로 데이터 증대로 성능이 향상된 것을 알 수 있다. 또한, 데이터 셋 별로 데이터 증대방법에 따라 성능이 달라질 수 있다. 개와 금붕어분류 데이터 셋과 개와 고양이 분류 데이터 셋에서 영상을 잘라내기, 이동, 회전, 반전 등을 이용한 전통적 증대방법과 영상데이터를 학습하여 새로운 영상을 생성하는 신경망 적용 증대방법을 비교했을 때 개와 금붕어분류에서는 신경망 적용 증대방법이 성능이 높았으나, 개와 고양이에서는 전통적 증대방법이 성능이 높게 나타났다(15). 따라서 같은 데이터 증대방법을 사용하더라도 데이터 셋의 학습 성능은 어떤 방법의 데이터 증대를 사용하느냐에 따라 달라지기 때문에 본 논문에서 위내시경 위암 분류 데이터 셋의 최적화된 증대방법을 찾고자 한다.

그림 1 대한민국 2018년 상위 5개 암 사례

Fig. 1 South Korea top 5 cancer cases in 2018

../../Resources/kiee/KIEE.2021.70.12.2015/fig1.png

2. 본 론

2.1 데이터 구성

그림 2 위내시경 영상에서 위암과 정상

Fig. 2 Gastric cancer and normal at gastroscopy images

../../Resources/kiee/KIEE.2021.70.12.2015/fig2.png

본 연구의 데이터는 IRB(Institutional Review Board)에서 허가를 받은 (승인번호: GNUH 2017-09–019-003) 3차 종합병원 위내시경검사 영상을 사용하였다. 위내시경 영상 장비모델(HQ290, 올림푸스)을 사용하였고, 해상도는 FHD/60이다. 그림 2에 이 장비로 촬영한 영상을 나타내었다. 영상의 정상, 위암 분류는 전문가의 검증과정을 거쳤다. 데이터는 총 1,075장이고, 학습데이터 862장 테스트 데이터 213장으로 나누어 사용하였다. 학습데이터 셋에서 위암 데이터는 207장, 정상 데이터는 655장이고 테스트 데이터 셋에서 위암 데이터 49장, 정상 데이터 164장을 사용하였다.

2.2 데이터 증대 및 생성

의료영상 데이터는 제한적인 장소에서 수집할 수 있고 특정 조건에 충족한 데이터를 수집하는 것이 어렵다. 또한, IRB 허가가 된 데이터를 사용해야 하므로 데이터의 수집은 더욱 어려워진다. 이러한 이유로 의료영상 데이터는 양이 적어 학습하기에 양이 충분하지 않을 수 있다. 이를 해결하는 방법으로 데이터의 증대가 있다.

2.2.1 AutoAugment

AutoAugment는 Google Brain팀이 발표한 데이터 증대방법으로 영상을 16가지 작업방법 기울이기 X/Y, 축 이동 X/Y, 회전, 색 대조, 색 반전, 이퀄라이즈, 솔라라이즈, 포스터라이즈, 색 대비, 색상, 밝기, 선명도, 컷아웃, 샘플 페어링을 이용하여 데이터 셋에 맞는 최적의 파라미터를 찾아내는 방법이다.

그림 3 AutoAugment 구조의 개요

Fig. 3 Overview of AutoAugment structure

../../Resources/kiee/KIEE.2021.70.12.2015/fig3.png

그림 3은 AutoAugment의 구조를 도식화한 그림이다. 이 구조는 Controller(RNN)가 작업방법 유형, 확률, 강도를 포함하는 S를 샘플링 한다. Child Network에서 검증과정을 거쳐 정확도 R을 생성하고 Controller에 R을 전송하여 S를 변경한다. 이렇게 만들어지는 정책은 총 25가지이며 한 정책 당 2개의 파라미터로 작업방법, 확률, 강도를 정하게 된다. 두 개의 파라미터로 만들 수 있는 정책은 총 2.9×1032개이며, AutoAugment 학습과 검증을 통해 2개의 파라미터로 만들 수 있는 최적의 정책을 찾게 된다. AutoAugment는 ImageNet, CIFAR-10, SVHN 데이터 셋을 학습하여 적합한 데이터 셋의 25가지 정책을 생성하였다. ImageNet 데이터 셋은 1,400,000장의 영상이 스포츠 활동, 동물, 사람, 악기 등 21,841개의 클래스로 이루어져 있고, CIFAR-10 데이터 셋은 자동차, 항공기, 고양이, 새 등 50,000장의 영상이 있다. SVHN 데이터 셋은 거리에서 획득한 집번지 번호 영상으로 99,289장이 있다(16). 본 연구에서는 위내시경 영상에서 위암 병변 부분의 색감 특징을 모호하게 하므로 3가지 데이터 셋 정책 중에서 색감의 변화 정책이 제일 적은 CIFAR-10 데이터 셋 정책을 사용하였다.

2.2.2 VAE(Variant AutoEncoder)

VAE는 비지도 학습 기반 모델로 오토인코더와 베이지안(Bayesian) 추론을 이용한 데이터의 분포를 추정하는 방법이다. 기존의 오토인코더와 비교하면 인코더와 디코더를 가진 구조는 비슷하지만, 그림 4와 같이 인코더, 디코더 사이에 잠재공간이 존재하여 사실상 관련성이 깊지는 않다. 여기서 인코더는 데이터분포의 평균과 분산을 구하게 된다. 잠재공간 Z는 인코더로부터 데이터의 확률 분포를 랜덤 샘플링 한다. 샘플링된 Z는 디코더를 통해 데이터를 생성하게 되는 구조이다.

그림 4 VAE의 구조

Fig. 4 Structure of VAE

../../Resources/kiee/KIEE.2021.70.12.2015/fig4.png

기존 오토인코더의 손실함수는 식 (1)의 Binary Cross Entropy를 사용한다. 식 (1) $X$는 입력데이터의 분포, $X'$는 출력 데이터의 분포, $N$은 데이터의 수를 나타낸다. 반면 VAE 손실함수는 데이터 분포의 정규화 과정이 필요하여 손실함수에 KL(Kullback-Leible divergence)이 추가된다. KL은 2가지의 확률 분포 차이를 알기 위한 함수로 식 (2)와 같이 나타낸다. 식 (2) $\mu$는 데이터분포의 평균, $\sigma$는 데이터분포의 표준편차를 나타낸다. KL을 추가한 VAE 손실함수는 식 (3)과 같이 나타낸다.

(1)
\begin{align*} B\in ary Cross Entropy(X,\: X^{'})= \\ -\dfrac{1}{N}\sum_{i}(X_{i}\log(X_{i}^{'})+(1-X_{i})\log(1-X_{i}^{'})) \end{align*}

(2)
\begin{align*} KL[N(\mu ,\:\sigma^{2})||N(0,\:1)]=\\ -\dfrac{1}{2}(1+\log\sigma -\mu^{2}-\sigma^{2}) \end{align*}

(3)
\begin{align*} Loss Function= B\in ary Cross Entropy(X,\: X^{'})\\ + KL[N(\mu ,\:\sigma^{2})||N(0,\:1)] \end{align*}

VAE는 식 (3)을 통해 원본데이터 확률 분포가 정규분포로 따르게 하여 데이터 특징의 분포를 표준화한다. 이는 원본데이터의 다양한 특징을 표준화하기 때문에 각 데이터들의 특징이 두드러진 유산한 데이터를 생성하게 된다(17), (18).

2.3 Xception

Xception은 Inception에서 장점을 극대화한 모델이다. 그림 5는 Xception의 구조를 도식화한 그림이다. Inception은 공간 관계와 채널 관계를 분리하여 연산량이 줄어들고 성능을 높일 수 있는 모델이다. 공간 관계와 채널 관계를 분리하는 역할이 1×1 컨볼루션이기 때문에 이를 좀 더 극단적으로 많이 사용한 모델이 Xception이다. 이 Xception은 Depthwise Separable Convolution 방법을 변형하여 사용하였다. 기존의 Depthwise Separable Convolution은 3×3 컨볼루션이 먼저 통과하고 1×1 컨볼루션을 통과하는 방법이라면 Xception에서 사용된 방법은 1×1 컨볼루션을 통과하고 3×3 컨볼루션을 통과한다. 또한, Depthwise Separable Convolution에서는 활성 함수의 선형 여부를 구분해서 사용하지 않았지만 Xception에서는 선형 활성 함수를 사용하였다. 보통 딥러닝 구조에서 신경망이 깊어지면 비선형함수를 사용하는 것이 유리하지만, Depthwise Separable Convolution과 같은 형태의 구조에서 비선형함수는 성능을 감소시킨다. 이는 비선형 함수사용으로 발생하는 정보손실이 원인이 된다(19).

그림 5 Xception 구조 도식화

Fig. 5 Schematic of the Xception structure

../../Resources/kiee/KIEE.2021.70.12.2015/fig5.png

2.4 연구방법

본 연구는 정상과 위암을 분류하는 데이터 셋을 3가지의 증대방법으로 증대하여 학습 후 성능을 비교한다. 그림 6 (a)에서 원본데이터 셋을 Dataset A이고, Dataset B는 AutoAugment에서 CIFAR-10에 사용한 증대 정책을 이용하여 25배 증대한 데이터 셋이다. Dataset C는 Dataset B에서 25개의 정책 중 색감이 변하는 정책들을 제거한 11개의 정책으로 증대된 데이터 셋이다. 이는 위내시경검사에서 위암은 점막의 색 변화, 출혈 여부, 함몰, 융기 등 병변 주변과 다른 색감이 특징이 되기 때문에 색감을 변형시키면 특징이 모호해져 위암으로 분류하는 성능이 감소할 것으로 판단되어 생성된 데이터 셋이다. 마지막으로 Dataset D는 VAE로 증대한 데이터 셋을 지칭한다. 이는 VAE가 원본데이터 셋의 분포를 표준화하는 학습을 하여 특징이 두드러진 데이터를 생성하기 때문에 특징 추출에 도움이 될 것으로 판단되었다. Dataset D는 VAE에서 학습 Epoch 800~1000에서 생성되는 이미지를 사용하였다. 생성된 데이터 셋 4개는 그림 6 (b)처럼 Xception 모델로 학습하여 4개의 모델을 생성한다. 모델의 검증과정에서 테스트 데이터는 학습에 사용되지 않은 데이터 셋을 사용한다. 결과는 생성된 모델에 테스트 셋을 사용해 정상과 위암 분류 성능을 나타낸다. 성능 비교는 분류성능평가지표와 혼돈행렬을 이용하여 위내시경 데이터 셋에 적합한 증대방법을 찾게 된다.

그림 6 최적의 데이터 증대방법 찾기 위한 연구 구성도

Fig. 6 A study structure to find a optimal data augmentation method

../../Resources/kiee/KIEE.2021.70.12.2015/fig6.png

3. 결 과

본 연구는 데이터 증대방법인 AutoAugment와 VAE를 이용하여 분류 학습을 진행하였다. 사용된 분류 모델은 Xception을 사용하였다. 수집된 데이터는 학습데이터 862장 테스트 데이터 213장을 사용하였다. 데이터 셋은 증대한 데이터 셋 3개와 원본데이터 셋 1개로 구성되었다. AutoAugment로 증대한 데이터는 22,406장이고 이 중에 색감 변화 기법을 제거하여 증대한 데이터 10,344장이다. VAE로 증대한 데이터는 77,662장이다. 클래스는 정상과 위암으로 분류하였고, 모델의 결과는 모든 예측 중 올바르게 예측된 비율을 나타내는 Accuracy, 참이라고 예측한 것 중 실제 참인 비율인 Precision, 실제 참인 것 중 참이라고 예측한 비율을 나타내는 Recall, Precision과 Recall의 조화평균을 나타내는 F1-score로 나타내었다.

표 1 데이터 증대 별 위암 분류 결과

Table 1 Gastric cancer classification results by data augmentation

Dataset name

Accuracy

Precision

Recall

F1-score

Dataset A

92.49

92.48

92.49

92.17

Dataset B

93.43

93.54

93.43

93.47

Dataset C

94.84

94.97

94.84

94.64

Dataset D

94.84

94.80

94.84

94.82

표 1에 나타낸 결과는 Accuracy, Precision, Recall, F1-score를 구한 값의 가중평균이다. 클래스별 데이터 수가 균등하지 않기 때문에 데이터 수가 적은 클래스에 가중을 두는 평균이 좀 더 정확한 지표가 된다. 가중치 값은 클래스 데이터 수에 반비례한다. 4개의 데이터 셋 중 Precision이 가장 높은 데이터 셋은 Dataset C로 94.97%이다. F1-score가 가장 높은 데이터 셋은 Dataset D로 94.82%이다. Recall과 Accuracy는 Dataset C, Dataset D 둘 다 94.84%로 가장 높았다. Recall은 실제 참인 것 중에 참으로 예측한 것으로 미탐지율을 알 수 있다. 위내시경검사는 미탐지율이 높으면 위암을 발견하지 못해 치료 시기를 놓쳐 사망할 수 있다. 따라서 Recall이 높은 Dataset C와 Dataset D에 적용된 데이터 증대가 적절한 것을 알 수 있다.

표 2 위암 분류 혼돈행렬

Table 2 Gastric cancer classification confusion matrix

../../Resources/kiee/KIEE.2021.70.12.2015/tbl2.png

표 2는 혼돈행렬을 나타낸 표로 세로줄은 실제 클래스를 Act(Actual)로 표기하였고, 가로줄은 예측된 클래스를 Pre(Predicted)로 표기하였다. 이를 통해 테스트 데이터가 어느 클래스로 예측되었는지 알 수 있다. Dataset B와 Dataset D가 위암 클래스 데이터 셋 49장 중 43장을 올바르게 분류하여 가장 분류가 잘되었다. 이 두 데이터 셋은 위암 클래스 분류는 같지만, 정상 분류 클래스는 Dataset D가 정상클래스 데이터 셋 164장 중 159장 분류하였고, Dataset B가 164장 중 156장으로 분류하여 Dataset D가 더 적합한 데이터 셋 임을 알 수 있다. 이는 표 1에 Recall을 통해서도 알 수 있다. 반면, Dataset D와 Recall이 같았던 Dataset C는 정상클래스 분류에서 1장을 제외한 모든 데이터를 제대로 분류하였지만, 위암 클래스 분류에서 49장 중 10장을 잘못 분류하였다. 이는 Dataset C가 위암 클래스의 특징을 잘 잡아내지 못한 것을 알 수 있다. 따라서 Dataset C와 Dataset D가 Recall은 같지만, 위암 분류에서 Dataset D가 성능이 높은 것을 알 수 있다.

4. 결 론

위암은 대한민국에서 가장 많이 발생하는 암이고 조기에 발견하면 완치율이 높다. 조기에 위암을 발견하는 것이 중요하기 때문에 한국에서는 2년마다 위내시경검사를 하도록 권고하고 있고, 위내시경진단의 정확도 편차를 줄이기 위해 CADx 연구가 필요해지고 있다. 또한, 의료데이터 특성상 수집이 어려우므로 데이터가 적어 데이터를 증대하는 방법도 필요하다. 증대방법은 데이터 셋마다 최적화된 증대방법이 있으므로 위내시경 영상에서 최적화된 증대방법을 찾는 것이 본 논문의 연구이다.

데이터 셋은 3가지의 증대방법을 사용하여 3개의 데이터 셋을 생성하였다. AutoAugment의 증대방법은 색감 변화, 기울이기, 회전 등 원본 영상에서 2가지의 파라미터로 이미지를 변환하여 다른 영상을 생성하는 것이다. 위암은 점막의 색 변화, 출혈 여부, 함몰, 융기 등 병변 주변과 다른 색감이 특징이 되기 때문에 색감의 변화는 분류 성능을 감소시킬 것으로 판단하여 AutoAugment에서 색감 변화를 제외한 정책으로 Dataset C를 생성하였다. Dataset D는 원본데이터의 확률 분포가 정규분포를 따르게 하고 특징을 표준화하여 원본과 유사한 데이터를 생성하였다.

이러한 데이터 셋 4개를 성능 비교한 결과 원본 데이터 셋보다 증대된 데이터 셋 성능이 향상되었다. 이는 데이터의 증가로 다양한 특징을 추출하여 학습할 수 있기 때문이다. Dataset B는 증대된 데이터 셋 중에서 성능이 가장 낮았으며, Dataset B의 증대방법에서 색감 증대방법을 제거한 Dataset C가 Recall이 높았다. 이는 색감의 변화가 위암 병변의 주변과 다른 색감의 특징을 상실하여 제대로 학습이 되지 않는 것을 알 수 있다. Recall 성능이 같은 Dataset C와 Dataset D를 혼동행렬에서 비교하면 Dataset D의 위암 클래스 예측이 Dataset C의 위암 클래스 예측보다 높았다. 이는 VAE의 데이터분포 표준화를 이용한 데이터 증대가 위내시경 데이터의 특징 추출에 도움이 되는 것을 알 수 있다. 이는 VAE의 데이터분포 표준화 통한 데이터 증대가 영상을 잘라내기, 이동, 회전, 반전 등을 이용한 AutoAugment보다 위내시경 영상에 적합한 데이터 증대방법인 것을 알 수 있다.

향후 연구에서는 본 논문에 증대된 방법들과 GAN을 추가하여 비교하는 연구를 진행할 것이며, 정상과 위암 분류 외에 위염, 종양 등을 추가하여 다중분류를 추가 진행될 것이다.

Acknowledgements

This work was supported by the National Research Foundation of Korea (NRF) grant funded by the Korea government(MSIT) (No. 2017R1E1A1A03070297). This research was supported by the MSIT(Ministry of Science and ICT), Korea, under the ITRC (Information Technology Research Center) support program (IITP- 2021-2018-0-01433) supervised by the IITP (Institute for Infor- mation & communications Technology Promotion).

References

1 
K. Ko, 2019, Epidemiology of gastric cancer in Korea, Journal of the Korean Medical Association, 62.8,, pp. 398-406DOI
2 
Korea National Statistical Office, http://kostat.go.kr/Google Search
3 
N. Kim, 2010, Screening and Diagnosis of Early Gastric Cancer, Journal of The Korean Medical AssociationDOI
4 
Y. Kim, S. Cho, 2017, Effectiveness of the Korean National Cancer Screening Program in Reducing Gastric Cancer Mortality, The Korean Journal of Helicobacter and Upper Gastrointestinal Research, 17.2, pp. 110-111DOI
5 
H. Park, S. Nam, S. Lee, S. Kim, K. Shim, S. Park, S. Lee, H. Han, Y. Shin, K. Kim, K. Lee, T. Lee, I. Choi, S. Hong, J. Kim, Y. Lee, S. Kim, Y. Kim, W. Lee, I. Chung, 2015, The Korean guideline for gastric cancer screening, J Korean Med Assoc, 58.5, pp. 373-384DOI
6 
Randolph A Miller, 1994, Medical diagnostic decision support systems—past, present, and future: a threaded bibliography and brief commentary, Journal of the American Medical Informatics Association, 1.1, pp. 8-27DOI
7 
Belle. Ashwin, Mark A. Kon, Kayvan Najaria, 2013, Biomedical informatics for computer-aided decision support systems: a survey, The Scientific World JournalDOI
8 
S. A. Karkanis, D. K. Iakovidis, D. E. Maroulis, D. A. Karras, M. Tzivras, 2003, Computer-aided tumor detection in endoscopic video using color wavelet features, IEEE transactions on information technology in biomedicine, Vol. 7, No. 3, pp. 141-152DOI
9 
Xin Qi, Michael V. Sivak Jr., Gerard Isenberg, Joseph Willis, Andrew M. Rollins, 2006, Computer-aided diagnosis of dysplasia in Barrett's esophagus using endoscopic optical coherence tomography,, 11.4, 044010DOI
10 
Luís A. AlexandreJoão CasteleiroNuno Nobreinst, Springer, Polyp detection in endoscopic video using svms, European Conference on Principles of Data Mining and Knowledge DiscoveryDOI
11 
Y. Kim, S. Lee, D. K, J. Chae, H. Ham, H. Cho, H. Cho, 2020, Machine Learning based Gastric Cancer Computer-aided Diagnosis System using Feature Selection, The Transactions of the Korean Institute of Electrical Engineers, 69.1, pp. 170-176Google Search
12 
Eun Mi Song, Beomhee Park, Chun-Ae Ha1, Sung Wook Hwang, Sang Hyoung Park, Yang Dong-Hoon, Byong DukYe, Seung-Jae Myung, Suk-Kyun Yang, Namkug Kim, Jeong-Sik Byeon, 2020, Endoscopic diagnosis and treatment planning for colorectal polyps using a deep-learning model, Scientific reports, 10.1, pp. 1-10DOI
13 
Luis A. de Souza Jr., Leandro A. Passos, Robert Mendel, Alanna Ebigbo, Andreas Probst, Helmut Messmann, Christoph Palm, Joao P. Papa, 126, Assisting Barrett's esophagus identification using endoscopic data augmentation based on Generative Adversarial Networks, Computers in Biology and MedicineDOI
14 
Y. H. Lee, Q. J. Lee, E. G. Kim, H. S. Kim, T. M. Shin, 2007, Analysis of meridians potential as ground condition for objectification of Acupuncture effect, The Transactions of the Korean Institute of Electrical Engineers, 56.2, pp. 436-441Google Search
15 
Perez Luis, Jason Wang, 2017, The effectiveness of data augmentation in image classification using deep learning, arXiv preprint, arXiv:1712.04621Google Search
16 
E. D. Cubuk, B. Zoph, D. Mane, V. Vasudevan, Q. V. Le, 2019, Autoaugment: Learning augmentation strategies from data, Proceedings of the IEEE conference on computer vision and pattern recognitionGoogle Search
17 
Kingma Diederik P., Max Welling, 2013, Auto-encoding variational bayes, arXiv preprint, arXiv:1312.6114Google Search
18 
Sanghyun Bae, Byounggu Choi, 2021, Chart-based Stock Price Prediction by Combing Variation Autoencoder and Attention Mechanisms, Information Systems Review, Vol. 23, No. 1, pp. 23-43Google Search
19 
Francois Chollet, 2017, Xception: Deep Learning With Depthwi-se Separable Convolutions, The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1251-1258Google Search

저자소개

이정남 (Jeong-nam Lee)
../../Resources/kiee/KIEE.2021.70.12.2015/au1.png

He received the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, South Korea in 2016.

He is currently working toward the M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, South Korea.

조현진(Hyun Chin Cho)
../../Resources/kiee/KIEE.2021.70.12.2015/au2.png

She received the M.S. and Ph.D. degrees in Internal Medicine from Gyeongsang National University School of Medicine of Jinju, South Korea in 2008 and 2014, she was a Fellow at Samsung Medical Center, Sungkyunkwan University School of Medicine, Seoul, South Korea from 2009 to 2010.

During 2011-2015, she was a professor at Samsung Changwon Hospital, Sungkyunkwan University School of Medicine, Changwon, South Korea.

She is currently a professor at Gyeongsang National University School of Medicine and Gyeongsang National University Hospital, Jinju, Korea.

조현종 (Hyun-chong Cho)
../../Resources/kiee/KIEE.2021.70.12.2015/au3.png

He received his MS and PhD degrees in Electrical and Computer Engineering from the University of Florida, USA in 2009.

During 2010-2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA.

From 2012 to 2013, he was a Chief Research Engineer in LG Electronics, South Korea.

He is currently a professor with the Department of Electronics Engineering and Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, South Korea.