• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Medical IT Convergence Engineering, Kumoh National Institute of Technology, Korea.)



Automatic classification, HeLa cell, CCD-986SK, OpenCV, Convolutional Neural Network, Deep learning

1. 서 론

최근 컴퓨터 시스템의 비약적인 발달로 인해 음성인식, 안면인식을 활용한 비대면 면접, 보안사업, 마케팅 등과 같은 다양한 분야에 인공지능(Artificial Intelligence, AI) 이 접목되고 있다(1). 특히 딥러닝에 사용되는 신경망의 종류는 순차적 정보가 담긴 데이터에서 규칙적인 패턴을 인식하고 추상화된 정보를 추출할 수 있는 순환신경망(Recurrent Neural Network, RNN)과 RNN의 특별한 한 종류로 긴 의존 기간이 필요한 학습을 수행할 능력을 갖춘 순환신경망(Long Short–Term Memory, LSTM), 비지도 학습에 활용되어 차원 축소, 분류 선형 회귀 분석, 필터링, 특징값 학습, 주제 모델링 등에 사용되는 볼츠만머신(Restricted Boltzmann Machine, RBM), 부분적인 영상에서 전체를 연상하는 일반화, 추상화 과정을 구현하는 심층 신뢰 신경망(Deep Belief Network, DBN), 훈련으로 학습된 패턴을 이용해 영상이나 음성을 생성할 수 있는 생성 대립 신경망(Generative Adversarial Network, GAN), 생명체의 시각 처리 방식을 모방하여 영상 처리 분야에서 사용하는 합성곱 신경망(Convolutional Neural Networks, CNN) 등이 있다(2-6).

인공지능은 다양한 분야와 접목하여 활용할 수 있는데, 특히 의료분야에 적용될 때 유의미한 연구 결과를 보여주고 있다(7). 과거 정상 세포와 비정상 세포의 분류 연구는 단순히 사용자의 의료적 지식을 기반으로 세포를 분류하는 수작업의 방식을 사용하였다. 이와 같은 방식은 사용자가 전문적 배경과 풍부한 진단 경험이 있어야 하므로 인력이 제한되고 부재 시 어려움을 겪는다. 또한, 암세포 판단 업무의 과중은 결과의 오진으로 이어질 가능성이 존재하므로, MRI, 광학 기반 영상, CT, 일반 현미경 기반 RGB 영상 등 다양한 영상 데이터를 기반으로 한 CNN을 이용한 세포 분류 연구가 다양하고 활발하게 진행되고 있다(8-11). 이를 통해 설계되는 진단 보조 세포 분류 모델은 병리학자의 과중한 업무량을 줄이고 오진을 줄일 수 있다. CNN을 기반으로 한 영상 인식 및 분류에 관한 연구 모델은 현미경 영상의 유사분열 세포 검출, 종양 검출, 신경망 분할, 피부질환 등과 같은 생체의학 영상 분석과 같은 다양한 분야의 활용이 가능하며, 이는 질병의 진단과 최선의 치료 방법 제공에 활용되어 오진율을 줄이는 데 사용되고 있다(12).

본 연구에서는 현미경 영상 특성 분석에 성능이 우수한 CNN 기반 암세포 영상 분류 기법을 제안한다. 동일 조건에서 현미경을 통해 획득된 자궁경부암 세포와 피부 섬유아세포를 분류 알고리즘에 적합하도록 OpenCV(Open Source Computer Vision)를 통해 전처리를 진행하였다(13). 실시간 컴퓨터 비전을 목적으로 한 Python 라이브러리인 OpenCV를 활용해 세포의 외곽선을 따라 영역을 지정하고 광학적인 특성을 획득한 후, 신경망의 입력 데이터로 활용하여 세포 분류 모델의 인식률과 정확도를 높이는 연구를 진행하였다(14).

2. 실험 방법

2.1 세포배양 및 영상획득

피부 섬유아세포(CCD-986SK, Human skin fibroblast cells, 22 yrs black female, 한국세포주은행, 대한민국)와 자궁경부암 세포(HeLa, Human cervical cancer cells, 한국세포주은행, 대한민국)는 모두 37°C의 온도와 5%의 이산화탄소를 포함한 CO Incubator에서 배양하였다(15). 자궁경부암 세포는 고농도의 글루코스가 포함된 Dulbecco's Modified Eagle Medium(DMEM), 10%의 Fetal Bovine Serum(FBS, pH 7.4)과 1%의 Penicilin Streptomycin으로 구성된 배지 용액으로 약 4일간 배양하였다(16-17). 섬유아세포는 Isocove’s Modified Dulbecco’s Medium (IMDM)과 10%의 FBS, 1%의 Penicillin Streptomycin으로 구성된 배지 용액을 사용하여 배양하였다. 모든 세포는 역상 광학 현미경(Inverted optical microscope, IX73, Olympus, Japan)을 이용하여 촬영하였다(18-19). 세포가 배양되는 30일간 각각의 세포를 매일 20장씩 촬영하여, 세포 분화 과정에서 이루어지는 다양한 형태의 세포 영상을 획득하였다(20-21). 이 중 관심 세포의 광학적 특성 분석이 용이한 영상을 선택하고(HeLa : 253장, CCD-986SK : 228장), 이를 통해 섬유아세포와 자궁경부암 세포의 형태적 특성을 분석하고 특정 파라미터를 추출하여 CNN에 활용하였다. 세포 영상획득 과정은 그림 1에 나타내었으며, 획득된 영상은 1,360 × 1,024 [pixel]의 크기로 약 1.5 [Mbyte]의 저장용량을 가진다.

그림. 1. 세포 영상 추출 과정

Fig. 1. Cell image acquisition process

../../Resources/kiee/KIEE.2021.70.1.139/fig1.png

2.2 영상 처리

세포배양을 통해 획득된 영상은 잡음 제거 및 영상 분리 등과 같이 학습을 하기 위한 전처리 단계가 필수적이다. 획득된 영상의 세포는 종류별로 다양한 형태를 가지며, 단일 또는 복수의 세포가 연결되어 있으므로, 세포의 관심 영역 부분을 부분적으로 추출하여 입력 데이터 세트를 생성할 필요가 있다. 따라서, OpenCV와 scikit-image 라이브러리를 사용하여 영상 처리를 진행하였다. OpenCV는 오픈 소스 컴퓨터 비전 라이브러리로 실시간 영상 처리에 중점을 두고 있으며, 비교적 간단한 전처리 작업을 통한 영상 처리(영상획득 및 처리, 편집, 이진화, 모폴로지 연산 등)가 가능하다. scikit-image는 Python 프로그래밍 전용 오픈 소스 영상 처리 라이브러리이며, 영상의 분할, 변환, 필터링과 같은 알고리즘이 포함되어있다.

세포배양 방식 후 역상 광학 현미경을 통해 획득된 영상은 그림 2(a)와 같다. 획득한 영상 내에서 관심 세포의 영역만을 추출한 후 이진화 영상을 OpenCV의 threshold와 adaptive- Threshold 등을 적용하여 세포 영역을 그림 2(b)와 같이 선택한다. 이때, 이진화 영상에서 세포 영역을 검출할 때, 세포가 아닌 작은 부유물의 외곽선이 검출되는 것을 방지하기 위해 scikit-image의 remove_small_objects를 이용하여 픽셀 수가 일정 수 미만인 객체를 제거한다. OpenCV의 boundingRect를 이용하여 이진화 영상 전체를 2차원 좌표평면으로 설정하고, 입력 데이터 영상의 좌표를 추출한다. 그 결과 관심 세포의 영역을 그림 2(c)로 확정한 후, 선택된 세포 영역을 그림 2(d)와 같이 추출하여 학습용 데이터를 생성한다. 학습 및 validation을 위한 추출 입력 영상의 크기는 장당 약 300 × 300 [pixel]의 크기로 장당 약 30 [Kbyte]의 저장용량을 가지고, 광학 현미경에서 얻어진 세포 영상당 약 백 개 내외의 영상 추출이 가능하다.

그림. 2. 영상획득 및 영상 처리 과정의 대표 영상 (a) 획득된 HeLa 세포 영상, (b) 이진화 영상, (c) 세포 영역 추출, (d) 학습용 세포 영상

Fig. 2. Representative images of data acquisition and process (a) Acquired HeLa cells image, (b) Binary image, (c) Image segmentation, (d) Extracted images for training

../../Resources/kiee/KIEE.2021.70.1.139/fig2.png

2.3 Convolutional Neural Network

CNN을 기반으로 제안된 데이터 처리 방법의 순서도는 그림 3과 같다. 심층 CNN인 그림 4의 MobileNetV2가 분류를 위한 특징 추출기로 채택되어 사용되고, 이 구조는 다양한 영상들로 미리 훈련하게 된다. 이후, 영상에서 추출된 파라미터를 전이 학습(Transfer learning) 기법을 활용하여 분류기에서 최종적으로 세포의 종류를 결정하게 된다.

그림. 3. 제안된 시스템의 개념도

Fig. 3. Diagram of the proposed classification system

../../Resources/kiee/KIEE.2021.70.1.139/fig3.png

CNN은 영상의 공간 정보를 유지하면서 인접 영상과의 특징을 효과적으로 인식하고 강조하는 네트워크 구조이다. 일반적으로 CNN은 여러 컴퓨터 비전 문제에서 뛰어난 성능을 보여주고 있다(22). CNN의 구조는 영상의 특징을 추출하는 부분과 영상을 분류하는 부분으로 구성된다. 특징 추출 영역은 다양한 필터를 사용하여 공유 파라미터 수를 최소화한다. 또한, CNN은 영상의 특징을 찾는 컨볼루션 층과 특징을 강화하고 모으는 풀링 층을 여러 겹 쌓는 형태로 구성된다. 영상 분류 영역은 완전 연결 층으로 네트워크의 마지막 부분에 추가된다. 컨볼루션 층에서는 영상 특징 추출을 위하여 입력을 필터가 순회하며 컨볼루션을 계산하고, 그 계산 결과를 이용하여 특징 맵을 생성한다. 생성된 특징 맵은 분류 층에서 클래스별로 분류되고 층의 끝에서는 활성화 함수를 통해 값을 다음 층으로 변환하여 전달하거나 답을 출력한다. CNN에 관한 연구는 꾸준히 진행되고 있으며, 사용 목적에 따라 구조를 변형한 VGG, InceptionV3, ResNet5 등과 같은 네트워크를 응용한 어플리케이션이 다양하게 제시되었다(23-25). 본 연구에서는 구글에서 작성한 MobileNetV2 모델을 이용하여 학습 후 분류 프로세스를 진행하였다.

2.4 MobileNetV2

MobileNetV2 모델은 기존의 MobileNetV1에서 CNN 구조를 약간 수정하여 파라미터 수와 연산량을 더욱 줄인 것으로, Depthwise Separable Convolution과 Linear Bottleneck을 결합한 Inverted Residuals를 이용하여 만들어진 네트워크이다. Mobile- NetV2는 두 종류의 block이 있는데 첫 번째는 stride가 1인 residual block이고, 두 번째는 downsizing을 위한 stride가 2인 block이다. 그림 4에서는 제안된 시스템에 사용된 MobileNetV2의 전체적인 구조를 도식화하였다. 이 모델의 ImageNet에 대한 테스트의 결과를 보면 params, MAdds 및 영상속도는 획기적으로 줄이면서, 기존의 MobileNetV1, ShuffleNet 대비 경쟁력 있는 성능을 보여준다. 또한, 세포의 관심 영역의 검출 및 분리에서도 비교적 적은 파라미터로 우수한 성능을 보인다(26).

그림. 4. MobileNetV2 모델의 구조

Fig. 4. Structure of MobileNetV2 model

../../Resources/kiee/KIEE.2021.70.1.139/fig4.png

2.5 Transfer learning

일반적으로 CNN 기반의 딥러닝 모델을 학습시키기 위해 대용량 데이터가 필요하지만, 편향되지 않고 이상 또는 결측치가 없는 충분한 데이터의 획득은 쉽지 않다. 데이터 획득의 한계를 극복하기 위해 전이 학습이 사용되며 비교적 짧은 시간 내에 상대적으로 높은 정확도를 달성할 수 있다는 장점을 가지고 있다(27). 전이 학습이란 학습을 위한 데이터가 충분하지 않을 때, ImageNet과 같은 기존이 풍부한 데이터를 바탕으로 한 학습이 완료된 고성능 모델의 가중치 사용이 가능하고, 이 가중치를 활용하여 해결하고자 하는 문제에 맞게 보정 후 학습모델을 구축하는 방법이다(28). 전이 학습의 과정은 사전학습 모델을 선택한 후에 표적 데이터와 사전 학습된 데이터 간의 크기와 유사성을 고려하여 구체적으로 세부 조정을 진행한다. 본 연구에서 제안된 프레임 워크에서는 MobileNetV2가 ImageNet 데이터 영상에 의해 훈련되고 전이 학습에 사용되었다. 세부 조정 시, 컨볼루션 층 이후 완전 연결 층 대신 평균 풀링 계층을 추가하고, 결과값을 바로 소프트맥스 계층과 연결하는 평균 풀링을 분류기로 사용하였다. 이후 추출된 특징을 입력받아 최종적으로 영상의 카테고리를 결정하도록 하였다(29).

3. 실험 결과

세포배양을 통해 수집한 세포 영상 데이터는 현미경 40배율, 노출 시간 8.55ms로 촬영된 자궁경부암 세포, 피부 섬유아세포로 매일 20장씩 30일간 촬영하여 각각 600장씩 얻었다. 영상 선별 과정을 통해 플라스크에 붙지 않아 세포 특성이 명확하지 않은 영상은 제외하고, 자궁경부암 세포 253장 피부 섬유아세포 228장의 영상을 학습 및 테스트 영상 데이터로 선정하였다. 자궁경부암 세포와 피부 섬유아세포는 OpenCV를 활용하여 각각 전처리 후, contour로 세포군집 단위의 영상을 추출하여 자궁경부암 세포 21,056장, 피부 섬유아세포 20,824장을 얻었다. 영상 전처리를 통해 추출된 영상 데이터는 그림 2(d)와 같다. 군집 단위로 얻어진 총 41,880장의 영상을 학습 데이터로 사용하였으며, 그중 4,188장의 영상은 학습모델의 성능검증에 사용되었다. 자궁경부암 세포와 피부 섬유아세포는 배양 조건이 서로 다르므로, 적절한 비율로 동시에 배양되는 영상의 획득은 불가능하다. 대신, 자궁경부암 세포 영상과 피부 섬유아세포 영상을 각 2장씩 격자형으로 결합하여 1장의 테스트 영상으로 생성하였다. 생성된 80장의 영상은 장당 2,720 × 1,960 [pixel]의 크기와 약 1.5 [Mbyte]의 용량을 가지며, 표 1과 같이 테스트 데이터로 사용하였다. 자궁경부암 세포와 피부 섬유아세포를 각각 라벨링 한 후, 추출된 입력 영상의 크기는 300 × 300 [pixel]로 조정하였다. 학습 중 파라미터는 Batch_size = 5, Epoch = 80, Activation function = softmax, Optimizer = Adam, Loss = categorical_crossentropy의 파라미터값으로 신경망을 학습하였을 때, 가장 높은 정확도를 보였으므로 그 값을 유지하고 이후 실험을 진행하였다.

표 1. 데이터 영상의 개수

Table 1. Number of data images

Number of images

Number of extracted images

Combined test images

Training

Validation

Total

HeLa

253

18,951

2,105

21,056

80

CCD-

986sk

228

18,742

2,082

20,824

Total

481

37,693

4,187

41,880

자궁경부암 세포와 피부 섬유아세포를 위의 방식으로 결합한 후 테스트용 영상을 사용하였을 때, 테스트 결과 영상은 그림 5와 같다. 그림 5의 좌측 상단부와 우측 하단부는 CCD-986SK, 우측 상단부와 좌측 하단부는 HeLa 세포의 획득된 영상을 무작위적으로 결합 후 테스트를 진행하였다. 테스트의 결과는 정량적인 정확도와 분류된 세포의 영상으로 검증할 수 있다. 그림 5와 같이 청색 사각형은 CCD-986SK, 적색 사각형은 HeLa 세포로 분류된 결과를 의미하여, 표 2와 같이 정량화된 정확도와의 비교분석이 가능하다.

학습 중 validation과 training 데이터의 분류 정확도를 측정한 결과, 97.01 %와 99.83 %의 정확도를 보였으며, 학습되지 않은 세포 영상을 무작위적으로 결합한 테스트 영상을 입력하였을 때, 98.87 % 이상의 정확도를 보였다. 추가적인 loss 값은 표 2와 같이 요약할 수 있다.

그림. 5. 세포 분류 결과(적색: HeLa, 청색 : CCD-986SK)

Fig. 5. Representative image of automatic cell -classification(Red : HeLa, Blue : CCD-986SK)

../../Resources/kiee/KIEE.2021.70.1.139/fig5.png

표 2. 훈련 및 테스트 결과

Table 2. The result of Training and Test

Accuracy [%]

Loss

Validation

97.01

1.1921e-07

Training

99.83

0.0038

Test

98.87

0.0001

4. 결 론

딥러닝은 서로 다른 입력 데이터에 대해 스스로 특징을 파악하는 과정을 수행하므로, 같은 알고리즘을 다양한 입력 데이터에 활용할 수 있다. 하지만, 사용자의 목적에 따라 학습 알고리즘 실행 전 적절한 영상 전처리 과정이 필요한 예도 있다. 예를 들어, 생물학적 특성을 연구하기 위해 얻어지는 단일 또는 복수의 특정 세포 영상의 경우, 관심 영역 이외의 불특정한 물질이 세포 배양액 내에 존재할 수 있다. 플라스크 바닥에 자라는 세포는 배지 용액에 부유하는 세포 또는 물질보다 시각적 및 광학적 특징이 뚜렷하지만, 배양 조건에 따라 부유물을 제거해야 하는 영상 처리가 필요한 경우가 발생한다. 따라서, 학습의 정확도를 높이기 위한 최적 조건을 수립하기 위해, 입력 영상의 전처리 과정은 필수적이며, 대부분 다음과 같은 순서로 진행된다. 입력 영상을 이진 영상으로 변환 후, 세포를 포함한 부유물은 제거한다. 또한, 전처리 과정에서 contour가 부분적으로 지정될 수 있도록 세포군집 단위의 객체 간 거리를 늘려 딥러닝 모델이 각 세포의 특징을 더 잘 학습할 수 있도록 하였다. 자궁경부암 세포와 피부 섬유아세포는 세포의 종류에 독립적인 전처리 알고리즘을 사용하여, 주관적 견해를 배제하고 일정한 결과물을 도출하였다. 직관적으로 각각의 세포가 갖는 광학적 특성은 형태학적인 다양성에 기인하며, 육안으로 차이를 확인할 수 있다. 또한, 세포의 종류에 따라 현미경 광원에 반응하는 투과 또는 반사율이 상이한 파라미터가 사용될 수 있으며, 분류 정확도를 높이기 위해 관심 영역을 제외한 나머지 부분을 제거한 후 학습한 결과 만족할만한 결과를 도출할 수 있었다.

본 연구는 영상 처리 라이브러리인 OpenCV를 사용하여 배경을 제외한 관심 세포군집의 객체 영상을 추출하고, 영상 분류에 성능이 우수한 CNN을 통해 학습하여 세포 분류 모델을 개발하였다. 그 결과 98% 이상의 높은 분류 정확도를 보였으며, 암세포 판독에 사용되는 자동화 세포 분류 보조 시스템의 개발에 기여가 가능할 것으로 판단된다. 또한, 영상기반 CNN을 이용하여, 특정 질병의 진단 및 치료법 최적화와 정량적 근거를 제공할 수 있을 것으로 기대한다. 후속 연구로는 자궁경부암 세포와 피부 섬유아세포뿐만 아니라 유방암, 폐암, 간암 등과 같이 발병률이 높고 치사율이 높은 질병 세포에 대한 특징을 추출하여, 특정 암세포에 대한 선별 정확성을 확대하는 추가연구를 진행할 예정이다.

Acknowledgements

This research was supported by the National Research Foundation of Korea (NRF) grant funded by the Korea government (MSIT) (NRF-2019R1F1A1062397), Kumoh National Institute of Technology (2018-104-041) and Brain Korea 21 FOUR Project (Dept. of IT Convergence Engineering, Kumoh National Institute of Technology).

References

1 
J. G. Seo, Y. J. Kim, G. G. Kim, Oct 2017, Computer-Aided Diag- nosis and AI, The proceedings of The Korean Institute of Electrical Engineers, Vol. 66, No. 8, pp. 26-32Google Search
2 
X. Li, X. Wu, May 2015, Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Voca- bulary Speech Recognition, International Conf. on Acoustics, Speech and Signal Processing, pp. 4520-4524DOI
3 
D. K. Kim, May 2020, Generalized Kernel Restricted Boltzmann Machine, The Journal of Korean Institute of Communica- tions and Information Sciences, Vol. 45, No. 5, pp. 783-789Google Search
4 
J. Jiang, J. Zhang, L. Zhang, X. Ran, J. Jiang, Y. Wu, Dec 2018, DBN Structure Design Algorithm for Different Datasets Based on Information Entropy and Reconstruction Error, Entropy, Vol. 20, No. 10, pp. 2-6DOI
5 
I. J. Goodfellow, J. P. Abadie, M. Mirza, B. Xu, D. W. Farley, S. Ozair, A. Courville, Y. Bengio, Dec 2014, Generative adversarial nets, International Conf. on Neural Information Processing Systems, Vol. 2, No. , pp. 2672-2680Google Search
6 
A. Krizhevsky, I. Sutskever, G. E. Hinston, May 2017, ImageNet Classification with Deep Convolutional Neural Networks, Communications of the Association for Computing Machi- nery, Vol. 60, No. 6, pp. 84-90DOI
7 
J. S Jung, Jun 2020, Current Status and Future Direction of Artificial Intelligence in Healthcare and Medical Education, Korean Medical Education Review, Vol. 22, No. 2, pp. 99-114DOI
8 
Z. Han, B. Wei, Y. Zheng, Y. Yin, K. Li, S Li, 2017, Breast Cancer Multi-classification from Histopathological Images with Structured Deep Learning Model, Scientific Reports, Vol. 7, No. Article number: 4172DOI
9 
X. W. Gao, R. Hui, Z. Tian, Jan 2017, Classification of CT Brain Images based on Deep Learning Networks, Computer Methods and Programs in Biomedicine, Vol. 138, No. 3, pp. 49-56DOI
10 
D. Forsberg, E. Sjöblom, J. L Sunshine, Aug 2017, Detection and Labeling of Vertebrae in MR Images Using Deep Learning with Clinical Annotations as Training Data, Journal of Digital Imaging, Vol. 30, pp. 406-412DOI
11 
Y. M Seo, J. K Han, Sep 2018, Deep Learning Algorithm to Identify Cancer Pictures, Journal of Broadcast Engineering, Vol. 23, No. 5, pp. 669-681DOI
12 
Y. Lee, H. J. Kim, G. B. Kim, N. K Kim, 2014, Deep Learning-based Feature Extraction for Medical Image Analysis, Korean Medical Database, Vol. 20, No. 1, pp. 1-12Google Search
13 
J. B. Seo, H. H. Jang, Y. B. Cho, Jul 2020, Analysis of Image Pre-processing Algorithms for Efficient Deep Learning, Proceedings of the The Korea Institute of Information and Communication Engineering, Vol. 24, No. 1, pp. 161-164Google Search
14 
S. H. Jang, J. Jeong, Feb 2019, Design and Implementation of OpenCV-based Inventory Management System to build Small and Medium Enterprise Smart Factory, The Journal of the Institute of Internet, Broadcasting and Communication, Vol. 19, No. 1, pp. 161-170DOI
15 
S. Choe, K. Park, C. W. Park, J. Ryu, H. Choi, Sep 2017, Com- binational light emitting diode-high frequency focused ultra- sound treatment for HeLa cell, Computer Assisted Surgery, Vol. 22, No. sup1, pp. 79-85DOI
16 
K. Cho, J. Seo, G. Heo, S. Choe, May 2019, An Alternative Approach to Detecting Cancer Cells by Multi-Directional Fluorescence Detection System Using Cost-Effective LED and Photodiode, Sensors, Vol. 19, No. 10, pp. 2301DOI
17 
H. Lee, J. Oh, G. Park, S. Choe, Nov 2020, Design and analysis of an optical monitoring system for cervical cancer cells, The Transactions of the Korean Institute of Electrical Engineers, Vol. 69, No. 11, pp. 1761-1766Google Search
18 
K. Cho, J. Seo, S. Choe, Mar 2019, Design of a customizable fluorescence detection system for fluorescently labeled tumor cells, Journal of the Korea Information and Communication Engineering, Vol. 23, No. 3, pp. 261-266DOI
19 
K. Cho, S. Choe, Sep 2018, Development of low cost module for proliferation control of cancer cells using LED and its therapeutic effects, Journal of the Korea Institute of Infor- mation and Communication Engineering, Vol. 22, No. 9, pp. 1237-1242DOI
20 
K. Cho, S. Choe, Aug 2018, Basic study on proliferation control of cancer cells using combined ultrasound and LED thera- peutic module, Journal of the Korea Institute of Infor- mation and Communication Engineering, Vol. 22, No. 8, pp. 1107-1113DOI
21 
D. An, M. Kim, S. Choe, Dec 2018, Optical and ultrasonic stimulation system to control fibroblast cell proliferation, The Transactions of the Korean Institute of Electrical Engineers, Vol. 69, No. 12, pp. 1977-1982Google Search
22 
Y. Bengio, Nov 2009, Learning deep architectures for AI, Founda- tions and Trends in Machine Learning, Vol. 2, No. 1, pp. 1-127Google Search
23 
K. Simonyan, A. Zisserman, Sep 2014, Very Deep Convolutional Networks for Large-Scale Image Recognition, arXivGoogle Search
24 
C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, Z. Wojna, Dec 2016, Rethinking the inception architecture for computer vision, IEEE Conf. on Computer Vision and Pattern Recognition, pp. 2818-2826Google Search
25 
K. He, X. Zhang, S. Ren, J. Sun, Dec 2016, Deep residual learning for image recognition, IEEE Conf. on Computer Vision and Pattern Recognition, pp. 770-778Google Search
26 
M. Sandler, A. Howard, M. Zhu, A. Zhmoginov, L. C. Chen, June 2018, MobileNetV2: Inverted Residuals and Linear Bottle- necks, IEEE/CVF Conf. on Computer Vision and Pattern Recognition, pp. 4510-4520Google Search
27 
W. Rawat, Z. Wang, Sep 2017, Deep convolutional neural net- works for image classification: A comprehensive review, Neural computation, Vol. 29, No. 9, pp. 2352-2449DOI
28 
S. J. Pan, Q. Yang, Oct 2010, A survey on transfer learning, IEEE Trans. on Knowledge and Data Engineering, Vol. 22, No. 10, pp. 1345-1359DOI
29 
M. Lin, Q. Chen, S. Yan, Dec 2013, Network in network, arXivGoogle Search

저자소개

Sang-Hee Kim
../../Resources/kiee/KIEE.2021.70.1.139/au1.png

B.S.: Dept. of Electrical Eng., Hong-ik Univ.

M.S.: Dept. of Electrical Eng., Yonsei Univ.

Ph.D.: Dept of Bioengineering. Texas A&M Univ.

Email: shkim@kumoh.ac.kr

Affiliation: Professor, Dept. of Medical IT Con- vergence Eng., Kumoh National Institute of Technology

Jae-hyung Lee
../../Resources/kiee/KIEE.2021.70.1.139/au2.png

Undergraduate student (Senior), Dept. of Medical IT Convergence Eng., Kumoh National Institute of Technology

Email: zeus9656@naver.com

Eun-Young Choi
../../Resources/kiee/KIEE.2021.70.1.139/au3.png

Undergraduate student (Senior), Dept. of Medical IT Convergence Eng., Kumoh National Institute of Technology

Email: abcd980504@naver.com

Sung-tae Jeon
../../Resources/kiee/KIEE.2021.70.1.139/au4.png

Undergraduate student (Senior), Dept. of Medical IT Convergence Eng., Kumoh National Institute of Technology

Email: service1zl@naver.com

Min-young Choi
../../Resources/kiee/KIEE.2021.70.1.139/au5.png

Undergraduate student (Senior), Dept. of Medical IT Convergence Eng., Kumoh National Institute of Technology

Email: chlalsdud97@gmail.com

Seo-hyun Jo
../../Resources/kiee/KIEE.2021.70.1.139/au6.png

Undergraduate student (Senior), Dept. of Medical IT Convergence Eng., Kumoh National Institute of Technology

Email: tjgus0911@naver.com

Se-woon Choe
../../Resources/kiee/KIEE.2021.70.1.139/au7.png

B.S.: School of Electronic and Electrical Eng., Hong-ik University

M.S.: Dept. of Electrical and Computer Eng., Univ. of Florida

M.S.: Dept. of Biomedical Eng., Univ. of Florida

Ph.D.: Dept. of Biomedical Eng., Univ. of Florida

Affiliation: Assistant Professor, Dept. of Medical IT Convergence Eng., Dept. of IT Convergence Eng., Kumoh National Institute of Technology