• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Electronics Engineering Kangwon National University, Korea.)
  2. (Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea.)
  3. (Department of Marine Environmental Engineering, Gyeongsang National University, Gyeongnam, Korea.)



Deep learning, Inception V3, Plant disease, Tomato

1. 서 론

작물에 피해를 주는 요인은 크게 자연재해와 병충해가 있다. 병충해는 자연재해보다 자주 발생하며 계절마다 발생하는 종류도 다양하다. 또한, 농작물에 미치는 피해의 정도가 크기 때문에 미리 방제하는 것이 중요하다. 병충해의 방제방법은 미리 농약을 살포하여 예방하는 방법과 병충해 발견 시 살균제와 살충제를 뿌려 병균이나 해충에 의한 피해를 최소화하는 방법이 있다. 그러나 병충해를 미리 예방하거나 방제하기는 쉽지 않다. 시기마다 유행하는 질병과 해충이 다르고 방제약제를 살포한다고 해도 방제 대상에 해당하는 방제약제를 사용하지 않으면 효과가 없다. 따라서 병충해 피해를 예방하려면 시기마다 어떤 질병과 해충이 유행하고 있는지 파악해야 하며, 작물의 병충해 발생 시 전문가가 병충해의 종류를 규명하고 병충해 종류에 적합한 방제법으로 방제를 실시해야 한다. 병충해에 대한 전문지식이 없는 농업 종사자라면 예상치 못한 피해를 받았을 때 제대로 된 방제방법을 파악하지 못하여 농사에 더 큰 피해로 번질 수 있다. 일반적으로 병충해 발생 시 농업 종사자는 작물의 질병 사진 등을 활용하여 전문가에게 자문하는 과정을 통해 병충해의 종류를 파악하고 대처한다. 하지만 전문가가 한 농장에만 상주하고 있는 것이 아니므로 정확한 진단에 시간이 걸릴 수밖에 없다. 만약 모자이크 바이러스 같은 전염성이 강한 질병이 농장 내에 유행하고 있다면 발견 즉시 빠른 대처가 요구된다. 이러한 문제를 해결하기 위해서 스마트팜을 구축하여 병충해를 탐지하기 위한 연구가 진행되고 있는데, 이는 병충해에 대한 전문지식 및 인력 부족과 같은 문제에 해결책이 되어줄 수 있다. 본 연구에서는 스마트팜의 대표적인 작물인 토마토에 대해서 병충해 탐지 연구를 진행하였다.

그림 1을 보면 토마토의 생산량은 2011년에 비해 증가하였으며 2015년에는 약 45만 톤의 생산량을 기록할 정도로 대표적인 시설원예 작물이다[1]. 하지만 증가하고 있는 생산량에 비해 농가 인구는 지속적으로 감소하고 있다[2]. 토마토의 생산량이 늘어난 만큼 작물에 피해를 주는 병충해 방제에 대한 중요성은 증가하고 있지만, 비전문가가 다양한 병충해의 종류를 정확하게 파악하고 방제하는 것은 어렵다. 따라서 토마토 병충해 탐지 시스템을 개발하여 토마토 재배 시 인력을 보조하고 방제를 돕는 연구를 진행하였다.

그림. 1. 국내 토마토 생산량 및 농가 인구 변화

Fig. 1. Changes in tomato production and farm population

../../Resources/kiee/KIEE.2020.69.2.349/fig1.png

병충해를 탐지하는 방법 중에 센서를 이용하여 병충해 탐지를 시도한 다양한 연구가 있다. 먼저 센서를 통한 병충해 분석법을 설명하고 분석법에 맞는 병충해 탐지할 방법을 제시하였다[3]. 센서 중에서 광학 센서, 분광 센서, 열 센서를 사용하여 RGB 및 스펙트럼을 분석하고 병충해를 탐지하는 방법을 보였다. 열이나 형광 센서는 식물의 스트레스에 민감하게 반응하지만, 특정 질병을 식별할 수 없는 단점이 있으며 RGB 및 분광분석이 질병 분석에 바람직한 방법이라고 정리하였다[4].

딥러닝을 이용하여 병충해의 특징을 찾아내 농작물의 병충해를 탐지하는 것은 꾸준히 연구되어왔다. 작물이 병충해에 노출되면 열매뿐 아니라 잎에도 반점이나 변색 같은 증상이 생긴다. 그래서 작물의 잎을 이용해 병충해의 증상을 딥러닝으로 분류하는 연구들이 있다. 우선 식물의 잎을 58개의 범주로 분류하는 딥러닝 모델이 제안되었다. 범주는 25종류 식물들의 병충해 종류별로 분류하였다. 사용한 네트워크들은 AlexNet, GoogLeNet, VGG 등 모두 5개의 네트워크를 사용하였고, 가장 분류 성능이 좋은 2개의 모델을 선정하였다. 선정한 2개 모델의 네트워크로 농가에서 촬영된 농가 이미지와 잎만 떼서 촬영한 실험실 이미지를 따로 학습시켰다. 상대방의 유형이 다른 데이터를 예측하게 하여 성능을 비교하였다. 그 결과로 농가에서 촬영된 이미지 유형이 실험실 이미지보다 효율이 높다는 결론을 내었다[5]. 실험실 이미지로 구성된 Plant Village 데이터 세트에서 토마토 잎만을 사용하여 학습시킨 모델도 제시되었다. Alex Net과 Squeeze Net 2가지의 네트워크로 9개의 병충해 증상을 분류하였다. 그 결과 Alex Net 95.6%, Squeeze Net 94.3%의 높은 정확도를 보였다[6]. 다른 딥러닝 모델도 Plant Village의 데이터를 사용하였다. 14종의 작물과 26가지의 병충해가 있는 38개 범주의 이미지들로 학습을 진행하였다. 이미지들을 원본, 그레이 스케일, 배경 제거 등 3종류로 변형하고 Alex Net과 GoogLeNet 2가지의 네트워크를 사용해 모델을 학습시켰다. 하나의 네트워크마다 학습 데이터 세트와 테스트 데이터 세트의 비율을 다르게 설정해 여러 개의 학습모델을 생성하였다. 그 후 이미지의 형태와 학습 비율의 차이로 인한 성능을 비교하였다[7]. 딥러닝을 이용한 위 연구 모두 농작물의 잎 사진을 학습하여 연구를 진행하였으며 각자 다른 방식으로 연구를 진행해 모두 높은 정확도를 보였다. 기존 연구는 실험실 데이터를 사용한 경우가 많다. 실험실 이미지는 학습모델의 성능이 잘 나올 수 있지만, 실제 농가에서 사용할 때 실험실 이미지와 환경이 다르므로 오차가 생길 수 있다. 그래서 본 논문에서는 농가 이미지를 사용한 딥러닝 기반 병충해 분류 시스템을 제안한다. 토마토에서 잎을 뗄 필요 없이 카메라로 잎 앞면을 찍어 병충해를 판단할 수 있다. 복잡한 농가 이미지를 이용해 학습했기 때문에 주변 환경에 대한 영향을 적게 받아 오차가 적을 것이다. 전문가의 판단 전에 일차적으로 병충해의 종류를 빠르게 파악하고 적합한 방제법으로 대처할 수 있어 토마토 재배 시 피해를 최소화할 수 있다.

2. 연구 방법

2.1 CNN(Convolution Neural Network)

CNN은 컨볼루션을 이용한 신경망 네트워크이다. 신호 처리 분야 중에서도 음성이나 이미지 처리 분야에서 CNN을 많이 사용하고 있다. 이 네트워크는 컨볼루션 층, 샘플링 층과 같은 층들을 쌓아 신경망을 구성한다. 이미지가 입력으로 들어오면 컨볼루션 연산을 통해 특징맵을 추출하고 풀링을 통해서 특징맵의 크기를 줄이는 연산을 진행한다. 발생할 과적합을 방지하기 위해 일부 뉴런의 연결을 끊어 학습에 사용하지 않는 드롭아웃을 활용한다. 네트워크의 마지막에는 완전연결 층을 두어 활성 함수를 사용해 결과를 낸다. 결과를 낸 후에는 역전파 알고리즘을 이용하여 학습에 사용되는 필터의 최적값을 찾아낸다. 이런 과정들을 반복하여 이미지의 더 나은 특징들을 찾아 이미지를 처리하는 네트워크이다[8]. ILSVRC2012에서 CNN으로 이루어진 AlexNet이 우승한 이후, Residual learning을 활용한 ResNet[9]과 압축과 재조정의 방법을 사용해 성능을 높인 SENet[10]과 같은 여러 변형 구조가 나오고 있다.

2.2 Inception 기반 네트워크

학습에 사용한 딥러닝 네트워크는 이미지 처리에 강점을 보이는 CNN 기반 네트워크 중에서 2014년 ILSVRC에서 우수한 성능을 보여 우승을 차지한 Inception[11]을 사용하였다. Inception 모델에서도 기존 모델의 복잡성 및 문제점을 보완하고 성능을 높인 Inception V3를 선택하였다. Inception 네트워크는 이전에 쓰였던 네트워크와는 다르게 학습의 망을 좀 더 깊게 가져가 학습 성능을 높였다. 하지만 망이 깊어지면 파라미터의 개수가 증가하면서 과적합이 발생한다. 그래서 좋지 않은 학습 효율이 발생할 수 있으며 연산량이 증가하여 학습에 오랜 시간이 소요되게 된다. Inception 모듈은 이런 깊은 망에서 오는 부작용을 줄일 수 있다. 여러 개의 컨볼루션 망을 병렬로 연결하였고 크기가 큰 3x3이나 5x5는 앞에 1x1 컨볼루션 망을 통해 차원을 줄여 연산량을 조절하였다. Inception V3에서는 연산량이 많은 5x5 이상의 망을 여러 개의 3x3으로 대체하여 연산량을 감소시켰다. 에버리지 풀링과 맥스 풀링을 전체적인 망에서 사용하며 컨볼루션에 의한 차원이 높아지는 문제를 해결하고자 하였다. 그림 2는 Inception V3를 구성하는 하나의 Inception 모듈을 나타낸다.

그림. 2. Inception module

Fig. 2. Inception module

../../Resources/kiee/KIEE.2020.69.2.349/fig2.png

2.3 데이터 분류 및 학습 진행

깊은 망을 이용하여 학습하는 딥러닝은 학습 데이터의 특징을 과하게 학습하여 다른 데이터의 오차가 커지는 과적합의 문제가 발생한다. 과적합에 대한 가장 간단한 해결책은 데이터의 개수를 많이 확보해 학습시키는 것이다. 또한, 데이터의 개수가 많아지면 학습의 성능도 좋아진다. 하지만 딥러닝 학습을 위해 많은 양의 데이터를 직접 확보하는 것은 많은 시간과 자본이 소비된다. 그래서 본 논문에서는 과학기술정보통신부에서 주관하고 있는 AI Open Innovation Hub(AI Hub)에서 제공된 토마토 잎 이미지를 사용하였다.[12] 토마토 잎 데이터 세트의 개수는 총 17,090장으로 구성되어 있다. 이미지의 형태는 두 가지로 나뉘는데 줄기에 잎이 달린 농가에서 촬영된 농가 이미지와 잎만 따로 떼서 콘크리트 바닥에서 촬영한 실험실 이미지가 있다. AI Hub의 데이터 세트 예시는 그림 3에 나타내었다.

그림. 3. AI Hub 데이터 세트

Fig. 3. AI Hub Dataset

../../Resources/kiee/KIEE.2020.69.2.349/fig3.png

병충해 종류는 총 14가지로 구성이 되어있다. 데이터의 개수는 병충해마다 차이가 있어 정상의 경우는 9,955장으로 데이터의 개수가 많지만 5장 미만의 병충해 데이터도 있다. 40장 미만인 병충해는 학습에 의미가 없다고 생각하였고 이미지의 개수가 40장이 넘는 병충해를 선별하여 학습에 사용하였다. 그 결과 정상인 토마토 잎과 나머지 8종의 병충해를 학습에 사용하기로 하였다.

표 1. 병충해 종류 및 갯수

Table 1. Types and counts of plant disease

../../Resources/kiee/KIEE.2020.69.2.349/tbl1.png

선정된 병충해는 아메리카 잎굴파리(Liriomyza triflolii), 점무늬병(Leaf spot), 잎곰팡이병(Leaf mold), 황화잎말림바이러스(Yellow leaf curl virus), 궤양병(Clavibacter michiganensis), 청벌레(Leaf bite), 토마토퇴록바이러스(Tomato chlorosis virus) 그리고 흰가루병(Powdery mildew)이다. 연구에 사용하기로 한 데이터 세트는 추후 성능평가를 위해 학습 데이터 세트와 테스트 데이터 세트의 비율을 80 : 20으로 나누었다. 자세한 목록은 표 1과 같다. 정상까지 포함하여 총 17,063장의 데이터를 선별하였다. 학습에는 전체의 80%인 13,650장을 사용하였고 성능평가를 위한 테스트 데이터로는 20%인 3,413장을 사용하였다. 실험실 이미지는 학습 데이터에 1,221장 포함이 되어있고 테스트 데이터에는 383장이 있어 총 1,604장이 데이터에 속해있다.

3. 연구 결과

학습에 사용한 데이터 세트는 AI Hub 토마토 잎 데이터를 사용하였으며 데이터 세트에서 80%를 병충해 별로 무작위로 뽑아 학습에 사용하였다. 모델을 학습시킨 네트워크는 CNN의 한 종류인 Inception V3 네트워크를 사용하여 딥러닝 모델을 학습시켰다. 학습이 완료된 딥러닝 모델을 학습에 사용하지 않은 테스트 데이터 세트로 성능을 평가했다. 테스트 데이터 세트를 병충해 분류 모델에 넣어서 병충해를 분류하고 학습의 예측 결과를 확인하였다. 과정은 그림 4에 나타내었다.

그림. 4. 병충해 학습 및 분류 과정

Fig. 4. Plant disease training and classification process

../../Resources/kiee/KIEE.2020.69.2.349/fig4.png

분류 모델이 1순위로 예측한 병충해 종류를 정답으로 생각하고 결과를 정리했다. 이미지로 분류 결과를 확인했을 때 그림 5와 같이 결과가 나오는 것을 확인할 수 있다. 표 2는 테스트 데이터 세트를 분류 모델을 통해 예측시켰을 때의 분류 결과이다.

그림. 5. 병충해 예측 결과

Fig. 5. Plant disease prediction result

../../Resources/kiee/KIEE.2020.69.2.349/fig5.png

표 2. 학습 모델 결과

Table 2. Prediction results

../../Resources/kiee/KIEE.2020.69.2.349/tbl2.png

결과를 바탕으로 모델의 성능 값을 구하였다. 전체 테스트 데이터에서 정답을 맞힌 비율인 Accuracy를 계산해 0.99로 높은 수치가 나왔다. 하지만 범주마다 데이터 수의 차이가 크게 나므로 전체의 정확도로 성능을 평가하지 않고 Precision과 Recall을 범주별로 구해 평가하였다. 나온 수치들의 평균값을 병충해 분류 모델의 Precision과 Recall로 하였으며 값을 구한 후에는 F1 Score를 구하였다. F1 Score는 조화평균을 이용했기 때문에 데이터가 불균형할 때 모델의 성능을 비교적 정확하게 평가할 수 있다. Accuracy, Precision, Recall, F1 Score를 구하는 식은 다음과 같다.

(1)
$$Accuracy=\dfrac{TP + TN}{TP + FN + FP + TN}$$

(2)
$$Precision=\dfrac{TP}{TP +FP}$$

(3)
$$Recall=\dfrac{TP}{TP+FN}$$

(4)
$$\text{F1 Score}=2\times\dfrac{\text{Precision} × \text{Recall}}{\text{Precision} +\text{Recall}}$$

혼동행렬(Confusion matrix)을 구성하는 True Positive(TP), False Negative(FN), False Positive(FP) 그리고 True Negative(TN)를 계산하고, 위 수식을 이용하여 범주별로 Precision과 Recall의 평균값들을 구하였다. 범주별로 Precision과 Recall을 계산한 값은 표 3에 정리했다. 예측한 정답에서 실제 정답률을 의미하는 Precision의 값은 0.97이란 값이 나왔으며 실제 정답에서 실제 정답을 예측한 비율인 Recall 값은 0.90의 값이 나왔다. 모델의 성능을 전체적인 성능을 나타내는 F1 Score는 0.93으로 우수한 성능을 보였다.

표 3. 성능 평가표

Table 3. Performance evaluation table

../../Resources/kiee/KIEE.2020.69.2.349/tbl3.png

토마토퇴록바이러스와 청벌레의 경우 특히 Recall이 낮은 모습을 보여주고 있다. 토마토퇴록바이러스의 경우 잎에 퇴록, 황화 등의 증상이 나타난다. 황화된 잎은 황화잎말림바이러스와 비슷하다고 판단하여 오분류를 일으켰다. 퇴록된 잎은 원래 잎의 색과 차이가 크게 나지 않아 정상인 잎과 비슷하여 정상으로 분류한 것으로 보인다. 청벌레는 잎에 갉아 먹힌 흔적이 남아있다. 테스트 이미지 중에서 잎의 앞면이 보이지 않는 이미지가 포함되어 있어 병충해를 잘못 분류를 했다. 그리고 잎이 갉아 먹힌 부분이 중간 부분일 경우 분류를 잘 해내는 모습을 보이지만, 잎의 끝부분을 갉아 먹힌 이미지는 잘못 분류하는 모습을 보였다.

4. 결 론

병충해는 관련 전문지식과 방제를 할 수 있는 인력만 있으면 충분히 예방 및 방제를 할 수 있다. 하지만 대부분의 농가가 모든 병충해를 파악하고 예방까지 하기는 쉽지 않다. 증상을 보고 병충해를 분류할 수 없는 농가의 경우에는 제대로 방제를 하지 못해 시기를 놓쳐 피해를 볼 수도 있다. 따라서 본 논문에서는 토마토를 주 작물로 하여 영상을 이용한 토마토 병충해 탐지 및 분류 시스템을 제안하였다. 시스템은 토마토 잎의 이미지를 입력으로 받았을 때 그 잎이 병충해에 걸렸는지에 대한 탐지를 한다. 그리고 병충해에 걸렸다면 병충해의 종류를 분류해주어 농업 종사자가 병충해에 맞는 방제를 할 수 있게 하는 역할을 한다.

시스템 학습에 사용한 데이터는 AI Hub에서 제공되고 있는 데이터를 이용하여 정상을 포함한 9가지의 범주로 분류해 학습 데이터를 구성했다. 네트워크는 Inception V3를 이용하여 학습하였다. 학습이 끝나고 성능을 평가해 보았을 때 Precision 0.97, Recall 0.90의 값이 나왔다. 전체적인 모델의 성능 수치인 F1 Score를 구했을 때 0.93의 값이 나왔다. Precision이 Recall에 비해서 높은 수치가 나왔는데 이는 학습된 모델이 병충해를 예측했을 때 예측값이 실제 정답일 확률이 높다는 것을 의미한다. 반면에 실제 정답 중에서 실제 정답을 얼마나 예측했는지에 대한 성능 지표 Recall 값은 상대적으로 낮은 값이 나왔다.

학습모델은 좋은 결과가 나왔지만 몇 가지 한계점이 있다. 우선 데이터가 불균형하다. 데이터 세트로 학습을 할 때도 정상이 데이터의 2배 이상을 차지하며 아메리카잎굴파리와 점무늬병까지 더하면 전체 데이터의 80%를 차지하고 있다. 또한, 모델의 성능을 평가할 때도 데이터 개수가 많은 범주는 몇 장의 차이로 크게 수치가 변하지 않지만 토마토퇴록바이러스나 흰가루병같이 데이터의 수가 많지 않은 범주는 몇 장의 차이로 수치가 많이 변해 성능이 급격히 변한다. 정확한 성능을 검사하기 위해서는 이미지의 개수가 많은 병충해 범주에서 이미지를 뽑아 다른 병충해와 개수를 비슷하게 맞추거나, 다른 병충해의 이미지를 확대 및 축소하는 방법 등을 이용해 수를 늘린다면 데이터의 개수도 많아져 정확도가 상승하고 데이터 세트의 불균형도 해결될 것이다.

추후 연구로는 병충해 탐지 식물을 토마토뿐만 아니라 다른 작물까지 확대하고, 더 많은 종류의 병충해를 학습시켜 실제 농가에서 범용성 있게 활용하며 병충해로 인한 피해를 최소화할 수 있는 연구가 필요하다.

Acknowledgements

This work was supported by the National Research Foundation of Korea(NRF) grant funded by the Korea government(MSIT) (No. 2017R1E1A1A03070297). This research was supported by the MSIT(Ministry of Science and ICT), Korea, under the ITRC (Information Technology Research Center) support program(IITP- 2019-2018-0-01433) supervised by the IITP(Institute for Information & communications Technology Promotion).

References

1 
Korean Statistical Information Service, Tomato Production SurveyGoogle Search
2 
Korean Statistical Information Service, Agricultural SurveyGoogle Search
3 
Y. Fang, R. P. Ramasamy, 2015, Current and prospective methods for plant disease detection, Biosensors, Vol. 5, pp. 537-561DOI
4 
A.-K. Mahlein, 2016, Plant disease detection by imaging sensors–parallels and specific demands for precision agriculture and plant phenotyping, Plant Disease, Vol. 100, pp. 241-251DOI
5 
K. P. Ferentinos, 2018, Deep learning models for plant disease detection and diagnosis, Computers and Electronics in Agriculture, Vol. 145, pp. 311-318DOI
6 
H. Durmuş, E. O. Güneş, M. Kırcı, 2017, Disease detection on the leaves of the tomato plants by using deep learning, in Proc. of 2017 6th International Conference on Agro-Geoinformatics, pp. 1-5DOI
7 
S. P. Mohanty, D. P. Hughes, M. Salathé, 2016, Using deep learning for image-based plant disease detection, Frontiers in Plant Science, Vol. 7, pp. 1419DOI
8 
Y. LeCun, Y. Bengio, G. Hinton, 2015, Deep learning, Nature, Vol. 521, pp. 436-444DOI
9 
K. He, X. Zhang, S. Ren, J. Sun, 2016, Deep residual learning for image recognition, in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 770-778DOI
10 
J. Hu, L. Shen, G. Sun, 2018, Squeeze-and-excitation networks, in Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 7132-7141DOI
11 
C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, Z. Wojna, 2016, Rethinking the inception architecture for computer vision, in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 2818-2826DOI
12 
AI Open Innovation Hub, http://www.aihub.or.kr/Google Search

저자소개

함현식 (Hyun-sik Ham)
../../Resources/kiee/KIEE.2020.69.2.349/au1.png

He is currently working toward a B.S. and M.S. degrees in Department of Electronic Engineering from Kangwon National University, Korea.

김동현 (Dong-hyun Kim)
../../Resources/kiee/KIEE.2020.69.2.349/au2.png

He received the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, Korea in 2018.

He is currently working toward the M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, Korea.

채정우 (Jung-woo Chae)
../../Resources/kiee/KIEE.2020.69.2.349/au3.png

He received the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, Korea in 2019.

He is currently working toward the M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, Korea.

이신애 (Sin-ae Lee)
../../Resources/kiee/KIEE.2020.69.2.349/au4.png

She received her B.S. degree in Electrical and Electronic Engineering from Kangwon National University, Korea in 2018.

She is currently working toward the M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, Korea.

김윤지 (Yun-ji Kim)
../../Resources/kiee/KIEE.2020.69.2.349/au5.png

She is currently working toward a B.S. and M.S. degrees in Department of Electronic Engineering from Kangwon National University, Korea.

조현욱 (Hyun Uk Cho)
../../Resources/kiee/KIEE.2020.69.2.349/au6.png

He received the Ph.D. degree in School of Environmental Science and Engineering from Pohang University of Science and Technology, Korea in 2016.

He is currently a professor in Department of Marine Environmental Engineering, Gyeongsang National University, Korea.

조현종 (Hyun-chong Cho)
../../Resources/kiee/KIEE.2020.69.2.349/au7.png

He received his MS and PhD degrees in Electrical and Computer Engineering from the University of Florida, USA in 2009.

During 2010-2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA.

From 2012 to 2013, he was a Chief Research Engineer in LG Electronics, Korea.

He is currently a professor with the Department of Electronics Engineering and Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea.