• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Electronics Engineering Kangwon National University, Korea.)



Convolutional Neural Network, Generative Adversarial Network, Image Augmentation, Tomato Disease

1. 서 론

토마토는 대표적인 시설 원예 작물 중 하나이다. 토마토에 대한 수요가 꾸준히 증가하면서 토마토를 재배하는 농가 또한 증가하였다. 토마토 재배 시설도 규모가 커지면서 그림 1과 같이 10아르 당 생산량이 증가하는 모습을 보인다(1). 이처럼 재배 시설을 통해 토마토 생장에 필요한 요소들을 관리하기 시작하면서 이전에 비해 같은 경작지에서 나오는 생산량이 증가하고 있다. 시설 토마토는 시설에서 키우기 때문에 관리가 편해진다는 장점이 있지만, 전염성이 있는 질병이나 해충이 발생하게 되면 다른 토마토 개체에 전염되어 농가의 피해가 커질 수 있다. 발생하기 쉬운 질병이나 해충은 작물에 나타나는 성질이 단순하여 농부가 보고 제거하거나 미리 살충제나 농약을 살포하여 예방할 수 있다. 하지만 발생 빈도가 낮거나 나타나는 특징이 두드러지지 않는 질병과 해충이 발생하면 경험이 적은 농부의 경우 제대로 대처하지 못해 농사의 피해가 커질 수 있다. 병충해의 방제법 중의 하나는 발생한 병충해를 전문가에게 물어보는 방법이 있지만, 이는 시간이 오래 걸려 그사이 다른 작물에 전염될 수 있다는 단점이 있다. 다른 방법으로는 미리 농약과 살충제를 많이 살포하여 방제할 수 있지만, 작물에 이로운 곤충까지 함께 죽이거나 많은 농약의 사용으로 인한 토양 오염으로도 이어질 수 있다. 과도한 농약의 사용을 줄이고 전염되는 병충해를 방제하기 위해서는 기존의 방법과는 다른 방법이 필요하다. 본 논문에서는 농약의 무분별한 남용과 토마토에 대한 병충해를 방지하기 위해 이미지를 통한 토마토 병충해 분류시스템을 제안한다.

그림. 1. 10아르 당 토마토 생산량

Fig. 1. Tomato Production per 10are

../../Resources/kiee/KIEE.2021.70.1.184/fig1.png

식물이 질병에 걸리거나 해충이 발생했을 때 잎에 반점이나 먹힌 자국같이 특징이 남게 된다. 이런 특징들을 파악해 병충해를 방제하고자 하는 연구는 꾸준히 있었다. 우선 바질 잎을 Neutrosophic 기법으로 영상을 나눠 특징을 추출해 정상과 병충해를 분류하는 연구가 있다(2). 먼저 바질 잎들을 채취하고 세척 후 조명을 비춰 최대한 잡음 없는 데이터 정상 200장과 비정상 200장을 수집했다. 그리고 이미지에 Contrast Limited Adaptive Histogram Equalization(CLAHE) 전처리를 하고 La*b* 색 공간이 있는 CIELab 색공간으로 영상을 변환해 정상 부분은 True, 비정상은 False, 애매한 곳은 Intermediate로 구분하여 영상을 분할하였다. 그 후 Histogram Information Content(HIC), Disease Sequence Region(DFR), Damage Structure Index(DI), Bin Binary Pattern(BBP) 네 가지 특징 추출 기법을 사용해서 특징을 추출하였다. Decision Tree, Random Forest, Support Vector Machine, AdaBoost, Linear Models, Naives Bayes, KNN, Artificial Neural Networks, Discriminant Analysis 9종의 분류 모델을 선정해서 분류 모델을 학습시켰다. 그 결과 Random Forest 결과로 98.4%의 정확도를 기록하였다. 특징을 직접 추출하는 머신러닝이 아닌 딥러닝을 사용해 분류하고자 하는 연구도 있었는데 기존의 CNN(Convolutional Neural Net- work) 중 하나인 AlexNet의 일부 구조를 바꿔 오이 병충해 분류를 하였다(3). 데이터는 카메라를 통해 오이 농장에서 오이 병충해 6종 600장과 정상 100장 정도를 확보하였다. 그 후 K-mean 알고리즘을 적용하여 병충해 걸린 잎의 특징점들을 분할하였다. AlexNet에서 확장률 r의 값을 도입해서 r의 값을 조정해 기존의 컨볼루션 커널의 크기를 확장했다. 그리고 완전연결 층 대신에 Global Average Pooling(GAP)를 사용해 최적화할 매개변수를 최소화하여 속도를 빠르게하고 과적합을 피하였다. 학습시킨 결과 원래 AlexNet 모델의 정확도는 92.5%가 나왔지만 구조를 수정한 GPDCNN(Global Pooling Dilated CNN)이 94.7%의 높은 병충해 분류 성능을 보였다. 이외에도 녹색을 마스킹하고 마스크를 제거해 병충해 부분을 분리하여 영상 분할을 시도한 연구가 있으며, CaffeNet을 통한 병충해 학습으로 병충해를 분류하려는 연구도 있다(4)(5). 본 논문에서는 딥러닝 중에 이미지 처리에 강점을 보이는 CNN을 사용하여 토마토 병충해 분류 모델을 연구하였다.

토마토 병충해 분류를 위해서는 병충해 별로 특징을 충분히 학습시킬 수 있게 많은 데이터가 필요하다. 하지만 병충해의 경우 발견 즉시 제거가 권장되므로 보통 병충해가 발생했다는 증거만 남기고 나머지는 제거한다. 그래서 병충해 데이터 확보를 위한 작물을 키우지 않는다면 병충해 데이터의 확보는 어려운 일이다. 이를 해결하고자 병충해 데이터를 확보한 후 데이터셋에 임의의 전처리를 하여 이미지를 증대해 병충해 분류 모델의 성능을 증가시키고자 하였다.

2. 연구 방법

2.1 학습 데이터셋

토마토 병충해 분류시스템을 학습시키기 위해서는 다양한 병충해 종류가 있는 데이터가 필요하다. 하지만 병충해가 발생했을 시 방제가 최우선이 되기 때문에 병충해에 걸린 잎의 사진을 확보하기란 쉽지 않다. 그래서 본 연구에서는 한국 정보화 진흥원에서 주관하는 데이터베이스인 AI Hub 토마토 병충해 데이터를 내려받았다(6). 데이터베이스에는 토마토의 다양한 병충해 종류가 있었지만, 분류 모델의 성능을 위해 일정 개수 이상의 데이터가 있는 병충해만 선택하여 데이터셋을 구성하였다. 병충해 분류 모델이 분류해낼 수 있는 병충해는 정상을 포함하여 총 9종으로 되어있다. 병충해의 종류는 정상(Normal), 궤양병(Clavibacter michiganensis), 나방류 애벌레(Leaf bite), 잎 곰팡이병(Leaf mold), 점무늬병(Leaf spot), 잎굴파리(Liriomoyza trifolii), 흰가루병(Powdery mildew), 토마토 퇴록 바이러스(Tomato chlorosis virus, ToCV), 황화 잎말림 바이러스(Yellow leaf curl virus)으로 이루어져 있으며 학습에 사용한 데이터셋의 자세한 정보는 아래 표 1에 정리해 두었다.

표 1. 토마토 병충해 데이터 요약

Table 1. Summary of Tomato Disease Dataset

Disease Type

Train

Test

Total

Clavibacter michiganensis

183

46

299

Leaf bite

111

28

139

Leaf mold

613

153

766

Leaf spot

1,649

412

2,061

Liriomyza trifolii

2,678

670

3,348

Normal

7,964

1,991

9,955

Powdery mildew

39

10

49

Tomato chlorosis virus

72

18

90

Yellow leaf curl virus

341

85

426

Total

13,650

3,413

17,063

사용한 토마토 데이터의 유형은 크게 실험실 데이터와 농가 데이터가 있다. 실험실 데이터의 경우 식물에서 잎을 분리하여 잎만을 촬영한 이미지이며 농가 데이터는 실제 농가 환경에서 잎을 촬영한 이미지이다. 실험실 데이터로 학습시킨 병충해 분류 모델과 농가 데이터로 학습시킨 병충해 분류 모델을 서로 교차 검증해 봤을 때 농가 데이터로 학습시킨 분류 모델이 좋은 성능을 보인 연구가 있어 학습에는 두 유형의 데이터를 모두 사용하였다(7). 데이터셋은 병충해 별로 이미지의 순서를 무작위로 섞어 8:2로 구성하였다. 분류 모델 학습에는 전체 데이터셋의 80%인 13,650장을 사용하였으며 나머지 3,413장은 학습이 끝난 후 성능 검증을 위한 테스트셋으로 분리하였다.

2.2 Image Augmentation

분류 모델의 좋은 성능을 위해서는 학습시킬 데이터가 중요하다. 그래서 보유하고 있는 데이터를 최대한 활용하기 위해 이미지 증대를 사용하여 학습에 사용하였다. 이미지 증대는 이미지에 기울임, 잡음, 반전 등의 전처리를 적용하여 특징이 약간 다른 이미지를 만드는 기법이다. 이미지 증대 알고리즘은 구글의 AutoAugment 알고리즘을 사용하여 증대하였다(8). AutoAugment는 무작위로 증대 정책을 적용하고 데이터셋에 맞는 최적의 증대 정책을 강화학습을 통해 적용해주는 기법이다. Shear X/Y, Translate X/Y, Rotate, Auto Contrast, Invert, Equalize, Posterize, Contrast, Color, Brightness, Sharpness, Cutout, Sample Pairing의 기법들로 이루어져 있으며 무작위로 두 기법이 한 쌍이 되어 하나의 정책을 이루게 된다. 하나의 정책으로 증대하더라도 기법마다 적용 확률과 강도가 있어 다른 증대 이미지가 나올 수 있다. AutoAugment의 증대 과정은 다음과 같다. RNN(Recurrent Neural Network)을 증대 정책을 결정하는 Controller로 하고 Child Network를 생성해 데이터에 정책들을 적용한다. 증대에 대한 성능 R을 얻어 다시 Controller에 갱신하면서 데이터셋에 맞는 최적의 증대 정책들을 찾아내는 방식이다.

그림. 2. 이미지 증대 데이터 예시

Fig. 2. Example of Image Augmentation

../../Resources/kiee/KIEE.2021.70.1.184/fig2.png

분류 모델 학습에 사용한 병충해 데이터셋에는 AutoAugment에서 기본 제공하는 Cifar10, ImageNet, SVHN에서 찾아낸 증대 정책을 적용해 사용하였다. Cifar10는 32 x 32의 크기를 가지는 비행기, 자동차, 새 등의 10개의 클래스가 있는 데이터셋이고 ImageNet은 거대한 데이터셋 중 하나이며 140만개 이상의 이미지와 10000개 이상의 클래스를 가지고 있다. SVHN은 구글 스트릿 뷰에서 수집된 숫자 데이터셋으로 표지판 사진으로 구성된 데이터셋이다. 증대 적용은 학습 데이터셋에만 사용하였으며 13,650장에서 사진 한 장에 25배 증대되었다. 증대를 사용했을 때 학습에 사용된 데이터는 총 354,900장이 사용되었다. 증대된 예시는 아래 그림 2와 같다. 증대된 세 가지의 데이터셋으로 분류 모델을 학습시켰으며 성능을 비교해 어떤 증대 정책이 토마토 병충해 데이터에 잘 맞는 증대 정책인지 비교하였다.

2.3 Generative Adversarial Network

학습 데이터를 증대할 다른 방법으로 GAN(Generative Adver- sarial Network)을 사용하여 데이터를 생성하였다(9). GAN은 이미지를 생성해내는 Generator와 생성된 이미지를 검사하는 Discriminator로 이루어져 있다. GAN 내부에서 학습에 사용된 이미지를 바탕으로 Generator가 생성 이미지를 만들어 내면 Discriminator가 생성 이미지가 진짜인지 가짜인지 구분해 진짜라 판단이 되면 최종 이미지를 생성해내는 것이 GAN의 기본 원리이다. 토마토 병충해 이미지를 생성할 때는 GAN의 일종인 DCGAN을 사용하였다(Deep Convolutional GAN)(10). DCGAN은 기존 GAN의 완전 연결 구조를 CNN 구조로 대체하여 이미지를 생성해냈다. 또한, 이미지 생성에서 위치 정보가 중요하다고 생각하여 위치 정보가 소실될 수 있는 Pooling 층을 사용하지 않았다. 네트워크에서는 Batch Normalization을 사용해서 학습이 안정되게 진행될 수 있도록 하였다.

이를 병충해 데이터셋에 적용하여 클래스별로 증대할 수 있도록 했다. 병충해마다 10,000번의 epoch로 학습하도록 설정했으며 10번의 epoch마다 15장의 이미지를 생성했다. 학습에 완료됐을 때는 병충해마다 15,000장이 생성되었다. 생성한 이미지들은 학습에 그대로 사용하지 않고 한 번의 검증을 거쳐 사용하였다. 검증 방법은 원본 데이터셋을 학습시킨 모델에 DCGAN을 통해 생성된 이미지를 분류하게 했다. 그래서 분류 성능이 50% 이상으로 해당 병충해로 분류를 한다면 학습에 사용할 수 있는 데이터로 판단하여 데이터셋에 추가하고 학습하게 하였다. 유사도 검사까지 마치고 학습 데이터셋에 궤양병 2,135장, 나방류 애벌레 393장, 잎곰팡이병 2,075장, 점무늬병 2,284장, 아메리카 잎굴파리 4,120장, 정상 9,877장, 흰가루병 2장, 토마토 퇴록 바이러스 2장, 황화 잎말림 바이러스가 4,935장을 추가하였다. 대체로 기존 이미지가 많은 병충해들이 더 많은 유사도 검사를 통과한 모습을 보여주었다. GAN으로 생성된 이미지의 예시는 아래 그림 3과 같다.

그림. 3. GAN 데이터 예시

Fig. 3. Example of GAN

../../Resources/kiee/KIEE.2021.70.1.184/fig3.png

2.4 학습 네트워크

CNN은 컨볼루션을 사용하여 입력의 특징을 추출해 학습하는 신경망 네트워크이다(11). 구조는 입력과 출력, 중간의 은닉층으로 이루어져 있다. CNN에서는 주로 이미지나 음성같이 연속성이 있는 것들이 입력으로 들어가며 은닉층에서는 주로 컨볼루션 연산과 평균, 최대, 최소 등을 가져오는 Pooling 연산으로 이루어져 있다. 위 연산들을 통해 입력의 특징들을 추출하고 가장 강한 특징만 다음 층으로 가져와 출력까지 연산을 반복하게 된다. 출력층에서는 최종 활성함수를 통해 결과를 내고 실제 정답과 비교해 반대로 올라가면서 가중치를 갱신하는 역전파 작업을 시작한다. 이런 과정들을 반복적으로 수행하여 입력 데이터에 최적화된 딥러닝 모델이 만들어지게 된다. CNN에 관한 연구는 꾸준히 이뤄지고 있어 네트워크 구조를 비롯하여 안에서 쓰이는 활성함수와 다양한 기법들이 많이 제시되고 있다.

본 연구에서는 CNN 중에서 구글에서 제시한 Inception V3를 사용하였다. Inception V3는 2014년 ILSVRC에서 우수한 성능을 보이며 우승을 차지한 Inception을 전신으로 하여 발전시킨 모델이다(12). Network In Network 구조를 채용하여 하나의 층 안에 Inception Module이라는 층 하나를 추가해 성능을 높이고자 하였다(13). CNN이 깊어질수록 학습을 위한 매개변수의 학습량이 증가하기 때문에 연산량이 많아져 학습 데이터에 과도하게 학습하는 과적합의 위험이 있으며 학습 중간에 기울기 값이 사라지는 기울기 소실 현상이 발생할 수 있다. 이를 해결하기 위해 Inception Module은 1x1 컨볼루션 연산을 사용하여 컨볼루션 연산으로 늘어났던 특징 맵들의 채널 수를 줄였으며 7x7 이상의 컨볼루션 연산을 여러번의 3x3 연산으로 대체하여 연산량을 줄였다. 그림 4는 Inception Module 중 하나의 구조를 나타내었다.

그림. 4. Inception Module

Fig. 4. Inception Module

../../Resources/kiee/KIEE.2021.70.1.184/fig4.png

3. 연구 결과

CNN인 Inception V3를 통해 토마토 병충해의 정상과 병충해 8종을 분류하게 하였다. AI Hub의 원본 데이터셋으로 Inception 네트워크를 학습시켰으며 그 후 이미지 증대 및 GAN으로 생성된 이미지들을 추가해 학습시켜 원본과 성능을 비교하였다. 성능 평가 방법은 학습이 완료된 딥러닝 모델에 학습에 사용되지 않은 테스트셋을 입력으로 넣어 1순위로 예측된 병충해를 정답으로 하여 평가하였다. 이미지 증대된 모델과 GAN으로 학습된 모델들 모두 같은 테스트셋으로 평가하였다. 학습 과정들은 그림 5에 나타내었다.

그림. 5. 병충해 분류 모델 학습 과정

Fig. 5. Training Process of Plant Disease Classification Model

../../Resources/kiee/KIEE.2021.70.1.184/fig5.png

학습에 사용된 데이터셋의 경우 클래스별로 데이터가 균일하지 않은 비대칭 데이터셋이므로 혼동 행렬(Confusion Matrix)을 사용하여 학습 성능을 계산하였다. 혼동 행렬은 True Posi- tive(TP), True Negative(TN), False Positive(FP), False Negative (FN)로 구성되어 있다. 이를 이용해서 클래스별로 Precision, Recall 값을 구해 평균을 구하였다. Precision과 Recall을 구하는 식은 다음과 같다.

(1)
$Precision=\dfrac{TP}{TP +FP}$

(2)
$Recall=\dfrac{TP}{TP+FN}$

구해진 두 Precision과 Recall 값으로 조화평균을 구해 모델의 전체적인 성능인 F1 Score를 계산하여 성능을 비교했다. F1 Score를 구하는 식은 다음과 같다.

(3)
$F 1 Score=2\times\dfrac{Precision\times Recall}{Precision+Recall}$

위 수식들을 바탕으로 원본 분류 모델과 데이터 증대를 사용한 모델, GAN으로 증대한 모델의 성능을 계산하고 비교하였다. 비교한 결과는 다음 표 2에 정리하였다.

원본 데이터만을 가지고 학습시켰을 때는 예측한 것 중 실제 정답의 비율인 Precision은 0.971이란 높은 성능이 나왔지만, 실제 정답을 정답이라 예측한 Recall의 수치가 0.899로 낮았다. 두 성능 수치를 가지고 F1 Score를 구했을 때 0.93의 성능을 보여주었다. 클래스 간 불균형을 고려하지 않은 정확도인 Accuracy는 0.987로, 계산된 모델의 F1 Score와는 큰 차이를 보였다. 이후에는 데이터를 AutoAugment 기법으로 증대하고 Inception V3 모델을 학습시켜 원본과 성능을 비교했다.

표 2. 분류 모델 성능 결과

Table 2. Results of Tomato Disease Classification

Original Model

Augmentation Model Cifar

Augmentation Model SVHN

Augmentation Model Image Net

GAN Model

Disease Type

Precision

Recall

Precision

Recall

Precision

Recall

Precision

Recall

Precision

Recall

Clavibacter michiganensis

1

0.848

0.978

0.882

0.976

0.870

0.84

0.913

0.935

0.915

Leaf bite

1

0.75

0.893

0.893

0.727

0.857

1

0.607

0.5

1

Leaf mold

0.974

0.993

0.967

0.974

0.993

0.961

1

0.948

0.961

0.987

Leaf spot

1

1

0.983

1

0.985

0.988

0.990

0.988

0.981

0.993

Liriomyza trifolii

0.984

0.999

0.984

0.992

0.983

0.978

0.956

0.999

0.967

0.986

Normal

0.993

1

0.992

0.990

0.989

0.996

0.993

0.991

0.998

0.978

Powdery mildew

1

1

0.8

0.727

1

1

1

0.9

0.6

0.857

Tomato chlorosis virus

0.857

0.667

0.944

1

1

0.778

0.889

0.889

0.667

1

Yellow leaf curl virus

0.934

0.835

0.976

0.943

0.988

0.941

0.987

0.871

0.929

0.908

Average

0.971

0.899

0.946

0.933

0.960

0.930

0.962

0.901

0.838

0.958

F1 score

0.934

0.940

0.945

0.930

0.894

AutoAugment에서 기본으로 제공하는 Cifar10, SVHN, Image- Net 세 가지 증대 정책으로 데이터를 증대하고 분류 모델을 학습했다. Cifar10, SVHN, ImageNet의 Accuracy는 0.987, 0.984, 0.982가 나왔지만 F1 Score로 비교했을 때는 SVHN으로 증대해 학습시킨 모델이 F1 Score 0.945의 성능으로 데이터 증대 분류 모델 중에서 가장 좋은 성능을 보였다. Cifar10을 사용해 증대한 모델 또한 SVHN만큼은 아니지만, 원본보다 나아진 성능을 보여주었다. 세 가지 증대 정책을 보면 Cifar10와 Image- Net의 경우 Contrast, Equalize, Color와 같이 색을 변환하는 정책들이 많이 포함되어있다. 반면에 SVHN은 다른 두 증대 정책과 비교하면 Shear, Invert같이 이미지 크기나 좌표를 변환시키는 정책들이 대다수이다. 잎의 색 특징을 보존하면서 이미지를 변환시키는 정책들이 토마토 병충해 분류 모델에서 더 나은 성능 향상 효과를 보여주었다.

DCGAN으로 증대한 결과는 예상만큼 좋지 않았다. Accuracy는 0.979의 성능이 나왔으며 Recall의 경우 0.958의 수치로 원본과 증대 분류 모델보다 좋아진 모습을 보였지만 Precision의 수치가 많이 낮아지면서 병충해를 예측하는 성능이 떨어진 것을 볼 수 있었다. 그 이유로는 GAN의 경우에는 데이터를 생성해 낼 때 충분한 양의 데이터가 요구되지만 몇 병충해는 생성해내기에 많지 않은 데이터의 양을 가지고 있었다. 사용한 데이터셋 중에서 적은 양을 가지고 있던 나방류 애벌레, 흰가루병, 토마토 퇴록 바이러스는 DCGAN으로 생성하고 유사도 검사로 검증했을 때 많은 데이터가 학습에 사용되지 못하였다. 특히 흰가루병과 토마토 퇴록 바이러스는 학습 데이터셋에 두 장 추가되면서 많은 데이터가 증대되지 못했다. 데이터의 수가 많은 병충해는 많게, 적은 병충해는 적게 추가되면서 데이터셋의 불균형이 심해져 분류 성능이 낮아진 모습을 보였다.

4. 결 론

토마토는 대표적인 시설 원예 작물로 사람들의 수요가 증가하면서 생산량 및 면적 당 생산량도 증가하고 있다. 시설에서 재배하는 만큼 관리가 쉽지만 같은 환경에 있어서 병해나 충해에 취약해질 수 있다. 병충해를 방제하는 방법은 발견 시 병에 맞는 대처를 취하거나 미리 살충제와 농약을 뿌리는 방법이 있다. 하지만 증상을 발견했을 때 어떤 병충해인지 알아보기는 쉽지 않으며 전문가의 의견을 구해도 시간이 오래 걸려 그사이 피해가 커질 수 있다. 이를 해결하기 위해 토마토 병충해 분류시스템을 연구하였다.

병충해의 분류는 토마토 잎을 가지고 Inception V3 네트워크를 학습시켰다. 정상을 포함하여 9종의 클래스를 분류할 수 있게 하였으며 그 성능은 F1 Score 0.93으로 병충해를 잘 분류하였다. 분류 성능을 더 증가시키기 위해 이미지 증대 알고리즘 중 하나인 AutoAugment와 이미지를 생성해내는 DCGAN을 이용해 학습 데이터를 증대하고 학습시켰다. 그 결과 DCGAN은 0.89의 F1 Score로 원본보다 성능이 좋지 않았지만, Auto- Augment의 SVHN을 이용해 학습시킨 분류 모델이 원본보다 좋은 분류 성능을 기록하며 데이터 증대에 대한 효과를 보였다. GAN의 경우에는 이미지 생성 성능이 좋아질 만큼 데이터를 추가하거나 적은 데이터로도 좋은 데이터를 생성해 낼 수 있는 후속 연구가 필요해 보인다.

잎을 통한 병충해의 분류는 농사를 짓는 농부들에게 훌륭한 병충해 방제 수단이 될 수 있다. 병충해 식별까지의 걸리는 시간을 줄일 수 있으며 그에 따라 발생할 수 있는 피해도 감소시킬 수 있다. 연구의 결과로 많지 않은 병충해 데이터도 증대를 통해 분류 모델 학습에 대한 성능의 향상이 가능하고 이는 앞으로의 병충해 탐지 연구에 많은 도움이 될 것이다.

Acknowledgements

This work was supported by the National Research Foundation of Korea(NRF) grant funded by the Korea government(MSIT) (No. 2017R1E1A1A03070297). This research was supported by the MSIT(Ministry of Science and ICT), Korea, under the ITRC (Information Technology Research Center) support program(IITP- 2020-2018-0-01433) supervised by the IITP(Institute for Information & communications Technology Promotion).

References

1 
Korean Statistics Information Service, Crop Production Survey.Google Search
2 
G. Dhingra, V. Kumar, H.D. Joshi, 2019, A novel computer vision based neutrosophic approach for leaf disease identifi- cation and classification, Measurement, Vol. 135, pp. 782-794DOI
3 
S. Zhang, S. Zhang, C. Zhang, X. Wang, Y. Shi, 2019, Cucumber leaf disease identification with global pooling dilated convolutional neural network, Computers and Elec- tronics in Agriculture, Vol. 162, pp. 422-430DOI
4 
V. Singh, A.K. Misra, 2017, Detection of plant leaf diseases using image segmentation and soft computing techniques, Information processing in Agriculture, Vol. 4, pp. 41-49DOI
5 
S. Sladojevic, M. Arsenovic, A. Anderla, D. Culibrk, D. Stefanovic, 2016, Deep neural networks based recognition of plant diseases by leaf image classification, Computational intelligence and neuroscience, Vol. 2016, pp. 11-22DOI
6 
AI Open Innovation Hub, http://www.aihub.or.kr/Google Search
7 
K. P. Ferentinos, 2018, Deep learning models for plant disease detection and diagnosis, Computers and Electronics in Agriculture., Vol. 145, pp. 311-318DOI
8 
E. D. Cubuk, B. Zoph, D. Mane, V. Vasudevanm, Q. V. Le, 2019, Autoaugment: Learning augmentation policies from data, Conference on Computer Vision and Pattern Recognition(CVPR), pp. 113-123Google Search
9 
I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. C. Courville, 2014, Generative adversarial networks, Advances in Neural Information Processing Systems(NIPS), pp. 2672-2680DOI
10 
A. Radford, L. Metz, 2015, Unsupervised repre- sentation learning with deep convolutional generative adver- sarial networks, arXiv preprint arXiv:1511.06434.Google Search
11 
A. Krizhevsky, I. Sutskever, G. E. Hinton, 2012, Imagenet classification with deep convolutional neural networks, Advances in neural information processing systems(NIPS)., pp. 1097-1105DOI
12 
C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, Z. Wojna, 2016, Rethinking the inception architecture for computer vision, Conference on Computer Vision and Pattern Recognition(CVPR), pp. 2818-2826Google Search
13 
M. Lin, Q. Chen, S. Yan, 2013, Network in network, arXiv: 1312.4400Google Search

저자소개

함현식 (Hyun-sik Ham)
../../Resources/kiee/KIEE.2021.70.1.184/au1.png

He is currently working toward the B.S. and M.S. degree in Department of Electronic Engineering from Kangwon National University, South Korea.

조현종 (Hyun-chong Cho)
../../Resources/kiee/KIEE.2021.70.1.184/au2.png

He received his MS and PhD degrees in Electrical and Computer Engineering from the University of Florida, USA in 2009.

During 2010-2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA.

From 2012 to 2013, he was a Chief Research Engi- neer in LG Electronics, South Korea.

He is currently a professor with the Department of Electronics Engineering and Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, South Korea.