• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Digital Solution Lab. KEPCO Research Institute, Korea)



Deep Learning, Convolutional Neural Network, Power Transmission Facility Diagnosis, Object Segmentation and Tagging

1. Introduction

최근 드론을 활용한 업무 영역은 방송 등과 같은 엔터테인먼트 사업에서부터 군부대 또는 토목 분야와 같은 산업현장까지 다양하게 확산되고 있다. 주로 드론 활용은 드론에 부착된 카메라의 영상을 활용하는 목적으로 출발했지만, 최근에는 인공지능 기술을 접목하여 드론으로 촬영한 영상을 분석하여 산업현장에서 업무 수행 목적으로 활용되고 있다(1).

이러한 기술개발 경향과 더불어, 최근 전력산업 분야에서도 드론을 활용한 송배전설비 진단 기술개발 연구가 진행되고 있다. 특히, 딥러닝 기술을 활용하여 촬영된 영상 속에서 진단대상이 되는 전력설비를 정확하게 인식하는 기술과 인식된 설비의 상태를 정상, 비정상 등으로 판단하는 기술은 시스템의 중요한 부분을 차지한다.

그러나 설비의 이상 유무를 판단하는 자동 진단시스템을 위한 딥러닝 알고리즘 개발은 일반적으로 비정상 설비의 영상이 정상인 설비의 영상보다 많지 않아서 학습에 어려움이 있는 상황이다. 즉, 충분한 학습 영상을 확보하지 못하는 이유로 학습의 정확도를 향상시키지 못하는 결과를 가져올 수밖에 없는 상황이다. 따라서, 제한된 사례별 이미지 내에서 학습 데이터를 더 많이 확보하고, 학습에 활용할 수 있는 연구개발의 필요성이 대두된다.

그러므로 본 연구에서는 Segmentation과 Tagging을 이용한 딥러닝 기반의 송전 설비(Power Transmission Facility) 학습 알고리즘인 DeepMultiSeg를 제안한다. 제안된 DeepMultiSeg는 현장에서 수집된 송전설비 고장 영상을 활용하여 학습 데이터를 기존 대비 몇십 배 증가하여 확보하는 기술이다.

2. Related Work

2.1 Convolutional Neural Network(CNN)

최근 딥러닝 기술의 발달로 다양한 분야에서 딥러닝 응용 분야가 빠르게 확산하고 있다. 그 중 Convolutional Neural Network(CNN)는 Image Detection과 Image Classification 분야와 같은 이미지 분석에서 높은 성능을 나타내는 딥러닝 모델로 잘 알려져 있다. CNN은 하나 또는 여러 개의 Convolutional layer와 그 위에 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(Pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 2차원 구조의 입력 데이터를 충분히 활용할 수 있다(2).

ImageNet Large-Scale Visual Recognition Challenge (ILSVRC)는 컴퓨터 비전 분야에서 여러 딥러닝 모델들의 정확도를 기준으로 매년 랭킹을 부여하였으며 AlexNet, GoogleNet, ResNet, SENet, YOLO 등과 같이 여러 아이디어 기반의 아키텍처 설계를 적용하여 높은 성능을 증명한 CNN 모델들이 등장하였다(3)-(7). 그 중에서도 최근에는 여러 버전의 YOLO 모델이 등장하여 CNN 모델의 새로운 선두주자로 주목받고 있다. YOLO의 최신 버전인 Darknet-53(YOLO v3)는 Bounding Box Prediction, Class Prediction, Predictions Across Scales, Feature Extraction 등과 같이 여러 Task에서 최적화를 진행하였다.

Bilel Benjdira 연구팀은 Faster R-CNN과 YOLO v3를 활용하여 Unmanned Aerial Vehicles(UAV)를 이용한 Car Detection 연구를 진행하였으며, YOLO v3가 Faster R-CNN 대비 성능이 더 높았음을 증명하였다(8). 그리고 Wenwei Xu 연구팀은 Water Power Application을 위해 YOLO v3를 이용한 Underwater Fish Detection 알고리즘을 개발하였으며, Jiwoong Choi 연구팀은 자율주행을 위한 Gaussian YOLO v3 알고리즘을 개발하는 등 다양한 산업분야에서 YOLO v3 기반 연구가 진행되고 있다(8)-(11).

2.2 Object Detection System

앞서 설명한 바와 같이 딥러닝 기술의 발달로 인한 응용 분야가 확장됨에 따라 Object Detection System에도 여러 딥러닝 기술이 활용되고 있다. Feiya Lv 연구팀은 Object Detection System의 핵심 기술에 해당하는 Fault Diagnosis 성능에서 최근 딥러닝 기술이 Principle Component Analysis(PCA), Independent Component Analysis (ICA) 등의 기존 기술과 비교하면 성능이 우수함을 증명하였다(12). 그리고 David Wilson 연구팀은 Power Transmission System에서 Cyber-Attack Detection을 진단하기 위한 Stacked Autoencoder(SAE)를 개발하였으며, Avagaddi Prasad 연구팀은 Power Transmission Line을 진단하기 위한 여러 머신러닝 및 딥러닝 기반의 방법론들을 정리한 리뷰 논문을 발표하는 등 Object Detection System의 성능을 증가시키기 위한 연구자들의 노력은 지속되고 있다(13)-(14). 이처럼 딥러닝 기반의 Object Detection System을 개발하면 높은 성능 효과를 거둘 수 있다는 장점이 있다.

3. Multi Segmentation and Tagging 알고리즘

3.1 System Architecture

본 논문에서 제안하는 학습이미지 데이터의 멀티 세그멘테이션 및 태깅 알고리즘의 시스템 구조는 그림 1과 같다. 손상 영상을 입력받고, 사용자가 태깅 툴을 활용하여 해당 영상 중 손상영역 지정 및 영역의 종류를 지정하면, Segmentation and Tagging Function을 적용하여 영역 내 설비 손상 부분을 자동 태깅 분할하여 그 정보를 저장하고, Deep Learning Function을 통해 딥러닝 진단 학습 수행 후 진단 시뮬레이션을 통해 설비 검출과 진단 정확도를 검증하는 절차로 진행된다.

수집된 손상 이미지가 학습자에 의해 영역이 지정되면, 시스템에 의해 아래와 같은 단계로 자동 학습 데이터가 생성된다. 첫째, 지정된 손상 영역의 외곽선을 추출하고, 둘째로 연속된 형태의 외곽선 변화 위치를 지정하고, 셋째로 지정된 영역을 잇는 선분을 구성한다.

그림 1 시스템 아키텍쳐

Fig. 1 System Architecture

../../Resources/kiee/KIEE.2022.71.2.436/fig1.png

다음으로는 본 진단에 활용된 CNN에서 추천하는 최소 크기인 16 pixel x 16 pixel size를 기준으로 가로, 세로 정비율을 유지한 채, 적용 가능한 최대 크기까지 10% 비율로 키우며 자동으로 분할 영역을 정의한다.

각 분할된 분할영역은 학습자가 지정한 Label과 동일한 정보로 학습 데이터를 생성하고 이를 통해 학습을 수행하게 된다. 위와 같이 손상된 하나의 이미지 영역을 분할하여 학습함으로써, 기존 방식에서는 1개의 이미지에 1개의 학습 오브젝트가 생성되지만, DeepMultiSeg는 1개의 이미지가 다수의 학습 데이터로 구축될 수 있다. 이 수량은 손상영역의 크기가 크고, 이미지 해상도가 좋을수록 더 많은 학습 데이터를 생성 가능하게 된다. 또한, 손상된 영역의 다양한 부분 특징을 학습하여 비정형으로 손상되는 형태 검출에도 효과적으로 대응할 수 있는 학습 모델을 생성할 수 있다. 특히, 학습자에 의해 일관성 없는 형태의 분할 태깅보다 다양하게 구성될 수 있어 학습 성공률 및 검출률 증대에 기여할 수 있다.

3.2 Segmentation and Tagging Function

Segmentation and Tagging Function은 입력된 송전설비 이미지 내에서 손상된 영역을 학습자에 의해 영역 지정 및 식별하는 ①사용자 영역 지정 모듈과 지정된 영역 내에서 이미지의 외곽선을 추출하고, 그 외곽선의 조합을 연결하여 손상영역을 도출하고, 도출된 영역을 다양한 크기로 자동 분할 태깅하는 기능의 ②자동 태깅 분할 모듈, 영상이미지를 관리하여 사용자 영역지정과 자동 태깅 분할에 활용할 영상 이미지를 저장하는 ③영상 데이터베이스, 그리고 태깅된 정보를 저장하고 학습 시 해당 정보를 제공하는 ④태깅 데이터베이스로 구성된다.

Segmentation과 Tagging 기능의 세부 모듈의 동작 및 기능을 보다 상세하게 설명하면 그림 2와 같다. 수집된 손상 부위가 포함된 송전설비 이미지에서 학습 시행자는 Damage Area Detection Module을 활용하여 송전설비의 영역 및 해당 설비의 손상 영역 위치지정을 수행하고 해당 손상 영역 식별 및 손상 종류를 분류한다((a)Tagging, (b)Labeling). 이때 Damage Area Detection Module에 포함된 마우스 끌기 형태의 영역지정, 영역 지정 후 식별을 위한 메뉴 기능을 활용하여 빠르게 태깅 업무를 수행할 수 있다.

그림 2 세그멘테이션과 태깅 기능 구조

Fig. 2 Structure of Segmentation and Tagging Function

../../Resources/kiee/KIEE.2022.71.2.436/fig2.png

학습자가 최초 영역을 지정하는 작업을 종료한 후, Automatic Tagging and Segmentation Module에 의해 최적의 외곽선 검출을 위해 반복 시행하며, 레벨차가 충분할 경우 해당 영역에서 코너를 검출하고, 선분을 연결하여 손상 영역의 패턴을 생성한다. 그리고 16 pixel x 16 pixel에서 증감된 Grid Box와 패턴을 매칭하여 자동 태깅 영역을 생성하는 일련의 절차로 진행된다((a)Damage Area Analysis, (b)Automatic Tagging Generation).

3.3 Deep Learning Function

Deep Learning Function의 세부 모듈의 동작 및 기능은 그림 3과 같다. 태깅 완료 후 수집된 이미지와 태그 데이터를 활용하여 학습을 수행하는 ①Deep Learning Module과 그 결과를 시뮬레이션을 통해 최종 확인하는 ②Simulation Module, 그리고 학습한 결과를 저장하는 ③Learning Database로 구성된다.

Deep Learning Module은 YOLO v3에서 제공하는 학습 수행 진행 사항의 모니터링을 생성하고, 모니터링 정보 위에 학습 데이터가 정상적으로 적층되는지를 확인할 수 있도록 학습 손실율 현황을 모니터링한다. 반복 학습 수행간 손실율 그래프와 함께 검출 성능을 지속적으로 확인하기 위한 학습 성능 모니터링으로 학습의 정량적 성공률을 미리 확인한다((a)Loss Monitoring, (b)Performance Monitoring).

그림 3 Deep Learning Function 구조

Fig. 3 Structure of Deep Learning Function

../../Resources/kiee/KIEE.2022.71.2.436/fig3.png

시뮬레이션 모듈은 학습된 모델을 등록하고 모델에 대한 검증 영상의 Mean Average Precision(mAP) 검출을 수행하는 역할을 한다. 학습 완료된 모델을 시스템에 등록하고, 모델의 세부 파라미터를 조정한 후 검증 영상을 활용해 정상 탐지, 오탐지, 미탐지 결과로 분류하는 모델별 시뮬레이션과 시뮬레이션 결과 검색으로 해당 결과를 통해 딥러닝 성능 지표로 널리 사용되는 mAP를 도출하고 결과를 확인한다((a)Simulation, (b)Simulation Result). 본 연구에서 활용한 YOLO v3의 구조는 표 1과 같다.

표 1 Darkent-53(YOLO v3)의 구조

Table 1 Architecture of Darknet-53(YOLO v3)

Type

Filters

Size

Output

Convolutional

32

3 * 3

256 * 256

Convolutional

64

3 * 3 / 2

128 * 128

Convolutional

32

1 * 1

Convolutional

64

3 * 3

Residual

128 * 128

Convolutional

128

3 * 3 / 2

64 * 64

Convolutional

64

1 * 1

Convolutional

128

3 * 3

Residual

64 * 64

Convolutional

256

3 * 3 / 2

32 * 32

Convolutional

128

1 * 1

Convolutional

256

3 * 3

Residual

32 * 32

Convolutional

512

3 * 3 / 2

16 * 16

Convolutional

256

1 * 1

Convolutional

512

3 * 3

Residual

16 * 16

Convolutional

1,024

3 * 3 / 2

8 * 8

Convolutional

512

1 * 1

Convolutional

1,024

3 * 3

Residual

8 * 8

Avgpool

Global

Connected

1,000

Softmax

4. Experiments and Results

4.1 학습데이터 생성 실험

학습 시행자에 의해 상단의 학습자영역 지정 업무가 완료된 후, Automatic Tagging and Segmentation Module은 학습 시행자의 입력이 종료된 것을 확인하고, Damage Area Analysis를 수행한다. Damage Area Analysis로 영역 내 외곽선을 검출하고, 검출된 외곽선 코너 부분을 찾아 연결한다. 그리고 단순 외곽선 코너 연결로는 손상된 영역을 모두 학습에 포함시킬 수 없어, 손상된 영역을 잇는 코어 선분을 추가하여 태깅시 변화가 많은 지역과 각 지역을 연계할 수 있는 코너 중심 선분을 추가하여 생성한다. 이 검출된 변화영역 및 선분은 이후 Box Grid 영역과 비교하여 겹치는 영역에 대한 태그를 수행하게 된다. 위에서 언급한 절차를 이용한 활용 사례는 그림 4와 같다.

그림 4 애자 고장영역 분석의 사례

Fig. 4 Example of Damage Area Analysis for Insulator

../../Resources/kiee/KIEE.2022.71.2.436/fig4.png

상기 절차가 완료되면 16 pixel x 16 pixel size를 기준으로 10%씩 증가한 Grid를 생성한다. 이때 최소 사이즈 16 pixel을 적용한 이유는 딥러닝 모델 YOLO v3에서 가이드하는 학습 적층에 적합한 이미지 최소 해상도가 16 pixel x 16 pixel이기 때문이다. 위 방식으로 생성된 Box Grid와 손상 영역 분석 결과에서 도출된 코너, 중앙 선분 연결 부분을 비교하여 겹치는 영역들을 선정하고, 해당 영역들을 세부 자동태그 생성 및 관리를 통해 분할 태깅을 수행한다.

그림 5 손상된 애자의 자동 태깅 이미지 생성 사례

Fig. 5 Example of Automatic Tagging Image Generation for Damaged Insulator

../../Resources/kiee/KIEE.2022.71.2.436/fig5.png

그림 5는 Automatic Tagging Generation의 일부 예시이다. 흰색 선 영역은 분할 영역으로 생성된 Box Grid이며, 적색 Box 영역은 자동으로 태깅된 영역을 나타낸다. 아래와 같은 다양한 비율의 Size로 태깅 영역이 생성되고, 적은 학습 데이터 이미지를 활용하여 학습 수행의 정확도를 올릴 수 있는 학습 데이터를 증가시켜 활용할 수 있다.

본 실험에서 Segmentation and Tagging Function의 결과로 추출한 데이터셋은 표 2와 같이 원본 이미지 개수는 50개, 학습을 위한 이미지 개수는 40개, 검증을 위한 이미지 개수는 10개이다. 그리고 DeepMultiSeg의 Segmentation and Tagging Function에 의한 결과로 추출된 이미지는 총 426개로써 원본 이미지 대비 10.65배 증가하였으며, 딥러닝을 위한 학습데이터로 활용되었다.

표 2 DeepMultiSeg의 데이터셋

Table 2 Dataset of DeepMultiSeg

The Number of Images

The Number of Learning Images

The Number of Validation Images

The Number of Images from Segmentation and Tagging Function

50

40

10

426

4.2 Deep Learning 학습결과 성능 검증

DeepMultiSeg의 Deep Learning Function 성능검증 실험을 위해 K계수가 5로 설정된 K-겹 교차 검증 기법을 활용하였다. 표 3그림 6은 기존 방식의 한 개의 고장 이미지를 한 개의 학습 객체로 학습하는 방식의 결과로써, 이미지 내 학습 대상을 설비 내 불량 영역 전체를 하나로 라벨링하는 방식이다. 학습은 전체 불량 설비 데이터 중 80%를 사용하였으며 검증은 데이터 중 학습에 사용되지 않는 20%를 활용하였다. 총 5회에 거쳐 K-겹 교차 검증을 수행하였다.

표 3 싱글 태깅 데이터셋 검증 결과

Table 3 Validation Result using Single Tagging Dataset

Original Image

Training Set

Validation Set

TP

FP

FN

Image

Label

Image

Label

Image

Label

50

50

40

(1~40)

40

10

(41~50)

10

3

1

7

50

50

40

(11~50)

40

10

(1~10)

10

4

0

6

50

50

40

(1~10, 21~50)

40

10

(11~20)

10

3

0

7

50

50

40

(1~20, 31~50)

40

10

(21~30)

10

7

2

3

50

50

40

(1~30, 41~50)

40

10

(31~40)

10

1

4

9

Average

Detection Rate 50%, Accuracy 72%

그림 6 싱글 태깅 데이터셋 적용 성능

Fig. 6 Performance of Single Tagging Dataset

../../Resources/kiee/KIEE.2022.71.2.436/fig6.png

그림 6의 학습 손실율을 나타내는 청색 라인은 70%대 이상으로 유지되어 학습 모델에 데이터가 정상적으로 적층되지 않는 것으로 확인할 수 있다. 평균 정밀도를 나타내는 적색 라인은 mAP 최대값이 낮은 30%대를 나타내는 것을 확인할 수 있으며, 최종 학습 결과, 평균 정밀도 mAP는 39.2%의 낮은 결과를 나타냈다.

반면에 표 4그림 7은 DeepMultiSeg의 Segmentation and Tagging Function과 Deep Learning Function을 활용한 결과이다. 앞서 설명한 Single Tagging DataSet과 동일한 원본 이미지를 사용하였으며, Labeling 테이터는 DeepMulitSeg 알고리즘에 따른 분할 태깅 방식으로 증가시켰다. 학습 및 검증은 상기 실험과 동일한 방식인 K계수가 5로 설정된 K-겹 교차 검증 기법을 활용하였다.

표 4 멀티 태깅 데이터셋 검증 결과

Table 4 Validation Result using Multi Tagging Dataset

Original Image

Training Set

Validation Set

TP

FP

FN

Image

Label

Image

Label

Image

Label

50

426

40

(1~40)

339

10

(41~50)

87

81

3

6

50

426

40

(11~50)

335

10

(1~10)

91

78

5

13

50

426

40

(1~10, 21~50)

338

10

(11~20)

88

80

3

8

50

426

40

(1~20, 31~50)

332

10

(21~30)

94

87

3

7

50

426

40

(1~30, 41~50_

345

10

(31~40)

81

72

4

9

Average

Detection Rate 94.3%, Accuracy 95.7%

성능 결과는 아래의 그림 7의 학습 손실율을 나타내는 청색 라인이 표시하는 것과 같이 20% 미만의 양호한 학습 손실율을 유지하였으며, 평균 정밀도를 나타내는 적색 라인의 흐름에서 확인할 수 있듯이 mAP의 최대값은 기존 전체를 학습한 알고리즘과 비교시 2배 정도 수준인 39.2%에서 81.1%으로 높은 정확도를 확인할 수 있다.

그림 7 멀티 태깅 데이터셋 적용 성능

Fig. 7 Performance of Multi Tagging Dataset

../../Resources/kiee/KIEE.2022.71.2.436/fig7.png

5. Conclusion

본 연구에서는 딥러닝 기반의 송전설비 진단을 위한 학습데이터 자동생성시스템인 DeepMultiSeg를 제안하였다. DeepMultiSeg는 각 이미지를 작은 사이즈로 자르고, 각 이미지에 라벨로 태깅을 하는 Segmentation and Tagging Function과 이로부터 추출된 이미지 데이터를 학습하고 송전설비를 진단하기 위한 Deep Learning Function 기능으로 구성된다. DeepMultiSeg를 활용하면 손상 영역 내 이미지를 다양한 형태로 분할 태깅 함으로써, 손상 이미지 부족으로 인한 학습 데이터의 부족 현상을 다소 극복할 수 있으며, 실험 결과로 증명한 바와 같이 기존의 일반적인 이미지 라벨링 방법 대비 2배 수준의 정확도를 향상할 수 있었다.

적은 수량의 결함 이미지 데이터를 활용하여 시험하였기 때문에, 성능을 주장하기에는 충분하다고 단언할 수는 없지만, 부족한 결함 데이터 시료를 활용하여 검출 알고리즘을 학습하는 시스템을 개발해야 하는 상황에서는 학습데이터 증대를 위하여 적용할 수 있는 유용한 방법이라고 할 수 있다.

DeepMultiSeg는 동영상이나 확보된 영상 이미지 데이터를 활용하여 더욱 많은 학습데이터를 확보할 수 있기 때문에 딥러닝을 활용한 설비진단 자동화 사업의 추가 연구에 기여할 수 있을 것이다. 향후에는 DeepMultiSeg를 활용하여 다양한 장애설비 학습데이터를 확보하고, 현장에서 드론으로 확보한 영상 화면을 및 실시간으로 분석하는 시스템 개발 연구를 진행할 계획이다.

Acknowledgements

This work was funded by the Korea Electric Power Corporation (KEPCO).

References

1 
S. Javad, T. Elaheh, R. Pedram, H. Mostafa, 2020, A Comprehensive Review of Applications of Drone Technology in the Mining Industry, drons, Vol. 4, No. 34, pp. 1-25DOI
2 
P. Le Callet, C. Viard-Gaudin, D. Barba, 2006, A Convolutional Neural Network Approach for Objective Video Quality Assessment, IEEE Transactions on Neural Networks, Vol. 17, No. 5, pp. 1316-1327DOI
3 
K. Alex, S. Ilya, E. H. Geoffrey, 2012, ImageNet Classification with Deep Convolutional Neural Networks, Proceedings of the 25th International Conference on Neural Information Processing Systems (NIPS), vol. 1, No. pp. 1097-1105, pp. decGoogle Search
4 
S. Christian, L. Wei, J. Yangqing, S. Pierre, R. Scott, A. Dragomir, E. Dumitru, V. Vincent, R. Andrew, 2014, Going deeper with convolutions, arXiv:1409.4842v1, Vol. pp. 1-12Google Search
5 
H. Keiming, Z. Xiangyu, R. Shaoqing, S. Jian, 2015, Deep Residual Learning for Image Recognition, IEEE Conference on Computer Vision and Pattern Recognition (CVPR),, No. pp. 770-778, pp. junGoogle Search
6 
H. Jie, S. Li, S. Gang, 2018, Squeeze-and-Excitation Networks, IEEE Conference on Computer Vision and Pattern Recognition (CVPR),, No. pp. 7132-7141, pp. junGoogle Search
7 
R. Jeseph, D. Santosh, G. Ross, F. Ali, 2016, You Only Look Once: Unified, Real-Time Object Detection, IEEE Conference on Computer Vision and Pattern Recognition (CVPR)Google Search
8 
R. Joseph, F. Ali, 2018, YOLO v3: An Incremental Improvement, arXiv:1804.02767v1Google Search
9 
B. Bilel, K. Taha, K. Anis, A. Adel, O. Kais, 2019, Car Detection using Unmanned Aerial Vehicles: Comparison between Faster R-CNN and YOLOv3, Proceedings of the 1st International Conference on Unmanned Vehicle Systems (UVS)DOI
10 
X. Wenwei, M. Shari, 2018, Underwater Fish Detection using Deep Learning for Water Power Applications, International Conference on Computational Science and Computational Intelligence (CSCI), Vol. usa, No. pp. 313-318, pp. decDOI
11 
C. Jiwoong, C. Dayoung, K. Hyun, L. Hyuk-Jae, 2019, Gaussian YOLOv3: An Accurate and Fast Object Detector Using Localization Uncertainty for Autonomous Driving, International Conference on Computer Vision (ICCV), Vol. korea, pp. 502-511Google Search
12 
L. Feiya, W. Chenglin, B. Zejing, L. Meiqin, 2016, Fault Diagnosis Based on Deep Learning, American Control Conference (ACC), pp. 6851-6856DOI
13 
W. David, T. Yufei, Y. Jun, L. Zhuo, Aug, 2018, Deep Learning-Aided Cyber-Attack Detection in Power Transmission Systems, IEEE Power and Energy Society General Meeting (PESGM), USA, pp. 1-5DOI
14 
P. Avagaddi, J. Belwin Edward, K. Ravi, 2018, A review on fault classification methodologies in power transmission systems: Part-1, Journal of Electrical Systems and Information Technology, Vol. 5, pp. 48-60Google Search

저자소개

정남준 (Nam-Joon Jung)
../../Resources/kiee/KIEE.2022.71.2.436/au1.png

Nam-Joon Jung received his PhD degree in computer engineering from Hanbat University.

He is currently working as a chief researcher and director of Software Technology Center in KEPCO Research Institute Daejeon, Korea.

His research interests are AI, VR/AR and Drone Applications.

황명하 (Myeong-Ha Hwang)
../../Resources/kiee/KIEE.2022.71.2.436/au2.png

Myeong-Ha Hwang is received B.S. degree in Department of Information and Communication Engineering, from Chungnam National Univer sity, South Korea in 2015 and M.E. degree in Information and Communication Network Technology from University of Science and Technology(UST), South Korea in 2018, and currently work for Korea Electric Power Re search Institute.

His current research focuses on Deep Learning and Natural Language Processing.

이동혁 (Dong-Hyuk Lee)
../../Resources/kiee/KIEE.2022.71.2.436/au3.png

Dong-Hyuk Lee is received B.S. degree in Computer Science from Kookmin University(KMU), South Korea in 2018.

He is working for KEPCO Research Institute Daejeon.

His current research interests are AI and Software Quality Assurance.

송운경 (Un-Kyung Song)
../../Resources/kiee/KIEE.2022.71.2.436/au4.png

Un-kyung Song is currently work for Korea Electric Power Research Institute.

She received B.S. degree in Department of Computer Science and Information Engineering from Korea National University of Transportation.

Her research interests are AI and Data Analytics.