• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (School of Mechanical and Control Engineering, Handong Global University, Korea )



Defect Insulator, Light-weight deep learning, Real-Time Object Detection, Drone Surveillance, EO/IR Image, Embedded GPU

1. 서 론

최근 수년간 딥러닝 기술의 급속한 발전과 함께, 영상 데이터를 활용한 딥러닝 기반 객체탐지 모델이 다양한 분야에서 널리 활용되고 있다. 특별히, 자동화 및 이상탐지와 같은 작업에서 딥러닝 기반 객체탐지는 인간이 수동적으로 작업하기에 위험이 따르는 업무를 대체할 수 있는 대안으로 주목받고 있다(1)-(3).

전력 설비 고장 감지는 자동화와 이상탐지 기술의 적용이 적극적으로 도입되고 있는 대표적인 분야이다. 국내 전력 수요의 지속적인 증가와 함께 관리가 필요한 전력설비의 수는 계속해서 증가하고 있으며, 복잡한 구조의 GIS 변전소가 늘어남에 따라 사람에 의한 모니터닝(4)만으로는 실시간 고장 검출이 어려워지고 있다. 전력 설비 고장 감지 자동화를 위한 다양한 시도들(5)-(9)이 이루어져 왔으나, 이는 규칙기반 시스템으로 구현되어 있기에 예상하기 힘든 사건이 발생했을 시 효율적으로 대응하기 힘든 한계가 있다. 적외선 카메라를 통해 전기 설비에서 방출되는 적외선을 검출하여 주위와의 온도차를 계산하여 고장을 진단하는 시스템이 제안되었으나(8), 우천 시 진단이 불가능하며 주위 온도의 영향을 받는 문제점이 있다. 전력과 온도 데이터의 피어슨 상관계수를 기반으로 한 수학적인 모델을 통해 이상상태를 예측 진단하는 시스템도 제안되었으나(9), 규칙기반으로 동작하기에 예외적인 상황에서 취약할 수 있는 한계가 있다.

본 논문에서는 효율적인 변전소 코로나 이상현상 검출을 위해 드론 열화상 이미지를 활용한 딥러닝 기반 경량화 객체탐지 모델을 적용한다. 기존 선행연구(10)에서는 변전소 애자 및 코로나 검출을 위한 RGB 이미지 기반 딥러닝 객체탐지 모델을 제시하였다. 하지만, 불량애자에서 발생하는 코로나 현상의 경우 비정상적인 온도상승을 초래한다는 점을 고려할 때, 예측 불가능한 환경요인이 존재하는 실제 현장에 적용 가능한 진단방법을 위해서는 RGB 이미지뿐만 아니라 열화상 데이터까지 활용하는 것이 효율적이다. 또한, (10)에서 제시되었던 모델의 경우 제한된 환경의 RGB 이미지에 대해서는 높은 정확도 성능을 보였으나, 경량화에 초점을 맞춰 설계된 모델이다 보니 열화상 데이터가 포함된 복잡한 이미지에서는 정확도가 감소하는 문제가 있다.

본 연구에서는 높은 정확도를 유지하면서도 경량화된 성능을 보유하는 YOffleNet 객체탐지 모델(11)을 활용하여 열화상 이미지 기반 변전소 애자 및 코로나 검출을 진행하고자 한다.

그림 1 드론 EO/IR 이미지 기반 불량애자 검출 예시

Fig. 1 Drone EO/IR Image based Defected Insulator Detection Example

../../Resources/kiee/KIEE.2022.71.3.540/fig1.png

2. 관련 연구

2.1 합성곱 신경망(CNN) 기반 객체탐지 모델

객체탐지는 이미지 내에 존재하는 객체들에 대해 각각의 클래스 정보와 위치 정보를 알아내는 작업을 의미한다. 초기의 딥러닝 기반 객체 검출기는 객체가 존재할 것으로 추정되는 영역을 선별한 뒤, 해당 영역에서 객체 분류를 수행하는 이단계 방식으로 진행됐다. 대표적인 이단계 방식의 객체 검출기인 R-CNN(12)에서는 selective search 알고리즘을 통해 객체 추정 영역을 약 2000개 정도 추출한 후, 각각의 추정 영역에 대해서 이미지 사이즈를 동일하게 조절한 다음 CNN 모델을 거쳐 객체의 클래스 분류를 진행한다. R-CNN은 selective search에 의해 추정된 약 2000개의 영역에 대해서 각각 CNN을 수행하기 때문에 연산 속도가 매우 느린 단점이 있다. Fast R-CNN(13)에서는 selective search를 통해 얻은 객체 추정 영역(ROI)을 CNN을 통과시켜 얻은 특징맵에 투영하는 ROI pooling 기법을 도입하여, CNN 연산을 단 1번만 진행하고도 객체 추정이 가능한 객체 검출기를 제시한다. 그러나, selective search로 대표되는 ROI 생성에 여전히 많은 연산 시간이 소요되기에 Faster R-CNN(14)에서는 region proposal network를 통해 ROI를 생성함으로써 연산 속도를 향상시켰다.

위에서 소개한 이단계 방식의 객체 검출기는 상대적으로 높은 정확도(mAP)를 보이는 반면, 연산 시간이 오래 소요되는 문제점이 있다. Faster R-CNN(14)은 NVIDIA K40 GPU에서 5 fps의 속도로 객체 탐지를 진행하며, 이는 실시간 구동이 요구되는 환경에서 사용하기에는 한계가 있다. 이러한 연산 처리 속도 문제를 해결하기 위한 방법으로 YOLO(15)-(18), SSD(19), RetinaNet(20) 등의 단일단계 방식의 객체 검출기가 제안되고 있다. 단일단계 방식의 검출기는 객체의 위치 추정과 클래스 분류를 한 번에 수행하는 객체 검출기로 상대적으로 연산량이 적고 빠른 추론이 가능하다.

SSD(19)는 multi-scale layer의 특징맵을 사용함으로써 다양한 크기의 객체를 효율적으로 검출한다. 합성곱 필터가 진행됨에 따라 특징맵의 크기가 줄어들게 되고 이를 통해 다양한 크기의 객체를 검출할 수 있다. RetinaNet(20)은 학습 시에 발생하는 클래스 불균형 문제를 해결하기 위해 focal loss라는 손실함수를 도입하여 정확도를 향상시킨다. Focal loss는 기존에 작은 loss 값을 가지는 잘 분류된 샘플에 대해서는 작은 가중치를 부여하며, 기존에 높은 loss 값을 가지는 분류하기 어려운 샘플에 학습을 집중하여 클래스 불균형 문제를 해결한다.

YOLO(15)는 객체 검출 문제를 회귀 문제로 접근한다. 입력 이미지에 대해 SxS 의 그리드 셀을 생성하고, 각각의 그리드 셀에 대해 B 개의 바운딩 박스를 할당한다. 생성된 각 그리드 셀에 대해 물체가 존재할 확률인 confidence score를 계산하고, 할당된 각각의 바운딩 박스에 대해 박스의 위치 정보(x,y,w,h)와 어떤 클래스에 해당되는지에 대한 conditional class probability를 추론한다. YOLOv2(16)에서는 특징 추출을 위한 backbone network를 기존의 VGG16(21) 대신 Darknet19로 대신함으로써 속도 측면에서의 개선을 이뤄낸다. 또한, anchor box의 개념을 도입하고 배치 정규화를 적용함으로써 정확도 측면에서의 개선도 이뤄낸다. YOLOv3(17)는 Backbone-Neck-Head의 구조로 이뤄졌으며 backbone에서는 skip connection(22)을 활용한 Darknet53을 사용하고, neck에서는 Feature Pyramid Network(FPN)(23)를 도입하여 다양한 크기의 객체에 대한 검출 정확도를 향상시킨다. YOLOv4(18)는 YOLOv3의 기본적인 구조를 차용하며, backbone network에서 CSPDarknet53을 도입하고 기존에 FPN으로 구성된 Neck에 Spatial Pyramid Pooling(24), Path Aggregation Network(25) 구조를 추가한다.

2.2 경량화 합성곱 신경망 개발 연구

이전 2.1장에서 소개한 바와 같이 객체탐지의 정확도를 높이기 위한 다양한 연구들이 제시되고 있으나, 이들 모델은 고성능 GPU에서의 동작을 전제로 하고 있기에 임베디드 플랫폼에 탑재하게 될 시 실시간 구현이 어렵다. 경량화 합성곱 신경망 개발 연구는 메모리 사용량 및 연산시간을 감소시켜 고성능 GPU 탑재가 불가능한 임베디드 및 모바일 환경에서의 실시간 딥러닝 모델 구동을 위해 연구되고 있다.

XNOR-Net(26), Bi-Real-Net(27)에서는 네트워크의 가중치를 양자화함으로써 합성곱 필터에 사용되는 메모리 사용량을 감소시킨다. SqueezeNet(28)은 메모리 및 연산량을 감소시키 위해 squeeze layer와 expand layer로 구성된 fire module을 제안하였으며, AlexNet(29)의 정확도를 유지하면서 50배의 메모리 감소를 이뤄냈다. Fire module의 squeeze layer에서는 1x1 합성곱 필터를 통해 채널을 압축하며, expand layer에서 1x1 및 3x3 합성곱 필터를 통해 특징맵 정보를 추출한다. MobileNet(30)에서는 depthwise separable convolution을 도입하여 기존의 합성곱 연산을 depthwise convolution과 pointwise convolution으로 분리하여 연산량을 감소시킨다. MobileNetv2(31)는 1x1 합성곱을 통해 채널을 증가시킨 후 depthwise 합성곱을 진행하는 inverted residual block을 도입한다. Inverted residual block은 특징맵의 차원을 늘려 연산을 진행하며, 저차원의 특징맵을 skip connection(22)으로 출력 특징맵과 연결하기에 적은 메모리를 사용하면서도 깊은 layer까지 필요한 정보를 전달할 수 있게 되는 효과를 지닌다.

ShuffleNet(32)에서는 1x1 합성곱 연산 과정에서 입력 채널을 여러 그룹으로 나눈 후 각 그룹끼리 합성곱을 진행하는 pointwise group convolution을 도입하여 연산량을 감소시킨다. 또한, 서로 다른 그룹끼리의 정보를 뒤섞는 channel shuffle 연산을 통해 group convolution 이후 정보의 흐름이 원활히 일어나도록 한다. 이후 제시된 ShuffleNetv2(33)는 연산 속도를 감소시키기 위해 FLOPs 이외에도 Memory Access Cost(MAC)를 감소시키는 전략들을 제시한다. 1x1 합성곱 시 입출력 특징맵의 채널 크기를 동등하게 가져가며, 원소별 합(elementwise addition) 연산을 concatenation 연산으로 대체함으로써 MAC를 감소시킨다.

3. 드론 열화상 카메라 기반 데이터 전처리

기존 선행연구(10)에서는 드론용 카메라에서 취득한 RGB 이미지만을 활용한 객체검출 모델을 제시하였으나, 본 연구에서는 더욱 강인한 변전소 애자 및 코로나 탐지를 위해 RGB 이미지와 함께 열화상 센서로부터 취득한 열화상 이미지 데이터를 추가적으로 활용한다. 열화상 이미지만을 활용하게 될 시 코로나 현상이 발생한 불량애자에 대해서는 감지가 가능하나, 본 연구에서는 정상애자와 불량애자의 두 가지 객체 모두를 검출하는 것을 목표로 하기에 RGB 카메라와 열화상 이미지를 동시에 활용하여 객체 검출을 진행하였다.

변전소 애자에서 코로나가 발생하게 될 경우 기기 내부의 절연이 파괴되어 비정상적인 온도 상승이 초래된다. 취득된 열화상 이미지에 대해 미리 설정된 Tmin과 Tmax로 double thresholding 알고리즘을 거쳐, 사용자가 원하는 온도 영역의 열화상 픽셀 정보만을 걸러낸다. 본 연구에서는 사용된 실험 장치에 맞춰 Tmin을 30℃로 Tmax를 60℃로 설정했다. 이후, 25℃에서 50℃ 사이의 열화상 데이터에 rainbow colormap을 적용하여 온도 차이를 효과적으로 시각화하게 된다. RGB 카메라와 열화상 센서는 드론으로부터 고정된 위치에 장착되어 있기에, 드론에서 제공되는 두 센서간의 extrinsic parameter를 통해 RGB열화상 이미지의 위치 보정을 진행한다. Colormap이 적용된 열화상 이미지와 grayscale화 된 RGB이미지를 blending함으로써 최종적인 RGB열화상 이미지를 생성한다.

4. 애자 및 코로나 검출을 위한 객체탐지 모델

드론 임베디드 시스템 탑재를 위해서는 적은 메모리에서 실시간 검출이 가능한 경량화 객체탐지 모델이 필수적이다. 본 연구에서는 YOLOv4 기반의 경량화 설계 전략을 적용한 YOffleNet 객체탐지 모델(그림 3)을 적용한다. YOffleNet 객체탐지 모델은 챕터 4.1에서 설명하는 YOLOv4 객체탐지 모델을 기반으로 설계되었으며, 메모리 감소 및 속도 증가를 위해 챕터 4.2에서 설명하는 경량화 전략을 적용한 모델이다.

4.1 YOLOv4 객체탐지 모델

대표적인 단일단계 방식의 검출기인 YOLOv4는 크게 Backbone- Neck-Head의 단계로 구분된다. Backbone은 입력 이미지로부터 고차원의 특징맵을 추출하는 단계로서, VGG, ResNet, DenseNet 등이 주로 사용된다. YOLOv4에서는 DarkNet53에

그림 2 열화상 이미지 전처리 과정

Fig. 2 Thermal Image Preprocessing Step

../../Resources/kiee/KIEE.2022.71.3.540/fig2.png

그림 3 YOffleNet(11) 객체탐지 모델 아키텍처

Fig. 3 YOffleNet(11) Object Detector Architecture

../../Resources/kiee/KIEE.2022.71.3.540/fig3.png

Cross Stage Partial connection(CSP)을 적용한 CSPDarkNet53을 backbone으로 사용한다. CSP(34)는 이전 특징맵의 가중치를 재사용하면서도 중복하여 사용되는 gradient 값을 제거함으로써 연산량을 줄이면서도 성능을 높이는 기법이다.

Neck은 backbone을 통해 나온 특징맵을 입력으로 받아 다양한 scale에 대한 추론이 가능하도록 특징맵을 재구성해주는 역할을 한다. YOLOv4의 neck에서는 Spatial Pyramid Pooling(SPP)(24)을 FCN 네트워크에 맞게 재구성하여 도입한다. YOLOv4의 SPP는 입력 특징맵을 서로 다른 3가지 커널 사이즈의 max-pooling layer에 통과시킨 후 나온 결과를 모두 concatenation하여 출력 특징맵을 내보낸다. SPP를 통해 다양한 크기의 receptive filed에 대한 추론이 가능해지는 효과를 얻으며, COCO 데이터셋에서 SPP를 적용하기 전과 후의 mAP를 비교했을 때 3.2%p의 차이가 나는 것을 확인할 수 있다.(18) 또한, YOLOv4에서는 YOLOv3의 Feature Pyramid Network(FPN)(23)를 대체하는 Path Aggregation Network(PANet)(25)를 도입한다. PANet은 bottom-up path augmentation을 통해 다양한 크기의 객체 추론에 필요한 정보의 흐름을 원활히 하여 정확도를 상승시키는 효과를 얻는다.

Head는 가공된 특징맵을 바탕으로 객체의 위치 및 클래스 추정을 진행하는 단계이다. YOLOv4의 head는 YOLOv3의 head에 제안된 방식을 그대로 사용하였다. PANet을 거쳐 나온 3가지 스케일의 특징맵에 대해 객체 탐지가 진행되며, 이때 anchor box의 크기는 훈련 데이터를 k-means clustering으로 분석하여 결정한다.

4.2 YOLOv4 경량화 설계 전략

본 연구에 사용된 YOffleNet 객체탐지 모델은 YOLOv4 모델 구조를 기반으로 메모리 사이즈 및 MAC 감소를 위해 CSPDarkNet으로 구성된 backbone을 ShuffleNetv2 모듈로 변경하였으며, ShuffleNetv2 모듈이 정보흐름에 이점을 주는 점을 고려해 neck의 PANet 구조를 간소화하는 경량화를 진행했다.

그림 4 CSPDarknet(a)과 ShuffleNetv2(b) 모듈

Fig. 4 CSPDarknet(a) and ShuffleNetv2(b) Module

../../Resources/kiee/KIEE.2022.71.3.540/fig4.png

본 연구에서 차용한 ShuffleNetv2(33)의 MAC 감소 전략은 다음과 같다. 입력 특징맵에 채널 분리(channel split) 연산을 수행하여 입력 채널을 두 개의 분기로 나눈다. 분리된 일부 채널에 대해서는 합성곱 연산을 진행하고 나머지 채널은 identity를 유지한다. 합성곱 연산 시에는 일반적인 합성곱 연산이 아닌 Depthwise Separable Convolution을 통해 연산량을 감소시킨다. 또한, 각각의 합성곱 필터에서 동일한 입출력 채널 크기를 유지하고, 두 분기를 합치는 과정에서 원소별 합 연산 대신 concatenation 연산을 사용하여 MAC를 감소시킨다. (그림 4(b))

YOLOv4 모델의 경우 backbone으로부터 3가지 스케일의 특징맵이 나와 PANet으로 전달된다. 이러한 구조의 PANet은 정보의 흐름을 원활하게 하여 다양한 스케일의 객체에 대한 검출 정확도를 증가시키지만, 파라미터 수와 연산량이 증가하는 단점이 있다. YOffleNet은 기존 YOLOv4에 사용된 PANet을 간소화하여 backbone으로부터 2가지 스케일만의 특징맵만을 전달받아 bottom-up path augmentation을 진행한다. 본 논문에 사용된 YOffleNet 모델의 전체적인 구조는 그림 3과 같다.

5. 실험 및 검증

5.1 데이터셋 취득 및 구성

제안하는 변전소 애자 및 코로나 검출기의 성능분석을 위해 애자에 열선을 감아 코로나 현상을 표현했다. 정상애자(애자)와 불량애자(애자&코란)의 두 가지 클래스의 객체를 검출할 수 있도록 학습용 데이터셋을 구축하였으며, 정상애자 모형 1종과 불량애자 모형 2종의 3가지 형태의 모형을 사용했다.

표 1 열화상 및 RGB 카메라 사양

Table 1 Therml-imaging and RGB Camera Spec.

Thermal-imaging Camera

Sensor

FLIR Lepton 3.5 microbolometer

Sensor Resolution

160x120

HFOV

57°

RGB Camera & Lens

Camera Sensor

CMOS 1/2.4'', 21MP

Lens

LD-ASPH Lens

Aperture

f/2.4

Depth of Focus

26mm

그림 5 애자 및 코로나 모형

Fig. 5 Insulator and Corona Data

../../Resources/kiee/KIEE.2022.71.3.540/fig5.png

FLIR Lepton 3.5 microbolometer (radiometric) 열화상 센서가 장착된 Parrot ANAFI Thermal 드론을 활용하여 다양한 배경, 거리, 각도에서 여러 영상 데이터를 취득하였다. 총 3,776장의 이미지 데이터셋에 대해 라벨링을 진행하였으며, 이 중 1,888장을 학습용, 1,133장을 검증용, 755장을 평가용으로 분류하여 사용했다.

5.2 평가결과 및 검증

제안하는 드론 열화상이미지 기반 변전소 애자 및 코로나 검출 기법의 정확도 및 실시간 구동 가능성을 확인하기 위해 NVIDIA GeForce GTX1080 GPU에서 32의 batch size로 300 epoch 동안 학습을 진행했다. 그림 6은 epoch의 증가에 따른 loss의 감소 변화 추이를 나타내고 있다. Epoch가 300회에 다다름에 따라 loss 값이 수렴하였다고 판단하여 학습을 중단하였다. 성능평가를 위해 기존 선행연구(10)에서 제안되었던 객체탐지 모델 및 대표적인 단일단계 방식의 객체탐지 모델인 YOLOv4(18)의 성능을 함께 비교했다. 모델의 메모리 사이즈, 추론 속도(fps), 정확도(mAP)를 검증 지표로 사용했다. 또한, 임베디드 환경에서의 실시간 구동 가능성을 확인하기 위해 고성능 연산 처리가 가능한 PC 환경(PC GPU, PC CPU)와 고성능 연산이 불가능한 임베디드 플랫폼 환경(NVIDIA Jetson Nano)에서의 추론 속도를 각각 비교하였다. 선행연구 객체탐지 모델은 c/c++ 기반 darknet 프레임워크에서 동작하며, YOLOv4와 YOffleNet 모델은 python 기반 Pytorch 프레임워크에서 동작하도록 설계했다. 본 연구에서 적용한 YOffleNet 모델의 경우 640x640의 이미지를 입력으로 받으며, 향후 시선각 추정 알고리즘 적용 시 정밀도 향상을 위해 비교 모델 대비 4배 이상의 높은 해상도에서도 객체 검출이 가능하도록 설계되었다. NVIDIA GTX 1080 Ti GPU에서 추론 속도를 확인했을 때 YOffleNet 모델은 121.9 fps로 대표적인 실시간 모델인 YOLOv4 대비 1.93배 빠르게 동작하였으며, CPU(Intel i7-8700K @ 3.70GHz)에서는 3.8 fps로 YOLOv4 대비 1.9배 빠르게 동작하는 것이 확인됐다. 선행연구 모델 대비 낮은 추론 속도를 지니지만, 8.16배 큰 입력 이미지 해상도로 추정이 가능하며,

그림 6 학습에 따른 Loss 감소 추이

Fig. 6 Loss Reduction Trend as Learning Progress

../../Resources/kiee/KIEE.2022.71.3.540/fig6.png

그림 7 YOffleNet 기반 애자 및 코로나 검출 결과

Fig. 7 Insulator and Corona Detection Result based on YOffleNet Model

../../Resources/kiee/KIEE.2022.71.3.540/fig7.png

표 2 모델별 성능 비교

Table 2 Performance Comparision Table

YOLOv4

선행연구[10]

YOffleNet

Input Resolution

320x320

224x224

640x640

Memory [MB]

148.0

10.0

3.9

FPS on PC GPU

(GTX 1080 Ti)

63.0

240.8

121.9

FPS on PC CPU

(Intel i7-8700K @ 3.70GHz)

2.0

15.5

3.8

FPS on Embedded GPU(Jetson Nano)

2.9

15.8

5.9

mAP (iou=0.5)

99.65%

99.52%

99.50%

2.6배 적은 메모리 사이즈로 구동이 가능한 것을 확인했다. 임베디드 GPU인 NVIDIA Jetson Nano에 탑재하여 추론 속도를 비교하였을 때, YOffleNet은 5.9 fps로 YOLOv4 대비 2.03배 빠른 속도로 동작했다. 정확도 지표인 mAP의 경우 3가지의 모델 모두 99% 이상의 준수한 정확도를 보였다. 메모리 크기에서는 제안하는 모델이 YOLOv4 대비 38배, 선행연구 모델 대비 2.6배 감소되었다. 이를 통해, 메모리 용량이 떨어지고 고성능 연산 처리가 불가능한 임베디드 플랫폼에서 YOffleNet 모델이 효과적으로 동작하는 것을 확인했다.

6. 결 론

본 연구에서는 딥러닝 객체탐지 모델을 활용한 드론 열화상카메라 기반 변전소 애자 및 코로나 현상 모니터링 기법을 제안한다. 열화상이미지 데이터를 활용하여 코로나 효과를 효율적으로 검출할 수 있으며, RGB 이미지와 열화상 데이터 병합을 위한 전처리 과정을 제안한다. 또한, 드론과 같은 임베디드 환경에서는 고성능 GPU를 탑재할 수 없기에 경량화 딥러닝 객체탐지 모델인 YOffleNet 모델을 적용하여 임베디드 플랫폼에서 실시간 구동 가능함을 확인했다.

RGB 이미지는 물체의 형상 정보를 잘 나타낼 수 있으나 상대적으로 형상 정보가 두드러지지 않는 코로나 현상을 감지하는 데는 어려움이 있다. 열화상 데이터를 추가적으로 활용할 경우 코로나 현상에 의한 주변 온도 상승을 감지하여 코로나 현상을 효율적으로 감지할 수 있다. 본 연구에서는 드론으로부터 획득된 열화상 데이터와 RGB 이미지를 합성하는 전처리 방법을 제안한다. 제안하는 전처리 과정을 통해 생성된 이미지를 딥러닝 기반 객체탐지 모델에 입력으로 넣어 애자 및 코로나 현상 검출이 가능함을 확인했다.

본 연구에서 사용한 YOffleNet 객체탐지 모델은 대표적인 객체탐지 모델인 YOLOv4 모델을 기반으로 하였으며, 임베디드 플랫폼 탑재를 위해 ShuffleNetv2 모듈을 적용하고 PANet을 간소화하는 경량화 설계를 적용했다. 제안하는 YOffleNet 모델은 임베디드 GPU 보드인 NVIDIA Jetson Nano에서 YOLOv4 보다 2.03배 빠른 5.9 fps로 동작하는 것을 확인했다. 또한, YOLOv4보다 38배 적은 3.9MB의 매우 적은 메모리만으로 구동 가능한 것을 확인했다.

추후 연구에서는 드론을 통해 실물 애자 및 코로나 데이터셋을 확보하여 제안하는 알고리즘 및 객체검출 모델을 적용할 것이다. 드론을 통해 열화상 데이터 및 RGB 이미지를 실시간으로 수집하여 애자 및 코로나 검출기의 실시간 동작 및 검출 정확도에 대한 분석을 추가적으로 진행할 것이다.

Acknowledgements

본 연구는 2019년도 한국전력공사의 2019년 착수 사외공모 기초연구 사업에 의해 지원되었음 (R19XO01-51). 본 연구는 산업통상자원부(MOTIE)와 한국에너지기술평가원(KETEP)의 지원을 받아 수행한 연구 과제입니다. (No. 20214000000010)

References

1 
S. Y. Choi, April 2020, A Study on the Automation of Cam Heat Treatment Process using Deep Learning, Journal of The Korean Society of Industry Convergence, Vol. 23, No. 2, pp. 281-288DOI
2 
S. H. Kwon, M. J. An, H. C. Lee, December 2018, Fault Detection and Classification of Process Cycle Signals using Density- based Clustering and Deep Learning, Journal of the Korean Institute of Industrial Engineers, Vol. 44, No. 6, pp. 475-482DOI
3 
R. Wang, K. Nie, T. Wang, Y. Yang, B. Long, 2020, Deep Learning for Anomaly Detection, Proceedings of the 13th International Conference on Web Search and Data Mining, pp. 894-896DOI
4 
P. H. Cho, J. Y. Kim, B. H. Lee, S. D. Jeon, 2015, A Study of 154kV Transmition&Substation Operation Procedure, The 46th KIEE Summer Conference, pp. 443-444DOI
5 
B. Kim, 2018, Design and Implementation of Image-base Fault Diagnosis System for Electric Power Transmission Equipment, Sogang Unversity Thesis PaperDOI
6 
J. M. Jeong, J. S. Kim, T. S. Yoon, J. B. Park, June 2018, Drone-based Power-line Tracking System, The transactions of The Koeran Institute of Electrical Engineers, Vol. 67, No. 6, pp. 773-781DOI
7 
F. Zhang, W. Wang, Y. Zhao, P. Li, Q. Lin, L. Jiang, 2016, Automatic Diagnosis System of Transmission Line Abnormalities and Defects based on UAV, 2016 4th International Conference on Applied Robotics for Power Industry, pp. 1-5DOI
8 
C. K. Lee, W. G. Baek, S. D. Kim, August 2012, Diagnosis and Evaluation of the Real Time Transformer by the Infrared Thermal Image Equipment, Journal of the Korean Society of Manufacturing Technology Engineers, Vol. 21, No. 4, pp. 666-671DOI
9 
J. M. Jung, S. H. Park, Y. S. Lee, J. H. Gim, , The Development of Infrared Thermal Imaging Safety Diagnosis System Using Pearson’s Correlation Coefficient, Journal of the Koerean Solar Energy SocietyDOI
10 
S. T. Oh, H. W. Kim, S. H. Cho, J. H. You, Y. S. Kwon, W. S. Ra, Y. K. Kim, November 2020, Development of a Compressed Deep Neural Network for Detecting Defected Electrical Substation Insulators using a Drone, Journal of Institute of Control, Robotics and Systems, Vol. 26, No. 11, pp. 884-890DOI
11 
I. S. Sim, J. H. Lim, Y. W. Jang, J. H. You, S. T. Oh, Y. K. Kim, 2021, Developing a Compressed Object Detection Model based on YOLOv4 for Deployment on Embedded GPU Platform of Autonomous System, arXiv preprint arxiv:2108.00392DOI
12 
R. Girshick, J. Donahue, T. Darrell, J. Malik, 2014, Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 580-587DOI
13 
R. Girshick, 2015, Fast R-CNN, Proceedigns of the IEEE International Conference on Computer Vision, pp. 1440-1448DOI
14 
S. Ren, K. He, R. Girshick, J. Sun, 2015, Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks, Advances in Neural Information Processing Systems, Vol. 28, pp. 91-99DOI
15 
J. Redmon, S. Divvala, R. Girshick, A. Farhadi, 2016, You Only Look Once: Unified, Real-Time Object Detection, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 779-788DOI
16 
J. Redmon, A. Farhadi, 2017, YOLO9000: Better, Faster, Stronger, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 7263-7271DOI
17 
J. Redmon, A. Farhadi, 2018, YOLOv3: An Incremental Improvement, arXiv preprint arXiv:1804.02767DOI
18 
A. Bochkovskiy, C. Y. Wang, H. Y. M. Liao, 2020, YOLOv4: Optimal Speed and Accuracy of Object Detection, arXiv preprint arXiv:2004.10934DOI
19 
W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C. Y. Fu, A. C. Berg, 2016, SSD: Single Shot MultiBox Detector, European Conference on Computer Vision, pp. 21-37DOI
20 
T. Y. Lin, P. Goyal, R. Girshick, K. He, Dollar P, 2017, Focal Loss for Dense Object Detection, Proceedigns of the IEEE International Conference on Computer Vision, pp. 2980-2988DOI
21 
K. Simonyan, A. Zisserman, 2014, Very Deep Convolutional Networks for Large-Scale Image Recognitoin, arXiv preprint arXiv:1409.1556DOI
22 
K. He, X. Zhang, S. Ren, J. Sun, 2016, Deep Residual Learning for Image Recognition, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 770-778DOI
23 
T. Y. Lin, P. Dollar, R. Girshick, K. He, B. Hariharan, S. Belongie, 2017, Feature Pyramid Networks for Object Detection, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp. 2117-2125DOI
24 
K. He, X. Zhang, S. Ren, J. Sun, January 2015, Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 37, No. 9, pp. 1904-1915DOI
25 
S. Lin, L. Qi, H. Qin, J. Shi, J. Jia, 2018, Path Aggregation Network for Instance Segmentation, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 8759-8768DOI
26 
M. Rastegari, V. Ordonez, J. Redmon, A. Farhadi, 2016, XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks, European Conference on Computer Vision, pp. 525-542DOI
27 
Z. Liu, B. Wu, W. Luo, X. Yang, W. Liu, K. T. Cheng, 2018, Bi-Real Net: Enhancing the Performance of 1-bit CNNs with Improved Representational Capability and Advanced Training Algorithm, Proceedings of the European Conference on Computer Vision, pp. 722-737DOI
28 
F. N. Iandola, S. Han, M. W. Moskewicz, K. Ashraf, W. J. Dally, K. Keutzer, 2016, SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size, arXiv preprint arXiv:1602.07360DOI
29 
A. Krizhevsky, I. Sutskever, G. E. Hinton, 2012, Imagenet Classification with Deep Convolutional Neural Netowrks, Advances in Neural Information Processing Systems, Vol. 25, pp. 1097-1105DOI
30 
A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, H. Adam, 2017, MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications, arXiv preprint arXiv:1704.04861DOI
31 
M. Sandler, A. Howard, M. Zhu, A. Zhmoginov, L. C. Chen, 2018, MobileNetV2: Inverted Residuals and Linear Bottlenecks, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 4510-4520DOI
32 
X. Zhang, X. Zhou, M. Lin, J. Sun, 2018, ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 6848-6856DOI
33 
N. Ma, X. Zhang, H. T. Zheng, J. Sun, 2018, ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design, Proceedings of the European Conference on Computer Vision, pp. 116-131DOI
34 
C. Y. Wang, H. Y. M. Liao, Y. H. Wu, P. Y. Chen, J. W. Hsieh, I. H. Yeh, 2020, CSPNet: A New Backbone That Can Enhance Learning Capability of CNN, Proceedings of IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 390-391DOI

저자소개

유지환 (Jihwan You)
../../Resources/kiee/KIEE.2022.71.3.540/au1.png

He received the B.E. and M.S. degrees in mechanical and control engineering from Handong Global University, Korea, in 2019 and 2022, respectively.

His research interests include machine vision for smart factory and compressed deep learning model for 2D/3D image object detection.

나원상 (Won-Sang Ra)
../../Resources/kiee/KIEE.2022.71.3.540/au2.png

Won-Sang Ra received his B.S. degree in Electrical Engineering, M.S. degree in Electrical and Computer Engineering, and Ph.D. degree in Electrical and Electronic Engineering from Yonsei University, Seoul, South Korea in 1998, 2000, and 2009, respectively.

From 2000 to 2009, he was with the Guidance and Control Department, Agency for Defense Development, Daejeon, South Korea, as a Senior Researcher.

Since 2009, he has been with the School of Mechanical and Control Engineering, Handong Global University, Pohang, South Korea, where he is currently a Professor.

His main research topics are related to the robust filtering theory and its applications to autonomous vehicle guidance, control, and sensor fusion.

김영근 (Young-Keun Kim)
../../Resources/kiee/KIEE.2022.71.3.540/au3.png

He received his M.S, Ph.D. degrees in mechanical engineering from the Korea Advanced Institute of Science and Technology (KAIST), Daejeon, South Korea, in 2010, 2014, respectively.

Since 2014, he has been with the Department of Mechanical and Control Engineering, Handong Global University, where he is currently an Associate Professor.

His research interests include industrial AI, machine vision for smart factory and deep learning for 2D/3D images.