• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea.)
  2. (Dept. of Electronics Engineering, Kangwon National University, Korea.)
  3. (Dept. of Forest Science, Kangwon National University, Korea)
  4. (Dept. of Forest Science and Institute of Forest Science, Kangwon National University, Korea.)



Camera trap, Deep learning, Goral, Object detection

1. 서 론

공업기술이 발전하고 이를 뒷받침할 경제가 발전함에 따라 전 세계적으로 산업화와 도시화가 진행되었다. 하지만 개발과정에서 발생한 환경오염, 산림파괴 등으로 인해 야생동물들의 서식지가 훼손되었고, 이로 인해 몇몇 종들은 멸종위기를 맞이하고 있다. 한 생물의 멸종은 단순한 멸종을 넘어 생태계를 혼란스럽게 하는 주된 요인이 되기에 멸종 위기종에 대한 관리가 필수적이다. 대표적인 예시로 1926년 미국 옐로우 스톤 국립공원 사례가 있다. 사람들의 포획으로 인해 옐로우 스톤 국립공원의 최상위 포식자였던 늑대가 멸종위기에 놓였고 이에 따라 사슴과 같은 초식동물의 개체 수가 증가하였다. 초식동물 개체 수의 증가는 국립공원에 존재하는 모든 풀과 나무의 감소를 불러왔고 결국 옐로우 스톤의 생태계는 거의 붕괴되었던 사례가 존재한다(1). 현재 국내에서도 멸종 위기종에 관해 중요성을 인지하고 “야생동물 보호 및 관리에 관한 법률”에 따라 멸종위기 야생생물을 관리 중이지만 1998년부터 2017년까지의 멸종 위기종은 여전히 지속적으로 증가하는 추세를 보인다(2).

그림 1은 국내 멸종 위기종 지정 종 수의 변화를 보여준다. 멸종 위기종 중 특히 산양은 고산 산악지대에 서식하기에 산림개발로부터 직접적인 피해를 받았다. 매년 겨울철 먹이 부족과 더불어 폭설로 인한 고립 사례 등이 발생하면서 피해가 빈번히 발생하는 추세이다. 이러한 이유로 산양은 현재 천연기념물 제 217호이자 환경부 지정 멸종위기 야생생물 Ⅰ급으로, 국제적으로는 IUCN(International Union for Conservation of Nature) 적색목록 VU(Vulnerable) 종이자 멸종위기에 처한 야생동식물의 국제거래에 관한 협약(Convention on International Trade in Endangered Species of Wild Fauna and Flora) 부속서Ⅰ에 등재된 국제적 멸종위기종이다(3). 자연재해와 밀렵, 서식지 단절, 근친교배 등으로 인해 멸종위기에 처한 산양은 2006년부터 국립공원관리공단 종복원기술원을 통해 월악산에서 복원 사업이 진행되고 있다(4).

그림. 1. 국내 멸종위기종 통계 (출처 : 통계청)

Fig. 1. Status of endangered species in Korea

../../Resources/kiee/KIEE.2022.71.9.1308/fig1.png

하지만 사람의 행동이 생태계에 예상하지 못한 결과를 불러올 수 있으므로 멸종위기 야생생물의 성공적인 복원을 위해서는 복원 계획 수립 전 복원 대상 종에 대한 철저한 조사가 필요하다. 또한, 대부분의 복원은 실제 활동이 수행되면서 새로운 정보가 생성되고 더욱 복잡해지기에 복원 실행 전 뿐만 아니라 실행 후에도 정기적인 개체군 및 서식지 분석이 필요하다(5). 산양의 서식실태를 조사하는 방법에는 생태학적 조사인 선조사법, 흔적조사와 무인센서 카메라를 활용하는 카메라 트랩 조사방법이 있다(6). 이 중 카메라 트랩을 활용한 데이터 수집 방식은 야생동물의 행동에 방해를 주지 않고 주기적인 관찰이 가능하여 주간과 야간의 모습을 모두 촬영할 수 있다는 장점이 존재한다. 따라서 일반적인 야생동물 모니터링 방법으로 많이 채택된다(7). 하지만 이미지에서 종이나 개체 수 같은 정보를 추출하는 과정은 인력을 동원한 수동 작업에 의해 이루어지기 때문에 데이터 분석에 비용과 시간이 많이 소요된다는 문제가 있다.

이러한 문제를 해결하기 위해 카메라 트랩에 딥러닝 기술을 적용하는 연구가 진행되고 있다. 기존 연구 중에서 카메라 트랩 이미지에서 동물의 종이나 수, 행동 등의 정보를 자동으로 분류하는 연구가 진행되었다(8). 연구 방식으로는 세계에서 가장 큰 카메라 트랩 데이터인 Snapshot Serengeti 데이터를 AlexNet, VGG, GoogLeNet, ResNet 등을 포함한 9종의 모델과 앙상블 모델에 학습시켜 성능평가를 진행하였다. 이미지에서 야생동물의 포함 여부를 찾는 실험에 대해서는 VGG가 96.8%로 가장 높은 정확도를 보였다. 종을 구별하는 실험에 대해서는 앙상블 모델이 94.9%로 가장 좋은 성능을 보였다. 이러한 정확도는 인간의 분류 정확도와 유사하여 딥러닝을 활용한 데이터 분석은 시간과 인력적인 측면을 감소시킬 수 있음을 보였다. 수집된 이미지에서 야생동물의 종 분류뿐만 아니라 객체의 위치 정보를 알 수 있는 객체 탐지 연구도 수행되어왔다(9,10). 객체 탐지 연구는 빠른 연산속도를 가지는 YOLO와 Faster R-CNN 등을 기반으로 연구가 진행되었다. 따라서 캡처된 이미지가 아닌 실시간 영상에서 종의 분류를 수행할 수 있었다. 또한, 영상 내 한 종의 분류가 아닌 여러 종의 분류도 수행할 수 있음을 보였다. 현재 국내 야생동물 데이터의 수집 과정은 데이터 수집 후 전문가의 수동적인 판별 작업을 거치는 체계를 가진다. 수동 방식의 데이터 분석 절차는 데이터셋의 규모가 커질수록 딥러닝 기반으로 동작하는 데이터 분석 시스템과 처리 속도 면에서 큰 격차를 보일 것이다. 실제로 320만 장이 존재하는 Snapshot Serengeti 데이터 분석에 딥러닝을 활용한 결과 수동 분석과 비슷한 정확도를 유지하면서 약 8년 정도의 분석 시간을 줄일 수 있음을 보였다(11). 따라서 본 연구에서 제안하는 딥러닝 기술을 접목한 카메라 트랩 조사방법은 국내 산양 서식실태 조사에 접목되어 기존보다 빠른 속도의 복원 현황 파악이 가능해질 것이다. 조기 상황 파악은 복원 계획의 수정과 진행에 기여할 수 있기에 성공적인 복원 진행을 기대할 수 있다. 결과적으로 본 연구는 기존의 데이터 분석 과정에 드는 시간과 인력을 획기적으로 줄임으로써 국내 산양의 서식지 및 개체 수 관리에 직접적으로 기여할 수 있는 YOLOv4 기반 산양 탐지 시스템을 제안한다. 객관적인 성능을 얻고자 장기간의 데이터 수집을 진행하여 충분한 양의 데이터로 딥러닝 모델의 학습과 테스트가 진행되었다. 또한, 산양의 특징을 자세히 확인할 수 있는 주간 상황뿐만 아니라 특징이 희미해지는 야간에도 성능을 유지한 산양 탐지 시스템 개발을 목표로 하였다.

2. 본 론

본 연구의 수집 대상인 산양은 주로 높은 산악지대에 서식하기에 데이터 수집을 위한 카메라 설치와 주기적인 카메라 관리에는 현실적으로 다소 어려움이 존재한다. 따라서 한번 카메라가 설치된 후에는 최대한 장기간의 데이터 수집을 실시해야만 한다. 이때, 24시간 촬영되는 영상을 수집하는 것은 저장용량 관점으로 볼 때 비효율적인 방법일 뿐만 아니라 영상 속 산양의 등장 빈도수를 고려할 때 다소 효과적이지 않은 수집방법이라 볼 수 있다. 또한, 산양은 이른 아침과 저녁시간에 가장 활발하게 먹이 활동을 하기에 사람의 육안으로 영상을 감시하기에 적합하지 않다. 따라서 본 연구에서는 무인센서 카메라를 활용하여 센서에 움직임이 관찰될 때 이미지를 촬영하고 저장하는 방식을 활용하여 데이터 수집 효율성을 높였다. 연구 진행을 위한 데이터로 총 4가지 산악지역에 163대의 무인트랩 카메라를 설치하여 산양의 주간과 야간의 다양한 모습을 수집하였다.

2.1 데이터셋 구성

야생동물 데이터 수집에서 중요한 요소 중 하나는 야생동물에게 스트레스를 주지 않고 야생동물의 동선에 영향을 주지 않는 것이다. 산양의 경우 1년에 약 1번 번식하고 한 번에 약 두 마리의 새끼를 낳기에 데이터 수집과정에서 산양의 번식기를 방해하게 된다면 오히려 복원절차가 산양 복원에 악영향을 줄 수 있다. 따라서 본 연구는 무인센서 카메라를 설치하여 데이터 수집 과정에서 산양에게 줄 수 있는 피해를 최소화하고 다양한 시간대의 산양 모습을 수집하고자 하였다. 여러 각도에서의 산양 모습과 동선 파악 등의 목적으로 강원대학교 야생동물 연구실이 2015년 11월부터 2016년 7월까지 설악산 장수대지역과 오색지역에 설치한 95대의 카메라와 2020년 4월 15일부터 2020년 10월 31까지 설악산 국립공원에 설치한 39대, 2020년 4월 1일부터 2020년 12월 15일까지 월악산 국립공원에 설치한 29대의 무인센서 카메라를 통해 얻은 데이터를 학습에 활용하였다. 데이터의 수집은 주로 2688 x 1512의 해상도로 Moultrie사의 M-990n을 통해 이루어졌다. 수집된 데이터에는 산양을 포함하여 멧돼지, 노루, 고라니 등 여러 야생동물이 촬영되었기에 산양이 촬영된 이미지를 분류하는 작업이 수행되었다. 각 야생동물 별로 클래스를 구분할 수도 있지만 학습이 이루어질 만큼의 충분한 데이터가 수집되지 않았기에 클래스는 산양으로만 설정하였다. 또한, 먼지 혹은 날씨 등에 의해 발생한 노이즈는 딥러닝 모델의 가중치 수렴에 방해가 되는 요인이 된다. 따라서 본 연구에서는 다음과 같은 추가 선별 과정을 수행하였다. 우선적으로 수집된 이미지는 카메라의 흔들림이나 서리 등으로 인해 객체 구분이 어려운 이미지를 제외함으로써 전체적인 데이터 품질을 높였다. 또한, 무인센서를 통한 데이터 수집은 화면상 움직임이 센서에 감지될 때 촬영되기에 한 장소에서 수집된 이미지는 동일한 배경과 산양에 대해 유사한 이미지가 여러 장 수집될 수 있다. 이러한 이미지가 딥러닝 모델의 학습과 테스트에 장소별 구분 없이 무작위로 분배된다면 딥러닝 모델의 학습 후 테스트를 진행할 때, 객관적인 성능평가를 진행할 수 없다. 본 연구에서는 이러한 경우를 방지하고자 총 107곳의 장소를 8 : 2의 비율로 나누어 학습에 85곳, 테스트에 22곳으로 분배하여 학습과 테스트에 같은 장소의 이미지가 중복되는 경우가 없도록 하였다. 또한, 산양의 전체 모습이 아닌 일부분만 나온 이미지의 경우 정확한 특징 학습이 이루어지지 않을 수 있으므로 산양 모습이 30% 이상이 포함된 이미지만을 학습에 활용하였다. 최종적인 데이터셋은 주간에 해당하는 Day와 야간에 해당하는 Night 이미지로 구별되지만 딥러닝 모델 학습에는 주간과 야간 이미지를 통합하여 모두 학습에 사용되었다. 자세한 구성과 이미지 예시는 표 1그림 2에 나타내었다. 딥러닝 모델의 학습은 일반적으로 진행하는 학습과 테스트 비율인 8 : 2에 근사하도록 구성하였다.

표. 1. 산양 데이터셋 구성(단위 : 장)

Table. 1. Configuration of the goral dataset

../../Resources/kiee/KIEE.2022.71.9.1308/table1.png

그림. 2. 주간 및 야간에 촬영된 산양 이미지 예시

Fig. 2. Examples of goral images taken during the day and night

../../Resources/kiee/KIEE.2022.71.9.1308/fig2.png

2.2 객체탐지 알고리즘 기반 산양 검출

LeNet이 등장한 이후로 CNN(Convolution Neural Network)은 수많은 네트워크의 발전을 불러왔고 많은 연구를 통해 우수한 분류(Classification) 성능을 가지는 CNN들이 다소 등장하였다. 하지만 컴퓨터 비전 분야의 발전과 연산을 수행할 하드웨어의 발전은 단순 분류를 넘어서 이미지 내 객체의 위치 정보까지 제공할 수 있는 객체 탐지 네트워크의 개발을 가능하게 하였다. 객체 탐지 알고리즘에는 연산 방식에 따라 1-stage detector와 2-stage detector로 나눌 수 있다. 그림 3을 보면 2-stage detector의 경우 이미지에서 후보 영역 추출하는 Region proposal 과정과 후보 영역을 학습하는 과정으로 분리되어 설계된다. 초기 2-stage detector 알고리즘인 R-CNN은 Region proposal 과정을 진행한 후 선택된 후보 영역을 고정된 크기로 변환하고 그 후 최종적으로 CNN을 통해 Classifier를 학습시키는 방식을 사용한다(12). 하지만 R-CNN은 추출된 후보 영역을 전부 사용하기에 연산량이 과도하게 많아 추론 속도가 느리다는 단점을 가진다. 따라서 이를 해결하고자 Fast R-CNN에서는 RoI Pooling을 사용하여 연산량을 큰 폭으로 감소시켰고 더 발전된 모델인 Faster R-CNN에서는 Region Proposal Network(RPN)을 사용하여 연산 속도를 향상시켰다. 하지만 이러한 발전에도 불구하고 Faster R-CNN 조차 5fps의 처리속도를 보이며 실시간으로 정보를 처리하기에는 다소 느린 속도를 가진다.

반면 1-stage detector는 객체 검출 및 분류 그리고 바운딩 박스의 Regression을 한 번에 처리하는 방식으로 연산 속도를 향상시켰다. 본 연구에서 사용된 YOLO(You Only Look Once)는 대표적인 1-stage detector 알고리즘이며 Faster R-CNN 대비 약 6배 정도의 빠른 속도를 가지는 것이 특징이다(13). YOLO의 초기 버전의 경우 빠른 연산속도가 장점이지만 정확도 측면에서 2-stage detector보다 낮다는 단점이 존재하였다. 하지만 적은 파라미터 개수로 좋은 성능을 보이는 Darknet의 개발 및 Batch normalization 같은 모델 학습 과정에서 적용되는 기법을 활용함으로써 정확도가 향상된 새로운 버전이 개발되었다.

그림. 3. (a) 2-stage detector와 (b) 1-stage detector의 흐름도

Fig. 3. Flow chart of (a) 2-stage detector and (b) 1-stage detector

../../Resources/kiee/KIEE.2022.71.9.1308/fig3.png

본 연구에서 활용한 YOLOv4는 하나의 GPU로도 빠르고 정확한 학습이 가능하도록 설계되었고 BoF(Bag of freebies)와 Bos(Bag of specials)를 적용함으로써 정확도와 속도 면에서 성능을 향상시킨 모델이다(14). YOLOv4의 구조는 입력받은 이미지로부터 특징을 추출하는 Backbone, 다양한 크기의 피쳐맵을 추출하는 Neck, 최종적으로 실질적인 객체 검출이 일어나는 Head로 구성된다. 각 구조에 사용된 모델의 설명은 다음과 같다. Backbone 사용된 CSPDarknet53은 레이어의 피쳐맵을 분할한 후 Cross-stage Hierarchy 방법을 통해 결합하여 중복으로 사용되는 기울기 정보를 없앰으로써 연산량을 크게 줄여 실시간 객체 탐지를 가능하게 하였다. Neck에는 SPP(Spatial Pyramid Pooling)와 PAN(Path Aggregation Network)을 사용하여 연산 속도를 거의 감소시키지 않으면서 Receptive filed를 늘리는 등의 효과를 얻었다. Head로는 YOLOv3을 사용하였다. 그리고 Mosaic, SAT(Self-Adversarial Training) 등의 BoF기법을 통해 추론 비용의 증가 없이 성능을 향상시켰고, 활성화 함수로 Mish를 사용하고 WRC(Weighted Residual Connections) 등을 통해 추론 비용은 소폭 상승하지만 성능은 크게 향상시켰다. Mish를 사용한 이유로는 ReLu의 경우 0보다 작은 부분을 전부 0으로 처리하기에 정보의 손실이 발생할 수 있고 Mish를 사용한다면 훈련 속도가 급격하게 느려지는 포화 상태를 방지하는 효과가 있다. 또한, 앞서 언급된 Receptive filed를 키우는 방법은 딥러닝 모델에게 있어 이미지 내 객체뿐만 아니라 주위 환경과의 관계를 고려하여 학습하게 하는 효과를 가진다. 이러한 효과는 숲을 주된 배경으로 하는 산양 데이터셋에서 산양 탐지에 효과적이라 판단되어 YOLOv4를 본 연구의 객체 탐지 알고리즘으로 활용하였다.

2.3 딥러닝 모델 학습

본 연구에 제안한 산양 탐지 시스템을 이미지 촬영 당시 시간대에 영향을 받지 않고 높은 성능을 유지하고자 데이터셋 내 주간과 야간 이미지의 비율을 최대한 동일하게 유지하여 모든 시간대에서의 산양의 특징을 학습하도록 하였다. 학습에 사용된 이미지는 608 x 608 크기로 딥러닝 모델에 입력으로 제공되고 Batch size는 16, 학습률은 0.001로 설정되었다. 표 2는 학습에 사용된 기기와 환경 설정을 나타낸다.

표. 2. 사용된 기기 구성 및 환경 설정

Table. 2. Configuration of device and environment settings

../../Resources/kiee/KIEE.2022.71.9.1308/table2.png

3. 연구결과

학습된 산양 객체탐지 시스템의 성능 평가를 위해서 학습에 사용되지 않은 총 1,710장의 이미지가 사용되었다. 테스트 성능 지표로는 TP(True Positive), FP(False Positive), FN(False Negative)와 Precision, Recall, F1-Score, mAP(mean Average Precision)를 통해 이루어졌다. Precision의 경우 모델이 예측한 객체 중 산양의 비율을 나타내고 Recall은 전체 산양 데이터 중 모델이 예측에 성공한 비율을 나타낸다. F1-Score는 Precision과 Recall의 조화평균을 통해 구할 수 있다. Precision과 Recall, F1-Score에 대한 수식은 다음과 같다.

(1)
$Precision=\dfrac{TP}{TP +FP}$

(2)
$Recall=\dfrac{TP}{TP +FN}$

(3)
$F 1- score=2\times\dfrac{Precision\times Recall}{Precision+Recall}$

mAP는 클래스에 대한 AP(Average Precision)의 평균으로, AP는 Precision-Recall 그래프의 곡선 아래 면적 값에 해당한다. 전체적인 성능 평가 결과는 표 3에 나타내었다. 성능 평가를 위한 테스트는 주간 이미지만 포함된 데이터셋, 야간 이미지만 포함된 데이터셋, 주간과 야간 모두 포함된 데이터셋에 대해 진행되었다. 주간과 야간 데이터셋의 성능을 비교했을 때, Precision은 주간과 야간이 각각 0.908과 0.902로 비슷한 성능을 보이지만 Recall에 대해선 주간의 성능이 0.890 야간이 0.851로 주간의 성능이 유의미하게 높은 것을 알 수 있다.

표. 3. 산양 탐지 시스템 테스트 결과

Table. 3. Result of goral detection system

../../Resources/kiee/KIEE.2022.71.9.1308/table3.png

야간에는 빛의 양이 적기에 산양이 다른 장애물에 겹쳐지거나 산양의 모습 중 일부만 등장할 경우 육안으로도 정확한 탐지에 어려움이 존재한다. 따라서 주간 데이터셋으로 테스트한 결과가 야간 데이터셋에 비해 비교적 높은 성능을 보이는 것으로 판단된다. Classification과 달리 Object detection에서는 임계값으로 설정한 IoU 값보다 딥러닝 모델이 판단한 바운딩 박스의 IoU가 큰 경우에 TP로 분류된다. 만약 IoU의 임계값을 작게 설정한다면 객체의 일부분만 탐지하여도 TP로 분류되어 객관적인 성능 평가를 할 수 없다. mAP는 IoU의 임계값의 변화에 따른 성능을 보여주기에 일반적인 Object detection에서 평가 지표로 사용한다. 본 연구의 테스트는 기준 IoU 값을 보편적으로 사용하는 0.5로 설정하였기에 산양 탐지 시스템의 탐지한 바운딩 박스가 Ground truth와 IoU 0.5 이상일 경우 TP로 분류된다. 결과적으로 본 연구의 산양 탐지 시스템의 mAP를 보면 주간의 경우 0.927, 야간의 경우 0.907의 성능을 보이며 다른 평가지표와 같이 주간에서 더 높은 성능을 보인다. 주간과 야간을 통합한 테스트 데이터셋은 0.915로 높은 성능을 가짐을 확인할 수 있었다. 야간에서의 성능이 주간보다 낮은 이유로는 데이터 품질의 차이가 주된 원인이라 판단된다. 촬영 장소는 산악 지대이기에 일반 야간 사진에 비해 일조량이 매우 적어 적외선 카메라를 통해 촬영이 이루어진다. 그림 4의 야간 이미지를 보면 색상 정보의 활용이 어려울 뿐만 아니라 주간에 비해 노이즈가 다소 발생하게 된다. 이는 산양과 주위 환경의 구분을 어렵게 하여 딥러닝 모델의 탐지 성능에 악영향을 주기 때문에 야간에서의 성능이 주간보다는 감소하는 경향을 보인다. 그럼에도 불구하고 산양 탐지 시스템의 성능은 모든 시간대에서 0.9 이상의 높은 성능을 보인다. 이와 같은 성능은 YOLOv4의 Neck 구조에 적용된 PAN의 영향이라 판단된다. PAN은 Low level의 특징 정보를 High level에 효과적으로 전달할 수 있다. 일반적인 딥러닝 모델에서 Low level은 객체의 경계를 추출하고 High level로 갈수록 점점 세부적이고 자세한 특징을 추출하게 된다. 최종적인 객체 탐지에는 객체의 경계와 세부적인 특징 모두 필요한 정보이기에 결과적으로 PAN은 Localization 성능을 향상시키는 역할로 볼 수 있다. 따라서 본 연구에서도 Low level에서의 산양 정보와 High level에서 산양의 뿔과 같은 자세한 특징이 결합되어 학습이 효과적으로 이루어졌을 것이라 판단된다. 또한, 기존의 Short connection을 사용하던 PAN을 Concatenation을 사용하는 Modified PAN을 변경함으로써 Low level에서의 특징과 High level의 특징을 동시에 가져감으로써 효과적인 특징 학습이 이루어졌을 것이다. 또한, 모든 평가지표는 추가적인 데이터 수집을 통해 성능 향상을 기대할 수 있다. 그림 4에는 본 연구의 전체적인 학습과 테스트 과정을 표현하였다.

그림. 4. 주간 및 야간 산양 탐지 결과

Fig. 4. Result of goral detection at day and night

../../Resources/kiee/KIEE.2022.71.9.1308/fig4.png

그림. 5. 산양 탐지 오탐 및 미탐

Fig. 5. False positive and false negative of goral detection

../../Resources/kiee/KIEE.2022.71.9.1308/fig5.png

그림 4에서 볼 수 있듯 테스트에 사용된 데이터는 산양의 모습이 전체적으로 보이는 이미지도 존재하지만 야간 사진에 나뭇가지와 산양이 일부 겹쳐진 이미지도 존재한다. 하지만 그럼에도 불구하고 정상적으로 산양을 검출하여 본 연구에서 목표로 하였던 주간과 야간 모든 시간대에서의 정확도 높은 산양검출이 이루어졌음을 확인할 수 있다.

4. 결 론

본 연구에서는 YOLOv4를 활용하여 이미지 내 산양의 존재 유무와 위치정보를 빠른 속도로 분석함으로써 기존의 수동적인 데이터 분석 시스템을 대체할 수 있는 산양 탐지 시스템을 제안하였다. 촬영된 이미지 내 산양의 모습을 주간과 야간 구분 없이 준수한 성능으로 탐지를 수행하기 위해 학습 데이터셋은 여러 시간대의 산양의 모습으로 구성하였고 모든 데이터셋에 대해 품질 검사를 진행하여 학습에 방해가 될 수 있는 이미지를 제거하였다. 따라서 선별된 데이터셋으로 학습한 후 성능 테스트를 진행한 결과는 mAP를 기준으로 주간과 야간 각각 0.927, 0.907로 야간에서의 성능이 주간과 비슷하게 유지되었다. 또한, 현재는 캡처된 이미지에 대해서 탐지를 수행하였지만 향후 영상 데이터가 추가로 수집된다면 실시간 영상뿐만 아니라 그림 5와 같은 오탐과 미탐에 대해서도 안정적인 탐지가 가능할 것이라 예상된다. 본 연구의 데이터 수집기간은 2015년부터 2020년까지 이루어졌고 겨울에는 폭설 같은 변수로 카메라의 관리가 어려울 것이라 판단되어 본 연구에서는 수집이 제대로 이루어지지 않았다. 따라서 실질적으로는 수집한 기간은 2년 정도이고 총 이미지 개수는 약 10,000장을 수집하였다. 향후 데이터 수집 시 산양 개체 수의 부족으로 인한 영상 내 등장 빈도수 감소와 카메라를 고산지대에 설치하고 관리해야 하는 어려움이 존재하기에 추가적인 데이터 수집에는 장기간이 소요될 것이라 예상된다. 따라서 향후 연구로는 수집된 이미지에 영상처리적 기법을 적용하는 구글의 대표적인 증대기법인 AutoAugment를 적용하여 데이터 수집의 어려움을 극복하고 결과적으로 산양 탐지 시스템의 성능 향상을 기대할 수 있다. 또한, 본 연구에서 수집하는 데이터는 야외에서 촬영되는 데이터의 특성상 촬영되는 시간 혹은 날씨에 데이터 품질이 영향을 받게 된다. 따라서 이미지 품질 변화에 강건성을 가질 수 있도록 데이터에 적용할 전처리 방법을 연구함으로써 추가적인 성능 향상을 이루고자 한다. 본 연구에서는 CNN 기반의 객체 탐지 알고리즘을 사용하였지만 최근 공용 데이터셋에 대해 우수한 성능을 보이는 Transformer 기반의 객체 탐지 알고리즘과의 성능도 비교해 볼 예정이다.

Acknowledgements

This work was supported by the National Research Foundation of Korea(NRF) grant funded by the Korea government(MSIT) (No. 2017R1E1A1A03070297). This research was supported by Basic Science Research Program through the National Research Foundation of Korea(NRF) funded by the Ministry of Education (No. 2022R1I1A3053872)

References

1 
Robert L. Beschta, 2003, Cottonwoods, elk, and wolves in the Lamar Valley of Yellowstone National Park, Ecological Applications, Vol. 13, No. 5, pp. 1295-1309DOI
2 
Ministry of Environment in Korea, http://stat.me.go.kr.Google Search
3 
J.E. Jang, 2020, Genetic integrity and individual identification- based population size estimate of the endangered long- tailed goral, Naemorhedus caudatus from Seoraksan National Park in South Korea, based on a non-invasive genetic approach, Animal Cells and Systems, Vol. 24, No. 3, pp. 171-179DOI
4 
Korea National Park, https://www.knps.or.kr/Google Search
5 
National institute of ecology, https://www.nie.re.kr/Google Search
6 
B.K. Lee, 2011, Study on the habitat using of Common Goral (Naemorhedus caudatus) in Odaesan National Park, Proceedings of the Korean Society of Environment and Ecology Conference, Vol. 21, No. 2, pp. 208-211Google Search
7 
R. Kays, 2009, Camera traps as sensor networks for monitoring animal communities, 2009 IEEE 34th Conference on Local Computer Networks, pp. 811-818DOI
8 
N. Banupriya, 2020, Animal detection using deep learning algorithm, J. Crit. Rev, Vol. 7, No. 1, pp. 434-439Google Search
9 
A. Vecvanags, 2022, Ungulate Detection and Species Classification from Camera Trap Images Using RetinaNet and Faster R-CNN, Entropy, Vol. 24, No. 3, pp. 353DOI
10 
Stefan Schneider, W. Taylor Graham, Kremer Stefan, 2018, Deep learning object detection methods for ecological camera trap data, 2018 15th Conference on computer and robot vision (CRV). IEEEGoogle Search
11 
M.S. Norouzzadeh, 2018, Automatically identifying, counting, and describing wild animals in camera-trap images with deep learning, Proceedings of the National Academy of Sciences, Vol. 115, No. 25, pp. e5716-E5725DOI
12 
R. Girshick, 2014, Rich feature hierarchies for accurate object detection and semantic segmentation, Proceedings of the IEEE conference on computer vision and pattern recognitionGoogle Search
13 
J. Redmon, 2016, You only look once: Unified, real-time object detection, Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 779-788Google Search
14 
A. Bochkovskiy, 2020, Yolov4: Optimal speed and accuracy of object detection, arXiv preprint arXiv:2004.10934Google Search

저자소개

이한성 (Han-sung Lee)
../../Resources/kiee/KIEE.2022.71.9.1308/au1.png

Han-sung Lee received the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, South Korea in 2022.

He is currently working toward the M.S. degree in Interdisciplinary Graduate Program for BIT Medical Convergence from Kangwon National University, South Korea.

오유정 (Yu-jeong Oh)
../../Resources/kiee/KIEE.2022.71.9.1308/au2.png

Yu-jeong Oh received the B.S. degree in Electrical and Electronic Engineering from Kangwon National University, South Korea in 2022.

박영철 (Yung-chul Park)
../../Resources/kiee/KIEE.2022.71.9.1308/au3.png

Yung-chul Park received his Ph.D. at the Department of Biological Sciences from Seoul National University, Republic of Korea in 2002.

He has been a professor at the Division of Forest Science at Kangwon National University in South Korea since 2008.

임상진 (Sang Jin Lim)
../../Resources/kiee/KIEE.2022.71.9.1308/au4.png

Sang Jin Lim received his Ph.D. at the Department of Forestry Environmental System from Kangwon National University, Republic of Korea in 2019.

조현종 (Hyun-chong Cho)
../../Resources/kiee/KIEE.2022.71.9.1308/au5.png

Hyun-chong Cho received his M.S. and Ph.D. degrees in Electrical and Computer Engineering from the University of Florida, USA in 2009.

During 2010- 2011, he was a Research Fellow at the University of Michigan, Ann Arbor, USA.

From 2012 to 2013, he was a Chief Research Engineer in LG Electronics, South Korea.

He is currently a professor with the Department of Electronics Engineering and Interdisciplinary Graduate Program for BIT Medical Convert-gence, Kangwon National University, South Korea.