• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (School of IT Information and Control Engineering, Kunsan National Univerity, Korea)



Object recognition, object tracking, object classification, Moving direction, Hellinger distance

1. 서 론

영상 감시 시스템은 범죄예방, 재난감시 등 국민의 생명과 재산을 보호하기 위한 시스템으로 카메라, 전송장치, 저장 및 재생장치로 구성된다 (1). 최근 CCTV(Closed Circuit Television) 설치 대수의 증가에 비해 모니터링 요원은 한정되어 있는 상황이며 영상 감시 및 적절한 대응 조치에 한계가 나타나고 있다. 이와 같은 문제를 해결하기 위해 지능형 영상처리 기술이 연구 되고 있다. 지능형 영상처리 기술이란 CCTV 또는 IP Camera를 이용하여 수집되는 영상을 지능적으로 분석하여 상황을 판단하는 영상 감시 기술을 말한다 (2). 지능형 영상 감시에서 영상내 이동 객체를 추적하는 기술은 가장 핵심적인 기술이며, 다수의 객체를 지속적으로 추적하기 위해서는 객체의 이동 과정에서 발생하는 다양한 변화에 대응 할 수 있어야 한다. 다양한 변화에는 추적 객체의 급격한 움직임 변화, 객체의 겹침 현상 등이 있으며 이를 해결하기 위한 강인한 추적 기술이 연구되고 있다 (3).

영상에서 객체를 추적하기 위해서는 객체를 추출하고 인식하는 과정이 필요하다. 이동 객체를 추출하기 위한 대표적인 방법은 입력 영상의 배경과 객체 사이의 Optical Flow 차이를 가지고 객체만을 추출하는 방법 (4-5)이 있으며, 이동 객체를 인식하는 방법에는 이전 프레임과 현재 프레임의 특징점 차이를 활용하여 이동 객체를 인식하는 방법 (6-9), CNN (Convolution Neural Network)과 같이 심층 신경망을 활용하여 다수의 객체를 인식하는 방법 등이 있다 [10-12, 20-24].

객체를 추적하는 대표적인 기술에는 Xie 등이 제안한 개선된 CAM-Shift(Continuously Adaptive Mean-shift)방법이 있다(13). 이 방법은 CAM-Shift에 필요한 계산 비용 (여기서, 평균 계산시간은 프레임 당 0.036초)이 적어 우수한 실시간 성능을 나타낸다. Henriques 등이 제안한 KCF (Kernelized Correlation Filters) 방법은 추적하고자 하는 객체 이미지의 상관필터링 값이 객체 중심의 형태로 나오도록 필터를 학습한다 (14). 두 방법 모두 높은 추적 성능을 달성하지만 객체의 겹침 현상에서 발생하는 추적 실패를 해결하지 못하였다. 다음. 템플릿 매칭(Template Matching) 기반 시각적 개체 추적 알고리즘은 일반적으로 템플릿을 수동으로 업데이트해야 하는 반면, Yan 등이 제안한 병렬 가속 기능을 갖춘 적응형 템플릿 매칭 기반 단일 객체 추적 알고리즘은 온라인으로 템플릿을 업데이트하여 객체를 추적하는 방법이다(15). 템플릿 매칭의 장점을 활용하여 겹침 현상이 발생해도 이동 객체를 높은 확률로 추적 하였지만, 이동 객체가 템플릿에 저장되지 않은 변화를 보이면 추적에 실패하는 문제점을 가지고 있다.

상기 문제를 해결하기 위해, 본 논문에서는 이동 객체를 지속적으로 인식 및 추적하기 위한 방법으로 헬링거 거리(Hellinger distance) (16-18)를 이용한 다중 객체 추적 방법을 제안한다. 제안하는 방법은 GMM(Gaussian Mixture Model)과 라벨링(Labelling) 병합, 히스토그램 매칭을 이용한 이동 객체 인식과 인식한 이동 객체의 겹침 현상 판단, 이동 방향 분석, 그리고, 헬링거 거리 기반 유사도 분석을 통해 이동 객체를 지속적으로 추적하는 방법으로 구성된다. 마지막으로, 제안하는 방법은 다수의 이동 객체를 추적하는 실험을 통해 그 용용 가능성을 증명하고자 한다.

2. 제안하는 전체 시스템 개요

본 논문에서 제안하는 헬링거 거리를 이용한 다중 객체 추적 방법은 크게 이동 객체 인식 그리고 이동 객체 추적 순으로 2개의 블록으로 구성된다. 다음 그림 1은 제안하는 전체 시스템의 블록도를 도시한다.

그림 1 제안하는 시스템의 블록도

Fig. 1 Block diagram of the proposed system

../../Resources/kiee/KIEE.2020.69.5.729/fig1.png

그림 1에서 제안하는 전체 시스템은 다음과 같다. 먼저, 이동 객체 인식 블록에서는 입력되는 영상에 GMM 기법을 이용하여 배경을 제거하고 움직임이 존재하는 영역을 추출한다. 추출된 움직임 영역에서 모폴로지(Morphology) 연산을 이용하여 잡음을 제거하고, 라벨링을 통해 이동 객체를 추출한다. 추출한 이동 물체에서 라벨 병합을 통해 깨진 영역을 하나의 객체로 추출한다. 라벨 병합을 통해 추출한 객체의 고유 특징 정보를 추출하기 위해 이동 객체의 히스토그램을 추출하고, 머리 부분의 무게 중심을 추출하여 추적의 기준점으로 정의한다. 추출한 히스토그램을 이용하여 헬링거 거리를 기반으로한 유사도 비교를 통해 이동 객체를 인식한다.

다음, 이동 객체 추적 블록에서는 이동 객체의 무게 중심을 기준으로 객체를 추적한다. 추적 과정에서 발생하는 잡음으로 인한 위치 오차를 최소화하기 위해 칼만필터 (Kalman filter)를 이용하여 이동 객체의 이동 경로를 추출한다. 추출한 경로를 기반으로 이동 객체의 겹침 및 분리 상황을 판단하고, 객체의 이동 방향과 히스토그램의 유사성 판별을 다시 수행하여 이동 객체들을 지속적으로 추적한다.

3. 이동 객체 인식

3.1 배경 제거를 통한 움직임 영역 추출

입력되는 영상에서 움직임이 존재하는 영역을 추출하기 위해 배경을 모델링하여 전경만을 추출하는 GMM 기법을 이용한다. 모델링을 적용하여 추출한 움직임 영역에는 이동 객체와 영상의 미세한 움직임 또는 조도 변화에서 발생하는 잡음을 포함 한다. 잡음은 이동 객체를 인식할 때 불필요한 정보이며 인식률을 떨어뜨릴 수 있으므로 모폴로지 연산을 통하여 잡음을 최소화하고 이동 객체만을 추출한다. 그림 2는 이동 객체 추출을 위한 배경 제거 과정을 나타낸다.

그림 2 이동 객체 추출 과정

Fig. 2 Procedure for extraction moving objects

../../Resources/kiee/KIEE.2020.69.5.729/fig2.png

그림 2-(a)는 이동 객체가 존재하는 입력 영상이고, 그림 2-(b)는 GMM을 이용하여 모델링 된 배경을 제거하고 움직임 영역만을 추출한 것이며, 그림 2-(c)는 모폴로지 연산을 통해 잡음을 제거한 영상을 나타낸다.

3.2 라벨 병합을 이용한 이동 객체 추출

잡음을 제거한 움직임 영역에서 이동 객체를 추출하기 위해서 인접하는 픽셀을 하나의 군집으로 정의하는 라벨링을 이용한다. 하지만, 배경과 이동 객체의 정보가 유사한 경우 추출된 이동 객체의 정보는 일부분 손실된 상태로 추출되며, 하나의 이동 객체로 판단하기 어려운 상황이 발생한다. 따라서, 본 논문에서는 일부 손실된 상태로 추출된 객체를 하나의 객체로 인식하기 위해 인체 비율을 활용하여 라벨을 병합하는 방법을 제안한다. 그림 3은 인체에 대한 이상적인 비율을 나타낸다 (19).

동양인의 이상적인 신장 비율은 7등신이며, 다음 수식 (1)은 인체의 비율을 나타낸다.

그림 3 동양인의 평균 인체 비율

Fig. 3 Average human body proportions of Asians

../../Resources/kiee/KIEE.2020.69.5.729/fig3.png

(1)
$L_{sholder}\approx L_{body}/ 4.32$

수식 (1)에서 인간의 어깨 비율은 통계 자료 (19)에 따라 20대부터 30대까지 성인 남성의 몸 전체 길이의 평균 $L_{body}$와 어깨 너비 평균 $L_{sholder}$를 비교한 결과 약 $4.32$로 나눈 것과 유사하다는 것을 나타낸다. 다음 수식 (2)수식 (3)은 인체의 비율을 이용하여 라벨을 병합하는 과정을 나타낸다.

(2)
\begin{align*} Label_{x}=\min(Label_{n,\:x})\\ \\ Label_{y}=\min(Label_{n,\:y})\\ (n = 0,\:\cdots ,\: N)\\ Label_{w}=\max(Label_{n,\:x})\\ \\ Label_{h}=\max(Label_{n,\:y}) \end{align*}

(3)
$OB ={if}[(Label_{w}-Label_{x})\le(Label_{h}- Label_{y})/4 .32]$

수식 (2)는 병합하고자 하는 라벨의 크기를 구하는 과정을 나타내며 $Label_{x}$, $Label_{y}$는 병합하고자 하는 n개의 라벨의 $x$, $y$축 최소값을 의미하고, $Label_{w}$, $Label_{h}$는 병합하고자 하는 n개의 라벨의 $x$, $y$축 최대값을 의미한다. 수식 (3)수식 (2)의 라벨이 인체 비율을 만족하는 경우 하나의 라벨로 병합하고 $OB$로 정의함을 나타낸다. 그림 4는 인체 비율을 활용하여 이동 객체의 일부 영역이 손실되었을 때 하나의 라벨로 병합하는 과정을 나타낸다.

그림 4 라벨 병합 과정

Fig. 4 Procedure of label merge

../../Resources/kiee/KIEE.2020.69.5.729/fig4.png

그림 4-(a)는 추출한 움직임 영역을 나타내고, 그림 4-(b)는 객체의 일부가 손실되어 하나의 객체가 2개의 라벨로 분할된 상태를 볼 수 있다. 그림 4-(c)수식 (2)(3)을 이용하여 2개의 라벨을 병합함으로서 하나의 객체로 추출한 영상이다. 하지만, 병합된 객체를 보면 약간의 손실된 영역이 발생하는 것을 볼 수 있다.

본 논문에서는 라벨 병합 과정을 통해 추출한 객체들을 영상 내 존재하는 이동 객체로 정의한다.

3.3 이동 객체의 특징 추출

이동 객체들의 위치를 지속적으로 추적하고 식별하기 위해서는 이동 객체만의 고유한 특징들을 추출할 필요가 있다.

본 논문에서는 이동 객체의 추적 및 식별을 위해 이동 객체의 머리를 기준으로 특징점을 추출하고 이동 객체가 가지는 고유의 히스토그램을 추출한다. 먼저, 이동 객체의 특징점 추출을 위해서 추출한 객체에 인체 비율을 적용하여 머리 부분만을 추출한다. 추출한 머리 부분에 Contour 알고리즘을 적용하여 무게중심을 찾는다. 수식 (4)는 Contour 알고리즘을 적용한 모멘트 계산 과정을 나타낸다.

(4)
$M_{i,\:j}=\sum_{a,\: b}a^{i}b^{j}I(OB_{Head ,\: N})$ $Wc =(\dfrac{M_{10}}{M_{00}},\:\dfrac{M_{01}}{M_{00}})$

여기서, $OB_{Head,\: N}$은 N번 객체의 머리 부분을 의미하며, $M_{i,\:j}$는 픽셀 $a$, $b$에서의 모멘트 값이며 $I$ 는 픽셀의 강도를 의미한다. $Wc$는 모멘트를 통해 구한 무게 중심 값이다. 모멘트를 통해 계산한 무게 중심은 이동 객체의 특징으로서 추적을 위한 기준점이다. 다음 그림 5는 이동 객체의 특징점을 추출하는 과정을 나타낸다.

그림 5 이동 객체 특징 추출 과정

Fig. 5 Procedure for extracting features of moving object

../../Resources/kiee/KIEE.2020.69.5.729/fig5.png

그림 5-(a)는 인식된 이동 객체를 나타내고, 그림 5-(b)는 인체 비율을 적용하여 라벨을 분할한 영상을 나타낸다. 그림 5-(c)는 추출한 머리 부분의 무게 중심을 보이고 있다.

그 다음, 히스토그램 추출을 위해서 이동 객체들의 RGB 히스토그램 정보를 HSV(Hue-Saturation-Value)로 변환하여 저장한다. 다음 수식 (5)는 HSV로 변환된 히스토그램 정보를 채널별로 저장하는 과정을 나타낸다.

(5)
$Hist_{val}[Ch]=\sum_{x=0}^{a}\sum_{y=0}^{b}f(OB(x,\:y))$ $f(OB(x,\:y))=\begin{cases} 1&{if}OB(x,\:y)= val\\ 0& otherwise \end{cases}$

여기서, $Ch$는 색상 채널을 의미하고, $val$은 각 색상영역의 값을 나타내며, $OB(x,\:y)$는 이동 객체의 픽셀 데이터 값을 나타내고, $Hist_{val}[Ch]$는 색상 채널별 저장된 히스토그램 데이터를 의미한다.

3.4 헬링거 거리를 이용한 이동 객체의 인식

본 연구에서는 헬링거 거리를 이용하여 이동 객체의 히스토그램 유사도를 비교함으로서 이동 객체들을 지속적으로 인식하는 방법을 제안한다. 헬링거 거리는 Bhattacharrya 계수를 이용하여 두 개의 확률분포 간의 유사성을 확인하는 방법으로 매개 변수의 위치에 따라 변화하는 결과 값을 측정하는데 적합하다. 다음 수식 (6)-(8)은 헬링거 거리를 이용하여 히스토그램의 유사성을 비교하는 과정을 나타낸다.

(6)
$BC(U,\: G)=\sum_{i}\sqrt{U_{i}G_{i}}$

(7)
$H_{ch}(U,\: G)=\sqrt{1-BC_{ch}(U,\: G)}$

(8)
$H_{mean}- H_{ch}$

수식 (6)에서 히스토그램 U와 G는 수식 (5)에서 구한 색상 채널별로 저장된 히스토그램 데이터이다. $BC(U,\: G)$는 비교하고자 하는 이동 객체의 히스토그램 $U$와 $G$의 바타차야 계수를 나타낸다. 수식 (7)에서 $H_{ch}(U,\: G)$는 각 채널 $ch$에서의 헬링거 거리를 의미한다.

여기서, 헬링거 거리는 $0$부터 $1$사이의 결과 값을 가지며, $0$에 가까울수록 비교하는 히스토그램 $U$와 $G$가 유사하다는 것을 의미한다. 수식 (8)에서 $H_{mean}$는 히스토그램에서 구한 헬링거 거리의 평균을 의미하고, 해당 편차가 작으면 작을수록 두 히스토그램이 유사함을 뜻한다. 그림 6은 헬링거 거리를 이용한 히스토그램 유사도 비교 와 이동 객체 인식 결과를 나타낸다.

그림 6 히스토그램 유사도 비교를 통한 객체 인식

Fig. 6 Object recognition through histogram similarity comparison

../../Resources/kiee/KIEE.2020.69.5.729/fig6.png

그림 6-(a)는 15프레임전의 이동 객체 추출 영상을 나타내며, 그림 6-(b)는 현 프레임의 이동 객체 추출 영상을 나타낸다. 그림 6-(c)는 헬링거 거리를 이용하여 히스토그램 H 영역의 유사도를 비교한 영상을 나타낸다. 여기서, x축은 헬링거 거리의 편차를 의미하고, y축은 히스토그램을 나타낸다. 파란선은 15프레임전의 객체와 현 프레임의 동일 객체를 순차적으로 누적 비교한 결과이며, 붉은선은 15프레임전의 객체와 현 프레임의 다른 객체를 순차적으로 누적 비교한 결과를 나타낸다. 헬링거 거리는 편차가 적을수록 높은 유사도를 가진다. 그러므로 파란선이 가지는 유사도가 높다는 것을 알 수 있다. 그림 6-(d)는 히스토그램 유사도 비교 과정을 통한 이동 객체 인식 결과를 나타낸다.

4. 이동 객체 추적

4.1 칼만필터를 이용한 경로 보정 및 추출

이동 객체는 매 프레임마다 형태가 변화하여 객체의 특징점을 추적하는 과정에서 불안정한 오차를 포함한다. 따라서, 이동하는 객체의 경로 오차를 개선하기 칼만필터를 통해 이동 경로를 보정한다. 본 논문에서 칼만필터를 적용하는 과정은 다음 수식 (9)-(12)와 같다.

(9)
$X =[F_{x},\: F_{y}]^{T}$

(10)
$X_{t}= AX_{t-1}+ W_{t-1}$ $Z_{t}= HX_{t}+ V_{t}$

(11)
$\begin{bmatrix}F_{x}(t)\\F_{y}(t)\end{bmatrix}=\begin{bmatrix}1&\Delta t\\0&1\end{bmatrix}\begin{bmatrix}F_{x}(t-1)\\F_{y}(t-1)\end{bmatrix}+W_{t-1}$

(12)
$\begin{bmatrix}Z_{x}(t)\\Z_{y}(t)\end{bmatrix}=\begin{bmatrix}1 & 0 \\ 0 & 1\end{bmatrix}\begin{bmatrix}F_{x}(t)\\F_{y}(t)\end{bmatrix}+V_{t}$

수식 (9)에서 $F_{x}$와 $F_{y}$는 추적하고자 하는 기준점의 $x$축과 $y$을 의미한다. 수식 (10)은 시간 $t$에 대한 상태방정식과 측정방정식을 나타내며, 상태방정식에서 $A$는 상태 변환행렬을 나타내며, 시스템 노이즈 $W_{t}$는 0.004로 정의한다. 측정방정식에서 $H$는 측정벡터의 변환행렬을 나타내며, 측정 노이즈 $V_{t}$는 0.25로 정의한다. 수식 (11)수식 (12)는 칼만필터의 상태방정식과 측정방정식을 나타내며 $\Delta t$는 영상에서의 프레임 차를 의미한다. 다음, 그림 7은 이동 객체 경로에 칼만필터를 적용한 결과를 $x$축과 $y$축으로 나누어 나타낸다.

그림 7 이동 경로 보정

Fig. 7 Correction of the moving path

../../Resources/kiee/KIEE.2020.69.5.729/fig7.png

그림 7 (a)와 (b)의 그래프에서 $x$축은 데이터의 길이를 나타내고, $y$축은 이동 객체 특징점의 $x$좌표와 $y$좌표를 나타낸다. 빨간색 실선은 칼만필터를 적용하기 전의 특징점 좌표를 나타내고, 파란색 실선은 칼만필터를 적용한 후의 특징점 좌표를 나타낸다. (a)에서 이동 객체의 특징점 위치가 불안정하였지만, 칼만필터를 적용한 결과 불안정한 오차가 많이 감소한 것을 볼 수 있다. (b)는 일정 구간 불안정한 오차가 있는 것을 볼 수 있으며, 칼판필터를 적용한 결과 (a)와 같이 오차가 많이 감소한 것을 볼 수 있다.

4.2 객체의 겹침 판단

다수의 이동 객체를 추적할 때 객체들끼리 겹치는 상황이 일어날 수 있다. 이때 겹쳐진 객체를 하나의 객체로 오인식 하는 상황이 발생하게 되어 객체를 지속적으로 추적하는데 어려움이 발생한다. 따라서, 다수의 이동 객체를 추적할 때에는 객체끼리의 겹침을 판단하고, 겹침 이후 객체들이 분리되었을 때 기존에 존재하던 동일 객체로서 인식되어 지속적으로 추적하는 방법이 필요하다. 그림 8은 이동 객체들이 움직이면서 발생하는 겹침 상황과 객체들을 분리하는 과정의 예를 나타낸다.

그림 8 이동 객체의 겹침 및 분리 과정의 예

Fig. 8 Examples for overlapping and separation of moving objects

../../Resources/kiee/KIEE.2020.69.5.729/fig8.png

그림 8-(a)는 영상에 존재하는 이동 객체 A, B, C를 인식 한 것을 나타내고, 그림 8-(b)는 B와 C 객체가 이동 중에 겹침 현상이 발생한 것을 나타내며, 그림 8-(c)는 겹침이 발생한 두 객체가 분리 후에 동일 객체로써 인식될 수 있도록 판단하는 과정이며, 그림 8-(d)는 겹침이 발생한 두 객체가 분리 후에 지속적으로 추적이 가능함을 나타낸다.

본 논문에서는 이동 객체 사이의 겹침 현상을 판단하기 위해서 이동 객체의 이동 경로를 비교한다. 수식 (13)은 이동 객체의 겹침 현상을 판단하는 기준을 나타낸다.

(13)

$\left(\left|F_{x_{1}}^{\prime}-F_{x_{2}}^{\prime}\right|\right)<\alpha$

$\left(\left|F_{y_{1}}^{\prime}-F_{y_{2}}^{\prime}\right|\right)<\beta$

여기서, $F_{x}^{'}$와 $F_{y}^{'}$는 칼만필터로 보정된 이동 객체 추적 경로의 $x$축과 $y$축을 나타내며, 이 차이가 임계값 $\alpha$와 $\beta$보다 작을 때 겹침이 발생했다고 판단한다. 본 논문에서는 $\alpha$를 $40$, $\beta$를 $20$의 값으로 정의한다.

4.3 객체의 이동 방향 판단

이동 경로는 객체가 이동한 흔적과 이동한 방향에 대한 정보를 가지고 있기 때문에 본 논문에서는 겹침 현상이 발생한 후 객체를 분리하기 위해서 이동 경로의 방향을 활용하는 방법을 제안한다. 다음 그림 9는 본 논문에서 제안하는 이동 객체의 이동 방향을 계산하는 과정을 도시한다.

그림 9에서 이동 객체의 특징점은 시간에 따라 $m-4,\:\cdots ,\: m$순으로 이동하며, 마지막으로 추출된 특징점과 이전의 추출된 특징점간의 역삼각함수 정의를 활용하여 이동 방향을 구하는 것을 나타낸다. 수식 (14)은 객체의 이동 경로를 나타내며, 수식 (15)은 이동 방향을 계산하는 과정을 나타낸다.

그림 9 이동 객체의 이동 방향 계산을 위한 기하학

Fig. 9 geometry for calculating the moving direction of the moving objects

../../Resources/kiee/KIEE.2020.69.5.729/fig9.png

(14)
\begin{align*} \Delta F_{x}^{'}= F_{x,\: m}^{'}- F_{x,\: m-2}^{'}\\ \Delta F_{y}^{'}= F_{y,\: m}^{'}- F_{y,\: m-2}^{'} \end{align*}

(15)
$\theta_{OB}=arctan(\dfrac{\Delta F_{y}^{'}}{\Delta F_{x}^{'}})$

수식 (14)에서 $\Delta F_{x}^{'}$와 $\Delta F_{y}^{'}$은 칼만필터로 보정된 이동 경로에서 $m$번째와 $m$-2 번째 위치의 차이를 의미한다. 수식 (15)에서 $\theta_{OB}$는 위치 차이를 통해 계산한 이동 방향각을 나타낸다. 겹침 상황이 발생할 때 객체의 이동 방향과 객체가 분리된 후 생성되는 방향을 비교하였을 때 오차 범위 내에 존재하게 되면 같은 방향을 가지는 이동 객체라고 판단 할 수 있다.

(16)
$\theta_{O B}-5<\theta_{N e w}<\theta_{O B}+5$

여기서, $\theta_{OB}$는 겹침 상황 전의 이동 방향이고, $\theta_{N ew}$는 새롭게 생성된 이동 방향을 나타낸다. $\theta_{OB}$가 $\theta_{N ew}$의 오차 범위 $\pm 5^{\circ}$내에 존재하게 되면 같은 이동 방향을 가지는 이동 객체라 판단 한다. 이동 객체의 방향을 판단함으로서 겹침 상황 전후에 같은 방향으로 진행하는 이동 객체는 지속적으로 추적이 가능하다. 하지만 이동 방향 판단만으로는 겹침 후 이동 방향이 바뀌는 객체를 추적하기 어렵다는 단점이 있다.

4.4 헬링거 거리를 이용한 히스토그램 유사도 판단

본 절에서는 4.3절의 이동 방향 판단으로 객체를 추적하기 어려운 상황을 3.4절에서 제안한 헬링거 거리를 이용한 히스토그램 유사도 판단을 통해 해결하는 방법을 제안한다. 그림 10은 겹침 상황 전후 객체의 HSV 히스토그램 정보를 나타낸다.

그림 10-(a)는 동일 객체의 유사도 비교를 위해 추출한 히스토그램 정보이고, 그림 10-(b)은 다른 객체와 유사도 비교를 위해 추출한 히스토그램 정보이다. 표 1그림 10의 히스토그램 정보를 입력으로 유사도를 판단 한 결과를 나타낸다.

그림 10 히스토그램 유사도 비교

Fig. 10 omparison results of histogram similarity

../../Resources/kiee/KIEE.2020.69.5.729/fig10.png

표 1 히스토그램 유사도 판단 결과

Table 1 histogram similarity judgment result

평균

H

S

V

그림 10(a)

0.258

0.289

0.242

0.244

그림 10(b)

0.281

0.366

0.278

0.197

유사도 비교 결과의 평균 값 차이가 $0.023$으로 근소한 차이를 보이고 있으나 각 채널 값의 차이는 평균 값 차이보다 많은 차이를 보이고 있음을 알 수 있다.

5. 실험 결과 및 고찰

본 실험은 Intel(R) Core(TM) i7-6700 CPU @3.4GHz, RAM 12.0GB, NVIDIA Geforce GT 730, Windows 10 64bit의 사양을 갖는 PC에서 수행하였으며, 개발 환경으로는 python 3.5.4, OpenCV 3.4.2를 이용하였다. 실험에서 사용한 영상은 초당 15 프레임과 480*320 해상도를 가진다. 그림 11은 본 논문에서 제안하는 헬링거 거리와 이동 객체의 이동 방향을 활용하여 다중 객체를 추적한 실험 결과를 나타낸다.

그림 11 제안한 방법의 실험 결과

Fig. 11 Experimental results of the proposed method

../../Resources/kiee/KIEE.2020.69.5.729/fig11.png

그림 11-(a)는 3개의 이동 객체 $A$, $B$, $C$를 인식한 결과 영상이며, 그림 11-(b)는 $A$, $B$ 객체의 겹침 상황을 판단한 결과이다. 그림 11-(c)는 겹침 후 객체가 분리된 상황에서 $A$와 $B$ 객체를 정상적으로 추적하는 결과를 나타낸다. 그림 11-(d)는 $A$와 $C$ 객체가 겹치기 직전 상황을 나타내며 그림 11-(e)는 $A$와 $C$ 객체의 겹침 상황을 판단한 결과를 나타낸다. rmrfal 11-(f)에서 객체가 분리된 후 정상적으로 추적하는 것을 볼 수 있다. 실험 결과 겹침 후 분리 상황에서도 이동 객체를 지속적으로 인식 및 추적하는 것을 확인 하였다.

그림 12는 실험 영상에서 이동 객체 $A$, $B$, $C$의 이동 경로를 추적 한 결과를 나타낸다.

그림 12 다중 이동 객체의 경로 추적 결과

Fig. 12 Path tracking results of multiple moving objects

../../Resources/kiee/KIEE.2020.69.5.729/fig12.png

그림 12에서 $x$축은 객체 $A$, $B$, $C$의 시간에 따른 데이터 길이를 나타내며, $y$축은 객체 $A$, $B$, $C$의 $x$좌표와 $y$좌표의 위치를 의미한다. 보라색 점선 박스는 그림 11의 11-(b)와 11-(e)에서 객체의 겹침 상황을 나타낸다. 표 2는 실험 영상에서 제안한 방법과 KCF(Kernelized Correlation Filters)(14) 알고리즘을 비교한 결과이다. 표 2에서 제안한 추적 방법은 평균 98.35의 추적 성능을 보였고, KCF 알고리즘은 객체 $A$와 $B$의 겹침 상황을 파악하지 못하여 평균 86.13의 추적 성능을 보였다. 하지만, 제안한 알고리즘은 객체의 겹침 상황을 판단하여 다중 객체를 추적 할 때 준수한 추적 성능을 보임을 알 수 있다.

표 2 다중 이동 객체 추적 결과

Table 2 tracking result for multi moving objects

ID

proposed method

KCF[14]

A

98.7 %

97.5%

B

98.6 %

62.7 %

C

97.8 %

98.2%

6. 결 론

본 논문에서는 감시 영상에서 이동 경로와 헬링거 거리를 이용한 히스토그램 매칭으로 다중 객체를 추적하는 방법에 대해서 제안하였다. 제안한 방법은 먼저 라벨 병합을 이용하여 추출한 이동 객체를 히스토그램 유사도 비교를 통해 인식 하였으며, 이동 객체의 이동 겹침 판단, 이동 방향 판단 그리고 겹침 전후의 이동 객체에 대하여 유사도 판단함으로서 이동 객체를 지속적으로 추적하였다. 제안한 방법은 실험을 통해 지속적으로 이동 객체를 인식하고 추적하였으며, 겹침 상황 전후에도 지속적으로 이동 객체를 추적하는 것을 여러 실험을 통해 그 응용가능성을 보였다.

Acknowledgements

This work was partially supported by the Basic Science Research Program through the National Research Foundation of Korea (NRF) funded by the Ministry of Education (NRF-2016R1A6A1A030135 67, NRF-2018R1A2A2A14023632).

References

1 
Commercializations Promotion Agency for R&D Outcomes, 2017, Video surveillance system market and technology trends, S&T Marker ReportGoogle Search
2 
G. W. Kim, H. S. Cho, 2017, Current status and use cases of intelligent CCTV technology, Korea Local Information Research amp; Development InstituteGoogle Search
3 
B. Y. Lee, L. H. Liew, W. S. Cheah, Y. C. Wang, 2014, Occlusion handling in videos object tracking: A survey, IOP Conference Series Earth and Environmental Science, Vol. 18, No. 1Google Search
4 
Y. Wang, Z. Zhang, Y. Wang, 2012, Moving object dtection in arial vdeo, in Proc. of International Conference on Machine Learning and Applications, Vol. 2, pp. 446-450Google Search
5 
S. W. Kim, K. Yun, K. M. Yi, S. J. Kim, J. Y. Choi, 2013, Detection of moving objects with a moving camera using non-panoramic background model, Machine vision and applications, Vol. 24, No. 5, pp. 1015-1028DOI
6 
P. Sadeghi-Tehran, C. Clarke, P. Angelov, 2014, A ral time approach for autonomous detection and tracking of moving objects from UAV, IEEE Symposium on Evolving and Autonomous Learning Systems, pp. 43-49DOI
7 
S. Minaeian, J. Liu, Y. Son, 2018, Effective and efficient detection of moving targets from a UAV’s camera, IEEE Transactions on Intelligent Transportation Systems, Vol. 19, No. 2, pp. 497-506DOI
8 
S. W. Lee, N. H. Kim, K. W. Jeong, K. J. Park, J. K. Paik, 2015, Moving object detection using unstable camera for video surveillance systems, Optik, Vol. 126, No. 20, pp. 2436-2441DOI
9 
Y. Wan, X. Wang, H. Hu, 2014, Automatic moving object segmentation for freely moving cameras, Mathematical Problems in EngineeringDOI
10 
R. Girshick, 2015, Fast R-CNN, in Proc. of IEEE International Conference on Computer Vision, pp. 1440-1448Google Search
11 
S. Ren, K. He, R. Girshick, J. Sun, 2015, Faster R-CNN: towards real-time object detection with region proposal networks, Neural Information Processing Systems, pp. 91-99Google Search
12 
K. He, G. Gkioxari, P. Dollár, R. Girshick, 2017, Mask R-CNN, in Proc. of IEEE International Conference on Computer Vision, pp. 2961-2969Google Search
13 
H. Xie, Z. Tan, W. Mao, Z Liu, M. Liu, 2020, High precision indoor positioning method based on visible light communication using improved Camshift tracking algorithm, Optics CommunicationsDOI
14 
J. F. Henriques, R. Caseiro, P. Martins, J. Batista, 2014, High- speed tracking with kernelized correlation filters, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 37, pp. 583-96DOI
15 
B. Yan, L. Xiao, H. Zhang, D. Xu, L. Ruan, Z. Wang, Y. Zhang, 2019, An adaptive template matching-based single object tracking algorithm with parallel acceleration, Journal of Visual Communication and Image Representation, Vol. 64DOI
16 
E. Hellinger, 1909, Neue begründung der theorie quadratischer formen von unendlichvielen veränderlichen, Journal für die reine und angewandte Mathematik, Vol. 36, pp. 210-271DOI
17 
V. G. Castro, R. A. Rodriguez, E. Alegre, 2013, Class distribution estimation based on the Hellinger distance, Information Sciences, Vol. 218, pp. 146-164DOI
18 
M. H. M. Razali, M. F. Muhammad, B. Moktar, 2018, Hellinger distance decision tree (HDDT) classification of gender with imbalance statistical face features, Journal of Computing Research amp; Innovation, Vol. 3, pp. 39-44Google Search
19 
Korean Human Body Dimension Survey[1997~], KOSIS, Written on 04.30.2018, Accessed 03.16.2020, http://kosis.kr/statHtml/ statHtml.do?orgId=115amp;tblId=TX_115190170Google Search
20 
J. S. Kim, D. H. Yeom, J. B. Park, Y. H. Joo, Automation, Intelligent unmanned anti-theft system using network camera, International Journal of ControlDOI
21 
J. S. Kim, D. S. Yeom, Y. H. Joo, 2011, Fast and robust algorithm for tracking multiple moving objects for intelligent video surveillance systems, IEEE Transaction on Consumer Electronics, Vol. 57, No. 3, pp. 1165-1170DOI
22 
J. S. Lee, Y. H. Joo, 2015, Detection using optical flow and EMD algorithm and tracking using Kalman filter of moving objects, The transactions of The Korean Institute of Electrical Engineers, Vol. 64, No. 7, pp. 1047-1055DOI
23 
J. G. Kim, Y. H. Joo, 2013, Visual multi-touch air interface for barehanded users by skeleton models of hand regions, International Journal of Control, Automation and Systems, Vol. 11, No. 1, pp. 84-91DOI
24 
D. H. Yeom, Y. H. Joo, J. B. Park, 2010, Selection of coefficient for equalizer on optical sisc drive by golden search, IEEE Transactions on Consumer Electronics, Vol. 56, No. 2, pp. 657-662DOI

저자소개

류권무 (Kwon Moo Ryu)
../../Resources/kiee/KIEE.2020.69.5.729/au1.png

Kwon Moo Ryu received B.S. degree in School of IT Informationa and Control Engineering from Kunsan National University, Korea, in 2019 and is studying in M.S course in same University. His current research interests include intelligent video surveillance systems, computer vision, pattern recognition, deep learning.

한영진 (Young Jin Han)
../../Resources/kiee/KIEE.2020.69.5.729/au2.png

Young Jin Han received B.S. degree in Computer Science and M.S. degree in Information System from Hawaii Pacific University, USA, in 2006 and 2009 respectively.

He is studying in Ph.D. course in Kunsan National University, Gunsan, South Korea.

His current research interests include machine vision, 3D reconstruction, pattern recognition, deep learning.

주영훈 (Young Hoon Joo)
../../Resources/kiee/KIEE.2020.69.5.729/au3.png

Young Hoon Joo received the B.S., M.S., and Ph.D. degrees in electrical engineering from Yonsei University, Seoul, South Korea, in 1982, 1984, and 1995, respectively.

He was a Project Manager with Samsung Electronics Company, Seoul, from 1986 to 1995.

He was a Visiting Professor with the Department of Electrical and Computer Engineering, University of Houston, Houston, TX, USA, from 1998 to 1999.

He is currently a Professor with the School of IT Information and Control Engineering, Kunsan National University, Gunsan, South Korea.

His current research interests include intelligent robot, intelligent control, wind energy systems, and computer vision.

Dr. Joo served as the President for the Korea Institute of Intelligent Systems in 2009, the Editor-in-Chief for the Intelligent Journal of Control, Automation, and Systems from 2014 to 2017, and the Vice- President for Institute of Control, Robot and Control from 2016 to 2017.

He is serving as the President for the Korean Institute of Electrical Engineers in 2019 and the Director for Research Center of Wind Energy Systems funded by the Korean Government, Kunsan University.