• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (School of IT Information and Control Engineering, Kunsan National Univerity, Korea)



CAM-shift, RANSAC, Moving Object Tracking, Searching Window, Moving Object, Feature Extraction, Gaussian Mixture Models

1. 서 론

최근 영상의 디지털화 이후 동영상 분석에 대한 관심이 증대 되었으며, 특정 객체에 대한 추적 연구의 필요성이 증대 되고 있다. 동영상 분석의 사용 분야는 방송용 카메라를 통한 운동 경기에서 특정 운동선수의 행동분석을 위한 지속적인 추적과 CCTV(Closed Circuit Television)를 통한 범죄자와 같은 특정 객체 추적, 보안등의 많은 분야로 사용된다. 기존의 특정 객체의 추적 및 분석은 DVR(Digital Video Recorder)을 이용하여 운동 경기가 끝나고, 범죄가 일어난 후 기록된 영상을 분석한다[1]. 기록된 영상을 통하여 운동선수와 범죄자와 같은 특정 객체를 지속적으로 사람이 추적할 경우 시간이 지날수록 감시 효율이 떨어지는 분석 결과가 있다[2]. 이와 같은 문제를 해결하기 위해 운동선수와 범죄자 같은 특정 객체를 카메라 또는 CCTV가 스스로 추적하고 추적하고자 하는 객체가 다른 객체와 다름을 스스로 판별하여 지속적인 추적을 할 수 있는 지능형 카메라 및 CCTV 개발이 필요하다 [16-18].

일반적으로 지능형 카메라 및 지능형 CCTV는 위에서 언급한 바와 같이 스스로 특정 객체를 추적하기 위해 이동 객체 검출, 인식의 과정이 필요하고 이 과정을 통해 추적하고자 하는 특정 객체를 다른 객체와 분류하여 특정 객체를 지속적으로 추적할 수 있다. 지능형 카메라 및 지능형 CCTV는 위에서 언급한 바와 같이 스스로 특정 객체를 추적하기 위해 이동 객체 검출, 인식의 과정이 필요하고 이 과정을 통해 추적하고자 하는 특정 객체를 다른 객체와 분류하여 특정 객체를 지속적으로 추적할 수 있다.

이동 객체를 검출하기 위해서는 차영상 기법을 많이 사용한다. 차영상 기법은 입력 영상에서 배경과 전경을 분리하여 이동 객체를 검출하는 방법이다. 많이 사용되는 차영상 기법 중 하나는 GMM(Gaussian Mixture Models)이다. GMM은 배경의 변화를 학습하여 적응시키는 방법으로 빛과 같은 주변 잡음 변화에 강인하다. 하지만 운동 경기와 동적 카메라 환경에서는 배경이 지속적으로 변하여 학습을 제대로 할 수 없어 사용하기 적합하지 않다[3-4].

이동 객체 인식은 객체의 코너점(Corner Point)과 색상 정보와 같은 특징 정보를 많이 사용한다. 코너점을 이용하여 많이 사용되는 기법은 SIFT(Scale Invariant Feature Transform) 알고리즘과 색상 정보를 이용하여 많이 사용되는 기법은 CAM-shift(Continuously Adaptive Mean-shift) 알고리즘이 있다. SIFT 알고리즘은 영상을 단계적으로 축소 시켜 코너점을 검사하여 Scale에 불변한 특징점을 찾아 크기, 조명 변화에 강인하다. 하지만 연산량이 많은 단점이 있다[5]. CAM-shift 알고리즘은 색상의 밀도 중심을 추적하는 Mean-shift 알고리즘의 단점인 Scale 변화를 스스로 적응하여 탐색 윈도우를 객체의 스케일에 맞게 조정하는 알고리즘이다. 하지만 색상의 밀도 중심을 추적하기 때문에 배경 색상과 비슷한 색상의 이동 객체에 탐색 윈도우가 확장하는 문제점이 있다[6].

따라서, 본 연구에서는 CAM-shift의 단점을 보완하여 운동 경기와 PTZ(Pan-Tilt-Zoom) CCTV와 같은 동적 카메라 영상에서 특정 객체를 지속적으로 추적할 수 있는 방법을 제안한다. 동적 카메라에서 GMM과 연산량이 많은 SIFT 알고리즘은 사용에 적절하지 않다. 하지만 CAM-shift 알고리즘은 동적 카메라 영상에서 보완을 통해 객체를 추적할 수 있다. 먼저 특정 이동 객체의 검출을 위해 기존의 CAM-shift 알고리즘의 탐색 윈도우 지정 방법을 사용한다. 지정된 객체의 인식을 위해 탐색 윈도우 내부의 객체를 상체와 하체로 나누고 상체와 하체의 코너 특징점과 컬러 히스토그램을 추출한다. 상체와 하체에서 각각 추출된 코너 특징점과 컬러 히스토그램의 픽셀을 비교하여 일치하는 부분을 이동 객체의 최종 특징점으로 결정한다. 최종 특징점을 결정한 다음 유사한 색상의 배경과 다른 이동 객체의 영향으로 발생하는 탐색 윈도우 확장을 제어하기 위하여 상체와 하체의 최종 특징점을 RANSAC 알고리즘의 데이터로 사용한다. 상체와 하체의 탐색 윈도우를 각각 제어하여 유사한 색상의 배경 및 이동 객체에 확장되지 않게 제어한다.

2. CAM-shift 및 그 문제점 분석

2.1 CAM-shift

CAM-shift 알고리즘은 1998년 Gary R. Bradski에 의해 개발되었다. CAM-shift 알고리즘은 Mean-shift 알고리즘과 같이 색상의 밀도 중심을 추적하는 알고리즘이다. Mean-shift의 단점인 탐색 윈도우의 Scale 불변으로 인해 객체의 크기가 축소되거나 확장하게 되면 추적 대상의 색상이 차지하는 비율이 달라져 추적하고자 하는 대상이 아닌 배경이나 다른 이동 객체를 추적하는 문제점을 개선하기 위해 CAM-shift 알고리즘이 개발되었다. CAM-shift 알고리즘은 추적하는 객체의 크기 변화에 따라 탐색 윈도우의 크기를 조절하여 지속적으로 추적할 수 있게 개선된 알고리즘이다[6-7].

영상에서 추적하고자 하는 객체를 탐색 윈도우로 지정하고 탐색 윈도우 내에서 $x,\: y$의 픽셀 위치 확률 값을 $I(x,\:y)$이라 하면 초기 모멘트(zeroth moment)는 식(1)로 구할 수 있다[7].

(1)
$M_{00}=\sum_{x}\sum_{y}I(x,\: y)$

식(1)의 $M_{00}$는 초기 모멘트이다. 그 다음 $x,\: y$의 첫 번째 모멘트는 식(2)로 찾을 수 있다.

(2)
$M_{10}=\sum_{x}\sum_{y}x I(x,\: y),\: M_{01}=\sum_{x}\sum_{y}y I(x,\: y)$

탐색 윈도우의 중심 $x_{c},\: y_{c}$의 위치는 식(3)을 통하여 구할 수 있다.

(3)
$x_{c}=\dfrac{M_{10}}{M_{00}},\: y_{c}=\dfrac{M_{01}}{M_{00}}$

Mean-shift의 출력 결과는 CAM-shift의 입력 결과로 사용이 된다. 다음 식(4)를 이용하여 두 번째 모멘트를 구할 수 있다.

(4)
$M_{20}=\sum_{x}\sum_{y}x^{2}I(x,\: y),\: M_{02}= y^{2}I(x,\: y)$

탐색 윈도우의 너비($l$)와 길이($h$)를 구하기 위해서 너비와 길이 식의 구성 요소를 첫 번째 모멘트, 탐색 윈도우 중심 $x_{c},\: y_{c}$값 과 두 번째 모멘트를 이용하여 식(5), (6), (7)을 통해 구할 수 있다.

(5)
$a =\dfrac{M_{20}}{M_{00}}- x_{c}^{2}$

(6)
$b = 2(\dfrac{M_{11}}{M_{00}}- x_{c}y_{c})$

(7)
$c =\dfrac{M_{02}}{M_{00}}- y_{c}^{2}$

식(5), (6), (7)을 이용하여 탐색 윈도우의 너비와 길이를 구하는 식은 식(8), (9)와 같다.

(8)
$l =\sqrt{\dfrac{(a+c+\sqrt{b^{2}+(a-c)^{2}})}{2}}$

(9)
$h =\sqrt{\dfrac{(a+c)-\sqrt{b^{2}+(a-c)^{2}}}{2}}$

식(8)에서 $l$은 너비이고 식(9)의 $h$는 길이를 나타낸다. 본 논문에서는 식(8), (9)를 이용하여 탐색 윈도우의 너비와 길이를 구한다.

2.2 CAM-shift의 문제점 분석

CAM-shift의 문제점은 색상 밀도 중심을 추적하는 것으로 인해 유사한 색상의 배경이나 다른 이동 객체와 겹침이 발생 시 또는 탐색 윈도우 지정 시 다중 색상이 탐색 윈도우 내부에 있을 경우 탐색 윈도우가 확장하여 추적하고자 하는 객체를 정확히 추적할 수 없는 문제점이 있다. 그림 1은 상기 문제로 인해 탐색 윈도우가 확장 되는 것을 나태 내는 그림이다.

그림. 1. CAM-shift 문제점 분석

Fig. 1. Problem analysis of CAM-shift

../../Resources/kiee/KIEE.2019.68.12.1618/fig1.png

그림 1-a, b는 탐색 윈도우 내부에 다중 색상이 검출되어 탐색 윈도우가 확장되는 것을 나타낸다. 1-c, d는 유사한 색상의 이동객체와 겹침이 발생되어 탐색 윈도우가 확장되는 것을 나타내는 그림이다.

3. 제안한 전체 시스템 블록도

그림 2은 본 논문에서 제안하는 CAM-shift 탐색 윈도우 확장 제어를 통한 강인한 객체 추적을 위해 탐색 윈도우 설정과 추적 객체의 최종 특징점 추출 방법과 겹침 시 발생하는 탐색 윈도우의 확장을 제어하기 위해 RANSAC 알고리즘을 이용하여 겹침 시 탐색 윈도우 확장을 제어하는 방법을 전체 시스템 블록도로 보여준다.

먼저, 입력된 RGB(Red-Green-Blue) 영상에서 추적하고자 하는 특정 객체를 탐색 윈도우로 직접 지정을 하여 추적하고자 하는 객체를 선택한다. 다중 색상을 추적하기 위해 선택된 탐색 윈도우 내부에서 인체 비율 모델을 통하여 상체와 하체 부분을 나누고 상체와 하체 각각 코너 특징점을 추출한다. 그 다음 상체와 하체 각각 컬러 히스토그램을 추출하여 코너점과 컬러 히스토그램의 픽셀을 비교하여 추적하고자 하는 객체의 최종 특징점을 결정한다. 상체와 하체 각각 CAM-shift를 이용하여 색상 밀도 중심을 찾아 추적한다. 다른 유사한 색상의 배경 및 이동 객체와 겹침이 발생했을 시 탐색 윈도우의 확장을 제어하기 위해 RANSAC에 추적 객체에 최종 특징점을 데이터로 사용하여 새로운 탐색 윈도우를 만들어 확장을 지속적으로 제어하여 추적 객체만 지속적으로 추적하게 한다. 을 다음의 정리와 같이 얻을 수 있다.

그림. 2. 제안된 시스템 블록도

Fig. 2. Block diagram of the proposed system

../../Resources/kiee/KIEE.2019.68.12.1618/fig2.png

4. 제안된 탐색 윈도우 지정 및 추적

본 장에서는 제안하는 방법의 타당성을 검증하기 위해 다음의 스프링 시스템에 대한 샘플데이터 퍼지 관측기를 설계한다 [12].

4.1 객체 탐색 윈도우 지정

CAM-shift의 문제점인 추적하고자하는 객체의 색상이 다중 색상일 경우 지속적으로 추적에 어려움이 있고 유사한 색상의 배경 및 다른 이동 객체와 겹침 발생으로 인한 탐색 윈도우 확장을 제어하기 위해 CAM-shift를 입력 영상에 바로 적용하지 않고 전처리 단계를 거친다. 우선 입력 영상에서 추적하고자 하는 객체를 지정하기 위해 기존의 CAM-shift에서 사용하는 방법으로 직접 추적하고자 하는 객체를 지정한다. 그림 3은 탐색 윈도우 지정 결과를 나타낸다.

그림. 3. 탐색 윈도우 설정

Fig. 3. Setting of searching window

../../Resources/kiee/KIEE.2019.68.12.1618/fig3.png

그림 3는 입력된 영상에서 추적하고자 하는 객체에 탐색 윈도우를 지정하는 과정을 나타내는 그림이다. 그림 3-a는 입력된 영상이고, 3-b3-a의 입력 영상으로부터 추적하고자 하는 객체에 탐색 윈도우를 지정한 결과를 나타낸 그림이다.

탐색 윈도우 지정 후 추적하고자하는 객체의 상체와 하체의 색상이 다를 경우를 위해 인체 비율 모델을 사용하여 탐색 윈도우 내부를 상체와 하체로 나누어 각각 다른 객체로 인식하게 한다[9-10]. 인체 비율 모델은 그림 4와 같다.

그림. 4. 인체 비율 모델

Fig. 4. Ratio model of human body

../../Resources/kiee/KIEE.2019.68.12.1618/fig4.png

그림 4는 인체 비율 모델의 그림이다. 인체 비율은 사람의 신장을 H라고 하였을 때 머리를 길이를 기준으로 7~8등분으로 나눌 수 있다. 본 논문에서는 인체를 7등분이라고 가정하고 상체와 하체를 나누었다. 상체를 전체 신장의 $2/7$으로 측정할 수 있고 하체는 $4/7$로 측정할 수 있다.

상체와 하체를 분할하는 식은 식(8)의 $l$을 이용하여 구할 수 있다. 상체와 하체를 나누는 식은 식(10)과 같다.

(10)

$Upper = l\times\dfrac{2}{6}= l\times\dfrac{1}{3}$

$Lower = l-Upper$

식(10)의 $Upper$는 상체를 의미한다. 탐색 윈도우는 머리 부분을 포함하지 않으므로 탐색 윈도우의 길이인 $l$을 전체를 6 등분으로 나누고 인체 비율 모델을 이용하여 상체 부분을 구해주는 식이다. $Lower$는 하체를 의미한다. 하체 부분을 구해주는 식으로 탐색 윈도우길이 $l$에서 상체부분인 $Upper$를 빼주어 하체 부분만 구한다.

4.2 탐색 윈도우 내부 특징점 추출

상체와 하체를 나눈 탐색 윈도우 내부에서 배경과 추적 객체를 분리하기 위해 추적 객체만의 특징점이 필요하다. 이 특징점은 탐색 윈도우 확장 제어에 사용된다. 특징점 추출은 해리스 코너 알고리즘을 이용한다. 우선 상체와 하체 각각 해리스 코너 특징점을 추출한다. 해리스 코너 특징점을 추출하는 식은 식(11), (12)와 같다[11].

(11)
$M =\sum_{x,\:y}w(x,\: y)\begin{bmatrix}I_{x}I_{x}&I_{x}I_{y}\\I_{x}I_{y}&I_{y}I_{y}\end{bmatrix}$

식(11)에서 $I_{x},\: I_{y}$는 이미지 픽셀 $(x,\: y)$에서 $x$방향, $y$방향의 편미분 값이고, $w(x,\: y)$는 윈도우 함수 이며 직사각형 커널 및 가우시안 커널이 사용된다. 행렬식 $M$의 Eigen Value를 $\lambda_{1},\:\lambda_{2}$라 하면 코너 검출식은 식(12)와 같다.

(12)
$R =\det(M)- k·(trace(M))^{2}$

$\det(M)=\lambda_{1}\lambda_{2}$를 의미하고, $trace(M)=\lambda_{1}+\lambda_{2}$이다. $R$의 수식의 결과 값은 $R > 0 : corner$, $R < 0 : ed\ge$, $|R|$ 값이 매우 작은 값이면 평면을 의미한다. 본 논문에서는 $R > 0$ 값인 코너를 추출한다.

하지만 코너 특징점을 추출하면 추적하고자하는 객체의 특징점 뿐만 아니라 추적 객체 주변 배경의 코너점도 같이 추출되어 특징점으로서의 신뢰성이 떨어진다. 그 점을 보완하기 위해 지속적으로 상체와 하체 각각의 컬러 히스토그램을 추출하여 코너점과 컬러 히스토그램의 픽셀을 비교하여 추적하고자 하는 추적 객체의 상체와 하체의 최종 특징점을 결정한다[12].

그림. 5. 최종 특징점 판별

Fig. 5. Final determination of final feature pointss

../../Resources/kiee/KIEE.2019.68.12.1618/fig5.png

그림 5은 코너 특징점과 컬러 히스토그램의 픽셀 비교를 통한 추적 객체의 최종 특징점 판별을 나타내는 그림이다. 5-a의 그림은 상체 탐색 윈도우 내부에서 코너점을 추출한 결과를 나타내고, 5-b는 하체 탐색 윈도우 내부에서 코너점을 추출한 결과를 나타낸다. 5-c, d는 상체와 하체에서 추출한 컬러 히스토그램과 코너 특징점의 픽셀을 비교하여 최종으로 얻은 특징점의 결과를 파란색과 초록색으로 표시한 것을 나타낸다.

4.3 RANSAC을 통한 탐색 윈도우 제어

CAM-shift는 색상의 밀도 중심을 추적하는 특성상 추적하고자하는 객체와 유사한 색상의 배경 및 다른 이동 객체로 인해 탐색 윈도우가 확장을 하여 추적하고자하는 객체를 추적하기 어려워진다. 이점을 위해 탐색 윈도우 확장 제어가 필요하다. 우선 제안하는 탐색 윈도우의 확장 판단은 객체의 상체와 하체의 탐색 윈도우가 겹침이 발생 했을 시 탐색 윈도우 확장이라고 판단한다. 탐색 윈도우의 확장 판단의 예를 그림 6로 설명한다.

그림. 6. 탐색 윈도우 확장 판단

Fig. 6. Expansion determination of searching window

../../Resources/kiee/KIEE.2019.68.12.1618/fig6.png

그림 6은 탐색 윈도우 확장 판단을 나타내는 그림이다. 6-a는 유사한 색상의 객체가 추적 객체와 겹침 발생 전이라 상체와 하체의 탐색 윈도우가 확장하지 않아 탐색 윈도우끼리 겹침이 발생하지 않으므로 탐색 윈도우 확장이라고 판단하지 않은 것을 나타내고, 6-b는 유사한 색상의 객체가 겹침이 발생하여 상체의 탐색 윈도우가 확장하여 하체 탐색 윈도우와 겹침이 발생하여 탐색 윈도우 확장이라 판단한다.

탐색 윈도우가 확장하는 것을 제어하기 위해 모델 예측 알고리즘을 사용한다. 모델 예측 알고리즘은 정확성이 중요하다. 하지만 측정된 원본 데이터 중에 노이즈(Noise) 즉 거짓정보(Outlier)가 포함되어 있다. 이러한 거짓정보는 모델을 정확히 예측하는 것을 방해한다. 이러한 거짓정보를 제거하기 위해 Inlier와 Outlier 분류에 강한 RANSAC 알고리즘을 사용한다. 일반적인 모델 예측 알고리즘은 많은 데이터를 사용하여 모델 예측율을 높인다. 하지만 RANSAC 알고리즘은 초기 데이터를 최소로 이용하고 일관된 데이터의 집합을 확장시켜 나아가면서 주어진 원본 데이터에서 반복적으로 일부를 임의로 선택하는 과정을 반복하여 최적의 모델을 예측하는 프로시져(Procedure) 형태를 가지는 알고리즘이다[13]. 추적 객체의 상체와 하체 탐색 윈도우에서 각각 구한 최종 특징점을 RANSAC의 데이터로 사용한다. Inlier와 Outlier를 분류하여 지속적으로 Inlier를 중심으로 Ellipse Fitting을 하여 새로운 탐색 윈도우를 만들어 주어 겹침이 발생하는 상황에서 탐색 윈도우의 확장을 제어하여 추적하고자 하는 객체를 지속 적으로 추적할 수 있게 한다.

탐색 윈도우를 RANSAC 알고리즘을 통해 제어하기 위해 우선 타원을 모델링 하여야 한다. 타원 모델링 식은 식(13)과 같다[13-15].

(13)
$f(x,\:y)= ax^{2}+ bxy + cy^{2}+ dx + ey f = 0$

식(13)는 타원을 모델링하기 위한 타원 방정식이다. 상기 식(13)에서 $n$개의 데이터 $(x_{1},\: y_{1}),\:(x_{2},\: y_{2}),\:\cdots ,\:(x_{n},\: y_{n})$를 대입하여 만들어지는 식을 행렬로 표시하면 식(14)와 같다. $n$개의 데이터는 최종으로 추출한 객체의 특징점을 사용하였다.

(14)
$Ax =\begin{bmatrix}x_{1}^{2}& x_{1}y_{1}& y_{1}^{2}& x_{1}& y_{1}& 1 \\ \vdots &\vdots &\vdots &\vdots &\vdots &\vdots \\x_{n}^{2}& x_{n}y_{n}&y_{n}^{2}&x_{n}&y_{n}&1\end{bmatrix}\begin{bmatrix}a \\ b&\\c \\ d \\ e \\ f&\end{bmatrix}=0$

식(14)는 $n$개의 데이터 $(x_{1},\: y_{1}),\:(x_{2},\: y_{2}),\:\cdots ,\:(x_{n},\: y_{n})$를 대입하여 만들어지는 식을 행렬로 표시한 것이다. 본 논문에서는 데이터의 개수를 최소 6개로 지정하였다. 상기 식(14)는 $Ax = 0$과 같이 표현되고, $x = 0$가 아닌 다른 해는 SVD(singular value decomposition)로 분해하여 구할 수 있다. SVD는 행렬을 대각행렬 D와 두 개의 직교행렬 $U$, $V$로 다음 식(15)으로 같이 분해한다.

(15)
$A = UDV^{\Gamma}$

식(15)에서 해는 V의 마지막 컬럼(Column) 벡터가 된다. 그리고 $n$개의 데이터를 임의로 선택하여 Inlier와 최적의 모델을 찾기 위한 식은 식(16)과 같다.

(16)
$p = 1-(1-\alpha^{m})^{n}$

식(16)에서 $p$는 $n$번의 sampling 중 적어도 한번은 Inlier만 추출할 확률이고, 본 논문에서는 $p$를 90%로 설정하였다. $m$은 한 번에 뽑는 샘플 수, $\alpha$는 입력 데이터 중 Inlier의 비율이다. $n$번의 횟수가 높을수록 확률은 높아지지만 무한정으로 $n$의 횟수를 늘릴 수는 없다. 최적의 $n$의 횟수를 구하는 식은 식(17)과 같다.

(17)
$n =\dfrac{\log(1-p)}{\log(1-\alpha^{m})^{n}}$

상기 수식들과 같은 방법으로 구한 타원 모델링과 Inlier를 기준으로 탐색 윈도우 설정하여 지속적으로 CAM-shift의 새로운 탐색 윈도우를 적용시켜 겹침 발생 시 탐색 윈도우가 확장되지 않고 확장을 제어하여 추적 객체만 지속적으로 추적하게 한다.

5. 실험 및 결과 고찰

다음 그림 7은 본 논문에서 제안하는 전체 실험 순서도 이다.

그림. 7. 시스템 실험 순서도

Fig. 7. Flowchart for system experiment

../../Resources/kiee/KIEE.2019.68.12.1618/fig7.png

본 논문에서 제안하는 CAM-shift 탐색 윈도우 확장 제어를 통한 강인한 객체 추적은 특정 객체의 추적 성능을 향상 시키고 탐색 윈도우 확장 제어에 주안점을 두고 개발되었다. 본 실험 영상에서 사용된 영상은 640x360 픽셀, 30 fps이며 실험 환경은 window10에서 i5-6500 3.20GHz CPU, 16GB RAM의 PC에서 실험하였다.

그림. 8. 추적 객체 검출

Fig. 8. Extraction of tracking object

../../Resources/kiee/KIEE.2019.68.12.1618/fig8.png

우선 첫 번째로 탐색 윈도우 확장을 제어하기 위해 추적하고자 하는 객체에 직접 탐색 윈도우를 지정한다. 그림 8-a는 입력영상이고, 그림 8-b는 입력 영상에서 추적하고자 하는 객체에 직접 탐색 윈도우를 지정한 것을 나타낸다. 그림 8-c는 탐색 윈도우 내부에서 인체 비율 모델을 사용하여 객체를 상체와 하체로 나누어 탐색 윈도우를 얻은 결과를 나타낸다.

그 다음 탐색 윈도우 확장 제어에 사용될 특징점을 추출하기 위한 두 번째 과정은 그림 9에서 나타낸다. 그림 9-a, b그림 8-c에서 추출한 상체와 하체 부분에서 코너점을 녹색으로 표시한 결과를 나타낸다. 그림 9-c, d는 탐색 윈도우 내부에서 가장 많은 색상의 빈도를 추적 객체의 색상이란 판단하고 가장 많은 빈도의 색상 히스토그램을 상체와 하체에서 추출하여 코너점과 픽셀을 비교 후 일치하는 부분을 추적 객체의 최종 특징점으로 판단한 후 붉은색으로 표시한 결과를 나타내는 그림이다.

그림. 9. 추적 객체 특징점 추출 결과

Fig. 9. Feature extraction results of tracking object

../../Resources/kiee/KIEE.2019.68.12.1618/fig9.png

그림. 10. RANSAC을 이용한 탐색 윈도우 확장 제어

Fig. 10. Extension control of searching window using RANSAC

../../Resources/kiee/KIEE.2019.68.12.1618/fig10.png

그림 10는 추적 객체의 최종 특징점을 추출한 이후 탐색 윈도우 확장을 제어하기 위해 CAM-shift를 실행 시킨 후 RANSAC 알고리즘을 사용하여 확장을 제어한 결과를 나타내고 그림 11은 CAM-shift 알고리즘과 제안하는 방법의 탐색 윈도우 크기 변화를 비교한 그래프이다. 그림 10-a는 객체를 인체 비율 모델로 분리한 상체와 하체의 탐색 윈도우에 각각 CAM-shift를 수행한 결과이다. 녹색은 상체 붉은색은 하체를 나타낸다. 10-b는 RANSAC 알고리즘을 통하여 탐색 윈도우를 제어 하지 않아 하체 부분의 탐색 윈도우가 유사한 색상의 배경과 겹침이 발생하여 추적 객체가 아닌 다른 객체를 찾는 문제점을 나타내는 그림이다. 10-c는 제안하는 방법으로 유사한 색상의 배경과 겹침이 발생 하였을 때 탐색 윈도우의 확장을 제어한 결과를 나타내는 그림이다.

그림 11은 CAM-shift와 제안하는 방법의 탐색 윈도우 크기 변화 비교를 나타내는 그래프이다.

그림. 11. 유사한 색상 겹침 시 탐색 윈도우 크기 비교

Fig. 11. Comparison of size of searching window when overlapping similar colors

../../Resources/kiee/KIEE.2019.68.12.1618/fig11.png

표 1. 기존 방법과 제안한 방법의 결과 비교표

Table 1. Comparison results between the proposed method and the conventional CAM-shift

확장 제어 →

Height($H$)

Width($W$)

CAM-shift

26%

42%

제안하는 방법

72%

76%

그림 11은 CAM-shift와 제안하는 방법의 탐색 윈도우 크기 변화를 나타내는 그래프이다. 두 그래프의 $x$축은 프레임을 나타내고, $y$축은 탐색 윈도우의 크기를 나타낸다. CAM-shift는 유사한 색상과 겹침이 발생 시 탐색 윈도우의 길이인 $H$와 폭인 $W$가 지속 적으로 확장하는 것을 볼 수 있다.

제안하는 방법에서는 $H$와 $W$가 확장 시 제어하는 것을 볼 수 있다. 표 1은 초기 탐색 윈도우의 크기의 $H$와 $W$의 크기를 $\pm$20% 오차율까지를 탐색 윈도우 확장 제어라 판단하여 확장 제어율을 나타낸 표이다. 제안하는 방법이 유사한 색상의 배경과 다른 이동 객체에 겹침이 발생하였을 때 기존의 CAM-shift보다 탐색 윈도우 확장을 제어율이 높아 더 좋은 성능을 보인다.

6. 결 론

본 논문에서는 다중 색상과 탐색 윈도우 확장 제어에 강인한 CAM-shift를 제안하였다. 먼저 입력영상에서 추적하고자 하는 객체를 탐색 윈도우로 지정 후 탐색 윈도우 내부에서 코너 특징점을 추출한다. 하지만 추적 객체뿐만 아니라 배경의 코너 특징점도 추출되기 때문에 배경과 추적 객체의 특징점을 분리하기 위해 탐색 윈도우 내부에서 객체의 상체와 하체를 인체 비율 모델로 분리하고 상체와 하체의 코너점과 상체와 하체 탐색 윈도우 내부에서 주된 색상을 추적하고자하는 객체라고 판단하여 컬러 히스토그램을 추출한다. 코너 특징점과 빈도수가 높은 컬러 히스토그램의 픽셀을 비교하여 일치하는 부분을 추적 객체의 최종 특징점이라 결정한다. 그 다음 탐색 윈도우 확장 발생 시 RANSAC 알고리즘의 데이터로 최종 특징점을 사용하여 확장을 제어고 지속적으로 추적하고자 하는 객체를 추적할 수 있게 한다.

Acknowledgements

This work was partially supported by the Basic Science Research Program through the National Research Foundation of Korea (NRF) funded by the Ministry of Education (NRF-2016R1A6A1A030135 67, NRF-2018R1A2A2A14023632).

References

1 
L. Y. Shi, Y. H. Joo, 2012, Multiple moving objects detection and tracking algorithm for intelligent surveillance system., Journal of Korean Institute of Intelligent System, Vol. 22, No. 6, pp. 741-747DOI
2 
T. W. Jang, Y. T. Shin, J. B. Kim, 2013, A study on the object extraction and tracking system for intelligent surveillance, Journal of Korean Institute of Communications and Information Sciences, Vol. 38, No. 7, pp. 589-595DOI
3 
J. H. Lee, S. W. Cho, J. M. Kim, S. T. Chung, 2008, Layered object detection using adaptive Gaussian mixture model in the complex and dynamic environment, Journal of Korean Institute of Intelligent Systems, Vol. 18, No. 3, pp. 387-391DOI
4 
J. H. Park, G. S. Lee, N. D. Toan, W. H. Cho, S. Y. Park, 2010, Moving object detection using clausius entropy and adaptive Gaussian mixture model, The Institute of Electronics Engineers of Korea-Computer and Information, Vol. 47, No. 1, pp. 22-29Google Search
5 
S. R. Kim, H. J. Yoo, K. H. Shon, 2012, FAST and BRIEF-based real-time feature matching algorithms, in Autumn Conference of Korean Society Broadcast Engineering, pp. 1-4Google Search
6 
G. R. Bradski, 1998, Computer vision face tracking for use in a perceptual user interface, Intel Technology Journal, Vol. 2, No. 2, pp. 12-21Google Search
7 
N. G. Kim, G. B. Lee, B. J. Cho, 2015, Object Tracking Using CAM shift with 8-way Search Window, Journal of the Korea Institute of Information and Communication Engineering, Vol. 19, No. 3, pp. 636-644DOI
8 
D. Y. Kim, J. W. Park, C. W. Lee, 2013, Object Tracking System Using Combination of CAMshift and Kalman filter Algorithm, Journal of Korea Multimedia Society, Vol. 16, No. 5, pp. 619-628DOI
9 
N. J. Kwak, T. S. Song, 2011, Automatic Detecting and Tracking Algorithm of Joint of Human Body using Human Ratio, Journal of the Korea Contents Association, Vol. 11, No. 4, pp. 215-224DOI
10 
J. S. Jung, K. R. Ko, S. B. Pan, 2014, Auto of Human Body Model Data Measurement Using Kinect in Motion Capture System, Journal of Korea Information Technology, Vol. 12, No. 9, pp. 173-180DOI
11 
C. G. Harris, 1988, A combine corner and edge detector, in Alvey Vision Conference, Vol. 15, No. 50, pp. 10-5244Google Search
12 
K. Lee, C. H. Lee, 2013, Content-based image retrieval using LBP and HSV color histogram, Journal of Broad- cast Engineering, Vol. 18, No. 3, pp. 372-379DOI
13 
S. Xu, 2015, RANSAC based three points algorithm for ellipse fitting of spherical object's projection, arXiv preprintGoogle Search
14 
D. H. Yeom, Y. H. Joo, J. B. Park, May 2010, Selection of coefficient for equalizer on optical sisc drive by golden search, IEEE Transactions on Consumer Electronics, Vol. 56, No. 2, pp. 657-662DOI
15 
O. Chum, J. Matas, J. Kittler, 2003, Locally optimized RANSAC, Joint Pattern Recognition Symposium, Vol. springer, berlin, heidelberg, No. , pp. 236-243DOI
16 
S. K. Kim, Y. H. Joo, March 2015, Visual touch recognition for NUI using Voronoi-Tessellation Algorithm, The Transactions of the Korean Institute of Electrical Engineers, Vol. 64, No. 3, pp. 465-472DOI
17 
J. S. Kim. D. H. Yeom, Y. H. Joo, August 2011, Fast and robust algorithm of tracking multiple moving objects for intelligent video surveillance, IEEE Transactions on Consumer Electronics, Vol. 57, No. 3, pp. 1165-1170DOI
18 
J. S. Kim, D. H. Yeom, J. B. Park, Y. H. Joo, October 2010, Intelligent Unmanned Anti-theft System Using Network Camera, International Journal of Control Automation and Systems, Vol. 8, No. 5, pp. 967-974DOI

저자소개

오현경(Hyun Kyung Oh)
../../Resources/kiee/KIEE.2019.68.12.1618/au1.png

Hyun Kyung Oh received B.S. degree in School of IT Informationa and Control Engineering from Kunsan National University, Korea, in 2011 and is studying in M.S course in same University.

His current research interests include intelligent video surveillance systems, computer vision, pattern recognition.

주영훈(Young Hoon Joo)
../../Resources/kiee/KIEE.2019.68.12.1618/au2.png

Young Hoon Joo received the B.S., M.S., and Ph.D. degrees in electrical engineering from Yonsei University, Seoul, South Korea, in 1982, 1984, and 1995, respectively.

He was a Project Manager with Samsung Electronics Company, Seoul, from 1986 to 1995.

He was a Visiting Professor with the Department of Electrical and Computer Engineering, University of Houston, Houston, TX, USA, from 1998 to 1999.

He is currently a Professor with the School of IT Information and Control Engineering, Kunsan National University, Gunsan, South Korea.

His current research interests include intelligent robot, intelligent control, wind energy systems, and computer vision.

Dr. Joo served as the President for the Korea Institute of Intelligent Systems in 2009, the Editor-in-Chief for the Intelligent Journal of Control, Automation, and Systems from 2014 to 2017, and the Vice- President for Institute of Control, Robot and Control from 2016 to 2017.

He is serving as the President for the Korean Institute of Electrical Engineers in 2019 and the Director for Research Center of Wind Energy Systems funded by the Korean Government, Kunsan University.