• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Aerospace Information Engineering, Konkuk University, Korea)



Visual navigation, Visual-Inertial odometry, Extended kalman filter, RGB-D camera

1. 서론

최근 자율 로봇(autonomous robot)은 소형화와 경량화에 힘입어 점차 생활권과 가까워지고 있다. 그 예로, 드론은 초기에 군사적 목적으로 사용되었으나, 현재 택배 배달 및 영상 촬영에 활용되고 있다. 또한 Boston dynamics의 SpotMini처럼 실내에서 활용 가능한 지상 로봇 역시 꾸준히 개발되고 있다. 이처럼 무인이동체가 생활권에 가깝게 적용될수록, 도심 및 실내 항법의 중요성 역시 강조된다.

도심이나 실내 항법의 경우, 가장 큰 문제는 위성 신호가 두절되거나 신호의 다중경로(multipath)로 인해 GNSS (Global Navigation Satellite System)를 활용하기 어렵다는 것이다. 이러한 상황에서 영상 항법은 훌륭한 대안이 될 수 있다. 영상 항법은 센서 가격이 저렴하고 가볍다는 장점이 있어 소형 및 경량화에 적합하며 풍부한 정보를 제공한다. 그러나 영상 항법은 그 특성상 오차가 누적되어 발산하는 Dead Reckoning 항법이다. 따라서 발산이 적은 시스템을 설계하는 것이 중요하다. 또한, 영상센서는 밝기 변화에 민감하고, 급격한 움직임에 의한 모션 블러(motion blur)에 취약하다. 또한 영상 항법은 움직이는 사물이 없는 정적 환경을 전제하기 때문에, 동적 환경에서는 항법 정확도가 떨어질 수 있다. 이러한 단점을 극복하기 위해, 영상센서와 관성센서를 결합하여 정확도와 강인성을 향상시키는 VIO(Visual – Inertial Odometry) 연구가 활발히 진행되어 왔다.

VIO는 크게 강결합(Tightly coupled) 방식과 약결합(Loosely coupled)방식으로 나뉜다(1,2,3). 강결합 방식의 경우, 필터를 이용하는 경우와 비선형 최적화를 기반으로 상태변수를 추정하는 방법이 있다. 그 중 비선형 최적화 기반 알고리즘(1,4)은 그래프 기반 영상 항법과 관성센서를 결합한 형태로, 포즈(pose)정보와 특징점 사이의 구속조건(edge)뿐 아니라 관성센서를 이용한 구속조건을 함께 고려한다. 이후 이러한 구속조건들을 이용하여, 비선형 최적화(nonlinear optimization) 문제를 풂으로써 항법 해를 계산한다. 이 방식은 EKF 구조에서 오는 선형화 오차가 없다는 장점이 있으며, 영상처리 과정에서 많은 특징점을 추출하고 RANSAC 알고리즘을 사용하기 때문에 동적인 상황에서 보다 강인하다. 또한 다수의 특징점을 기반으로 지도를 작성하는 SLAM(5,6,7)으로 확장이 가능하며, loop closing과 같은 기법(8,9)을 적용하여 누적된 오차를 줄일 수 있다는 장점이 있다. 그러나 이러한 방식은 상대적으로 연산량이 많기 때문에 높은 성능의 CPU를 필요로 한다. 또 다른 강결합 방식은 필터 기반 강결합으로, 관측되는 모든 특징점 정보 또는 카메라 포즈 정보를 상태변수에 포함하며 매 스텝 마다 각각의 확률정보를 업데이트한다. 필터 기반 강결합의 경우 적은 특징점으로도 정확한 항법을 수행할 수 있으며, 요구되는 연산량이 적다는 장점이 있다. 따라서 경량의 저전력 항법 모듈을 구성할 수 있으며, 이 때문에 MAV(Micro Air Vehicle) 등 소형 로봇에 적합하다. 그러나 많은 양의 특징점을 사용할 경우 연산량이 급격하게 증가하여 맵 작성이 용이하지 않다는 단점이 있다.

이와 다르게 약결합 방식은 영상센서와 영상 항법 알고리즘을 하나의 센서처럼 다루며(black box), 주로 그래프 기반 Visual Odometry(VO)의 위치 및 자세 추정 결과를 칼만 필터의 측정치로 활용하는 방법을 사용한다(2,10). 이러한 방법은 필터 구조가 비교적 간단하며 연산량이 적다. 또한 필터 기반 강결합 방식에 비해 많은 수의 특징점을 추출하므로 최적화 기반 방식과 같이 동적 환경에 강인할 수 있으며, SLAM 알고리즘으로 확장 역시 가능하다. 그러나 VO에서 관성센서 정보를 사용하지 않기 때문에, 추정 정확도가 저하될 가능성이 있다.

본 논문에서는, 약결합 방식의 장점인 적은 연산량과 강인성을 유지하면서 정확도를 향상시키는 알고리즘을 제안한다. 제안하는 알고리즘은 이전 연구(11,12)의 측정치 보정 알고리즘을 VIO에 적용한 것으로, 이전 연구에서는 몇 가지 가정을 통해 속도 벡터를 통해 자세를 보정할 수 있음을 보였다. 본 논문에서도 이와 같이 영상 항법으로부터 속도를 추출하여 관성 센서와 결합해 자세 보정하며, 이를 통해 항법 해의 정확도를 높인다. 자세한 내용은 3.2절에서 다룬다. 또한 RGB-D 카메라와 GPU 가속을 사용하지 않는 경량화 된 플랫폼(Intel NUC5i7RYH)을 구성하여 항법 저해요소가 있는 일반적 환경에서 성능평가를 수행하였으며 공용 데이터셋인 EuRoC 데이터셋(13)을 통해 알고리즘 성능을 비교하였다.

본 논문의 나머지 구성은 다음과 같다. 2장에서는 관련 연구를 소개하며, 3장에서는 알고리즘을 상세히 기술한다. 4장에서는 타 알고리즘과 성능을 비교하며, 실외 실험을 통해 성능을 검증한다. 마지막 5장에서는 결론을 맺는다.

2. 관련 연구

필터 기반 결합방식은 영상 항법 분야에서 가장 오랫동안 연구되어 온 주제 중 하나이다. 초기 영상/관성 복합 항법의 대표적인 연구는 필터 기반 강결합 방식(14)으로, 관성센서와 영상 특징점을 사용하는 확장 칼만 필터 기반 강결합 알고리즘을 제시하였다. 이후로, R.Mourikis 등은 특징점 대신 지난 시점의 카메라 포즈를 상태변수에 포함하는 MSCKF (Multi-State Constraint Kalman Filter)(15)을 제시하였다. 이 방법은 특징점의 확률분포를 가우시안 분포로 근사할 필요가 없기 때문에, 더욱 고정밀의 포즈 추정이 가능하였다. 또한, (1618)에서는 카메라-관성센서 간 캘리브레이션 파라미터 역시 상태변수에 포함하여 추정이 가능함을 보였다. [16](16)의 경우 UKF기반의 필터를 설계하였으며 캘리브레이션 파라미터 추정의 가관측성을 분석하였다. [17](17),[18](18)은 MSCKF의 후속 연구로, 캘리브레이션 파라미터와 요(yaw)각에 대한 가관측성 분석을 바탕으로 필터의 일관성(consistency)을 향상시키는 연구를 수행하여, 추정된 상태변수의 불확실성(uncertainty)과 실제 불확실성의 일치시키고자 하였다. 이러한 특징점을 사용하는 연구 외에, 특징점을 사용하지 않는 연구도 수행되고 있다. 이는 특징점 대신 이미지 패치를 이용하는 것으로, 포토메트릭 오차(photometric error)를 유도하여 필터에 적용한다(19-21). 특징점을 사용하지 않기 때문에, 모션블러 또는 텍스쳐가 적은 환경에 강인하다는 특징을 갖는다.

이러한 필터 기반 강결합의 경우 많은 특징점 또는 이미지 패치를 필요로 하지 않으며, 최적화 기반 VIO보다 적은 연산량을 필요로 한다. 때문에 가벼운 온보드(onboard) 구축이 가능하면서도 고주기로 항법해를 계산할 수 있기 때문에 MAV 제어 등에 주로 적용되고 있다. 그 예로, 최근의 연구인 S-MSCKF(Stereo- MSCKF)(22)는 알고리즘은 온보드 Intel NUC를 이용하여 MAV에 적용되었으며, 스테레오 카메라를 이용하면서도 강인하고 저 연산량을 요구하는 시스템을 보였다.

필터 기반 약결합의 경우, 일반적으로 VO 알고리즘의 해를 칼만 필터의 측정치(measurement)로 사용하여 결합한다(2,10). 즉, VO 알고리즘을 하나의 센서처럼 다룬다. 때문에 특징점 수에 상관없이 항상 같은 수준의 계산 복잡도를 보이므로 많은 수의 특징점을 활용하여 강인한 시스템을 구성할 수 있으며, 키 프레임 또는 맵핑 알고리즘을 적용할 수 있다. [2](2)에서는 스케일 팩터를 상태변수에 추가하여 단안카메라 기반의 약결합 구조를 제시하였다. [10](10)에서는 스테레오카메라를 사용하여 키 프레임 기반의 약결합을 구현하여, 경량의 플랫폼으로 실시간 성능을 분석하였다. 이러한 약결합 방식은 강결합 방식에 비해 필터 구조가 간단하기 때문에, 다른 센서를 융합함으로써 성능을 향상시키기 용이하다. [23](23), [24](24)의 경우가 다양한 센서를 융합한 연구로써, [23](23)는 IEKF(Iterated-EKF)를 기반으로 이론적으로 센서 여러 개를 무한히 결합할 수 있는 일반적인 프레임을 제시하였다. 또한 센서 가용 또는 비가용으로 전환되는 상황에 대응하여 센서 데이터를 손실 없이 다루는 것을 목표로 하였다. [24](24) 역시 GPS, 지자기센서, 압력 고도계, 레이저 스캐너 등과 UKF를 기반으로 결합하는 모듈형의 확장 가능한 프레임을 제시하여 다양한 환경에서 기능할 수 있게 하였다. 또한 경량의 소형 MAV 플랫폼을 구성하여 실험을 수행하였다.

두 논문 모두 영상/관성센서를 기반으로 여러 센서를 다룰 수 있는 일반적인 구조를 제시했지만, 영상 센서 결합 부분에 있어서는 기존의 약결합 방식과 같이 VO 결과를 그대로 사용하여 결합하였다. 본 논문에서는, 센서를 확장하기보다 결합 알고리즘 자체를 향상시키는데 초점을 둔다. 이를 위해, VO에서 추정된 위치 및 자세를 그대로 사용하는 대신 위치 추정치 차분을 통해 속도를 만들어 자세를 보정한다. 이 같은 방법을 통해 센서 간 결합도를 높이고, 위치 정확도에도 영향을 미치는 자세 추정 성능을 향상시키는데 기여한다. 이 과정에서 VO 알고리즘은 오픈 소스 SLAM 시스템인 ORB-SLAM(5,25)의 일부를 활용하였다. ORB-SLAM은 ORB 특징점(26)을 사용하는 SLAM으로, ORB 특징점은 SIFT(27)에 비해 약 백배 수준 정도의 빠른 매칭 속도를 보이면서, SIFT와 유사한 성능을 보이므로(26) 실시간성이 중요한 시스템에 적합하다. 본 논문에서 제시하는 알고리즘에 대한 자세한 내용은 3장에 기술하였다.

3. 결합 항법 알고리즘

3.1 상태변수 및 시스템 모델

확장 칼만 필터를 구성하기 위해, 상태 변수와 시스템 모델을 정의한다. 본 논문의 상태 변수 벡터 x와 모델은 MSCKF(15)논문을 참고하였다.

(1)
x = p n T v n T q n b T b a T b g T T

상태변수 x에서 p, v, q는 각각 위치, 속도, 자세 쿼터니언이며 $b _{a}$, $b _{g}$는 가속도 및 각속도 센서의 운항 중 바이어스 성분이다. 여기서 첨자 n, b는 각각 변수가 로컬 레벨 좌표계(local- level frame), 몸통 좌표계에서 표현되었음을 의미하며 $q _{n} ^{b}$는 로컬 레벨 좌표계에서 몸통 좌표계로의 좌표회전을 나타내는 단위 쿼터니언이다. 본 논문에서는 지자기센서나 고성능 자이로 센서를 사용하지 않기 때문에 북쪽 방향을 알 수 없다. 따라서 ENU (East-North-Up) 또는 NED(North-East-Down) 좌표계는 사용할 수 없으며, 수평 축은 x, y로, 중력방향(Down) 축은 z로 표현하였다.

간접 칼만 필터를 구성하기 위한 상태변수 $x$의 오차 $\tilde { \mathrm { x } }$는 추정치 $\hat { \mathrm { x } }$에 대해 $\tilde { \mathrm { x } } = \mathrm { x } - \hat { \mathrm { x } }$를 만족하며, 아래와 같다.

(2)
x ~ = p ~ T v ~ T δ θ T b ~ a T b ~ g T T

단, $\delta \theta$의 경우 MSCKF(15)와 같이 상태변수 쿼터니언 오차에서 벡터 부분을 표현한 것이다. 쿼터니언 오차는 그 오차가 매우 작을 때, 다음과 같이 근사할 수 있다.

(3)
q ~ 1    1 2 δ θ T T

따라서 쿼터니언 오차는 쿼터니언의 벡터부분만 사용하여 표현이 가능하며, $\tilde { q } = q \otimes \hat { q } ^ { * }$이다. 여기서 $\otimes$는 쿼터니언 곱, *는 쿼터니언 conjugate이다. 또한, 필터 propagation을 위한 항법 방정식은 다음과 같다.

(4)
q ^ ˙ = 0 . 5 Ω ω b q ,                                                                             b ^ ˙ a = 0 v ^ ˙ n = C q b n a b - 2 ω ie n × v n + g n ,               b ˙ g = 0 p ^ ˙ n = v n

여기서 $\mathrm { C } ( \mathrm { q } )$는 쿼터니언 q를 DCM으로 변환한 것이며, $\Omega ( \cdot )$는 식(5)와 같이 skew-symmetric 행렬인 $[ \cdot \times ]$를 사용하여 표현되는 행렬이다.

(5)
Ω ( ω ) = 0 - ω T ω - [ ω × ] ,         [ ω × ] = 0 - ω z ω y - ω z 0 - ω x ω y - ω x 0

식(4)에서, $\omega _ { \mathrm { ie } } ^ { \mathrm { n } }$는 지구 자전 각속도이다. 만약 잡음(noise)이 큰 저급(low-grade) MEMS센서를 사용한다면 $\omega _ { \mathrm { ie } } ^ { \mathrm { n } }$성분은 무시될 수 있다. 따라서 각속도와 가속도는 각 센서 출력 $a _{m}$, $\omega _{m}$을 통해 다음과 같이 나타낼 수 있다.

(6)
ω b = ω m - b g - n g a b = a m - b a - n a

위 식들을 기반으로 오차 상태변수를 위한 선형화된 모델은 아래와 같다.

(7)
x ~ ˙ = F x ~ + G n

(8)
F = 0 3 × 3 I 3 × 3 0 3 × 3 0 3 × 3 0 3 × 3 0 3 × 3 0 3 × 3 - C b n [ a × ] - C b n 0 3 × 3 0 3 × 3 0 3 × 3 - [ ω × ] 0 3 × 3 - I 3 × 3 0 3 × 3 0 3 × 3 ,         G = 0 3 × 3 0 3 × 3 0 3 × 3 0 3 × 3 - C b n - I 3 × 3 I 3 × 3 I 3 × 3

여기서 $n = [{n _{ a } ^ { T }} \quad {n _ { g } ^ { T }} \quad {n _ { wa } ^ { T }} \quad { n _ { Wg } ^ { T }}] ^ { T }$이며 $n _{a}$, $n _{g}$는 각각 가속도 및 자이로의 영평균 백색 가우시안 잡음, $\mathrm { n } _ { \mathrm { wa } } ^ { \mathrm { T } }$, $\mathrm { n } _ { \mathrm { wg } } ^ { \mathrm { T } }$는 가속도 및 자이로의 random walk rate이다.

식(7), 식(8)을 바탕으로, 이산화된 센서 출력에 따른 공분산 갱신은 다음과 같이 수행된다. Q 행렬은 벡터 n의 공분산 행렬로, IMU의 센서 특성에 따라 달라지게 된다.

(9)
P k - = F P k F T + G Q IMU G T

3.2 측정 모델

3.2.1 Visual Odometry

본 논문에서는 VO의 결과값인 위치, 자세를 측정치로 사용한다. VO 알고리즘은 ORB-SLAM(16,17)의 특징점 추출과 특징점 매칭, 비선형 최적화 기법을 이용한 포즈 추정 기능을 활용하였다. ORB-SLAM에서는 특징점 추출 후 매칭 단계에서의 효율적인 매칭을 위해 등속(constant velocity) 모델을 이용한다. 등속 모델은 항체의 속도와 각속도가 일정하다고 가정하므로, 이전 시점의 위치와 자세 변화량을 통해 현재의 위치, 속도를 근사적으로 추정할 수 있다. 현재 시점이 k일 때, 이전 시점의 위치와 자세 변화량은 다음과 같이 동차행렬(homogeneous matrix) $\Delta \mathrm { T } _ { \mathrm { k } - 1 }$로 표현된다.

(10)
Δ T k - 1 = T w c k - 1 T c k - 2 w = C w c k - 1 p c k - 1 w c c - 1 0 1 C c k - 2 w p wc k - 2 w 0 1 = C c k - 2 c k - 1 D c k - 1 c k - 2 c k - 1 0 1

여기서 $C _ { \mathrm { w } } ^ { \mathrm { c } _ { \mathrm { k } } }$는 월드 좌표계에서 k번째 순간의 카메라 좌표계로의 DCM을 의미하며, 월드좌표계는 초기시점의 카메라 좌표계와 같다. $\mathrm { p } _ { \mathrm { W } \mathrm { C } _ { \mathrm { k } } } ^ { \mathrm { W } }$는 월드좌표계에서 $\mathrm { C } _ { \mathrm { k } }$로의 상대 위치를 월드 좌표계에서 표현한 벡터이며, $T _ { \mathrm { w } } ^ { \mathrm { c } _ { \mathrm { k } } }$는 월드좌표계에서 $\mathrm { C } _ { \mathrm { k } }$좌표계로 좌표변환을 수행하는 행렬이 된다. 위에서 얻은 $\Delta T _ { k - 1 }$을 통해 현재 카메라의 위치와 포즈를 다음과 같이 예측할 수 있다.

(11)
T w ϵ k m = Δ T k - 1 T w f k - 1

$\mathrm { T } _ { \mathrm { W } } ^ { \mathrm { C } _ { \mathrm { k } , \mathrm { mm } } }$은 등속 모델로부터 예측된 카메라의 포즈이다. 이렇게 예측된 현재 포즈를 이용하여 이전 프레임에서 추출한 특징점을 현재의 영상평면으로 투사(projection)하고, 투사된 위치 주변에서 매칭되는 특징점을 찾는다.

이후, 매칭점을 활용한 비선형 최적화를 통해 현재 카메라 포즈를 재 추정한다. 이전 프레임의 매칭된 특징점을 현재 프레임에 투사하고, 현재 매칭점과의 오차(reprojection error)가 최소가 되는 포즈를 아래 식(12)을 통해 구한다. 이전 프레임의 i번째 매칭점의 3차원 좌표를 $\mathrm { m } _ { \mathrm { k } - 1 , \mathrm { i } } ^ { \mathrm { W } }$, 현재 프레임의 i번째 매칭점의 2차원 좌표를 $\mathrm { m } _ { \mathrm { k } , \mathrm { i } } ^ { 2 \mathrm { D } }$라 하면

(12)
C w c k , p c k w c k = argmin C p i ρ m k , i 2 D - π C m k - 1 , i W + p 2

식(12)의 $\rho $는 휴버 비용함수(Huber cost function)이며 $\pi $는 3차원 특징점을 2차원 평면으로 맵핑하는 투사 함수이다(21).

3.2.2 Measurement Update with Velocity Vector

앞서 얻은 VO의 자세, 위치 추정치는 기존 약결합 방식과 같이 별도의 수정 없이 측정치로 활용될 수 있다. 그러나 본 논문에서는 자세 추정 성능을 향상시키기 위해, VO로부터 속도를 유도하여 자세를 보정한다. 속도를 활용하여 자세를 보정하는 방법은 이전 논문(11)과 같으며 다음과 같이 두 속도 벡터로부터 유도된다.

(13)
Δ v I N S , k = C n b i = t t + Δ t C b n a b d t Δ v R e f , k = C n b i = t t + Δ t v R e f , i n + g n Δ t

여기서 dt는 unit time step, 벡터 $\Delta \mathrm { V } _ { \in \mathrm { S } , \mathrm { k } }$는 IMU를 통해 얻는 비력(specific force)의 적분이며, $\Delta \mathrm { V } _ { \mathrm { R } \mathrm { ef } , \mathrm { k } }$는 GNSS와 같이 외부 센서를 통해 얻은 속도 증분과 중력의 조합이다. 오차가 없는 이상적인 경우, 두 벡터는 일치하게 되지만 IMU적분 과정에서 생기는 자세 오차가 두 벡터간 차이를 만들게 된다. 여기서 일정한 구간 $\Delta t$동안 적분되는 자세 오차의 주 원인은 자이로 바이어스(gyro bias)라고 간주할 수 있다. 일반적으로 자이로 바이어스의 경우 크기가 작고 긴 시간에 걸쳐 변하는 저 대역폭 신호이기 때문에, $\Delta t$동안 일정하며 그 크기는 작다고 가정하였다. 이러한 가정 하에서, 가속도 변화가 작을 경우 두 벡터는 그림. 1과 같이 한 평면상에 위치할 수 있다.

그림. 1. $\Delta \vec { V } _ { R e f , k } ^ { n }$와 $\Delta \vec { V } _ { \in S , k } ^ { n }$의 관계(11)

Fig. 1. The relation between $\Delta \vec { V } _ { R e f , k } ^ { n }$ and $\Delta \vec { V } _ { \in S , k } ^ { n }$ (11)

../../Resources/kiee/KIEE.2019.68.1.189/fig1.png

위 그림에서 dt는 unit time step이며 $\triangle \mathrm { t } = \mathrm { N } \cdot \mathrm { dt }$이다. $\Delta \mathrm { V } _ { \mathrm { Ref } } ^ { \mathrm { n } }$방향을 x축으로 하는 2D 평면에서 표현된 $\Delta \mathrm { V } _ { \in \mathrm { S } } ^ { \mathrm { n } }$를 $\Delta \mathrm { V } _ { \in \mathrm { S, 2D } } ^ { \mathrm { n } }$라고 하면, 해당 벡터는 미소각 근사(small angle assumption)을 사용하여 다음과 같이 정리될 수 있다(11).

(14)
Δ v M S , 2 D = i = t t + A a 2 D , ( t + i , d t ) cos ε g ( i · d t ) sin ε g ( i · d t ) a i , 2 D b d t · N N ( N + 1 ) 2 ε g d t

식(14)에서 $\Delta \mathrm { V } _ { \in \mathrm { S, 2D } } ^ { \mathrm { n } }$와 $\Delta \mathrm { V } _ { \mathrm { Rsf, 2D } } ^ { \mathrm { n } }$의 사잇각을 구하면

(15)
Δ v I N S , 2 D , Δ v R e f , 2 D ε g N + 1 2 d t

여기서 $N d t = \Delta t$이고, 일반적으로 IMU 출력 주기가 고주기임을 고려할 때, (15)는 다음과 같이 근사될 수 있다.

(16)
ε g N + 1 2 d t ε g Δ t 2 Δ v M S , 2 D , Δ v R f , 2 D ε g Δ t 2

$\epsilon _ { g }$가 충분히 작다고 가정하면 $\Delta t$동안 발생한 자세 오차는 $\epsilon _ { g } \Delta t$로 근사할 수 있으므로, 식(16)은 속도 증분 벡터와 자세 오차 간 관계식이 된다.

위 전개 과정에서, 자이로 오차 $\epsilon _ { g }$가 $a _ { i }$와 평행한 성분을 포함할 수 있다. 이 경우 해당 성분은 두 속도 증분 벡터 간 사잇각에 영향을 주지 못하기 때문에, 적절히 보정되지 못한다. 그러나 가속도 $a _ { i } $의 방향은 일반적으로 $\Delta t$보다 큰 주기에서 끊임없이 변하므로, $\Delta t$보다 긴 시간에 걸쳐 보정 가능함을 알 수 있다.

적분 주기 $\Delta t$의 경우, 적절한 크기를 선정하는 것이 중요하다. 적분 주기가 길면 백색 잡음(white noise)과 같은 고주파 잡음 성분에 대한 영향을 적에 받을 수 있으나, 자이로 바이어스에 의한 오차 역시 증가하여 위 가정을 해칠 수 있다. 반면 구간이 짧은 경우 적분되는 오차는 작을 수 있지만, 백색 잡음이 충분히 억제되지 않아 정확도를 저해할 수 있다. 또한 적절한 적분 구간 $\Delta t$에 의해 항법 출력 주기가 낮아지는 것을 보완하기 위해, [11](11)과 같이 슬라이딩 윈도우(sliding window)기법을 사용하여 연속적으로 보정될 수 있게 하였다.

이 방법을 적용하기 위해 (13)의 속도 증분 벡터를 VO에서 얻어진 위치를 차분하여 구성하였다. 속도 증분 벡터는 모두 n-frame(local-level frame)에서 적분하므로 다음과 같이 위치 차분 벡터를 n-frame에서 표현한다.

(17)
v V I S n = C w n C c w p ˙ w c c

$p _ { w c } ^ { c }$, $C _ { c } ^ { w }$는 각각 VO의 pose 추정 결과값이며, $C _ { w } ^ { n }$은 월드 좌표계에서 local-level frame으로의 변환 DCM이다. 위 식에서 얻어진 $\mathbf { V } _ { \mathrm { VIS } } ^ { \mathrm { n } }$벡터와 IMU로부터 적분구간 T동안의 증분 벡터를 다음과 같이 만들 수 있다.

(18)
Δ v M S , k = C n b i = k - Δ t k v I N S , i n Δ v V I S , k = C n b i = k - Δ t k v V I S , i n + g n Δ t

식(16)로부터 자세 오차 쿼터니언과 속도 증분 벡터와 관계는 다음과 같다.

(19)
q ~ Δ v I N S · Δ v G P S Δ v M S × Δ v G P S 1 1 2 ( 2 θ ~ )

따라서 위 식(19)로부터 칼만 필터의 측정치 $\widetilde { z } _ { k }$를 다음과 같이 구할 수 있다.

(20)
z ~ = z ~ p T z ~ θ T T

(21)
z ~ p = p V I S - p I N S z ~ θ = Δ v I N S × Δ v G P S

관측행렬 H는

(22)
H = I 3 × 3 0 3 × 3 0 3 × 3 0 3 × 3 0 3 × 3 I 3 × 3 0 6 × 6

이후 상태변수 및 공분산 보정은 다음과 같이 수행된다.

(23)
K k = P k - H T HP k - H T + R - 1 x ~ k = x ~ k - + K z ~ k - H x ~ k - P k = I - K k H P k -

정지 상태이거나 속도가 0에 가까울 경우엔 통상적인 약결합과 같이 자세와 위치를 직접 결합한다. 따라서 식(21)에서의 $\tilde { z } _ { \theta }$는 INS 적분으로부터 얻은 $q _ { \in S}$와 VO에서 얻은 $q _ {VIS}$로부터 $\tilde { z } _ { \theta } = \theta _ { L C }$이다.

(24)
δ q L C = q I N S q V I S 1 1 2 δ θ L C T T

4. 실험 및 결과

4.1 EuRoC Dataset

알고리즘의 성능을 검증하기 위해, 오픈 데이터 셋인 EuRoC MAV Dataset(13)을 사용하였다. EuRoC 데이터 셋은 영상 또는 영상/관성 복합항법을 위한 데이터 셋으로, 스테레오 카메라와 관성센서를 탑재한 MAV(Micro Aerial Vehicle)의 비행 데이터를 포함하고 있다. 관성센서는 ADIS16448로 200Hz의 출력 주기를 갖고, 영상센서 출력 주기는 20Hz이다. 또한 MAV의 움직임과 조도, 텍스처 등에 따라 easy, medium, difficult로 세분화되어 있다.

먼저 제안한 알고리즘과 약결합 방식 (24)을 비교하기 위해, Vicon room sequence에 대해 위치 및 자세의 RMSE(Root Mean Square Error)를 계산하여 표 1에 나타내었다. 여기서 V201, V202셋의 경우, MAV의 착륙시 움직임이 급격하고 착륙 지점 주변의 특징점이 풍부하지 않으므로, 착륙 직전까지의 데이터를 사용하였다. 자세 RMSE의 경우 롤, 피치, 요 오차의 크기(2-norm)를 이용하여 계산하였다. 또한 RMSE는 알고리즘을 5회 수행한 뒤 평균값을 사용하였다.

표 1. EuRoC dataset의 위치, 자세 오차 결과

Table 1. Position and Attitude Error of EuRoC Dataset

EuRoC

Dataset

Attitude RMSE (deg)

Position RMSE (m)

Proposed

LC

Proposed

LC

V101 easy

3.51

4.50

0.42

0.40

V102 medium

1.35

2.43

0.17

0.20

V103 difficult

1.23

2.16

0.45

0.53

V201 easy

1.37

2.64

0.53

0.64

V202 medium

1.61

3.68

1.28

1.45

V203 difficult

X

X

X

X

표 1을 통해 비교해 본 결과 전반적으로 위치 및 자세 추정성능이 향상되었으며, 자세의 경우 대체적으로 2도 이하의 오차를 보였다. 단, V203의 경우 심한 모션 블러로 인해 제안한 알고리즘과 LC 모두 트래킹(tracking)에 실패하였다. 반면 V103의 경우, 그림. 2와 같이 상대적으로 급격한 포즈 변화가 있음에도 다른 셋과 유사한 오차 수준을 보임을 알 수 있다. 이를 통해, 제안된 측정치 기반 보정 알고리즘에서 적용한 가정이 급격한 움직임에도 어느 정도 강인함을 보임을 알 수 있다. 그림. 3에는 V103의 자세 추정 오차를 상세히 나타내어 LC알고리즘과 비교하였고, 그림. 4에서는 위치 오차를 비교하였다. 그림. 3에서 평균 roll, pitch, yaw각 오차는 각각 LC가 1.07, 1.02, 0.92도이며 제안된 알고리즘이 0.70, 0.52, 0.30도를 보였다.

그림. 2. V103 오일러 자세각 추정 결과

Fig. 2. Ground Truth and estimated result of Euler angles of V103

../../Resources/kiee/KIEE.2019.68.1.189/fig2.png

그림. 3. 제안된 알고리즘과 약결합 기반 알고리즘의 V103 자세 오차 비교

Fig. 3. Attitude error of proposed and LC algorithm of V103

../../Resources/kiee/KIEE.2019.68.1.189/fig3.png

그림. 4. 제안된 알고리즘과 약결합 기반 알고리즘의 V103 위치 오차 비교

Fig. 4. Position error of proposed and LC algorithm of V103

../../Resources/kiee/KIEE.2019.68.1.189/fig4.png

제안된 알고리즘의 성능을 타 알고리즘과 비교하기 위해 ATE(Absolute Translational Error)를 계산하여 표 2에 나타내었다. ATE는 참 궤적과 추정된 궤적 사이의 오차가 최소가 되도록 궤적을 회전시킨 후 오차를 구하는 방법이다(28). 계산된 ATE RMSE 결과는 LIBVISO2 (Library for visual odometry 2)(29), PIVO (Probabilistic inertial-visual odometry)(30), S-PTAM (Stereo parallel tracking and mapping), VI-ORB SLAM (Visual-inertial ORB SLAM)(31)과 비교하였다. 알고리즘 별 ATE결과는 각 논문을 참고하였으며 LIBVISO2와 S-PTAM은 [33](33)에서 발췌하였다.

표 2. 알고리즘 별 ATE 결과(median)

Table 2. Absolute Translational RMSE (median)

EuRoC Dataset

Proposed

LIBVISO2* (29)

PIVO (30)

S-PTAM* (32)

VI-ORB SLAM(31)

V101 easy

0.22

(0.18)

0.26

(0.24)

0.82

(0.31)

0.28

(0.19)

0.027

V102 medium

0.25

(0.20)

0.17

(0.15)

X

0.50

(0.35)

0.028

V103 difficult

0.30

(0.29)

0.24

(0.21)

0.72

(0.48)

1.36

(1.09)

X

V201 easy

0.33

(0.32)

0.53(0.51)

0.11

(0.07)

2.38

(1.78)

0.032

V202 medium

0.58

(0.42)

0.92

(0.75)

0.24

(0.15)

4.58

(4.18)

0.041

V203 difficult

X

X

0.51

(0.23)

X

0.074

*의 경우 [33](33)에서 발췌. 단위:m. X는 tracking failure 의미

LIBVISO2는 스테레오 기반 VO로, 관성정보는 활용하지 않는 알고리즘이다. V102와 V103에서는 LIBVISO2가 더 나은 성능을 보이지만, 그 외에서는 본 알고리즘의 결과가 더 정확함을 알 수 있다. 특히 V201, V202에서 큰 차이를 보인다. V203의 경우 MAV의 급격한 움직임으로 인해 두 알고리즘 모두 추정에 실패하였다. PIVO는 MSCKF와 유사한 구조를 갖는 EKF기반 영상/관성 결합 오도메트리로 본 알고리즘과 비교하기에 가장 적합하지만, PIVO는 단안 카메라만을 사용한다는 차이점이 있다. 비교 결과 V201~203에서는 PIVO가 보다 정확한 결과를 보이지만, V101~103에서는 본 알고리즘 결과가 더 정확함을 알 수 있다. 두 알고리즘 모두 항법에 실패하지 않은 V101, V103~V202의 RMSE 평균을 비교하면, 본 알고리즘이 0.36, PIVO가 0.47로 본 알고리즘의 오차가 더 적음을 알 수 있다. S-PTAM은 Stereo 카메라 기반 SLAM으로 관성센서는 사용되지 않았다. VI-ORB SLAM은 최적화 기반 영상/관성 ORB-SLAM으로, EuRoC 키프레임을 관리하고 지도를 활용하는 것에 뛰어난 SLAM 알고리즘이다. 표에 나타낸 결과는 단안 카메라를 이용한 결과이다. 위 데이터 셋은 특징점이 풍부하고 MAV가 좁은 공간에서 움직이므로, 지도를 활용함으로써 얻는 이득이 매우 크다. 때문에 VI-ORB SLAM이 거의 모든 셋에서 더 나은 성능을 보인다.

4.2 실외 실험

더욱 다양한 환경에서 성능 평가를 수행하기 위해 영상/관성 센서 모듈을 구성하여 실외 실험을 수행하였다. 사용된 관성센서는 Analog Device의 ADIS16448로 표 3과 같은 성능을 갖추었으며 출력 주기는 100Hz이다. 또한 특징점의 3차원 좌표를 얻기 위한 깊이(depth) 정보는 RGB-D 카메라를 통해 획득하였다. 사용한 RGB-D 카메라는 Intel사의 RealSense R200이며, 영상정보의 해상도는 640x480, 주기는 30Hz로 설정하였다. 관성센서와 RGB-D 카메라는 그림. 5의 오른쪽과 같이 거치대를 제작하여 견고하게 장착하였고, 카메라 센서의 Z축과 관성센서의 X축이 일치되도록 하였다.

표 3. ADIS 16448 제원

Table 3. Specification of ADIS 16448

Gyroscope

Accelerometer

Bias Repeatability

0.5°/$s$ (1$\sigma$)

20mg(1$\sigma$)

In-Run Bias Stability

14.5°/$hr$ (1$\sigma$)

0.25mg(1$\sigma$)

Angular Random Walk / Velocity Random Walk

0.66°/$\sqrt { h r }$ (1$\sigma$)

0.11$m / \sec / h r$ (1$\sigma$)

그림. 5. 항법 모듈 및 실험 장비

Fig. 5. Navigation module and experimental setup

../../Resources/kiee/KIEE.2019.68.1.189/fig5.png

기준항법 시스템은 KVH사의 KVH 1750 IMU를 사용하여 IMU/GNSS 결합항법을 구성하였다. KVH 1750은 고정밀 FOG (Fiber optic gyro)를 포함하여 매우 정밀한 6자유도 항법 결과를 제공한다. 본 논문에서 제안한 결합항법 알고리즘은 Intel NUC 5i7RYH에서 구동되었으며 필터 출력은 영상 입력 주기와 같은 30Hz이다. CPU는 i7-5557U(쿼드 코어 @3.1GHz), RAM 용량은 8 GB 이다. 구성한 항법모듈을 그림. 5의 좌측과 같이 카트에 장착하여 실험을 진행하였다.

실외 실험은 그림. 5과 같이 반복적인 패턴을 갖는 격자 타일 위에서 수행되었으며, 총 거리는 약 125m이다. 실험 시간은 정지구간을 포함하여 약 225초이며, 실외 실험의 궤적과 위치 추정 결과는 그림7과 같다. 또한 본 실험에서는 격자 타일 바닥으로부터 항법 모듈로 심한 진동이 가해진다. 강한 진동으로부터 발생되는 잡음은 관성센서와 영상센서의 추정 정확도를 저해하는 요인이 되며, 속도로부터 자세 측정치를 얻는 본 알고리즘에 보다 도전적인 요인이 될 것으로 예상된다.

그림. 6. 야외 실험 환경

Fig. 6. Outdoor experimental environments

../../Resources/kiee/KIEE.2019.68.1.189/fig6.png

그림. 7은 수평 및 수직 위치 추정 결과로 기준항법 시스템을 통해 얻은 참 궤적은 검은색, 기존 약결합 결과는 파란색, 제안하는 알고리즘은 마젠타색으로 표현하였다. 그림. 8은 위치 추정 오차를 나타낸 것이다. 위치 추정 결과, 제안한 알고리즘이 수직 위치에서 보다 정확한 추정 결과를 보이는 것을 알 수 있다. 초반부의 정지 구간을 제외한 위치 RMSE(Root Mean Square Error)의 5회 평균값은 LC가 2.89 m, 제안한 알고리즘이 2.07 m이다.

그림. 7. 수평 및 수직 위치 추정 결과

Fig. 7. Estimation results of horizontal and vertical position

../../Resources/kiee/KIEE.2019.68.1.189/fig7.png

그림. 8. 위치 추정 오차 비교

Fig. 8. Estimation error of position

../../Resources/kiee/KIEE.2019.68.1.189/fig8.png

그림. 9의 자세 추정 오차 결과 또한 본 알고리즘이 약결합 방식보다 정확한 추정 성능을 보임을 알 수 있다. 초반부의 정지상태 구간을 제외한 자세 오차의 5회 평균값은 LC가 2.67°(롤), 3.02°(피치), 2.19°(요)이며 결합항법의 경우 1.52°, 1.60°, 2.18° 이다.

그림. 9. 자세 추정 오차 비교

Fig. 9. Estimation error of attitude

../../Resources/kiee/KIEE.2019.68.1.189/fig9.png

5. 결 론

본 논문에서는 확장 칼만 필터 기반의 새로운 약결합 VIO 알고리즘을 제안하였다. 제안하는 알고리즘은 전통적인 약결합 방식과 달리, 속도 벡터를 활용하여 자세 측정치를 생성하는 알고리즘이며, 이러한 측정치 생성 방법을 통해 VIO의 결합도를 높이고 항법 해 정확도를 향상시키고자 하였다. 알고리즘 성능 검증은 공용 데이터셋을 사용하여 수행하였으며 다른 영상/관성 복합항법 알고리즘과 비교하였다. 또한 RGB-D센서를 이용한 항법모듈과 기준항법 장비를 구성하여 야외 데이터셋을 취득하여 성능을 평가하였다. 실험 결과, 기존 약결합 방식과 비교하여 자세 및 위치 추정 정확도를 높이고 발산 정도를 낮출 수 있음을 보였다. 향후 항법 정확도를 보다 높이고 오차 누적을 늦추기 위해 키 프레임 기반의 VO를 활용하여 결합하거나, 또는 SLAM 시스템을 필터에 적용함으로써 지도를 이용한 최적화 기법을 통해 누적된 오차를 줄이는 방법 또한 적용 가능할 것으로 예상된다.

감사의 글

본 연구는 한국연구재단 연구지원사업의 지원에 의한 결과입니다(NRF-2016R1A2B4010719, NRF-2016M1B3A1A01943689, NRF-2015M3C1B1034536).

References

1 
Shen S., Michael N., Kumar V., 2015, Tightly-coupled monocular visual-inertial fusion for autonomous flight of rotorcraft MAVs, Proc. - IEEE Int. Conf. Robot. Autom., Vol. 2015-June, No. June, pp. 5303-5310DOI
2 
Weiss S., Siegwart R., 2011, Real-time metric state estimation for modular vision-inertial systems, Proc. - IEEE Int. Conf. Robot. Autom., pp. 4531-4537DOI
3 
Huang G., Kaess M., Leonard J. J., 2014, Towards consistent visual-inertial navigation, in Proceedings - IEEE International Conference on Robotics and Automation, pp. 4926-4933DOI
4 
Leutenegger S., Lynen S., Bosse M., Siegwart R., Furgale P., Mar. 2015, Keyframe-based visual-inertial odometry using nonlinear optimization, Int. J. Rob. Res., Vol. 34, No. 3, pp. 314-334DOI
5 
Mur-Artal R., Tardos J. D., Oct. 2017, ORB-SLAM2: An Open-Source SLAM System for Monocular, Stereo, and RGB-D Cameras, IEEE Trans. Robot., Vol. 33, No. 5, pp. 1255-1262DOI
6 
Qin T., Li P., Shen S., 2017, VINS-Mono: A Robust and Versatile Monocular Visual-Inertial State Estimator, IEEE Trans. Robot., Vol. 34, No. 4, pp. 1004-1020DOI
7 
Schneider T. et al., 2017, maplab: An Open Framework for Research in Visual-inertial Mapping and Localization, Vol. 3, No. 3, pp. 1418-1425DOI
8 
Mei C., Sibley G., Newman P., 2010, Closing loops without places, in IEEE/RSJ 2010 International Conference on Intelligent Robots and Systems, IROS 2010 - Conference Proceedings, pp. 3738-3744DOI
9 
Kümmerle R., Grisetti G., Strasdat H., Konolige K., Burgard W., 2011, G2o: A general framework for graph optimization, Proc. - IEEE Int. Conf. Robot. Autom., pp. 3607-3613DOI
10 
Schmid K., Hirschmuller H., 2013, Stereo vision and IMU based real-time ego-motion and depth image computation on a handheld device, in Proceedings - IEEE International Conference on Robotics and Automation, pp. 4671-4678Google Search
11 
Lee B., Yun S., Lee H. K., Lee Y. J., Sung S., 2016, An efficient attitude reference system design using velocity differential vectors under weak acceleration dynamics, Int. J. Aeronaut. Sp. Sci., Vol. 17, No. 2, pp. 222-231DOI
12 
Lee B., Lee Y. J., Sung S., Jun. 2018, Attitude Determination Algorithm based on Relative Quaternion Geometry of Velocity Incremental Vectors for Cost Efficient AHRS Design, Int. J. Aeronaut. Sp. Sci., Vol. 19, No. 2, pp. 459-469DOI
13 
Burri M. et al., 2016, The EuRoC micro aerial vehicle datasets, Int. J. Rob. Res., Vol. 35, No. 10, pp. 1157-1163DOI
14 
Bailey T., Durrant-Whyte H., 2006, Simultaneous localization and mapping (SLAM): Part IDOI
15 
Mourikis A. I., Roumeliotis S. I., 2007, A multi-state constraint Kalman filter for vision-aided inertial navigation, in Proceedings - IEEE International Conference on Robotics and Automation, pp. 3565-3572DOI
16 
Kelly J., Sukhatme G. S., 2011, Visual-inertial sensor fusion: Localization, mapping and sensor-to-sensor Self-calibration, Int. J. Rob. Res., Vol. 30, No. 1, pp. 56-79DOI
17 
Li M., Mourikis A. I., 2012, Improving the accuracy of EKF-based visual-inertial odometry, in Proceedings - IEEE International Conference on Robotics and Automation, pp. 828-835DOI
18 
Li M., Mourikis A. I., May 2013, High-precision, consistent EKF-based visual-inertial odometry, Int. J. Rob. Res., Vol. 32, No. 6, pp. 690-711DOI
19 
Tanskanen P., Naegeli T., Pollefeys M., Hilliges O., 2015, Semi-direct EKF-based monocular visual-inertial odometry, in IEEE International Conference on Intelligent Robots and Systems, Vol. 2015-Decem, pp. 6073-6078DOI
20 
Bloesch M., Omari S., Hutter M., Siegwart R., 2015, Robust visual inertial odometry using a direct EKF- based approach, in IEEE International Conference on Intelligent Robots and Systems, Vol. 2015-Decem, pp. 298-304DOI
21 
Bloesch M., Burri M., Omari S., Hutter M., Siegwart R., 2017, Iterated extended Kalman filter based visual- inertial odometry using direct photometric feedback, Int. J. Rob. Res., Vol. 36, No. 10, pp. 1053-1072DOI
22 
Sun K. et al., 2017, Robust Stereo Visual Inertial Odometry for Fast Autonomous Flight, Vol. 3, No. 2, pp. 965-972DOI
23 
Lynen S., Achtelik M. W., Weiss S., Chli M., Siegwart R., 2013, A robust and modular multi-sensor fusion approach applied to MAV navigation, in IEEE International Conference on Intelligent Robots and Systems, pp. 3923-3929DOI
24 
Shen S., Mulgaonkar Y., Michael N., Kumar V., 2014, Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft MAV, in Proceedings - IEEE International Conference on Robotics and Automation, pp. 4974-4981DOI
25 
Mur-Artal R., Montiel J. M. M., Tardos J. D., 2015, ORB-SLAM: A Versatile and Accurate Monocular SLAM System, IEEE Trans. Robot., Vol. 31, No. 5, pp. 1147-1163DOI
26 
Rublee E., Rabaud V., Konolige K., Bradski G., 2011, ORB: An efficient alternative to SIFT or SURF, in Proceedings of the IEEE International Conference on Computer Vision, pp. 2564-2571DOI
27 
Lowe D. G., Nov. 2004, Distinctive image features from scale-invariant keypoints, Int. J. Comput. Vis., Vol. 60, No. 2, pp. 91-110DOI
28 
Sturm J., Engelhard N., Endres F., Burgard W., Cremers D., 2012, A benchmark for the evaluation of RGB-D SLAM systems, IEEE Int. Conf. Intell. Robot. Syst., pp. 573-580DOI
29 
Ji P., 2016, StereoScan : Dense 3D Reconstruction in real-time, Ieeexplore.Ieee.Org, pp. 1-9Google Search
30 
Solin A., Cortés S., Rahtu E., Kannala J., 2018, PIVO: Probabilistic inertial-visual odometry for occlusion- robust navigation, Proc. - 2018 IEEE Winter Conf. Appl. Comput. Vision, WACV 2018, Vol. 2018-Janua, pp. 616-625DOI
31 
Mur-Artal R., Tardos J. D., Apr. 2016, Visual-Inertial Monocular SLAM with Map Reuse, IEEE Robot. Autom. Lett., Vol. 2, No. 2, pp. 796-803DOI
32 
Pire T., Fischer T., Civera J., De Cristoforis P., Berlles J. J., 2015, Stereo parallel tracking and mapping for robot localization, in IEEE International Conference on Intelligent Robots and Systems, Vol. 2015-Decem, pp. 1373-1378DOI
33 
Krombach N., Droeschel D., Behnke S., 2017, Combining feature-based and direct methods for semi-dense real-time stereo visual odometry, Adv. Intell. Syst. Comput., Vol. 531, No. July, pp. 855-868DOI

저자소개

김 연 조 (Yeonjo Kim)
../../Resources/kiee/KIEE.2019.68.1.189/au1.png

2015년 세종대학교 항공우주공학과 졸업

2018년 건국대학교 대학원 항공우주정보시스템공학과 석사과정 졸업

관심분야는 관성복합항법 및 영상항법

손 현 진 (Hyunjin Son)
../../Resources/kiee/KIEE.2019.68.1.189/au2.png

2018년 건국대학교 항공우주정보시스템공학과 졸업

현재 동 대학원 항공우주정보시스템공학과 석사과정

관심분야는 관성복합항법 및 영상항법

이 영 재 (Young Jae Lee)
../../Resources/kiee/KIEE.2019.68.1.189/au3.png

1982년 서울대학교 항공공학과 학사 졸업

1985년 동 대학원 석사 졸업

1990년 미국 The Univ. of Texas at Austin 항공우주공학 박사

1996년~현재 건국대학교 항공우주정보시스템공학과 교수

관심분야는 GPS를 이용한 정밀 위치 결정, 한국형 위성항법시스템, 위성항법보강시스템, 기타 GPS 응용

성 상 경 (Sangkyung Sung)
../../Resources/kiee/KIEE.2019.68.1.189/au4.png

1996년 서울대학교 전기공학부 졸업

2003년 동 대학원 전기컴퓨터공학부 박사

2007년 3월~현재 건국대학교 항공우주정보시스템공학과 교수

관심분야는 복합항법시스템, 무인이동체 항법 및 제어시스템, 비선형 필터 및 센서 융합, 관성항법 응용