• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Intelligent Mechatronics Engineering, Sejong University, Republic of Korea.)
  2. (Dept. of Artificial Intelligence and Robotics, Sejong University, Republic of Korea.)



INS, Georeferencing, Image match, Drone navigation, Return to home mission

1. 서 론

최근 가장 주목받고 있는 무인이동체중 하나인 드론은 다양한 분야에서 주어진 임무를 수행하는데 큰 도움을 주고 있다. 저렴한 가격을 무기로 측량/교통 및 기상/실종자 수색/운송/농업 분야에서도 널리 사용되고 있으며 이외에도 드론이 접목되는 분야가 늘 것으로 예상된다[1].

원활한 임무 수행을 위해서는 드론의 현재 위치를 파악하는 것이 매우 중요하다. 드론의 위치를 추정하는데 사용하는 장치는 대표적으로 물체의 3축 선형 가속도와 3축 각속도를 측정하는 관성측정장치(IMU, Inertial Measurement Unit)와 위성항법장치(GNSS, Global Navigation Satellite System)가 있는데, 관성측정장치에서 제공되는 가속도와 각속도 정보를 활용하여 외부의 정보 없이 위치를 계산하는 관성항법(INS, Inertial Navigation System)을 통해 드론의 위치를 계산할 수 있다[2]. 그러나 드론에 탑재되는 저가의 미세전자기계시스템(MEMS, Micro Electro Mechanical Systems)센서의 특성상 위치를 계산하는데 가속도와 각속도를 적분함에 있어서 바이어스 편류현상으로 인해 위치정보가 발산하여 정확한 위치를 추정할 수 없다. 이에 따라 바이어스 편류 현상을 보정하기 위해 위성항법장치와 융합하여 GNSS/INS 확장칼만필터 (EKF, Extended Kalman Filter)를 통해 드론의 현재 위치를 추정한다[3].

드론의 안정적인 항법을 위해서는 위성항법장치가 필수적인데, 특히 드론의 텔레메트리/RC신호가 끊기거나 비상상황일때 최초 이륙위치로 복귀하는 RTH(Return To Home) 기능을 사용할 때 매우 중요한 역할을 한다. 드론의 임무 수행 중 위성항법장치 자체의 고장, 혹은 재밍이나 스푸핑으로 인하여 GNSS 신호가 끊길 경우 드론의 위치 추정이 사실상 불가능하게 되어 RTH 기능을 사용할 수 없게 된다.

이를 극복하기 위하여, 드론에 추가로 센서를 탑재해 위성항법장치를 대신하여 관성항법장치의 바이어스 편류 현상을 보상하는 연구가 활발히 진행되고 있다[4]. 특히, 카메라를 사용하여 주변 환경 정보를 활용해 VIO(Visual Inertial Odometry), VSLAM(Visual Simultaneous Localization And Mapping)과 같은 항법 알고리즘이 연구되고 있으며[5-7], 추가로 위성지도와 현재 드론의 이미지를 매칭하여 위치를 얻는 연구 또한 진행되었다[8-10]. VIO 알고리즘의 경우[5,6], 높은 고도에서는 깊이 추정의 어려움으로 인하여 위치 추정값이 발산하기 쉽다는 단점이 있다. 위성지도 이미지 매칭 기반 알고리즘의 경우[8,10] 드론에 짐벌을 부착하여 추가적인 카메라 사용이 제한되고, 통신 두절시에도 동작하기 위해 사전에 대용량 영상 지도를 드론에 탑재해야 하므로 실시간 환경에서는 적용이 어렵다는 단점이 존재한다.

따라서 본 논문에서는 전장 상황에서 무인 멀티콥터의 임무 수행을 위한 작전지역 투입시 위성항법장치를 사용 가능할 때 동체에 장착된 하방을 향한 카메라로 지형 영상을 촬영하여 실시간으로 정사영상을 생성해 데이터베이스를 구축함과 동시에 비행하며 정찰 및 통신과 같은 임무를 수행하고, 임무 수행 도중 적군의 드론 신호 전파 방해 및 재밍 등으로 인하여 위성항법장치가 사용 불가능할 때 카메라가 촬영중인 현재 하방 지형 이미지를 앞서 실시간으로 구축된 데이터베이스 이미지와 특징점 매칭을 통한 이미지 정합으로 위치 측정치를 계산해 최초 이륙위치로 복귀 가능하도록 항법 정보를 제공하는 알고리즘을 제안하였으며, 제안한 알고리즘의 순서도를 그림 1에 도시하였다. 본 논문에서 제안한 알고리즘은 기존의 영상 기반 항법과 달리 위성지도와 현재 이미지를 매칭하지 않고 실시간을 저장된 이미지를 사용하여 매칭 정확도를 높여 신뢰성 있는 위치 측정치를 제공할 수 있다는 장점이 있으며, 위성항법 불용 상황에서도 안정적으로 최초 이륙 위치로 복귀할 수 있어 드론 회수율을 높여 비용 절감 및 지속적인 임무 수행이 가능하다는 장점이 있다. 특히 사전에 구축한 영상 데이터베이스를 사용하지 않고 임무에 사용된 드론이 직접 데이터베이스를 구축하고 그 영상을 항법에 활용하며, 유사한 운용환경에서 모든 이미지가 생성되므로 이미지 매칭 성능이 획기적으로 개선될 수 있다. 또한 동일 카메라가 사용되므로, 카메라 보정이 복잡하지 않고 일정부분 영상의 왜곡이 남아 있는 경우에도 항법 성능이 크게 저하되지 않는다는 장점도 있다.

그림 1. 알고리즘 순서도

Fig. 1. Algorithm Flowchart

../../Resources/kiee/KIEE.2025.74.3.491/fig1.png

본 논문의 구성은 다음과 같다. 2장에서 GNSS 가용 시 실시간 이미지와 위치를 매칭하는 지오레퍼런싱(Georeferencing) 알고리즘에 대해 설명하고, 3장에서는 RTH 미션 수행 시의 이미지 매칭 알고리즘 및 정사영상과 실시간 이미지 정합 기반 위치 측정치 획득 알고리즘에 대해 설명한다. 4장에서는 카메라를 탑재한 드론을 활용하여 실제 영상을 통해 논문에서 제안한 알고리즘을 검증하였으며, 마지막으로 5장에서 결론을 짓는다.

2. 지오레퍼런싱 알고리즘

2.1 좌표계와 변환

본 연구에서는 다섯 가지 주요 기준 좌표계를 사용하였다. (지구중심고정(ECEF), $Llh$, 항법, 동체, 카메라) 각 좌표계들과의 관계는 그림 2, 3에 정의되어 있다. 그림 2는 각 좌표계들의 프레임들을 보여준다. 카메라 좌표계는 드론 동체 좌표계와 구속되어 있는데, 여기서 카메라는 드론의 하방에 지면을 향하도록 부착되어 있다. 항법 좌표계는 NED(north-east-down) 좌표계를 사용하며, 항법 좌표계의 x축은 북쪽, y축은 동쪽, z축은 아래를 향한다. 그림 2, 3 에서 {$c$}, {$b$}, {$n$}, {$e$}는 각각 카메라, 동체, 항법, ECEF 좌표계를 의미한다.

그림 2. ECEF, $Llh$, 항법 좌표계

Fig. 2. ECEF, $Llh$, Navigation coordinate.

../../Resources/kiee/KIEE.2025.74.3.491/fig2.png

그림 3. 항법, 동체, 카메라 좌표계

Fig. 3. Navigation, Body, Camera coordinate

../../Resources/kiee/KIEE.2025.74.3.491/fig3.png

드론에 탑재되는 Pixhawk 비행컴퓨터(FC, flight computer)에서 위치정보는 $Llh$좌표계 기준으로 제공되기 때문에 $Llh$ 좌표계에서 항법 좌표계로 변환하기 위하여 두 단계가 필요하다. 먼저 $Llh$좌표계에서 ECEF좌표계로의 변환은 다음과 같다[11].

(1)
$X^{e}=(x(L)+h)\cos L \cos l$
(2)
$Y^{e}=(x(L)+h)\cos L\sin l$
(3)
$Z^{e}=((1-e^{2})x(L)+h)\sin L$
(4)
$x(L)=\dfrac{a}{\sqrt{(1- e^{2})\sin ^{2}L}}$

이때, $a$는 지구 장축 반지름이며, $e$는 이심률이다. ECEF 좌표계에서 항법좌표계로의 변환은 다음과 같다.

(5)
${}{R}_{e}^{n}=\begin{bmatrix}-\sin L\cos l&-\sin L\sin l&\cos L\\-\sin l&\cos l&0\\-\cos L\cos l&\cos l\sin l&-\sin L\end{bmatrix}$
(6)
$\begin{bmatrix}x^{n}\\y^{n}\\z^{n}\end{bmatrix}={}{R}_{e}^{n}\begin{bmatrix}X^{e}\\Y^{e}\\Z^{e}\end{bmatrix}$

이것으로, FC의 위치정보 신호를 항법 좌표계에서의 신호로 변환할 수 있다.

드론의 자세는 세가지 오일러 각(roll, pitch, yaw)으로 정의할 수 있으며, 관성항법장치의 측정값에 의해 지속적으로 전파된다. 세 가지 오일러각을 결합하여 동체 좌표계와 항법 좌표계의 변환을 나타내는 방향 코사인 행렬을 구할 수 있다[2]. 아래의 식에서, $\phi$, $\theta$, $\psi$는 각각 roll, pitch, yaw 값이며, $s$와 $c$는 각각 $"\sin "$, $"\cos "$ 이다.

(7)
${}{R}_{b}^{n}=\begin{bmatrix}-c\theta c\psi &-c\theta s\psi +c\phi s\theta c\psi &s\phi s\psi +c\phi s\theta s\psi \\c\theta s\psi &c\phi s\psi +s\phi s\theta s\psi &-s\phi c\psi +c\phi s\theta \\-s\theta &s\phi c\theta &c\phi c\theta\end{bmatrix}$

마지막으로, 카메라 좌표계와 동체 좌표계 간의 변환행렬을 구할 수 있다. 카메라는 동체 좌표계로부터 yaw 방향으로 +90 회전되어 있기 때문에 이를 이용하여 아래의 식 (8)을 구할 수 있다. 따라서, 최종적으로 앞서 구한 변환들을 결합하여 항법 좌표계에 대한 카메라의 자세변환 행렬을 구할 수 있다.

(8)
${}{R}_{c}^{b}=\begin{bmatrix}0& -1 & 0 \\1 &0 &0 \\0 &0 &1\end{bmatrix}$
(9)
${}{R}_{c}^{n}={}{R}_{b}^{n}{}{R}_{c}^{b}$

2.2 지오레퍼런싱 알고리즘

지오레퍼런싱이란 실세계 좌표를 이미지의 각 화소에 할당하는 작업을 의미한다. 일반적으로 카메라로 사진을 촬영할 때 카메라의 자세, 고도, 지형 등에 의해 왜곡이 발생한다. 이러한 왜곡을 보정하여 실제 지형과 일치하도록 수정한 사진을 정사영상(Orthoimage) 이라 하며, 이렇게 보정된 이미지는 실제 지도처럼 사용 가능하며 측량, 지리 정보 시스템, 도시 계획 등에 활용될 수 있다. 지오레퍼런싱을 위해 카메라 내부/외부 변수가 필요한데, 앞서 구한 좌표계 변환식 및 방향코사인 행렬들을 활용하여 구할 수 있다. 먼저 핀홀 카메라 모델에 의해 주어지는 왜곡 없는 투영 변환식은 다음과 같다[12].

(10)
$s\begin{bmatrix}p_{u\\p_{v}}\\1\end{bmatrix}={ K\begin{bmatrix}{ R}&|{ t}\end{bmatrix}\begin{bmatrix}x^{n\\}\\y^{n}\\ z^{n}\\1\end{bmatrix}}$

여기서 s는 스케일, $p_{v}$, $p_{u}$는 이미지의 수직 및 수평좌표, ${ K}$는 카메라 내부 변수, ${}{R}$,${ t}$는 각각 회전행렬 및 위치변환벡터를 의미한다. 또한, 카메라 내부 행렬식 ${ K}$는 다음과 같다.

(11)
${ K}=\begin{bmatrix}k_{v}f &0 & u_{0\\}\\0& k_{u}f &v_{0}\\0 &0 &1\end{bmatrix}$

$u_{0}$,$v_{0}$는 각각 카메라의 수평/수직 주점을 의미하고, $f$는 카메라 초점거리이며, $k_{v}$, $k_{u}$는 각각 이미지 픽셀 수직,수평 개수이다. 카메라 내부변수는 카메라 캘리브레이션을 통해 더욱 정확한 값을 얻을 수 있다. 식 (10)을 다르게 표현하면 식 (12)와 같다.

(12)
$s\begin{bmatrix}p_{u\\p_{v}}\\1\end{bmatrix}={ K\begin{bmatrix}{ R}_{n}^{c}&|{ t}_{n}^{c}\end{bmatrix}\begin{bmatrix}x^{n\\}\\y^{n}\\ z^{n}\\1\end{bmatrix}}$

(12)에서, 카메라 외부 변수 ${ R}_{n}^{c}$, ${ t}_{n}^{c}$ 는 식 (7), (8), (9) 및 간단한 정리를 통해 구할 수 있다.

(13)
../../Resources/kiee/KIEE.2025.74.3.491/eq13.png

(13)에서, ${ t}_{c}^{n}$는 각각 사진이 촬영되었을 때의 드론의 위치변환벡터이다. 본 논문에서 정사영상을 제작할 때에는 항법좌표계의 Z축은 모두 0이라 가정하였다. 따라서 식 (12)는 식 (14)로 바꾸어 표현 할 수 있다[13].

(14)
$s\begin{bmatrix}p_{u\\p_{v}}\\1\end{bmatrix}={ K\begin{bmatrix}{ r}_{1}&{ r}_{2}&| -{}{R}_{c}^{n^{T}}{}{t}_{c}^{n}\end{bmatrix}\begin{bmatrix}x^{n\\}\\y^{n}\\1\end{bmatrix}}$

(14) 에서 ${ r}_{1}$, ${ r}_{2}$는 ${ R}_{n}^{c}$ 의 첫 번째, 두 번째 열 벡터이다. 따라서 식 (14)로부터, 지상좌표를 카메라 이미지좌표로 매핑시켜 정사영상을 제작할 수 있다.

이미지를 저장할 때, 이미지의 정확도 즉 픽셀당 거리 GSD(Ground Sample Distance)는 동체의 절대 고도 $h_{g}$, 이미지 센서 픽셀 크기 $px$, 렌즈 초점 거리 $f$에 의해 결정되며 이는 위치 측정치의 정확도를 결정하기도 한다. 수식은 다음과 같다.

(15)
${GSD}=\dfrac{h_{g}· px}{f}$

정밀한 정사영상의 제작을 위해서는 카메라 렌즈의 왜곡 또한 고려해야 한다. 식 (14)에서 카메라 왜곡을 고려한 식은 다음과 같다.

(16)
$s\begin{bmatrix}\hat{x}^{c}\\\hat{y}^{c}\\1\end{bmatrix}=\begin{bmatrix}{}{r}_{1}&{}{r}_{2}&| -{}{R}_{c}^{n^{T}}{}{t}_{c}^{n}\end{bmatrix}\begin{bmatrix}x^{n}\\y^{n}\\1\end{bmatrix}$

(16)에서 $\hat{x}^{c}$, $\hat{y}^{c}$는 각각 왜곡이 보정되기 전의 정규화 된 이미지좌표계의 좌표 이다. Zhang[14]이 제안한 카메라 렌즈 왜곡 모델은 다음과 같다.

(17)
$s\begin{bmatrix}p_{u}\\p_{v}\\1\end{bmatrix}={}{K}\begin{bmatrix}(1+k_{1}r^{2}+k_{2}r^{4}+k_{5}r^{6})\hat{x}^{c}+dx_{1}\\ (1+k_{1}r^{2}+k_{2}r^{4}+k_{5}r^{6})\hat{y}^{c}+dx_{2}\\1\end{bmatrix}$
(18)
$\begin{bmatrix}dx_{1}\\ dx_{2}\end{bmatrix}=\begin{bmatrix}2k_{3}\hat{x}^{c}\hat{y}^{c}+k_{4}(r^{2}+2\hat{x}^{2c})\\ 2k_{4}\hat{x}^{c}\hat{y}^{c}+k_{3}(r^{2}+2\hat{y}^{2c})\end{bmatrix}$
(19)
$r =\sqrt{\hat{x}^{c2}+\hat{y}^{c2}}$

(17), (18)에서 $k_{1}$, $k_{2}$, $k_{5}$은 방사 왜곡 계수(Radial Distortion)이며, $k_{3}$, $k_{4}$은 접선 왜곡 계수(Tangent Distortion)이다. 카메라 왜곡 계수 및 카메라 내부 변수는 카메라 캘리브레이션을 통해 얻을 수 있으며, 본 논문에서는 오픈소스 프로젝트인 OpenCV를 통해 체커보드를 다수 촬영한 뒤 얻을 수 있었다.

앞선 정보들을 활용하여 주행 중 정사영상을 제작할 수 있으며, 연속적인 항법 정보의 도출을 위해서는 이미지들과 정보들을 결합하여 데이터베이스화 해야 한다. 이를 통해, 복귀 시 모든 지형 이미지들과 현재 지형 이미지를 비교하지 않고도 현재 위치에서 가장 가까운 단일 이미지만 비교가 가능하기 때문에, 알고리즘의 계산 비용을 줄일 수 있다. 데이터베이스는 정사영상 이미지의 저장 주소, GSD, 정사영상의 지상 중앙 좌표로 구성되어 있으며, 아래 표와 같다.

표 1 데이터베이스 구성

Table 1 Construction of Database

Image Database

Index

Image

Address

GSD (m/px)

Center Coordinate

(North,East)

#1

.../.png

0.2

[0,4]

#2

.../.png

0.23

[101.23,53.32]

-

-

-

-

#N

.../.png

m/px

[$x^{n},\: y^{n}$]

3. 이미지 정합 기반 위치 측정치 획득

3.1 이미지 매칭과 특징점 추출 알고리즘

이미지 매칭은 두 개 이상의 이미지의 유사도를 판별하는 작업으로, 컴퓨터 비전 분야에서 현재에도 매우 활발하게 연구되는 분야 중 하나이다. 이미지 매칭을 통해 항법, 측량 등 드론 관련 분야 뿐만 아니라 다양한 산업에 융합되어 활용할 수 있다. 이미지로부터 위치 정보를 추출하기 위해서는 특징점 추출 작업이 필수적이다. 이미지에서 특징점은 픽셀 변화가 급격히 변화하는 지점을 의미하며, 특징점 알고리즘들마다 고유한 제약조건들을 통해 정의된다. 본 논문에서는 특징점 추출 알고리즘으로 속도와 정확성을 고려하여 AKAZE(Accelerated-KAZE)[15] 알고리즘을 선정하였다. AKAZE 알고리즘은 비선형 확산 필터링을 통해 비선형 스케일 공간을 활용하는 KAZE 알고리즘[16]의 속도를 개선하기 위하여 FED(Fast Explicit Diffusion)기법을 도입한 알고리즘이다. M-LDB(Modified-Local Difference Binary) 디스크립터를 사용해 회전 및 스케일에 대해 강인하며 적은 저장공간만을 요구하여 실시간 시스템 및 임베디드 시스템에서도 동작하도록 설계되었다. 여기서 디스크립터란 해당 특징점의 고유한 속성을 나타내는 벡터로, 특징점을 고유하게 표현함으로써 서로 다른 이미지에서 같은 특징점 쌍들을 매칭시킬 수 있다. KAZE 알고리즘 및 AKAZE 알고리즘에서 사용되는 표준 비선형 확산 공식은 식 (20)와 같다.

(20)
$\dfrac{\partial L}{\partial t}={div}(c(x,\: y,\: t))·\nabla L)$

여기서, $c$는 전도 함수이며, $t$는 스케일 파라미터, div 와 $\nabla L$은 각각 발산과 기울기 연산자를 의미한다.

일반적으로 디스크립터 사이의 유클리드 거리나 해밍 거리를 사용해 가장 가까운 디스크립터를 식별하여 매칭시킨다. M-LDB 디스크립터는 바이너리 디스크립터 이므로, 서로 다른 비트의 개수를 세는 방식으로 거리를 산출하는 해밍 거리를 이용하여 빠른 매칭이 가능하다. 디스크립터 쌍을 비교할 때는 모든 디스크립터 쌍을 하나하나 비교하는 Brute-force 매칭 방식을 사용하여 정확성을 높였다.

Brute-force 알고리즘은 많은 수의 특징점을 매칭할 수 있는 장점이 있지만, 필연적으로 그 과정에서 잘못된 매칭 쌍이 발생할 가능성이 높다. 이러한 오류 매칭을 제거하기 위해, 호모그래피 행렬을 추정하기 전 GMS (Grid-based Motion Statistics) 알고리즘[17]을 적용하여 사전 필터링을 수행하였다. GMS 알고리즘은 일관된 움직임이 있는 영역의 특징점들은 특징점 주변에 더 많은 매칭될 특징점을 가질 가능성이 높다는 원리에 기반한 알고리즘으로, 매칭이 일어나는 지역에서의 Motion Smoothness를 통계적 모델로 변환하여 매칭 품질을 평가한다. 이를 통해 짐벌이 장착되지 않은 블러가 있는 이미지에서도 일관된 높은 성능을 발휘하며, 그리드 기반 점수 추정기를 통해 실시간성 또한 만족하였다.

3.2 호모그래피 행렬

이미지 정합을 통해 위치를 얻기 위해서는 이미지 특징점 매칭쌍들을 활용한 호모그래피 행렬이 필요하다. 호모그래피 행렬은 한 이미지 평면를 다른 이미지 평면에 투영시켰을 때 두 이미지간의 기하학전 변환을 나타내는 행렬로, 동일한 평면 상에 있는 점들 간의 대응 관계 이다. 호모그래피 행렬은 다음과 같은 3X3 행렬 ${ H}$로 표현 될 수 있다.

(21)
$s\begin{bmatrix}x'\\y'\\1\end{bmatrix}={}{H}\begin{bmatrix}x\\y\\1\end{bmatrix}=\begin{bmatrix}h_{11}&h_{12}&h_{13}\\h_{21}&h_{22}&h_{23}\\h_{31}&h_{32}&h_{33}\end{bmatrix}\begin{bmatrix}x\\y\\1\end{bmatrix}$

여기서 $x$, $y$는 변환된 이미지 좌표이며, $x'$, $y'$는 변환 전 이미지 좌표이다.

호모그래피 행렬은 일반적으로 이상치를 검출하는데 사용되는 RANSAC 알고리즘을 통해 특징점쌍들로부터 도출이 가능하다. 본 논문에서는 RANSAC에서 모델 평가와 샘플링이 개선된 MAGSAG++ 알고리즘[18]을 도입하여 추정 정확도를 높였다. 특히 이 알고리즘은 Progressive NAPSAC 이라는 새로운 샘플링 기법을 도입해 지역적 샘플에서 전역 샘플로 자연스러운 전환을 통해 성능을 향상시켰다.

3.3 이미지 정합기반 위치 측정치 도출

앞선 절차들을 통해 호모그래피 행렬을 구하게 되면 데이터베이스 이미지와 현재 드론 비행 이미지를 정합하여 위치 측정치를 도출 가능하다. 먼저 호모그래피 행렬을 통해 실시간 이미지의 네 꼭짓점을 변환한다.

(22)
$dst(x,\: y)= src(\dfrac{h_{11}x+h_{12}y+h_{13}}{h_{31}x+h_{32}y+h_{33}},\: \dfrac{h_{21}x+h_{22}y+h_{23}}{h_{31}x+h_{32}y+h_{33}})$

이때, $src(x,\: y)$는 변환 전 이미지 좌표이며 $dst(x,\: y)$는 변환 후 이미지 좌표이다. 변환후 이미지 좌표와 데이터베이스 이미지의 픽셀 차이 및 GSD를 활용하여 정사영상의 지상 좌표를 구할 수 있다.

(23)
$\hat{x}^{n}=ref_{N}-(y'-\dfrac{v}{2})GSD$
(24)
$\hat{y}^{n}=ref_{E}+(x'-\dfrac{h}{2})GSD$

(23)(24)에서, $ref_{N}$과 $ref_{E}$은 정사영상의 중심 매핑 좌표이며, $x'$과 $y'$은 정합된 이미지의 중심 픽셀, 마지막으로 $v$, $h$은 이미지의 수직 수평 픽셀 개수이다. 지상의 위치를 특정할 수 있게 되면, 카메라 내부 및 외부행렬식을 통해 드론의 현재 위치를 도출할 수 있다. 식 (23), (24)를 식 (10)에 적용하면 다음과 같다.

(25)
$s\begin{bmatrix}\dfrac{h}{2}\\\dfrac{v}{2}\\1\end{bmatrix}={}{K}{\begin{bmatrix}{}{R}&|{}{t}\end{bmatrix}}\begin{bmatrix}\hat{x}^{n}\\\hat{y}^{n}\\0\\1\end{bmatrix}$

위 식에서 드론의 위치를 구하기 위해서는 위치벡터 ${ t}$를 구해야 하므로, ${ t}$에 대해 전개하면,

(26)
${ t}= s{ K}^{-1}\begin{bmatrix}\dfrac{h}{2}\\\dfrac{v}{2}\\1\end{bmatrix}-{ R}\begin{bmatrix}\hat{x}^{n}\\\hat{y}^{n}\\0\\1\end{bmatrix}$

이다. 여기서 ${ R}$은 식 (7), (8), (9)로부터 얻을 수 있고, $s$는 드론에 탑재된 거리측정기로 구할 수 있으며, ${ t}={ t}_{n}^{c}$이므로 식 (13)으로부터 ${ t}_{c}^{n}$를 구할 수 있다. 따라서 항법좌표계에서의 드론의 현재 N,E 위치를 구할 수 있다.

그림 4. 저장된 이미지와 현재 이미지의 정합

Fig. 4. Matching a current image to the saved image

../../Resources/kiee/KIEE.2025.74.3.491/fig4.png

4. 실험을 통한 알고리즘 검증 및 분석

4.1 실험 환경

본 논문에서 제안한 알고리즘을 검증하기 위하여 드론을 제작하여 카메라를 부착한 뒤, 직선 비행 뒤 복귀 시나리오와 호버링 시나리오로 나누어 데이터들을 취득하였다. 960mm 급 드론에 홍콩 Holybro社의 Pixhawk 6X FC 및 F9P Helical RTK-GNSS, 미국 Intel社의 Realsense D455 카메라, 중국 Benewake社의 TF350 거리 측정용 라이다를 부착하였고, 추가로 미국 Nvidia社의 Jetson Orin NX Companion Computer를 장착해 오픈 소스 플랫폼인 ROS를 구동하도록 하여 DDS(Data Distribution Service) 미들웨어를 통해 시간 동기화된 센서 데이터들을 받을 수 있도록 설계하였다. 사용된 센서 및 장비들의 상세한 사양 및 그림은 표 2그림 5와 ,그림 6에 도시하였다.

표 2 센서 제원

Table 2 Sensor Specifications

RTK-GNSS

Sensor

Holybro H-RTK F9P Helical

GNSS

GPS/GLONASS/BeiDou/Galileo

Horizontal accuracy

0.01m + 1ppm CEP

Update rate

8 Hz

RGB Camera

Sensor

Intel Realsense D455

Resolution

1280 x 720 (pixel)

Focal Length

2 mm

Pixel Size

3 um

Update rate

30 Hz

1D Lidar Rangefinder

Sensor

Benewake TF350

Max Range

350 m

FOV

0.35°

Update rate

100 Hz

그림 5. 드론 시스템 상방 사진

Fig. 5. Top view of the drone system

../../Resources/kiee/KIEE.2025.74.3.491/fig5.png

그림 6. 드론 시스템 하방 사진

Fig. 6. Bottom view of the drone system

../../Resources/kiee/KIEE.2025.74.3.491/fig6.png

4.2 실험 결과

서울시 세종대학교 상공에서 드론의 실 비행을 통해 취득한 데이터로 본 논문에서 제안한 알고리즘의 타당성을 검증하였다. 실험은 총 2번 진행되었으며, 첫 번째 비행은 약 140m 상공에서 남쪽으로 약 240m 지점까지 이미지를 저장하면서 주행한 후 약 20초간 호버링 한 뒤 북쪽으로 복귀하였으며, 두 번째 비행은 145m 상공에서 남쪽으로 약 180m 지점까지 이미지를 저장하면서 주행한 후 약 20초간 호버링 한 뒤 북쪽으로 복귀하였다. 두 비행의 평균 비행 시간은 3분 28초를 기록하였으며, 최고 속도 32.9km, 최고 기울기 각도는 22.4°를 기록하였다. 비행 궤적 및 이미지가 저장된 위치를 그림 7, 8, 9, 10에 도시하였으며, 이미지 매칭 결과는 그림 11에, 취득된 데이터를 바탕으로 실행된 알고리즘의 결과는 그림 9, 10에 도시하였다. 표 3는 이미지 기반 위치 측정 알고리즘과 픽스호크 FC로부터 추정된 위치에 대한 2D 유클리드 거리의 RMSE를 나타냈다.

실험 결과, 결과 값에 발산 없이 짐벌을 추가로 부착하지 않아도 일정하게 위치를 측정할 수 있음을 확인하였다. 또한 사전에 획득한 영상이 아닌 실시간으로 구축한 데이터베이스의 영상을 활용하므로, 유사한 운용 환경에서 촬영한 영상이 사용되어 이미지 간의 미스매칭이 적고, 이에 따라 위치오차도 최소화 됨을 확인할 수 있었다. 본 알고리즘의 특성상, 알고리즘의 시작 부분에서 알 수 있듯이 지면이 일정하지 않고 건물이 많을수록, 위치 측정 오차가 약간 존재한다는 것을 확인하였다. 하지만, 그럼에도 불구하고 건물 옥상과 같은 곳은 이미지 특징점들이 풍부하므로, 충분히 위치를 측정 할 수 있었다. 복귀 중간 부분 운동장과 같은 특징점이 희박한 부분에서도 정확하게 위치를 측정하는 것을 확인할 수 있었으며, 마지막 복귀 부분에서는 드론이 빠르게 주행하면서 정지할 때는 드론의 피치가 상승 및 하락하므로, 측정 성능이 약간 떨어졌지만 안정적으로 이륙 위치로 수렴하는 것을 확인할 수 있었다.

기존 알고리즘[8]은 고해상도 위성 이미지와 짐벌 카메라를 사용하여 120m 고도에서 15.82m MAE(Mean Absolute Error)를 기록하였지만, 본 알고리즘은 짐벌을 사용하지 않고도 140m 의 고도에서 평균 8.14m MAE를 기록하였다.

그림 7. 1차 비행 궤적 및 이미지 저장 위치

Fig. 7. Primary flight trajectory and image storage location

../../Resources/kiee/KIEE.2025.74.3.491/fig7.png

그림 8. 2차 비행 궤적 및 이미지 저장 위치

Fig. 8. Seconday flight trajectory and image storage location

../../Resources/kiee/KIEE.2025.74.3.491/fig8.png

그림 9. 1차 비행 기반 위치 측정 결과

Fig. 9. 1st flight position measurement

../../Resources/kiee/KIEE.2025.74.3.491/fig9.png

그림 10. 2차 비행 기반 위치 측정 결과

Fig. 10. 2nd flight position measurement

../../Resources/kiee/KIEE.2025.74.3.491/fig10.png

표 3 RTK-GNSS/INS에 대한 제안한 알고리즘의 RMSE

Table 3 RMSE of the proposed algorithm for RTK-GNSS/INS

North

East

2D

1st Aviation

RMSE (m)

3.836

5.495

7.090

2st Aviation RMSE (m)

11.343

4.174

12.709

그림 11. 이미지 매칭 결과 (좌: 현재 이미지)(우: 저장된 이미지)

Fig. 11. Image matching results (left: current image) (right: saved image)

../../Resources/kiee/KIEE.2025.74.3.491/fig11.png

이는 대용량의 위성 지도 데이터베이스가 없이 실시간 저장된 이미지 만으로도 위치 측정치를 도출할 수 있다는 것을 증명하며, 위성 지도 기반 알고리즘 대비 오차를 약 50% 감소시켰다. 또한 기존 이미지 매칭 방법인 Brute force RANSAC 알고리즘 기반 위치 추정 실험에서는 평균 24.23m MAE를 기록하였지만, 제안한 알고리즘으로는 평균 8.14m MAE를 기록하여 이미지 매칭 성능 또한 유의미하게 개선하였다.

5. 결 론

본 연구에서는 GNSS 신호가 없는 환경에서도 드론이 원활하게 임무를 수행하고 안전하게 복귀할 수 있도록 하기 위하여, 단안 RGB 카메라와 레이저 거리 측정기를 활용한 위치 측정 알고리즘을 제안하였다. 제안된 알고리즘은 GNSS가 사용 가능한 시점에 영상을 저장하고, 이를 기반으로 정사영상을 생성한 후, GNSS 신호가 끊긴 시점부터 이미지 특징점 매칭 기법을 통해 현재 영상을 데이터베이스에 저장된 영상과 대조하여 드론의 위치를 측정한다. 제안한 알고리즘은 데이터베이스 구축과 현재 영상 촬영에 동일 카메라를 사용하며, 각 영상이 유사한 운용 환경에서 촬영되므로 영상 보정의 부담이 적고 상대적으로 정확한 이미지 매칭이 가능해, 정확한 항법 정보를 획득할 수 있다는 장점이 있다. 실제 드론 비행 실험을 통해 제안된 알고리즘의 성능을 검증한 결과, 유의미한 위치 측정값을 도출하고 임무 수행 중 이륙 위치로의 안정적인 복귀가 가능함을 확인하였으며 이를 통해 GNSS가 불용한 환경에서도 드론의 복귀 비행이 가능함을 보였다. 본 연구는 드론에 탑재되었을 때 향후 GNSS 의존도가 높은 드론 시스템의 한계를 극복할 수 있는 기술로서 기여를 할 수 있을 것으로 기대되며, 추가로 본 연구를 기반으로 관성항법장치와 결합하여 더욱 신뢰성 있는 위치를 추정할 수 있을 것으로 예상된다.

Acknowledgements

This research was supported by Basic Science Research Program through the National Research Foundation of Korea(NRF) funded by the Ministry of Education(No.2020R1A6A1A03038540) and was supported by Korea Research Institute for Defense Technology Planning and Advancement(KRIT)- Grant funded by Defense Acquisition Program Administration(DAPA)(KRIT-CT-22-036)

References

1 
Joohyuk Lee, Ho Jun Lee, Sasanka Kuruppu Arachchige, Namyoung Kim, Hyeonjeong Heo, and Kyuman Lee, “Search Operations With Geolocation Estimation of Missing Persons Based on Real-time Drone Images,” Journal of Institute of Control, Robotics and Systems, vol. 30, no. 8, pp. 890~896, 2024. DOI : 10.5302/J.ICROS.2024.24.0087DOI
2 
Titterton, D. H. “Strapdown inertial navigation technology,” The Institution of Engineering and Technology, 2004. DOI : 10.1049/PBRA017EDOI
3 
So Jin Park, Seung Taek Kim, Yeoung Min Kim, Joo Han Lee, Jin Woo Song, and Eung Ju Kim, “GNSS-DR/INS Integrated Navigation Algorithm using GNSS Speed Information Fusion for Overcoming GNSS Denial Environment,” Journal of Institute of Control, Robotics and Systems, vol. 29, no. 1, pp. 72~79, 2023. DOI : 10.5302/J.ICROS.2023.22.0180DOI
4 
Chan Gook Park, Jaehyuck Cha, Yeongkwon Choe, Jaehong Lee, Hanyeol Lee, Kwangjin Kim, Seong Yun Cho, and Jin Woo Song, “Survey on Integrated Navigation System Based on Inertial Technology,” Journal of Institute of Control, Robotics and Systems, vol. 30, no. 4, pp. 448~463, 2024. DOI : 10.5302/J.ICROS.2024.24.0026DOI
5 
Mourikis, Anastasios I. and Stergios I. Roumeliotis, “A multi-state constraint Kalman filter for vision-aided inertial navigation,” Proceedings 2007 IEEE international conference on robotics and automation. IEEE, pp. 3565~3572, 2007. DOI : 10.1109/ROBOT.2007.364024.DOI
6 
Qin, Tong, Peiliang Li, and Shaojie Shen. “Vins-mono: A robust and versatile monocular visual-inertial state estimator,” IEEE transactions on robotics, vol 34, no 4, pp. 1004~1020, 2018. DOI : 10.1109/TRO.2018.2853729DOI
7 
C. Campos, R. Elvira, J. J. G. Rodríguez, J. M. M. Montiel, and J. D. Tardós, “ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual–Inertial, and Multimap SLAM,” in IEEE Transactions on Robotics, vol. 37, no. 6, pp. 1874~1890, 2021. DOI : 10.1109/TRO.2021.3075644DOI
8 
M. -M. Gurgu, J. P. Queralta, and T. Westerlund, “Vision-Based GNSS-Free Localization for UAVs in the Wild,” 2022 7th International Conference on Mechanical Engineering and Robotics Research (ICMERR), Krakow, Poland, pp. 7~12, 2022. DOI : 10.1109/ICMERR56497.2022.10097798DOI
9 
J. Kinnari, F. Verdoja, and V. Kyrki, “GNSS-denied geolocalization of UAVs by visual matching of onboard camera images with orthophotos,” 2021 20th International Conference on Advanced Robotics (ICAR), Ljubljana, Slovenia, pp. 555~562, 2021. DOI : 10.1109/ICAR53236.2021.9659333.DOI
10 
A. Yol, B. Delabarre, A. Dame, J. -É. Dartois, and E. Marchand, “Vision-based absolute localization for unmanned aerial vehicles,” 2014 IEEE/RSJ International Conference on Intelligent Robots and Systems, Chicago, IL, USA, pp. 3429~3434, 2014. DOI : 10.1109/IROS.2014.6943040.DOI
11 
Bowring, B. R., “Transformation from spatial to geographical coordinates,” Survey review, vol. 23, no. 181, pp. 323~327, 1976. DOI : 10.1179/sre.1976.23.181.323DOI
12 
Mikhail, E. M. “Introduction to Modern Photogrammetry,” John Williey & sons, 2001.URL
13 
Hemerly, Elder M., “Automatic georeferencing of images acquired by UAV’s,” International Journal of Automation and Computing, vol. 11, no. 4, pp. 347~352, 2014. DOI : 10.1007/s11633-014-0799-0DOI
14 
Zhang, Zhengyou., “A flexible new technique for camera calibration,” IEEE Transactions on pattern analysis and machine intelligence, vol. 22 no. 11, pp. 1330~1334, 2000. DOI : 10.1109/34.888718.DOI
15 
Alcantarilla, Pablo F. and T. Solutions, “Fast explicit diffusion for accelerated features in nonlinear scale spaces,” IEEE Trans. Patt. Anal. Mach. Intell, vol. 34 no. 7, pp. 1281~1298, 2011. DOI : 10.5244/C.27.13DOI
16 
Alcantarilla, Pablo Fernández, Adrien Bartoli, and Andrew J. Davison. “KAZE features,” Computer Vision–ECCV 2012: 12th European Conference on Computer Vision, pp. 214~227, 2012. DOI : 10.1007/978-3-642-33783-3_16DOI
17 
Bian, Jia-Wang, et al., “GMS: Grid-Based Motion Statistics for Fast, Ultra-robust Feature Correspondence,” International Journal of Computer Vision, vol. 128, pp. 1580~1593, 2020. DOI : 10.1007/s11263-019-01280-3DOI
18 
D. Baráth, J. Noskova, M. Ivashechkin, and J. Matas, “MAGSAC++, a Fast, Reliable and Accurate Robust Estimator,” 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1301~1309, 2020. DOI : 10.1109/CVPR42600.2020.00138.DOI

저자소개

황동윤(Dong-Yun Hwang)
../../Resources/kiee/KIEE.2025.74.3.491/au1.png

He received B.S degree in Intelligent Mechatronics Engineering from Sejong University, Seoul, Korea, in 2023, where he is currently pursuing M.S. degree with the Department of Intelligent Mechatronics Engineering and Convergence Engineering for Intelligent Drone. His research interests include vision aided navigation, and sensor fusion.

서경욱(Kyeong-Wook Seo)
../../Resources/kiee/KIEE.2025.74.3.491/au2.png

He received B.S degree in Mechanical and Aerospace Engineering from Sejong University, Seoul, Korea, in 2023, where he is currently pursuing M.S. degree with the Department of Intelligent Mechatronics Engineering and Convergence Engineering for Intelligent Drone. His research interests include vision aided navigation, SLAM, and sensor fusion.

이민호(Min-Ho Lee)
../../Resources/kiee/KIEE.2025.74.3.491/au3.png

He received B.S degree in Robot Engineering from Hoseo University, Asan, Korea, in 2023. He is currently pursuing M.S. degree with the Department of Intelligent Mechatronics Engineering and Convergence Engineering for Intelligent Drone in Sejong University, Seoul, Korea. His research interests include Signal processing, Radar aided navigation, SLAM, and sensor fusion.

김용훈(Yong-Hun Kim)
../../Resources/kiee/KIEE.2025.74.3.491/au4.png

He received the B.S degree in robotics engineering from Hoseo University, Asan-si, Republic of Korea. He received the master’s degree in software convergence and the Ph.D. degree in intelligent mechatronics engineering and convergence major for intelligent drones from Sejong University, Seoul, Republic of Korea. He is currently a research professor with the department of artificial intelligence and robotics at Sejong University. His research interests include nonlinear filters,

송진우(Jin-Woo Song)
../../Resources/kiee/KIEE.2025.74.3.491/au5.png

He received the B.S. and M.S. degrees in control and instrumentation engineering from Seoul National University, in 1995 and 1997, respectively, and the Ph.D. degree in electrical, electronic and computer engineering from Seoul National University in 2002. He is currently an Associate Professor with the Department of Intelligent Mechatronics Engineering, Sejong University, Seoul, Korea. His research interests include GPS/INS integration, robust and optimal control, MEMS inertial sensors and systems, indoor navigation, and robot localization.