김방현
(Banghyeon Kim)
1
소상윤
(Sangyoon So)
2
조수진
(Soojin Cho)
3†
-
학생회원,서울시립대학교 도시빅데이터융합학과 석사과정
-
학생회원,서울시립대학교 토목공학과 학사과정
-
정회원,서울시립대학교 토목공학과/도시빅데이터융합학과 부교수, 교신저자
Copyright © The Korea Institute for Structural Maintenance and Inspection
키워드
손상 위치, 특징 탐지, 호모그래피, 항만 구조물, 외관조사망도
Key words
Damage location, Feature detection, Homography, Port structures, Exterior damage map
1. 서 론
최근 노후 시설물의 수는 급격히 증가하고 있으며, 이는 항만의 경우에도 마찬가지이다. 노후 시설물의 증가는 유지관리 수요 또한 증가시키고 있는데,
이러한 수요를 충족하기 위해서는 기존의 육안 점검 방식이 가진 시간, 비용, 인력의 한계를 극복할 필요가 있다. IT(information technology)
기술을 활용한 영상 기반 시설물 점검 기술은 이러한 수요를 충족시키기 위한 디지털 기반 기술로서, 최근에는 다양한 분야에서 활발하게 연구 및 활용되고
있는 딥러닝(deep learning) 기술을 활용하여 구조물의 외관 손상을 탐지하는 연구가 활발히 수행되고 있다.(Hamishebahar et al., 2022). 그러나 대부분의 손상 탐지 기술은 구조물의 국소 부위를 촬영한 개별 이미지들을 대상으로 하며, 탐지한 손상의 위치 정보를 파악하기 위해서는 추가적인
정보 변환이 필요하다. 특히, 우리나라의 경우 시설물의 손상 정보를 시설물 설계도면상에 표출한 외관조사망도(exterior damage map)를
통해 관리하고 있으므로, 국내 시설물에 적용가능한 점검 기술의 개발을 위해서는 탐지된 손상 정보를 외관조사망도 형태로 표출할 수 있어야만 한다.
국내에서도 영상 기반 시설물 점검결과를 외관조사망도 형태로 표출하는 연구가 수행된 바 있다 (Jeong et al., 2019; Lee et al., 2022). Jeong et al.(2019)은 GPS 수신 무인비행체를 통해 촬영한 건축물 사진을 바탕으로 3D 포인트 클라우드 구축 프로그램 Pix4D를 이용하여 3D 모델을 재현하고 2D
정사사진(orthomosaic)을 얻었다. 그 후, 이를 활용하여 외부 결함 탐지 및 정량화를 수행하고 외관조사망도를 작성하였다. Lee et al.(2022)은 영종대교를 대상으로 드론 촬영을 수행하고 Agisoft사의 Metashape 소프트웨어를 사용하여 정사영상을 생성하였다. Metashape에서
자동으로 정사영상을 생성할 수 없을 경우 수작업으로 사진을 이어 붙였다. 그 후, 단사진 및 정사영상을 분석하여 외관조사 상태평가를 수행하고 외관조사망도를
작성하였다. 이처럼 기존의 외관조사망도 작성 연구는 취합된 영상들에 SfM(Structure from Motion) 또는 Panorama Stitching
기술을 적용하여 대형의 3D 모델 또는 2D 이미지를 생성하고 그 위에서 손상의 위치 정보를 취득하는 방식을 주로 활용한다. 이 방법은 실제와 유사한
사진 위에 손상 정보를 표시한다는 점에서는 매우 유효하나, 항만시설물과 같은 대형 시설물에서 촬영된 다수의 고해상도 이미지를 활용하는 경우에는 상당한
처리 시간 및 컴퓨터 성능(특히 메모리)을 요구한다는 단점을 가지고 있다. 또한 현재까지 항만시설물을 대상으로 영상 기반의 점검을 수행하고, 이를
외관조사망도로 표출하는 연구는 보고된 바 없다.
본 연구에서는 SfM 또는 Stitching 과정을 거친 대형 이미지를 활용하지 않고, 이미지 간의 변환 행렬만을 활용하여 개별 이미지에서 취득한
손상 정보에 해당하는 위치 정보를 추정하는 기법을 제안하였다. 제안 기술과 같이 내부 변환 행렬만을 활용하여 손상 정보만 저장한다면, 항만시설물과
같은 대형 시설물에서 촬영한 다수의 고해상도 이미지로부터 손상의 위치만을 빠르게 계산할 수 있을 뿐만 아니라, 메모리의 사용을 최소화하고 외관조사망도의
저장 용량도 감소시킬 수 있다. 본 연구에서는 실제 항만시설물의 이미지를 이용하여 항만시설물에 특화된 손상 위치 정보 추정 알고리즘을 최적화하였다.
이와 같이 최적화된 알고리즘을 실제 손상의 위치 파악이 가능한 콘크리트 벽체를 대상으로 적용하여, 외관조사망도로 손상의 위치를 표출하고 정확도를 검증하였다.
2. 이론적 배경
하나의 장면이나 대상을 다른 시간이나 관점에서 촬영할 경우, 영상은 서로 다른 좌표계에서 얻어진다. 영상 정합(image registration)은
이와 같이 서로 다른 좌표계에서 얻어진 영상을 하나의 좌표계에 나타내는 변환기법이다.
특징 기반 영상 정합 알고리즘은 서로 다른 영상 내 대응되는 특징(점, 선, 모서리 등)을 바탕으로 영상 간의 변환 관계를 파악한다. 각 영상에서
특징점(keypoint)을 찾고, 특징점을 설명하는 특징량(descriptor)을 구한 뒤, 특징량을 바탕으로 대응되는 특징점을 서로 매칭(matching)한다.
다음으로, 이상치(outlier) 제거 기술을 활용하여 잘못된 매칭을 제거하고 정확한 대응 관계를 구축한다. 2.1절과 2.2절에서는 본 연구에서
활용한 대표적인 특징 탐지 기술과 이상치 제거 기술에 대해 간략히 기술하였다.
2.1 특징 탐지 기술
2.1.1 SIFT (Scale Invariant Feature Transform)
SIFT(Lowe, 2004)는 Laplacian-of-Gaussian(LoG)의 근사치인 Difference-of-Gaussian(DoG) 연산자에 기반하여 특징점을 검출한다.
스케일 축으로도 코너성이 극대인 지점을 탐색하기 때문에 스케일 불변성을 가지며, 회전 및 제한된 아핀(affine) 변환 등에도 강건한 것이 특징이다.
2.1.2 SURF (Speeded Up Robust Features)
SURF(Bay et al., 2006)는 SIFT와 마찬가지로 Gaussian scale space를 기반으로 하며, 헤시안(hessian) 행렬식을 활용하여 특징점을 검출한다. 적분
이미지를 사용하여 속도를 높인 것이 특징이다.
2.2 이상치 제거 기술
2.2.1 RANSAC (RANdom SAmple Consensus)
RANSAC(Fischler and Bolles, 1981)은 입력 데이터에서 이상치가 많은 비중을 차지하고 있을 때도 이상치를 효과적으로 제거하고 모델의 파라미터를 적합(fitting)시키는 알고리즘이다.
최소한의 관측데이터를 활용하여 후보 모델을 생성하는 재표본(resampling) 기법으로, 그 절차는 다음과 같다.
① 모델의 파라미터를 결정하는 데 필요한 최소한의 표본을 임의로 선택한다.
② 해당 표본을 바탕으로 모델의 파라미터를 계산한다.
③ 전체 데이터 중 미리 정의된 허용오차(tolerance) $\epsilon$ 이내에 들어오는 정상(inlier) 데이터 개수를 산정한다.
④ 전체 데이터 수에 대한 정상 데이터 수 비율이 미리 정의된 임계값(threshold) $\tau$를 초과하면, 식별된 모든 정상 데이터를 이용하여
모델의 파라미터를 재추정하고 종료한다.
⑤ 그렇지 않으면, ① ~ ④를 최대 $N$회 반복한다. 여기서 최대 반복 횟수 $N$은, 적어도 하나의 표본 세트가 이상치를 하나도 포함하지 않을
확률이 $p$(주로 0.99로 설정)가 되도록 충분히 크게 설정한다.
2.2.2 MSAC (M-estimator SAmple Consensus)
MSAC(Torr and Zisserman, 2000)은 RANSAC에서 손실 함수(loss function)를 수정하여 성능을 개선한 알고리즘이다. RANSAC은 Eq. (1)과 같이 모든 정상값을 동일하게 간주하여 오차가 $\epsilon$보다 작거나 같으면 손실함수값에 0을 부여하지만, MSAC은 Eq. (2)와 같이 정상값 중 오차가 작은 경우 손실함수값을 더 적게 부여한다. 이때, $e$는 오차, $\epsilon$은 허용오차이다.
3. 제안 기법
3.1 손상 위치 정보 추정 알고리즘
본 연구에서는 특징 탐지 기술과 이상치 제거 기술을 활용하여 손상의 위치 정보를 효율적으로 추정하는 알고리즘을 개발하였다. 파노라마 이미지를 생성하지
않고, 정합을 위해 활용되는 호모그래피(homography) 행렬만을 계산하여 손상 위치를 추정함으로써 메모리 사용을 최소화하는데 목표를 두었다.
손상 위치 정보 추정 절차는 다음과 같이 크게 7단계로 구성된다. 이를 순서도로 나타내면 Fig. 1과 같다.
① 먼저, Fig. 2와 같이 중첩하여 촬영된 연속 이미지 세트 ($I_{1}$, $I_{2}$, ..., $I_{n}$)를 얻고, 그 중 기준좌표를 선정하기 위한 기준
이미지 $I_{r}$을 선정한다. 단, 기준 이미지는 구조물과 평행하게 촬영되어야 한다.
② 이미지 세트에서 연속된 이미지 쌍($I_{i-1}$, $I_{i}$)을 가져오고, 2.1.2절의 SURF를 활용하여 각 이미지에서 특징점과 특징량을
추출한다. 그 후, Fig. 3와 같이, 같은 특징끼리 매칭하여 특징쌍({$f_{i-1}$}, {$f_{i}$})을 추출한다.
③ 2.2.2절의 MSAC을 사용하여, 추출된 특징쌍 중에서 이상치를 배제한 정상 특징쌍({$f_{i-1}^{*}$}, {$f^{*_{i}}$})을
얻는다.
④ 정상 특징쌍을 바탕으로, 두 이미지 ($I_{i-1}$, $I_{i}$) 간 변환 관계를 나타내는 호모그래피 행렬 [$H_{(i-1)i}$]을
Eq. (3)과 같이 계산한다.
여기서, $[H_{(i-1)i}]$는 $I_{i-1}$와 $I_{i}$ 사이의 호모그래피 행렬, $(x_{i},\: y_{i})$는 $I_{i}$의
정상 특징쌍 좌표, $(x_{i-1},\: y_{i-1})$은 $I_{i-1}$의 정상 특징쌍 좌표이다. $w$는 평면 변환의 scaling을 결정하기
위한 계수이다.
⑤ $i=2,\: 3,\: ...,\: n$에 대해 ② ~ ④ 과정을 반복하여, 모든 이미지 쌍에 대해 두 이미지 사이의 호모그래피 행렬($H_{12}$,
$H_{23}$, ..., $H_{(n-1)n}$)을 구한다.
⑥ Eq. (4)를 활용하여 기준 이미지와 각 이미지 간 호모그래피 행렬($H_{1r}$, $H_{2r}$, ..., $H_{nr}$)을 계산한다.
⑦ Eq. (5)와 같이 기준 이미지 좌표계 상 손상 위치를 획득하고, 이를 도식화한다.
여기서, $H_{dr}$은 $I_{d}$에서 $I_{r}$로의 변환관계를 나타내는 호모그래피 행렬, $(x,\: y)_{r}$은 기준 이미지 좌표계
상 손상 좌표, $(x,\: y)_{d}$는 손상 이미지 좌표계 상 손상 좌표이다.
Fig. 1 Flowchart for damage location estimation
Fig. 2 Overlapped images and their coordinates
Fig. 3 Feature pairs from two consecutive images
3.2 항만시설물 이미지를 활용한 알고리즘 최적화
3.2.1 최적화를 위한 성능 검증 지표
실제 연속된 항만시설물 이미지를 활용하여 참값(ground truth) 좌표 쌍을 제작하고, 이를 이용하여 조건 변화에 따른 성능을 정량적으로 평가하면서,
제안한 알고리즘을 최적화하였다. 먼저, 대상 항만시설물은 인천 ○○부두이며, 드론(DJI Mavic Air2)을 구조물과 평행하게 비행하면서 동영상을
촬영하였다. 구조물 전면부가 담긴 2분 24초 길이의 동영상을 적절한 중첩도를 갖도록 일정한 빈도로 캡처하여 83장의 이미지(해상도: 3840×2160)를
취득하였다. 획득한 83장의 이미지 중 15개의 연속된 이미지 쌍을 임의로 선정하였다. Fig. 4에서 예시한 바와 같이 연속된 항만시설물 이미지 쌍($I_{A}$와 $I_{B}$)에서 사람이 보았을 때 동일한 8개 지점(Point 1-8)의 이미지
내 좌표를 Table 1과 같이 픽셀 단위로 기록하였다. 15개의 이미지 쌍에 대해 이를 수행하여 총 120개의 참값 좌표 쌍을 제작하였다.
각 이미지 쌍에 대해 3.1절의 알고리즘을 적용하여 $I_{B}$에서 $I_{A}$로의 변환관계를 나타내는 호모그래피 행렬($H_{BA}$)을 계산하였다.
그 후, 지정한 8개 지점에 대해 앞서 계산한 호모그래피 행렬을 이용하여 $I_{B}$ 좌표계에서의 좌표 $(x_{B},\: y_{B})$를 $I_{A}$
좌표계로 매핑한 좌표 $(\hat{x_{A}},\: \hat{y_{A}})$를 구하고, 참값 좌표인 $(x_{A},\: y_{A})$와의 RMSE(Root
Mean Squared Error)를 Eq. (6)과 같이 계산하여 성능 검증 지표로 활용하였다.
Fig. 4 Example of an image pair where locations of feature pairs are marked
Table 1 Ground truth coordinates of feature pairs shown in Fig. 4
Image
|
Direction
|
Local coordinates [px]
|
Point 1
|
Point 2
|
Point 3
|
Point 4
|
$I_{A}$
|
$x_{A}$
|
1587
|
1889
|
2646
|
1347
|
$y_{A}$
|
196
|
320
|
544
|
727
|
$I_{B}$
|
$x_{B}$
|
895
|
1038
|
1952
|
649
|
$y_{B}$
|
295
|
431
|
636
|
817
|
|
|
Point 5
|
Point 6
|
Point 7
|
Point 8
|
$I_{A}$
|
$x_{A}$
|
3060
|
2033
|
3163
|
2332
|
$y_{A}$
|
715
|
1686
|
1034
|
1052
|
$I_{B}$
|
$x_{B}$
|
2337
|
1235
|
2529
|
1516
|
$y_{B}$
|
804
|
1765
|
1107
|
1147
|
3.2.2 특징 탐지 알고리즘 선정
특징 기반 영상 정합의 소요시간 및 정확도는 특징 탐지 알고리즘의 종류에 크게 영향을 받는다. 다양한 특징 탐지 알고리즘이 존재하며, 이를 비교하는
연구가 다수 수행되었다(Juan and Gwun, 2009; Mistry and Banerjee, 2017; Karami et al., 2017). 비교에 활용된 데이터셋 및 성능 평가 방식에 따라 각 알고리즘의 성능에 조금씩 차이가 존재하였다. 본 연구에서는 위의 연구들에서 공통적으로 우수한
성능을 보인 SIFT와 SURF를 활용하여 특징쌍을 찾고, 3.2.1절에서 기술한 지표를 바탕으로 성능을 비교하였다. Table 2는 15개의 이미지 쌍에 대해 특징 탐지 알고리즘 종류에 따른 RMSE 값을 계산하여 나타낸 것으로, SIFT를 활용했을 때에 비해 SURF를 활용했을
때 평균 RMSE 값이 약 36.6픽셀 작은 것을 확인하였다. 또한, 특징 추출에 걸리는 시간도 SURF가 SIFT보다 평균 5배 이상 빠른 것을
확인하여, SURF가 성능 및 속도 면에서 모두 우수한 것으로 판단하였다.
Table 2 RMSE according to the feature-detector-descriptor
$\epsilon$
[px]
|
Pair 1
[px]
|
Pair 2
[px]
|
Pair 3
[px]
|
Pair 4
[px]
|
SIFT
|
62.9
|
31.3
|
44.6
|
45.5
|
SURF
|
63.1
|
53.5
|
43.5
|
51.1
|
$\epsilon$
[px]
|
Pair 5
[px]
|
Pair 6
[px]
|
Pair 7
[px]
|
Pair 8
[px]
|
SIFT
|
23.3
|
74.0
|
82.5
|
344.6
|
SURF
|
44.4
|
54.3
|
84.3
|
332.5
|
$\epsilon$
[px]
|
Pair 9
[px]
|
Pair 10
[px]
|
Pair 11
[px]
|
Pair 12
[px]
|
SIFT
|
89.4
|
11.6
|
95.8
|
149.4
|
SURF
|
82.8
|
19.8
|
138.9
|
145.2
|
$\epsilon$
[px]
|
Pair 13
[px]
|
Pair 14
[px]
|
Pair 15
[px]
|
Average
|
SIFT
|
636.0
|
712.0
|
34.3
|
162.5
|
SURF
|
56.5
|
688.9
|
30.3
|
125.9
|
3.2.3 이상치 기준 선정
본 연구에서는 이상치 제거 알고리즘으로 2.2.2절에서 기술한 MSAC을 활용하였다. 이미지 쌍($I_{A}$와 $I_{B}$)에 대해, $I_{B}$에서의
특징점 $f_{B}$를 호모그래피 행렬 $H_{BA}$를 통해 변환한 투영점 $\hat{f_{A}}$과, $I_{A}$에서의 특징점 $f_{A}$
사이의 거리 $d$가 허용오차 $\epsilon$보다 작으면 정상치로, 크면 이상치로 판단한다. 이를 그림으로 나타내면 Fig. 5와 같다. 허용오차를 지나치게 작게 설정하면 정상치가 과소 추출될 수 있고, 크게 설정하면 이상치가 정상치로 판단될 수 있다. 적절한 허용오차를 찾기
위해, 3.2.1절에서 기술한 15개의 이미지 쌍에 대해 허용 오차를 1.5픽셀, 5픽셀, 10픽셀, 30픽셀로 조절하며 실험하였다. Table 3는 15개의 이미지 쌍에서 허용오차에 따른 RMSE 값을 나타낸 것으로, 허용오차를 10픽셀로 설정하였을 때 평균 RMSE가 가장 작은 것을 확인하였다.
Fig. 5 Distance $d$ that distinguishes outliers
Table 3 RMSE according to the tolerance $\epsilon$
$\epsilon$
[px]
|
Pair 1
[px]
|
Pair 2
[px]
|
Pair 3
[px]
|
Pair 4
[px]
|
1.5
|
61.9
|
53.2
|
40.7
|
50.7
|
5
|
62.9
|
54.7
|
45.9
|
51.4
|
10
|
63.2
|
35.8
|
44.6
|
43.1
|
30
|
62.2
|
21.5
|
35.7
|
119.8
|
$\epsilon$
[px]
|
Pair 5
[px]
|
Pair 6
[px]
|
Pair 7
[px]
|
Pair 8
[px]
|
1.5
|
51.7
|
108.8
|
86.3
|
333.7
|
5
|
49.0
|
63.8
|
87.9
|
358.5
|
10
|
44.1
|
61.7
|
81.8
|
327.6
|
30
|
40.3
|
105.0
|
80.0
|
432.4
|
$\epsilon$
[px]
|
Pair 9
[px]
|
Pair 10
[px]
|
Pair 11
[px]
|
Pair 12
[px]
|
1.5
|
82.3
|
26.0
|
146.3
|
188.8
|
5
|
91.3
|
22.0
|
151.4
|
151.2
|
10
|
86.9
|
15.8
|
124.2
|
151.4
|
30
|
79.3
|
10.0
|
138.6
|
130.4
|
$\epsilon$
[px]
|
Pair 13
[px]
|
Pair 14
[px]
|
Pair 15
[px]
|
Average
|
1.5
|
77.0
|
660.2
|
259.8
|
148.5
|
5
|
76.3
|
652.9
|
33.7
|
130.2
|
10
|
74.0
|
655.3
|
31.6
|
122.7
|
30
|
49.5
|
397.5
|
145.9
|
123.2
|
4. 제안 기법 검증
3절에서 제안한 기법을 검증하기 위해, 마커를 이용하여 균열과 비슷한 특징점들을 표시한 폼보드 샘플을 이용하여 실내 실험을 수행하였다. 또한 실제
항만시설물에서는 보안 문제로 인하여 손상 정보를 연구에 활용하기 어려웠기 때문에,실제 외부에 노출된 콘크리트 벽체를 대상으로 제안 기법을 통해 손상
위치를 추정하는 실험을 수행하여 성능을 검증하였다.
4.1 실내 실험
제안 알고리즘이 기본적으로 손상 위치를 잘 찾을 수 있는 지 확인하기 위하여, 폼보드를 이용한 샘플을 제작한 후 제안 기법을 적용하여 손상 위치 정보를
추정하고 실제 위치와 비교하였다. 샘플은 표면에 그림을 그린 305(cm)×91(cm) 크기의 폼보드로, Fig. 6와 같다. 폼보드의 세로 길이가 한 화면에 들어오는 최소 거리(1m)에서 샘플과 평행하게 이동하면서 Fig. 7과 같이 중첩된 5장의 이미지(해상도: 4032x3024)를 촬영하였다. 이 때 Fig. 7의 각 이미지에 표시된 바 같이 이미지마다 하나의 테스트 포인트($TP_{1}$~$TP_{5}$)를 임의로 선정하고, 제안 기법을 활용해 기준 이미지에서의
좌표를 구한 뒤, 실제로 자를 이용하여 측정한 위치와 비교하였다. 각 테스트 포인트에 대해 픽셀 단위로 기준 이미지 상 좌표 $(x_{r},\:
y_{r})$를 구한 뒤 실제 단위(cm)로 변환하여, 측정된 테스트 포인트의 위치 $(x_{m},\: y_{m})$와 비교한 결과는 Table 4와 같다. X 방향 평균 절대 오차 $\left| x_{\text {error }}\right|$는 6.5cm(2.1%(오차를 대상 구조물의 크기에
대한 비율로 나타낸 것이다.)), Y 방향 평균 절대 오차 $\left| y_{\text {error }}\right|$는 1.3cm(1.4%)로
나타났으며, 이를 통해 제안한 알고리즘이 전체 이미지를 재구성하지 않고도 각 테스트 포인트의 위치를 근사하게 추정할 수 있음을 확인하였다.
Fig. 6 Image of tested sample and its reference coordinate system
Fig. 7 Images of the sample and test points
Table 4 Comparison of test point locations (Sample)
Test point
|
Location obtained using the proposed method
[cm]
|
Measured location
[cm]
|
Absolute error
[cm]
|
$x_{r}$
|
$y_{r}$
|
$x_{m}$
|
$y_{m}$
|
$\left|x_{\text {error }}\right|$
|
$\left| y_{\text {error }}\right|$
|
1
|
57.9
|
44.4
|
52.5
|
41.9
|
5.4
|
2.5
|
2
|
104.5
|
29.5
|
99.2
|
27.8
|
5.3
|
1.7
|
3
|
161.6
|
67.1
|
155.6
|
65.8
|
6.0
|
1.3
|
4
|
225.4
|
22.2
|
218.7
|
22.9
|
6.7
|
0.7
|
5
|
289.6
|
58.5
|
280.3
|
58.7
|
9.3
|
0.2
|
Average
|
6.5
|
1.3
|
4.2 실구조물 대상 손상 위치 정보 추정
4.2.1 손상 위치 정보 추정값 평가
실제 구조물을 대상으로 제안 기법을 활용하여 손상 위치를 추정하고, 직접 측정한 위치와 비교하였다. 항만시설물에 접근하여 손상 위치를 측정하는데 보안
상 문제가 있어, 서울시립대학교에 위치한 콘크리트 벽체를 대상으로 테스트를 수행하였다. 대상 벽체는 Fig. 8과 같다. 실내 실험과 마찬가지로, 구조물의 세로 길이가 한 화면에 들어오는 최소 거리(2m)에서 대상 벽체와 평행하게 촬영하여, 중첩된 연속 이미지(해상도:
4608×2592) 19장을 취득하였다.
984장의 구조물 손상(균열 등) 이미지를 DeepLab v3+(Chen et al., 2018)로 학습시킨 손상 탐지 모델을 이용하여 19장의 이미지에 대해 손상 탐지를 수행(손상 탐지 기술의 적용과 관련된 내용은 본 연구의 범위를 넘어가며
제안 알고리즘의 정확도와는 무관하므로, 본 논문에서는 이에 대해 기술하지 않았다.)한 결과, Fig. 9과 같이 4번째 이미지($I_{4}$), 6번째 이미지($I_{6}$), 19번째 이미지($I_{19}$)에서 6개의 균열이 탐지되었다. 이에 따라
Fig. 9과 같이 6개의 균열상에서 임의로 16개의 테스트 포인트($TP_{1-1}$~$TP_{6-4}$)를 선정하였다. Fig. 8에 표시된 바와 같이 가장 가운데에 위치한 이미지($I_{10}$) 내에 원점(O)을 선정하고, 제안 기법을 적용하여 가운데 이미지를 기준으로 16개
테스트 포인트의 좌표를 변환한 후 원점으로부터 거리를 계산하였다.
Table 5는 실제 사람이 측정한 테스트 포인트의 위치와 제안 기법을 적용하여 얻은 위치를 비교한 것이다. 제안 기법은 6번 이미지를 제외한 다른 이미지 상의
테스트 포인트들에 대해서는 15cm 이하의 오차로 위치를 잘 추정하였다. 모든 이미지에 대해서 X 방향 평균 절대 오차 $\left| x_{\text
{error }}\right|$는 12.7cm (1.5%), Y 방향 평균 절대 오차 $\left| y_{\text {error }}\right|$는
6.4cm(4.0%)로 나타났다. 이는 인력기반 점검 시 위치 오차(1m 내외)와 비교하여 충분히 작은 수치로 판단된다. 다만 6번 이미지의 경우
오차가 30cm 전후로 다른 이미지에 비해 크게 나타났는데, 이는 특징점을 기반으로 호모그래피 행렬을 산정할 때 오차가 발생하며, 기준점과 점점 멀어지는
경우에는 이러한 오차가 점차 누적되기 때문이다. 따라서 제안 기법을 대형 구조물에 적용하기 위해서는 호모그래피 행렬을 정확하게 산정하는 기법에 대한
추가적인 연구가 필요한 것으로 보인다.
Fig. 8 Target wall with reference coordinate system and test points
Fig. 9 Detected cracks on the 4th, 6th, and 19th images and test points on detected cracks
Table 5 Comparison of test point locations (Target wall)
Test point
|
Location obtained using the proposed method
[cm]
|
Measured location
[cm]
|
Absolute error
[cm]
|
$x_{r}$
|
$y_{r}$
|
$x_{m}$
|
$y_{m}$
|
$\left| x_{\text {error }}\right|$
|
$\left| y_{\text {error }}\right|$
|
1-1
|
-260.2
|
-20.1
|
-263.0
|
-28.7
|
2.8
|
8.6
|
1-2
|
-267.8
|
-48.3
|
-269.0
|
-54.7
|
1.2
|
6.4
|
1-3
|
-263.7
|
-56.1
|
-263.5
|
-67.3
|
0.2
|
11.2
|
2-1
|
-172.6
|
-58.5
|
-186.0
|
-63.5
|
13.4
|
5.0
|
3-1
|
-63.2
|
28.3
|
-72.0
|
27.5
|
8.8
|
0.8
|
3-2
|
-64.2
|
21.3
|
-73.0
|
8.7
|
8.8
|
12.6
|
3-3
|
-63.6
|
-21.0
|
-72.0
|
-24.0
|
8.4
|
3.0
|
3-4
|
-71.5
|
-51.6
|
-79.0
|
-57.0
|
7.5
|
5.4
|
4-1
|
104.3
|
5.4
|
107.5
|
10.0
|
3.2
|
4.6
|
4-2
|
107.0
|
-9.3
|
109.5
|
-6.0
|
2.5
|
3.3
|
4-3
|
104.0
|
-18.6
|
108.0
|
-17.5
|
4.0
|
1.1
|
5-1
|
191.4
|
-16.8
|
206.0
|
-11.5
|
14.6
|
5.3
|
6-1
|
257.7
|
25.6
|
289.5
|
42.0
|
31.8
|
16.4
|
6-2
|
262.0
|
12.0
|
294.5
|
25.5
|
32.5
|
13.5
|
6-3
|
254.1
|
-25.2
|
286.0
|
-22.5
|
31.9
|
2.7
|
6-4
|
254.3
|
-34.0
|
286.5
|
-32.0
|
32.2
|
2.0
|
Average
|
12.7
|
6.4
|
4.2.2 디지털 외관조사망도 작성
구조물의 형상(외곽선)을 갖고 있다는 전체 하에서 손상 탐지 모델을 이용하여 획득한 손상을 제안 기법을 통해 구한 손상 위치에 시각화하면 디지털 외관조사망도를
작성할 수 있다. 본 연구에서는 손상의 형상과 위치를 시각화하는 프로그램을 MATLAB을 이용하여 제작하였으며, Fig. 10은 콘크리트 벽체에 본 프로그램을 적용한 결과이다. 대상 벽체에 대한 도면을 보유하고 있지 않아 구조물 외곽선은 실측값을 기반으로 사람이 드로잉하였으며,
도면이 있을 때에는 이를 활용할 수 있다. Fig. 10에 표기한 바와 같이 실제 균열의 형상 및 위치와 비교하여 보면, 외관조사망도가 잘 얻어졌음을 알 수 있다. 4.2.1절의 내용을 시각화한 것이므로
정량적인 오차는 Table 5와 동일하다. 향후 손상을 정량화하는 기술(Kim and Cho, 2019)까지 함께 적용한다면, 실무에 바로 활용가능한 외관조사망도까지 표출할 수 있다.
Fig. 10 Digital exterior damage map of tested concrete wall with test point locations
5. 결 론
본 연구에서는 개별 이미지에서 취득한 손상 정보를 바탕으로 이미지 간의 변환 행렬만을 활용하여 개별 이미지에서 취득한 손상 정보에 해당하는 위치 정보를
추정하는 기법을 제안하였다. 내부 변환 행렬만을 계산하여 손상 정보만 저장함으로써, 대형 시설물에서 촬영한 다수의 고해상도 이미지로부터 손상의 위치만을
빠르게 계산할 수 있을 뿐만 아니라, 메모리의 사용을 최소화하고 외관조사망도의 저장 용량도 감소시킬 수 있다. 항만시설물 점검에 활용할 수 있도록
항만시설물 이미지를 활용하여 알고리즘을 최적화하였고, 이를 폼보드를 이용한 샘플 및 실제 콘크리트 벽체에 적용하여 손상 위치를 높은 정확도로 찾을
수 있음을 확인하였다.
본 연구의 결과를 요약하면 다음과 같다.
(1) 폼보드를 이용하여 제작한 샘플에 제안 기법을 적용하여 손상 위치를 추정하고 실제 위치와 비교한 결과, X 방향 평균 절대 오차 $\left|
x_{\text {error }}\right|$는 6.5cm, Y 방향 평균 절대 오차 $\left| y_{\text {error }}\right|$는
1.3cm로 나타났다.
(2) 실제 콘크리트 벽체를 대상으로 제안 기법을 활용하여 손상 위치를 추정하고 직접 측정한 위치와 비교한 결과, X 방향 평균 절대 오차 $\left|
x_{\text {error }}\right|$는 12.7cm, Y 방향 평균 절대 오차 $\left| y_{\text {error }}\right|$는
6.4cm로 나타나, 인력기반 점검 시 위치 오차(1m 내외)와 비교하여 실제 점검에 충분히 활용 가능한 수준임을 확인하였다.
(3) 손상 형상과 제안 기법을 통해 구한 손상 위치를 시각화하는 프로그램을 제작하고, 이를 실제 콘크리트 벽체에 적용하여 디지털 외관조사망도 형태로
표출하였다.
다만, 본 제안 기술은 이미지 간 호모그래피 행렬을 누적하여 기준 이미지와 개별 이미지 간 호모그래피 행렬을 계산하기 때문에, 기준 이미지에서 멀어질수록
오차가 누적될 수 있다. 따라서 호모그래피 행렬 산정 시 오차를 최소화하기 위한 방안을 마련할 필요가 있다. 이를 위해서는 인접한 두 이미지 간 호모그래피
행렬만을 이용하는 것이 아니라 여러 이미지 간 변환관계를 동시에 활용하는 방식을 활용할 수 있다. 또한, 오차와 상관도가 높은 변수(예: 특징점의
수, 정상치-이상치 비율, 특징점 위치의 분산 등)를 찾고 이 변수를 기준으로 호모그래피 행렬의 오차 가능성을 미리 추정함으로써, 오차가 발생 가능한
경우 특징 계산 시 사용되는 변수들을 변화시켜가며 호모그래피 행렬을 재계산하는 방식으로 더 강건한 위치 정보 추출 알고리즘을 개발할 수 있을 것이다.
감사의 글
이 논문은 2021년도 해양수산부 재원으로 해양수산과학기술진흥원의 지원을 받아 수행된 연구임(20210659, ICT기반 항만인프라 스마트
재해대응 기술개발).
References
Bay, H., Tuytelaars, T., and Van Gool, L. (2006), Surf: Speeded up robust features.
In Computer Vision–ECCV 2006: 9th European Conference on Computer Vision, Graz, Austria,
May 7-13, 2006. Proceedings, Part I 9, Springer Berlin Heidelberg, 404-417.
Chen, L. C., Zhu, Y., Papandreou, G., Schroff, F., and Adam, H. (2018), Encoder-decoder
with atrous separable convolution for semantic image segmentation, In Proceedings
of the European conference on computer vision (ECCV), 801-818.
Fischler, M. A., and Bolles, R. C. (1981), Random sample consensus: a paradigm for
model fitting with applications to image analysis and automated cartography, Communications
of the ACM, 24(6), 381-395.
Hamishebahar, Y., Guan, H., So, S., and Jo, J. (2022), A comprehensive review of deep
learning-based crack detection approaches, Applied Sciences, 12(3), 1374.
Jeong, D., Lee, J., and Ju, Y. (2019), Photogrammetric Crack Detection Method in Building
using Unmanned Aerial Vehicle, Journal of the Architectural Institute of Korea Structure
& Construction, 35(1), 11-19 (In Korean, with English abstract).
Juan, L., and Gwun, O. (2009), A comparison of sift, pca-sift and surf, International
Journal of Image Processing (IJIP), 3(4), 143-152.
Karami, E., Prasad, S., and Shehata, M. (2017), Image matching using SIFT, SURF, BRIEF
and ORB: performance comparison for distorted images, arXiv preprint. arXiv:1710.02726.
Kim, B., and Cho, S. (2019), Image-based Concrete Crack Assessment using Mask and
Region-based Convolutional Neural Network, Structural Control and Health Monitoring,
26(8), e2381(1-15).
Lee, S., Lee, K., Choi, H., and Lim, C. (2022), Establishment of a standard procedure
for safety inspections of bridges using drones, KSCE Journal of Civil and Environmental
Engineering Research, 42(2), 281-290 (In Korean, with English abstract).
Lowe, D. G. (2004), Distinctive image features from scale- invariant keypoints, International
Journal of Computer Vision, 60, 91-110.
Mistry, D., and Banerjee, A. (2017), Comparison of feature detection and matching
approaches: SIFT and SURF, GRD Journals-Global Research and Development Journal for
Engineering, 2(4), 7-13.
Torr, P. H., and Zisserman, A. (2000), MLESAC: A new robust estimator with application
to estimating image geometry, Computer Vision and Image Understanding, 78(1), 138-156.