전의익
(Eui-Ik Jeon)
1,2,†
장다혜
(Da-Hye Jang)
3
박현수
(Hyun-Soo Park)
4
-
정회원, ㈜이노팸 인공지능팀 팀장, 교신저자
-
정회원, 서울시립대학교 도시빅데이터융합학과 박사과정
-
정회원, ㈜이노팸 인공지능팀 주임연구원
-
정회원, ㈜이노팸 인공지능팀 선임연구원
Copyright © The Korea Institute for Structural Maintenance and Inspection
키워드
무인기, 드론, 입면 정사영상, 균열, 교량, 외관조사망도
Key words
UAV, Drone, Facade orthomosaic, Crack, Bridge, Exterior damage map
1. 서 론
교량과 같은 사회기반시설물은 시간이 지남에 따라 재료의 노후화, 외부 환경 요인, 지속적인 하중 등으로 인해 손상이 발생하며, 이는 구조물의 안전성과
내구성에 직접적인 영향을 미친다. 따라서 균열과 같은 초기 손상을 신속하고 정확하게 탐지하고 평가하는 것은 시설물의 선제적 유지관리를 위해 필수적이다.
전통적인 교량 외관 조사는 점검자가 직접 육안으로 확인하거나 간단한 도구를 사용하는 방식으로 이루어져 왔다. 이는 점검자의 주관이 개입될 여지가 크고,
비계나 특수 점검 차량의 사용으로 인해 높은 비용과 시간이 소요되며, 작업자의 안전사고 위험에 노출되는 한계를 지닌다(Koch et al., 2015; Dorafshan and Maguire, 2018).
이러한 문제점을 해결하기 위한 대안으로 무인 항공기(UAV, Uncrewed Aerial Vehicle) 즉, 드론을 활용한 점검 방식이 주목받고
있다(Jeong et al., 2019). 드론은 사람이 접근하기 어려운 교량 하부나 교각과 같은 구조물에 안전하고 신속하게 접근하여 고해상도의 디지털 이미지를 취득할 수 있다. 취득된
다수의 이미지는 후처리 과정을 통해 기하학적 왜곡이 보정된 정사영상으로 생성되어 구조물의 전체적인 외관 상태를 정밀하게 파악하는 데 효과적으로 사용될
수 있다 (Jeong et al., 2020).
그러나 드론을 통해 방대한 양의 이미지를 수집하더라도 이를 분석하는 과정이 수작업으로 이루어진다면 여전히 많은 시간과 노력이 요구된다. 이러한 분석
자동화를 위해 딥러닝 기반의 이미지 처리 기술을 도입하는 연구가 활발히 진행되어 왔으며, 그 발전 과정은 크게 손상 탐지, 정량적 분석, 외관조사망도
제작의 세 단계로 나누어 볼 수 있다.
초기 연구들은 주로 손상 탐지에 집중되었다. 합성곱 신경망(CNN)을 활용하여 이미지 내에서 균열의 존재 유무나 위치를 파악하는 정성적 탐지의 가능성을
입증했다(Yeum and Dyke, 2015; Kim et al., 2017; Park et al., 2023). 이러한 연구들은 자동화의 기반을 마련했지만, 실무적 판단에 필수적인 균열의 폭이나 길이와 같은 물리적 수치를 제공하지는 못하는 한계가 있었다.
이를 바탕으로 후속 연구들은 탐지된 균열의 길이, 폭 등을 계산하는 정량적 분석으로 확장되었다(Yuan et al., 2024).
이러한 정량적 접근은 매우 의미 있는 진전이었으나, 딥러닝 모델이 산출한 수치의 공학적 신뢰도를 체계적으로 검증하는 것은 후속 연구의 주요 과제로
남아 있었다. 궁극적으로 교량 점검의 최종 성과물은 손상의 위치, 유형, 규모를 도면에 명시한 외관조사망도이다. 일부 선행 연구에서 외관조사망도 제작을
시도했음에도 불구하고, 그 기반 데이터의 신뢰성을 확보하는 데에는 한계가 있었다(Zhao et al., 2024). 이는 최종 균열 측정값의 신뢰도를 논하기에 앞서, 그 기반이 되는 정사영상 자체의 정확도 검증이 선행되어야 한다는 점이 간과되었기 때문이다. 즉,
3차원 실제 구조물을 2차원 정사영상으로 변환(투영)하는 과정에서 발생할 수 있는 축척 오류나 왜곡을 먼저 검증하는 단계가 반드시 동반되어야 하는데,
이 과정 자체가 복잡하고 사진측량에 대한 이해가 필수적이다.
따라서 본 연구는 드론 이미지로부터 0.1 mm 수준의 미세 균열까지 탐지하고, 그 길이와 폭을 높은 정확도로 측정할 수 있는 신뢰도 높은 정량적
평가 방법론을 제안하고 그 실효성을 검증하는 것을 핵심 목표로 한다. 이를 위해 초해상화(super-resolution) 및 의미론적 분할(semantic
segmentation) 모델을 통해 균열을 정밀하게 식별하고, 벡터화된 균열 정보를 실제 현장 전문가의 정밀 측정값과 직접 비교 분석하여 제안하는
방법론의 신뢰도를 입증하고자 한다. 최종적으로, 이렇게 신뢰성이 검증된 정량 데이터를 실무에서 사용하는 외관조사망도 형식에 통합하여 제시함으로써,
제안하는 방법론이 실제 교량 안전 점검 실무에 효과적으로 기여할 수 있음을 보이고자 한다.
2. 이론적 배경
2.1 딥러닝 모델
본 연구에서는 입면 정사영상에 균열을 탐지하기 전에 화소 간의 거리를 의미하는 GSD(Ground Sampling Distance)의 향상을 위해
초해상화 모델을 적용한다. 초해상화 모델은 Real-ESGAN을 활용하였다(Wang et al., 2021b). Real-ESGAN은 GAN(Generative Adversarial Network) 기반의 초해상도 모델로, 기존 모델들이 어려움을 겪었던
실제 환경 이미지의 복합적 열화문제를 해결하기 위해 개발되었다. 이를 위해 2단계 열화 모델을 도입하여 실제 데이터의 손상 과정을 모방하고, 분광
정규화를 적용하여 학습 안정성을 높임으로써 더 현실적이고 고품질의 복원 결과를 생성하는 특징이 있다. 본 연구에서는 균열이 존재하는 실제 교량을 대상으로
획득된 이미지로 학습된 Real-ESGAN 모델을 활용하였다(Jang, 2025).
균열 탐지에는 InternImage를 백본(backbone)으로 사용하는 Mask2Former 모델을 활용하였다(Cheng et al., 2022; Wang et al., 2023). 백본 네트워크인 InternImage는 기존 합성곱 신경망의 고정된 수용 영역 문제를 극복하고자 변형 가능한 컨볼루션(deformable convolution)을
핵심 연산으로 채택한 모델이다. Mask2Former는 백본에서 추출된 특징맵(feature map)을 픽셀 디코더(pixel decoder)로 업샘플링하고,
마스크된 어텐션(masked attention)이 적용된 트랜스포머 디코더(transformer decoder)를 통해 학습 가능한 객체 쿼리(object
query)와 특징맵 간의 교차 어텐션(cross-attention)을 수행하여 최종 분할 마스크(segmentation mask)를 예측한다.
본 연구의 균열 탐지 모델은 전이 학습(transfer learning) 기법을 적용하였다. 먼저, 대규모 장면 분할 데이터셋인 ADE20K 데이터셋으로
사전 학습된 가중치를 초기값으로 활용하여 모델의 기본적인 특징 추출 성능을 확보하였다. 이후, 특정 도메인에 대한 모델의 정밀도를 높이기 위해 자체적으로
구축한 데이터셋으로 미세 조정(fine-tuning)을 수행하였다. 해당 데이터셋은 터널 환경과, 본 연구의 최종 평가 대상인 주정교를 제외한 다수의
교량 구조물이라는 두 가지 주요 도메인에서 취득한 원본 이미지와 정사영상으로 구성된다 (Jeon, 2023). 특히, 모델의 일반화 성능을 객관적으로 평가하고자, 평가 대상인 주정교의 데이터는 학습 과정에서 의도적으로 배제하였다.
데이터셋 구축 과정에서는 이미지 내에서 균열이 명확히 존재하는 영역만을 선별하여 640×640 픽셀 크기의 타일로 추출하는 패치 기반 샘플링을 적용하였으며,
이를 통해 총 20,290장의 고품질 학습 데이터를 확보하였다. 확보된 전체 타일 데이터셋은 9:1의 비율로 학습 데이터셋과 검증 데이터셋으로 무작위
분할 되었다. 모델 학습 완료 후, 검증 데이터셋을 통해 성능을 정량적으로 평가한 결과, 정밀도는 84.49%, 재현율은 86.51%의 안정적인 성능을
기록하였다.
2.2 균열 탐지 결과의 정량화
딥러닝 모델로부터 추론된 균열 탐지 결과를 정량적으로 분석하기 위해 후처리 과정을 수행하여 각 균열의 길이와 폭을 산출해야한다.
균열 탐지 추론은 정사영상을 일정 중첩률을 갖는 타일 단위로 분할하여 수행된다. 각 타일에서 신뢰도가 50% 이상인 픽셀은 균열을 의미하는 값 1로,
그 외는 배경을 의미하는 0으로 저장하여 이진화된 마스크를 생성한다. 모든 타일에 대한 추론 완료 후, 중첩 영역의 픽셀 값을 모두 더하고 1 이상의
값을 갖는 모든 픽셀을 1로 치환하여 전체 영역의 균열 마스크를 완성한다. 이후 생성된 이진 마스크에서 각 균열의 중심선을 추출하기 위해 스켈레톤화(skeletonization)
알고리즘을 적용한다. 이 과정은 두께를 가진 픽셀 형태의 균열 영역을 1픽셀 너비의 선으로 변환하여 균열의 위상 구조를 명확히 하고, 이를 기반으로
각 균열을 선형 벡터로 변환한다. 균열 길이는 생성된 벡터의 기하학적 길이를 계산한 후, 정사영상의 GSD를 곱하여 실제 물리 단위(mm)로 산출한다.
균열 폭은 벡터를 구성하는 모든 중심선 픽셀에서 각각 국소 폭을 측정한 후, 이들 중 최댓값을 대표 폭으로 결정한다. 특정 중심선 픽셀에서의 국소
폭을 측정하기 위해, 해당 픽셀을 기준으로 180° 범위 내에서 사전 정의된 각도 간격으로 선분을 생성하고, 중심점으로부터 양방향으로 균열 영역(값이
1)의 경계까지 유클리드 거리를 측정한다. 측정된 여러 거리 값 중 최솟값을 해당 지점의 국소 폭으로 정의한다. 최종적으로 하나의 균열 벡터에서 산출된
모든 국소 폭 중에서 최댓값을 해당 균열의 대표 폭으로 산정한다(Fig. 1). 이는 현행 시설물의 안전 및 유지관리 실시 세부지침에서 균열의 최대 폭을 기준으로 상태를 평가하도록 규정하고 있는 점을 준수하기 위함이다. 다만,
이 방식은 국부적인 이상치나 최대 폭 값이 전체 균열의 평균적인 상태를 왜곡하여 대표할 수 있다는 잠재적 한계를 내포한다.
Fig. 1 llustration of the crack width measurement method
3. 연구 흐름
본 연구는 드론으로 취득한 이미지를 활용하여 교량 구조물의 균열을 자동으로 탐지하고 정량화하는 것을 목표로 하며, 전체 워크플로우는 이미지 취득 및
전처리와 균열 분석의 두 가지 주요 단계로 구성된다(Fig. 2).
첫째, 드론을 이용하여 교량의 입면 이미지를 취득한다. 취득된 이미지들은 번들 조정과 3차원 메쉬 생성 과정을 거쳐 기하학적 왜곡이 보정된 입면 정사영상으로
생성된다. 이후, 이미지의 해상도를 향상시켜 미세 균열 탐지 성능을 높이기 위해 초해상화 모델을 적용하여 고해상도 입면 정사영상을 생성한다.
둘째, 전처리된 고해상도 정사영상을 입력받아 딥러닝 기반의 균열 분할 모델을 통해 이미지 내 균열 영역을 픽셀 단위로 탐지한다. 탐지된 균열 영역은
스켈레톤화 알고리즘을 통해 1픽셀 너비의 중심선으로 변환한다. 이 중심선을 기반으로 균열을 선형 벡터로 표현하고, 최종적으로 균열 폭 추정을 수행하여
물리적 단위의 균열 제원을 산출한다.
Fig. 2 Workflow from drone image acquisition to quantitative crack analysis
4. UAV 이미지 취득 및 전처리
4.1 대상 교량
본 연구의 대상 구조물은 경상남도 진주시에 위치한 주정교로 선정하였다. 주정교는 2024년 6월과 12월에 수행된 정기안전점검에서 각각 안전등급 C등급과
B등급으로 평가된 바 있어, 구조물 표면에 다수의 균열이 분포할 것으로 예상되었다. 또한, 드론 비행 및 연구자의 현장 접근이 용이하여 분석 결과와
실제 손상을 직접 비교⋅검증하기에 적합하였다. 주정교는 1996년에 준공된 RC 박스 거더교형식이며, 전체 제원은 연장 약 24 m, 총 폭 9 m이다.
구조적으로는 3개의 교각(Pier)과 2개의 교대(Abutment), 그리고 4개의 경간(Span)으로 구성되어 있다. 대상 구조물의 전체적인 외관은
Fig. 3에 나타난 바와 같다.
Fig. 3 An overview of the target bridge
4.2 이미지 취득
본 연구에서는 교량의 교각, 교대, 하부 바닥판 등 하부 구조물의 영상을 효율적으로 취득하기 위해 소형 드론인 DJI Matrice 4E를 활용하였다.
해당 드론은 1.2 kg의 경량 기체로, 최대 40분의 비행시간을 지원하여 점검 현장에서의 운용 효율성이 높다. 특히, 전방위 비전 센서 및 하부
적외선 센서를 탑재하여 GPS 신호 수신이 어려운 교량 하부 공간에서도 안정적인 비행 제어가 가능하다는 장점이 있다.
장착된 카메라는 4/3인치 CMOS 센서를 탑재하고 있으며, 5,280 × 3,956 픽셀의 고해상도 이미지를 취득할 수 있다. 이론적으로 0.1
mm 수준의 미세 균열을 명확히 식별하기 위해서는 0.1 mm/pixel의 GSD 확보가 이상적이다. 그러나 이를 위해서는 촬영 거리를 약 0.37
m까지 단축해야 하므로, 드론과 구조물 간의 충돌 위험이 증가하고 촬영 이미지 수가 급증하는 등 운용상의 한계가 발생한다.
이에 본 연구에서는 실용적인 GSD를 설정하기 위해 선행 연구(KALIS, 2022)를 참고하였다. 해당 연구에 따르면, 제어된 실내 환경에서 0.1 mm 눈금은 최대 0.38 mm/pixel의 GSD까지 식별 가능했다(Fig. 4). 그러나 실제 현장에서는 드론 비행에 따른 미세 진동과 교량 표면의 오염 등 외부 요인이 존재하므로, 본 연구에서는 안정적인 균열 탐지를 위한
최소 GSD를 0.3 mm/pixel로 설정하고 이에 맞춰 촬영을 진행하였다.
교량 하부는 GPS 신호 제한으로 자동 비행 경로 설정이 불가능하여, 모든 구간의 촬영은 수동 조작으로 수행되었다. 촬영 시에는 영상의 초점 심도를
최대한 확보하기 위해 카메라 렌즈가 구조물 표면과 정면을 향하도록 제어하였다. 이 조건은 교각과 교대 촬영에서는 대부분 충족되어 양질의 영상을 확보할
수 있었다. 반면, 하부 바닥판의 경우 드론 카메라의 수직 틸트(tilt) 각도가 +35°로 제한되어 구조물 표면과 수평을 유지하는 데 한계가 있었다.
이로 인해 해당 구간에서 취득된 일부 영상은 초점 불량이나 기하학적 왜곡을 포함할 가능성이 있으며, 이는 후속될 균열 탐지 및 정량 분석 결과의 정확성에
영향을 미칠 수 있다. 부재별 평균 촬영 이미지 수는 약 80장이다.
Fig. 4 Reference scale identifiability at different GSDs
4.3 입면 정사영상 생성
드론 영상으로부터 3차원 모델 및 정사영상을 생성하는 소프트웨어는 Open Drone Map(ODM), Agisoft Metashape, PIX4Dmapper
등 다양하며, 이들의 성능을 비교 분석하는 연구가 다수 수행되어 왔다(Jeon et al., 2017; Mora-Felix et al., 2024). 선행 연구들은 주로 지오레퍼런싱(georeferencing), DSM(Digital Surface Model) 및 정사영상 생성 과정의 처리 시간과
결과물의 정확도를 평가하였다. 연구 데이터셋에 따라 소프트웨어별 성능 차이는 있었으나, Agisoft Metashape은 일관되게 우수한 결과를 보였으며,
특히 이미지의 3차원 위치 및 자세를 추정하는 지오레퍼런싱 단계에서 가장 높은 정확도를 나타냈다. 본 연구는 교량 하부와 같이 GPS 신호가 불안정하여
이미지의 위치 정보가 누락될 가능성이 높은 환경을 대상으로 하므로, 지오레퍼런싱 성능이 뛰어난 Agisoft Metashape를 처리 소프트웨어로
선정하였다.
Metashape을 이용한 처리 과정은 크게 지오레퍼런싱과 3차원 재구성 및 정사영상 생성단계로 구분된다. 첫째, 지오레퍼런싱 단계(Align Photos)에서는
영상 간 특징점 매칭을 통해 공액점을 추출하고, 이를 기반으로 번들 조정(Bundle Adjustment)을 수행하여 각 영상의 외부표정요소(Exterior
Orientation)를 정밀하게 추정한다.
이후, 추정된 영상의 위치 및 자세 정보를 바탕으로 3차원 재구성 단계가 진행된다. 조밀한 포인트 클라우드(Point Cloud)를 생성하고, 이
과정에서 발생하는 배경 및 오류점을 제거하여 데이터의 정밀도를 높였다. 정제된 포인트 클라우드를 기반으로 삼각망(Mesh)을 생성한 후, 최종적으로
각 구조 부재의 입면이 평면에 가깝게 투영되도록 수동으로 투영 평면(X-Y plane)을 정의하여 입면 정사영상(Facade Orthomosaic)을
생성하였다. 생성된 정사영상의 주요 정보는 Table 1에 요약하였으며, 예시는 Fig. 5에 제시하였다.
일반적으로 정사영상의 정확도는 절대적인 위치 정확도와 상대적인 축척 정확도로 평가된다. 그러나 교량 안전 점검에서 활용되는 외관조사망도는 구조 부재의
도면을 기준으로 하므로, 절대 좌표의 정확성보다 객체의 실제 크기가 얼마나 정확하게 반영되었는지를 나타내는 축척 정확도가 더 중요하다.
따라서 본 연구에서는 축척 정확도를 평가하기 위해 영상 취득 전, 접근 가능한 부재 13개소에 2∼4개의 플라스틱 삼각자를 부착하여 축척 기준으로
활용하였다. 정사영상 생성 후, 각 삼각자의 모서리 길이를 측정하여 실제 값과 비교한 결과, RMSE가 0.826 cm로 매우 낮게 나타나 높은 축척
정확도를 확보했음을 확인하였다. 다만, 본 평가에 사용된 축척 기준의 길이가 5 cm에서 21 cm로 비교적 짧다는 한계가 있으므로, 향후 부재 전체
길이와 같은 장거리에 대한 정확도 검증이 추가적으로 필요하다.
Fig. 5 Facade orthomosaics of the pier and abutment at jujeong bridge
Table 1 Specifications of the generated facade orthomosaics
|
Image name
|
Pixels
|
Image name
|
Pixels
|
Image name
|
Pixels
|
|
A1
|
26,642
× 9,081
|
P2_F
|
26,609
× 10,606
|
S1
|
27,132
× 13,664
|
|
A2
|
26,792
× 10,795
|
P2_B
|
26,599
× 10,573
|
S2
|
26,404
× 14,106
|
|
P1_F
|
26,805
× 10,275
|
P3_F
|
26,705
× 10,776
|
S3
|
26,605
× 14,224
|
|
P1_B
|
26,916
× 10,023
|
P3_B
|
26,722
× 10,762
|
S4
|
26,877
× 13,517
|
5. 균열 탐지 및 분석
5.1 균열 탐지 정확도 분석
일반적으로 의미론적 분할 모델의 성능은 픽셀 단위의 정밀도(Precision), 재현율(Recall), F1-score, IoU 등으로 평가된다(Jeon et al., 2021). 그러나 이러한 평가지표는 본 연구의 대상인 0.1 mm 수준의 미세 균열을 평가하는 데 본질적인 한계를 가진다. 미세 균열은 이미지 상에서 1픽셀
내외의 선형 객체로 표현되므로, 예측 위치가 1픽셀만 벗어나도 오탐(False Positive)과 미탐(False Negative)으로 동시에 처리되어
성능이 왜곡될 수 있다. 또한, 픽셀 기반 평가는 균열의 연속성이나 형태 등 기하학적 맥락을 고려하지 못한다(Wang et al., 2021a). 이러한 문제를 해결하기 위해, 본 연구에서는 픽셀 기반 평가를 지양하고 탐지된 균열을 벡터화하여 정밀도(Precision)와 재현율(Recall)관점에서
정확도를 분석하였다.
정밀도 평가는 모델이 ‘균열’이라고 예측한 결과가 실제로 얼마나 정확한지를 측정하는 것을 목표로 한다. 이를 위해 탐지된 모든 벡터를 대상으로 정탐(True
positive), 오탐1(False positive type 1), 오탐2(False positive type 2)로 분류하였다.
정탐은 현장 검증 결과 실제 균열로 확인된 벡터, 오탐 1은 거미줄, 곤충 등 균열과 형태가 유사하여 발생한 명백한 오탐지 벡터, 오탐 2는 육안으로는
균열과 유사하나, 현장 전문가가 확인했을 때 실제 균열이 아닌 것으로 판별된 벡터를 의미한다.
분석 결과(Table 2), 전체 정밀도는 90%로 매우 높게 나타났다. 특히 0.1 mm급 미세 균열이 다수 분포하는 교대(A1)에서는 87%, 0.3 mm 이상의 균열이
주인 교각(P1 Front)에서는 93%의 정밀도를 보여, 균열의 폭이 클수록 더 안정적인 탐지 성능을 보였다.
우선, 정탐지 결과에서 현장 측정이 용이한 균열들을 그룹화하였다(Fig. 6). 재현율 평가는 그룹화된 균열에 한해서 모델이 얼마나 빠짐없이 탐지했는지를 측정하는 것을 목표로 한다. 이를 위해 현장에서 측정한 실제 균열 길이와
모델이 탐지한 균열 벡터의 길이를 비교하였다. 현장 계측은 레이저 거리측정기(Bosch Zamo3)를 이용해 전문가가 균열의 경로를 따라 측정하였다.
다만, 현장 수동 계측 방식은 명확한 한계를 내포한다. Fig. 7과 같이 균열은 미세한 변곡점이 매우 많아 측정 도구로 모든 경로를 정확히 추적하기 어려우며, 이로 인해 계측 오차가 필연적으로 발생한다.
이러한 한계 속에서 현장 측정값(Ground Truth, GT)과 AI 분석 값(Estimated, Est.)을 비교한 결과(Table 3), 개별 균열 객체 단위의 길이 유사도(Similarity, Sim.)는 평균 91%로 매우 높게 나타났다. 전체 균열 길이의 총합을 기준으로 비교했을
때, 현장 측정값은 1,869 cm, AI 분석값은 1,911 cm로 약 88%의 유사도를 보였다.
분석 과정에서 나타난 대표적인 오차 사례는 다음과 같다.
- 사례 1 (AI < GT): 9번 균열과 같이 0.1 mm 이하의 매우 미세한 세그먼트가 포함된 경우, 모델이 이를 유의미한 특징으로 인식하지
못해 실제보다 길이가 짧게 측정되었다(Fig. 8의 (a)).
- 사례 2 (AI > GT): 17번 균열과 같이 여러 갈래로 복잡하게 분기하는 경우, 수동 계측 시 모든 분기 경로를 측정하기 어려워 AI가 탐지한
총 길이보다 짧게 측정되는 경향이 나타났다(Fig. 8의 (b)).
상기한 계측 방식의 불확실성에도 불구하고, AI 기반 분석 결과와 전문가의 현장 측정값은 개체별로 평균 91%라는 높은 수준의 유사도를 보였다. 이는
제안된 방법론이 0.1 mm 수준의 미세 균열을 탐지하고 정량화하는 데 있어 매우 높은 실용성과 신뢰도를 가짐을 시사한다.
다만, 본 연구에서 확인된 계측 오차의 한계를 고려할 때, 드론 이미지 기반 AI 분석의 성능을 더욱 엄밀하게 검증하기 위해서는 새로운 기준 자료
설정 방식이 요구된다. 향후 연구에서는 현장 수동 측정값을 대체하여, 고성능 카메라로 초고해상도 정사영상을 구축하고, 이를 기반으로 전문가가 정교하게
벡터링한 데이터를 기준으로 AI 모델의 성능을 평가할 필요가 있다.
Fig. 6 Crack vectors on the A1 and P1 used for recall evaluation
Fig. 7 Difficulty in manually measuring the true length of a crack
Fig. 8 Typical measurement errors: (a) Undetected micro-crack, (b) Complex branching
crack
Table 2 Vector-based precision analysis of crack segmentation results
|
Member
|
A1
|
P1 Front
|
Sum
|
|
TP
|
7.28m
|
87%
|
6.99m
|
93%
|
14.27m
|
90%
|
|
FP 1
|
0.84m
|
10%
|
0.53m
|
7%
|
1.37m
|
9%
|
|
FP 2
|
0.22m
|
3%
|
-
|
-
|
0.22m
|
1%
|
|
Sum
|
8.34m
|
100%
|
7.52m
|
100%
|
15.86m
|
100%
|
Table 3 Comparison between GT and estimated crack lengths
|
Num.
|
GT
(cm)
|
Est.
(cm)
|
Error
(cm)
|
Sim.
(cm)
|
Num.
|
GT
(cm)
|
Est.
(cm)
|
Error
(cm)
|
Sim.
(cm)
|
|
1
|
109.4
|
112.6
|
-3.2
|
97%
|
10
|
39.4
|
45.7
|
-6.3
|
84%
|
|
2
|
95.9
|
102.7
|
-6.8
|
93%
|
11
|
102.7
|
120.6
|
-17.9
|
83%
|
|
3
|
69.5
|
60.9
|
8.6
|
88%
|
12
|
209.5
|
208.3
|
1.2
|
99%
|
|
4
|
63.7
|
64.2
|
-0.5
|
99%
|
13
|
80.3
|
87.8
|
-7.5
|
91%
|
|
5
|
15.1
|
12.5
|
2.6
|
83%
|
14
|
28.0
|
23.1
|
4.9
|
83%
|
|
6
|
51.4
|
52.1
|
-0.7
|
99%
|
15
|
188.7
|
213.4
|
-24.7
|
87%
|
|
7
|
50.4
|
51.5
|
-1.1
|
98%
|
16
|
63.8
|
56.9
|
6.9
|
89%
|
|
8
|
87.8
|
86.4
|
1.4
|
98%
|
17
|
261.4
|
289.0
|
-27.6
|
89%
|
|
9
|
230.0
|
216.3
|
13.7
|
94%
|
18
|
122.0
|
107.4
|
14.6
|
88%
|
5.2 균열 폭 측정 정확도 분석
본 연구에서 제안한 균열 폭 측정 방법의 정확도를 검증하기 위해, Fig. 9와 같이 현장에서 균열 게이지로 측정한 24개 지점의 실측값(GT)과 영상 기반 추정값(Est.)을 비교 분석하였다.
또한, 제안된 방법의 추정 결과를 시각적으로 보여주고자Fig. 10에 대표적인 측정 사례를 제시하였다. 해당 그림은 실측값 0.30 mm 및 0.50 mm 균열에 대한 영상 기반 추정 결과를 보여주며, 정량적 비교를
통해 제안된 방법의 높은 정확도를 직관적으로 확인할 수 있다. 전체 24개 측정 지점에 대한 상세 비교 결과는 Table 4와 같다.
Table 4에 나타난 바와 같이, 영상 기반 추정값은 실측값과 매우 높은 수준의 일치도를 보였다. 전체 24개 측정 지점의 평균 오차는 0.0175 mm로 매우
낮게 분석되었으며, 이는 제안된 방법의 높은 정밀도를 시사한다. 오차의 범위는 0 mm에서 최대 0.1 mm(측정 지점 5)로 나타났다. 특히 전체
측정 지점의 25%에 해당하는 6개 지점에서는 오차가 발생하지 않아, 제안된 방법의 높은 재현성을 확인하였다.
다만, 영상 기반 측정 방식의 기술적 특성상, 균열 폭은 실측값보다 다소 과대 측정되는 경향을 보일 수 있다. 이는 균열과 같은 미세 객체의 경계가
디지털 이미지의 불연속적인 픽셀 단위로 표현될 때 발생하는 필연적인 오차에 일부 기인한다. 또한, 렌즈와 센서의 광학적 특성으로 인해 발생하는 경계부의
블러(blur) 현상은 균열의 가장자리를 불분명하게 만들어, 폭 측정 알고리즘이 실제 경계보다 넓은 영역을 균열로 인식하게 하는 요인으로 작용할 수
있다. Table 4에서 일부 추정값(e.g., 2, 3, 6, 14, 16번 등)이 실측값을 미세하게 상회하는 결과는 이러한 현상에 의한 것으로 해석할 수 있다.
이상의 결과를 통해, 초해상화가 적용된 정사영상을 활용한 균열 폭 측정 기법은 약간의 과대 측정 경향을 포함할 수 있으나, 그 오차가 매우 작아 실측값에
매우 근사한 결과를 도출함을 확인하였다. 따라서 본 기법은 현장 적용성이 높으며, 향후 자동화된 안전 진단 시스템에 효과적으로 활용될 수 있을 것으로
기대된다.
Fig. 9 Acquisition of ground truth through on-site crack width measurements
Fig. 10 Examples of the image-based crack width estimation: (a) a crack with a width
of 0.3 mm and (b) a crack with a width of 0.5 mm
Table 4 Comparison between GT and estimated crack widths
|
Num.
|
GT
(mm)
|
Est.
(mm)
|
Error
(mm)
|
Error rate
|
Num.
|
GT
(mm)
|
Est.
(mm)
|
Error
(mm)
|
Error rate
|
|
1
|
0.1
|
0.1
|
0
|
0%
|
13
|
0.3
|
0.29
|
0.01
|
3%
|
|
2
|
0.1
|
0.12
|
0.02
|
20%
|
14
|
0.3
|
0.31
|
0.01
|
3%
|
|
3
|
0.1
|
0.12
|
0.02
|
20%
|
15
|
0.3
|
0.29
|
0.01
|
3%
|
|
4
|
0.1
|
0.1
|
0
|
0%
|
16
|
0.4
|
0.42
|
0.02
|
5%
|
|
5
|
0.1
|
0.2
|
0.10
|
100%
|
17
|
0.4
|
0.42
|
0.02
|
5%
|
|
6
|
0.1
|
0.12
|
0.02
|
20%
|
18
|
0.4
|
0.42
|
0.02
|
5%
|
|
7
|
0.2
|
0.2
|
0
|
0%
|
19
|
0.5
|
0.52
|
0.02
|
4%
|
|
8
|
0.2
|
0.2
|
0
|
0%
|
20
|
0.5
|
0.48
|
0.02
|
4%
|
|
9
|
0.2
|
0.2
|
0
|
0%
|
21
|
0.5
|
0.48
|
0.02
|
4%
|
|
10
|
0.2
|
0.2
|
0
|
0%
|
22
|
0.5
|
0.52
|
0.02
|
4%
|
|
11
|
0.3
|
0.31
|
0.01
|
3%
|
23
|
0.55
|
0.52
|
0.03
|
5%
|
|
12
|
0.3
|
0.29
|
0.01
|
3%
|
24
|
0.6
|
0.62
|
0.02
|
3%
|
5.3 외관조사망도 제작
외관조사망도는 구조물의 도면을 바탕으로 손상의 위치, 유형, 규모를 나타내는 범례 및 손상물량표를 포함하는 핵심 성과품이다. 본 연구에서는 기존의
2D 도면 기반 방식에서 더 나아가, 정사영상, 정량화된 균열 벡터, 그리고 손상물량표를 통합한 디지털 외관조사망도를 제작하였다. 본 디지털 외관조사망도는
0.1 mm 단위로 균열 폭을 정량화할 수 있는 본 연구의 강점에 따라, 범례를 동일한 해상도로 세분화하여 손상 상태에 대한 상세한 정보를 제공할
수 있다.
제작된 정사영상 기반의 외관조사망도는 실무 적용에 있어 높은 잠재력을 가지나, 기존 설계 도면과의 통합을 위해서는 기술적 고려사항이 존재한다. 만약
기존 도면을 기본도로 활용할 경우, 정사영상과 도면 간의 좌표계를 일치시키기 위한 자동 정합 또는 지오레퍼런싱 기능이 필요할 것으로 보인다. 그러나
별도의 기본 도면이 없는 경우에도, 고해상도 정사영상 자체가 직관적인 시각 정보를 제공하는 배경이 되므로 손상의 정확한 위치와 규모를 파악하는 데
문제가 없다(Fig. 11). 따라서 본 연구에서 제안하는 디지털 외관조사망도 제작 방식은 즉각적인 실무 적용이 가능한 높은 활용성을 갖는다.
Fig. 11 Facade orthomosaic-based exterior damage map of the abutment
6. 결 론
본 연구에서는 드론 이미지로부터 생성한 교량의 입면 정사영상을 기반으로 0.1 mm 수준의 미세 균열을 정량적으로 분석하고, 최종적으로 디지털 외관조사망도를
자동으로 생성하는 통합 워크플로우를 제안하고 그 실효성을 검증하였다.
연구의 기반이 되는 정사영상은 교량 하부와 같이 GPS 신호가 불안정한 환경에서도 높은 축척 정확도(RMSE: 0.826 cm)로 생성하였다. 이를
바탕으로, 현장 전문가의 측정값을 기준으로 AI 모델의 정량적 성능을 평가한 결과, 전체 균열 탐지에서 90%의 높은 정밀도를 보였다. 또한, 전문가가
직접 측정한 균열 길이와 비교 시 개별 균열 단위로 평균 91%의 높은 유사도를 나타냈으며, 균열자를 이용한 정밀 실측값대비 균열 폭 측정 오차는
평균 0.0175 mm에 불과했다. 이러한 결과는 제안된 방법론이 0.1 mm급 미세 균열에 대한 정량적 분석을 매우 높은 신뢰도로 수행할 수 있음을
입증한다.
나아가 본 연구는 탐지 및 분석된 모든 균열 정보를 정사영상 기반의 도면에 통합하여, 기존의 수기 외관조사망도를 대체할 수 있는 디지털 외관조사망도를
제작하였다. 이는 현장 점검자의 수작업을 최소화하고 분석 결과의 일관성과 객관성을 확보하여 높은 실무 활용성을 확보하였다.
결론적으로 본 연구는 드론과 딥러닝 기술이 단순 탐지를 넘어, 신뢰도 높은 정량 데이터 생산과 최종 성과물 자동 생성까지 가능하다는 것을 실증적으로
보여주었다. 다만, 재현율 평가에 사용된 현장 수동 계측값의 내재적 오차를 고려할 때, 향후에는 고해상도 이미지를 기반으로 정교하게 구축된 벡터 데이터를
기준으로 모델의 성능을 검증하는 연구가 필요하다. 본 연구의 성과는 향후 자동화된 시설물 안전 진단 시스템의 고도화에 기여할 수 있을 것으로 기대된다.
감사의 글
본 연구는 국토교통부/국토교통과학기술진흥원의 연구비 지원사업(기반시설 첨단관리기술개발, RS-2022-00142566)에 의해 수행되었습니다.
References
Cheng, B., Misra, I., Schwing, A. G., Kirillov, A., and Girdhar, R. (2022), Masked-attention
mask transformer for universal image segmentation, Proceedings of the IEEE/CVF conference
on computer vision and pattern recognition, 1290-1299.

Dorafshan, S., and Maguire, M. (2018), Bridge inspection: Human performance, unmanned
aerial systems and automation, Journal of Civil Structural Health Monitoring, 8(3),
443-476.

Mora-Félix, Z. D., et al. (2024), Performance and precision analysis of 3D surface
modeling through UAVs, Physica Scripta, 99(3), 035017.

Jang, D. H., Park, H. S., and Jeon, E. I, (2025), Exploring the Potential of Super-Resolution
for Crack Analysis in UAV Facade Orthomosaics of Small Bridges, UAV-g 2025, Espoo
10-12 Sep 2025. The International Archives of the Photogrammetry, Remote Sensing and
Spatial Information Sciences.

Jeon, E. I., et al. (2017), Comparative evaluation of commercial softwares in UAV
imagery for cultural heritage recording, Spatial Information Research, 25(5), 701-712.

Jeon, E. I., et al. (2021), Semantic segmentation of seagrass habitat from drone imagery
based on deep learning, Ecological Informatics, 66, 101430.

Jeon, E. I., et al. (2023), Crack detection in concrete using deep learning for underground
facility safety inspection, Journal of Korean Tunnelling and Underground Space Association,
25(6), 555-567.

Jeong, D. M., et al. (2019), Photogrammetric crack detection method in building using
unmanned aerial vehicle, Journal of the Architectural Institute of Korea Structure
& Construction, 35(1), 11-19.

Jeong, E., Seo, J., and Wacker, J. (2020), Literature review and technical survey
on bridge inspection using unmanned aerial vehicles, Journal of Performance of Constructed
Facilities, 34(6), 04020113.

Korea Authority of Land & Infrastructure Safety (2022), Pilot study on the use of
drones in facility safety inspections, Korea Authority of Land & Infrastructure Safety,
OTKCRK221052 (in Korean).

Kim, H., Lee, J., Ahn, E., Cho, S., Shin, M., and Sim, S. H. (2017), Concrete crack
identification using a UAV incorporating hybrid image processing, Sensors, 17(9),
2052.

Koch, C., Georgieva, K., Kasireddy, V., Akinci, B., and Fieguth, P. (2015), A review
on computer vision based defect detection and condition assessment of concrete and
asphalt civil infrastructure, Advanced Engineering Informatics, 29(2), 196-210.

Park, D., Yu, J. I., and You, H. (2023), A research on applicability of drone photogrammetry
for dam safety inspection, Journal of the Korea institute for structural maintenance
and inspection, 27(5), 30-39 (in Korean).

Wang, H., Li, Y., Dang, L. M., Lee, S., and Moon, H. (2021a), Pixel-level tunnel crack
segmentation using a weakly supervised annotation approach, Computers in Industry,
133, 103545.

Wang, X., Xie, L., Dong, C., and Shan, Y. (2021b), Real-esrgan: Training real-world
blind super-resolution with pure synthetic data, Proceedings of the IEEE/CVF international
conference on computer vision, 1905-1914.

Wang, W., Dai, J., Chen, Z., Huang, Z., Li, Z., Zhu, X., Hu, X., Lu, L., Li, H., Wang,
X., and Qiao, Y. (2023), Internimage: Exploring large-scale vision foundation models
with deformable convolutions, Proceedings of the IEEE/CVF conference on computer vision
and pattern recognition, 14408-14419.

Yeum, C. M., and Dyke, S. J. (2015), Vision‐based automated crack detection for bridge
inspection, Computer Aided Civil and Infrastructure Engineering, 30(10), 759-770.

Yuan, J., Ren, Q., Jia, C., Zhang, J., Fu, J., and Li, M. (2024), Automated pixel-level
crack detection and quantification using deep convolutional neural networks for structural
condition assessment, Structures, 59, 105780.

Zhao, S., Kang, F., and Li, J. (2024), Intelligent segmentation method for blurred
cracks and 3D mapping of width nephograms in concrete dams using UAV photogrammetry,
Automation in Construction, 157, 105145.
