Mobile QR Code QR CODE

Journal of the Korea Concrete Institute

J Korea Inst. Struct. Maint. Insp.
  • Indexed by
  • Korea Citation Index (KCI)

  1. 정회원, 한국철도기술연구원 궤도토목본부 첨단인프라융합연구실 실장 책임연구원
  2. 정회원, 한국철도기술연구원 철도교통AX본부 철도인공지능융합연구실 선임연구원
  3. 정회원, 한국철도기술연구원 철도교통AX본부 본부장 수석연구원
  4. 정회원, 주식회사 씨스텍 기술연구소 과장
  5. 정회원, 세종대학교 박사 후 연구원, 교신저자



스마트폰 급속촬영, 디지털 아카이빙, 사고현장 기록, 포인트 클라우드, 정량적 분석, 구조물 변형
Smartphone-based rapid imaging, Digital archiving, Accident site documentation, Point cloud, Quantitative analysis, Structural deformation

1. 서 론

최근 기후 변화로 인해 국지성 집중호우와 같은 극한 기상 현상이 빈번히 발생하면서, 대형 구조물과 철도 인프라의 안전관리에 대한 사회적 관심이 높아지고 있다. 특히 비탈면 붕괴, 옹벽 파손, 교량 기초 세굴과 같은 돌발적 사고는 단시간 내에 큰 피해로 이어질 수 있어, 사고 발생 직후의 현장 기록은 원인 규명과 향후 복구계획 수립을 위해 필수적이다. 그러나 이러한 현장 기록은 긴급 대응 과정에서 종종 간과되거나 불완전하게 이루어지는 한계가 있다.

Fig. 1은 집중호우 이후 철도 비탈면에서 발생한 붕괴 현장을 보여준다. 이러한 사고는 대형 구조물 및 철도 인프라에서 발생할 수 있으며, 현장의 긴급 대응 과정에서는 신속하고 체계적인 기록이 이루어지기 어렵다. 실제로 사고 직후에는 안전 확보와 복구 작업이 최우선시되므로, 현장 상황은 제대로 기록되지 못한 채 빠르게 정리되는 경우가 많다. 이로 인해 사고원인 규명이나 책임 소재 분석에서 중요한 초기 증거가 누락될 수 있다.

Fig. 1. Collapse of a railway slope after heavy rainfall: a case highlighting the need for rapid digital archiving of accident sites.

../../Resources/ksm/jksmi.2025.29.6.39/fig1.png

이러한 급작스러운 사고 상황에서는 드론이나 라이다(LiDAR)와 같은 고가의 계측 장비를 현장에 즉시 투입하기 어렵다. 장비 운반과 설치에는 시간이 소요되고, 기상조건이나 협소한 현장 환경에서 운용이 제한되기 때문이다. 따라서 긴급 상황에서 활용할 수 있는 간편하고 즉각적인 대안이 필요하다.

이에 본 연구는 누구나 보유한 범용 스마트폰을 활용하여 현장을 신속히 촬영하고, 촬영 결과를 기반으로 3차원 포인트 클라우드를 생성하여 기록⋅보존⋅분석할 수 있는 절차를 제안한다. 이러한 접근은 초기 사고 상황을 객관적으로 디지털 아카이빙화하여 저장함으로써, 이후의 원인 규명, 책임분석, 복구계획 수립에 중요한 근거자료를 제공할 수 있다.

생성된 포인트 클라우드는 단순한 기록을 넘어 다양한 시점에서 구조물의 상태를 분석할 수 있는 기반 자료로 활용될 수 있으며, 이는 최근 활발히 연구되고 있는 3차원 데이터 기반 변화탐지 기법과도 맥락을 같이 한다. 최근 3차원 데이터를 활용한 변화탐지 연구는 도시 모니터링, 토목 인프라 유지관리, 건설 자동화 등 다양한 분야에서 활발히 진행되어 왔다 (Hebel et al., 2013; Gehrung et al., 2020; Tuttas et al., 2017; Huang et al., 2022). 포인트 클라우드는 고밀도의 3차원 기하 정보를 제공할 수 있어 기존의 2차원 영상 기반 변화탐지보다 우수한 대안으로 주목받고 있다. LiDAR, 사진측량, SAR 등 다양한 기술을 통해 포인트 클라우드를 생성할 수 있으며, 이러한 데이터는 도시지역의 건물 변화 (Hebel et al., 2013), 도시 지역 스캐닝 데이터의 변형 탐지 (Gehrung et al., 2020), 실내 BIM 기반 모델 대비 이미지 기반 변화탐지 정확성 평가 (Tuttas et al., 2017), 건설진행관리 (Huang et al., 2022), 식생 모니터링 (Hoegner and Stilla, 2015) 등 여러 분야에서 응용되고 있다.

첫째로, BIM과의 결합 통한 객체, 건설현장의 변화탐지 연구가 활발히 이루어졌다. Tang et al. (2010)은 레이저 스캐닝 포인트 클라우드를 활용하여 as-built BIM을 자동으로 생성하기 위한 관련 기법들을 종합적으로 검토하였다. Bosché et al. (2015)는 Scan-to-BIM과 Scan-vs-BIM 기법을 활용하여 포인트 클라우드와 BIM 모델을 비교함으로써 특히 원통형 기계⋅전기⋅배관(MEP) 요소의 설치 여부를 효과적으로 검출하였다. Tuttas et al. (2017)은 반복적으로 촬영한 이미지를 통해 생성된 포토그래메트릭 포인트 클라우드를 4D BIM과 연계하고, 이들을 연속적으로 정합(co-registration)하여 시공 단계별 변화를 자동으로 모니터링하는 방법을 제안하였다. Kalasapudi et al. (2017)는 포인트 클라우드에서 기계⋅전기⋅배관(MEP) 요소 중 원통형 객체를 자동 인식하고, 이를 기반으로 설치 여부와 변화를 분석하였다. Kim et al. (2013)은 4D BIM과 3D 현장 데이터를 통합하여 시공 단계별 진행 상황을 자동으로 측정⋅검증하는 공정 모니터링 방법을 제안하였다. 또한 Ali et al. (2021)는 XR(Extended Reality) 기술을 활용하여 BIM 모델과 현장 데이터를 실시간으로 통합함으로써, 실내 건설 진행 상황을 원격에서 모니터링할 수 있는 프레임워크를 제안하였다.

둘째로, 지리 공간 분야에서도 다양한 접근이 제안되었다. Jang et al. (2019)은 스테레오 위성영상을 기반으로 도시 Digital Surface Model (DSM) 변화를 탐지하였으며, Ji et al. (2019)은 Convolutional Neural Network (CNN)을 활용하여 대규모 항공영상에서 건물 단위 변화를 탐지하였다. Klomp et al. (2019)은 지적 3차원 모델(LOD2 cadastral 3D models)과 포인트 클라우드를 비교하여 변화탐지를 수행하고, 이를 통해 모델의 확장(extensions)과 텍스처링 개선을 방연을 연구하였다. 최근에는 딥러닝 기반 시맨틱 기법이 활발히 적용되고 있는데, Huang et al. (2022)은 Semantic segmentation (시맨틱 분할)를 활용하여 객체 단위 변화를 검출하였고, Boerner et al. (2019)은 수중 라이다 포인트 클라우드를 이용하여 하천 바닥 지형과 수체 변화를 시맨틱 라벨을 기반으로 탐지하는 방법을 제안했다. Langer et al. (2020)은 Semantic segmentation (시맨틱 분할) 을 활용하여 실내 공간의 전체 맥락(global semantic context)을 이해하고, 이후 local geometric verification (국소 기하 검증) 을 통해 기존 reference map과 비교하여 해당 객체가 새로 등장한 것인지, 단순히 위치만 이동된 것인지, 아니면 사라진 것인지를 구분하는 연구를 수행했다. de Gélis et al. (2021)은 실제 도시 환경에서 다시 촬영된 포인트 클라우드 데이터를 확보하는 데 드는 비용과 제약을 보완하기 위해, 3D 도시 모델을 기반으로 한 시뮬레이션 데이터셋을 구축 활용하여 도시 포인트 클라우드 변화탐지 기법의 성능을 다양한 알고리즘(DSM 차분(differential DSM), Cloud-to-Cloud (C2C), Multiscale Model-to-Model Cloud Comparison (M3C2) 방법뿐 아니라, 랜덤 포레스트(Random Forest) 기반 머신러닝 기법과 Fully Convolutional Network (FCN) 및 시암 네트워크(Siamese Network) 기반 딥러닝 방법)을 활용하여 비교하였다.

마지막으로, 이처럼 기존 연구들은 포인트 클라우드 기반 변화탐지의 가능성과 정밀성을 보여주었으나, 동시에 고가 장비, 복잡한 데이터 처리, 촬영 조건에 따른 불확실성과 같은 한계도 존재한다. 또한, 포인트 클라우드 기반 변화탐지 기술이 주로 도시 및 대규모 영역의 변화에 적용되어 왔고, 구조물에는 적용된 사례가 적다. 최근에는 구조물 유지관리를 위해서 센티미터급 정확도의 구조물의 변화를 탐지하는 연구가 시도되었다 (Ann et al., 2025). 해당 연구에서는 RTK UAV(Real-Time Kinematic Unmanned Aerial Vehicle)를 활용해 2 cm 이상의 변화를 효과적으로 탐지하고, 포인트 클라우드 정합을 통해 깊이 및 부피 추정 오차를 각각 1% 수준으로 줄이는 성과가 보고되었다. 그러나 UAV RTK는 여전히 고가 장비와 숙련자의 경험요구, 구조물과의 충돌위험, 전파간섭 등 한계가 있다.

이에 본 연구는 기존 고정밀⋅고비용 접근의 한계를 보완하기 위하여 다음과 같은 차별성(novelty)을 제시한다.

(1) 범용 스마트폰 기반 급속촬영 절차 정립: 고가의 LiDAR나 전용 depth 카메라가 아닌, 누구나 보유한 범용 스마트폰 카메라만으로도 현장에서 즉시 3차원 모델을 생성할 수 있는 절차를 제시한다. 이를 통해 비용 절감과 현장 활용성 확대에 기여한다.

(2) 급속촬영기반 정량적 변화탐지 분석: 본 연구는 급속촬영으로 획득한 영상을 포인트 클라우드로 변환하고, 이를 활용하여 변화 발생 여부를 정성적으로 확인하는 동시에 구조물 변형을 정량적으로 분석할 수 있는 변화탐지 결과를 분석했다.

이와 같이 본 연구는 누구나 접근 가능한 장비와 간단한 절차를 통해 사고현장을 신속히 기록하고, 추가로 구조물 변화를 확인할 수 있는 새로운 방안을 제시함으로써, 긴급 대응이 요구되는 현장 상황에 직접 활용될 가능성을 보여준다.

2. 본 문

2.1 방법론

본 연구에서는 일반 스마트폰을 활용한 급속촬영 영상을 기반으로 포인트 클라우드를 생성한 후, 오픈 소스 소프트웨어인 CloudCompare를 이용하여 변화탐지를 수행하였다. CloudCompare는 다양한 3차원 데이터 처리와 분석 기능을 제공하는 도구로, 특히 두 시점의 포인트 클라우드를 비교하는 Cloud-to-Cloud(C2C) 거리 계산 기법을 지원한다. C2C는 각 점에 대해 최근접 점을 탐색하여 거리를 산정하는 방식으로, 변화 발생 여부와 영역을 직관적으로 파악할 수 있는 장점이 있다. 본 연구에서는 이러한 C2C 기법을 활용하여 포인트 클라우드 상의 변화를 옹벽 구조물 대상으로 정성적 변화탐지를 수행하였다.

2.1.1 변화탐지

CloudCompare에서는 대표적으로 두 가지 변화탐지 방법을 제공한다 (Fig. 2): Cloud-to-Cloud (C2C)와 Cloud-to-Mesh (C2M)이 있다. C2C는 두 개의 포인트 클라우드 간 최근접점(nearest neighbor)을 탐색하여 점-점 거리를 계산하는 방식이다. 계산 과정이 단순하고 직관적이지만, 점밀도가 낮거나 불균질할 경우 실제 형상 차이를 과대평가 할 수 있다. C2M은 하나의 데이터를 메시(mesh)로 유지하고, 다른 데이터를 포인트 클라우드로 변환한 뒤 점에서 메시까지의 수직 거리(perpendicular distance)를 계산하는 방식이다. 이 경우 항상 최단 거리가 계산되므로 C2C보다 편차가 작게 나타나는 경향이 있다. 본 연구에서는 두 방법 중 C2C 방식을 적용하였다. 이는 연구 대상 데이터가 모두 포인트 클라우드 형태로 생성되었기 때문에 추가적인 메시 변환 과정을 거치지 않고도 효율적으로 변화탐지를 수행할 수 있었다. Fig. 2는 C2C와 C2M의 기하학적 차이를 개념적으로 보여준다 (Marcel et al., 2020).

Fig. 2. Different measurement methods: cloud-to-cloud vs cloud-to-mesh (Marcel et al., 2020).

../../Resources/ksm/jksmi.2025.29.6.39/fig2.png

점-점 거리 계산(C2C)은 점밀도가 낮을수록 실제 형상 차이보다 크게 나타날 수 있지만, 점-메시 거리 계산(C2M)은 항상 수직 거리로 계산되기 때문에 더 작은 편차를 나타낸다. 그러나 점밀도가 높아질수록 두 방식은 동일한 결과에 수렴한다.

Fig. 3은 본 연구에서 수행한 휴대폰 기반 급속촬영 및 변화탐지 과정을 나타낸 것이다. (a)와 (c)는 변화 발생 전⋅후의 실제 장면을 촬영한 동영상이며, (b)와 (d)는 이를 기반으로 생성된 포인트 클라우드이다. 이후 서로 다른 두 시점의 포인트 클라우드를 Cloud-to-Cloud(C2C) 방식으로 비교하여 (e)와 같이 변화 영역을 시각적으로 표현하였다. 색상 분포는 거리 차이를 나타내며, 값이 큰 영역일수록 변화가 발생한 부분임을 의미한다.

Fig. 3. Conceptual diagram of change detection: (rapid imaging before and after change, point cloud generation, and C2C-based comparison).

../../Resources/ksm/jksmi.2025.29.6.39/fig3.png

다만, 본 연구에서 제안한 스마트폰 기반 급속촬영 절차는 사용자가 직접 이동하며 영상을 취득하는 방식이므로, 사람이 접근하기 어려운 급경사 지형이나 구조물 상부 등에서는 적용에 제약이 따를 수 있다. 특히 사고현장의 범위가 넓거나 접근이 제한된 구간에서는 촬영자의 이동 동선 확보가 어려워 영상 중첩률 유지 및 포인트 클라우드 품질 확보에 한계가 발생할 수 있다. 따라서 본 방법론은 비교적 접근이 용이한 구간의 신속한 현장 기록 및 변화탐지에 우선적으로 적용하는 것이 적절하며, 향후에는 휴대용 스테디캠, 확장형 폴 카메라, 웨어러블 영상 촬영 장비 등과의 연계를 통해 현장 접근성이 낮은 구간에서도 활용할 수 있도록 보완할 필요가 있다.

2.1.2 일반 스마트폰을 활용한 급속 촬영방법

포토그래메트리는 다수의 중첩(overlap) 영상을 획득한 후, 영상 간 특징점을 매칭하여 3차원 좌표를 추정하는 원리에 기반한다. 이를 통해 대상 구조물이나 지형의 3차원 모델을 생성할 수 있으며, 항공 Fig. 4(a) 및 지상 Fig. 4(b) 촬영 방식으로 구분된다. Fig. 4는 두 방식의 촬영 겹침 요건을 보여준다 (Hristov et al., 2020). 항공 사진측량 Fig. 4(a)는 드론을 전진 경로로 이동시키며 일정한 중첩률(약 80%)을 확보하는 방식이고, 지상 사진측량 Fig. 4(b)는 대상물을 중심으로 원형 궤적을 따라 촬영하여 다각도의 영상을 확보한다. 그러나 대형 구조물/사고현장의 경우 일반 스마트폰 사용자가 구조물 주위를 직접 회전하며 전체를 촬영하기는 어렵다. 이에 본 연구에서는 항공 사진 측량과 유사한 방식 Fig. 4(a)을 채택하였다. 즉, 스마트폰을 이용하여 전진 경로를 따라 일정한 중첩률을 확보하며 연속 촬영하는 급속촬영 절차를 사용하였으며, 이를 통해 현장에서 신속한 3차원 모델생성을 가능하게 하였다.

Fig. 4. Requirements for image overlap in photogrammetry (Hristov et al., 2020).

../../Resources/ksm/jksmi.2025.29.6.39/fig4.png

2.2 실험

2.2.1 실험장소

본 연구의 실험은 충청북도 청원군과 세종특별자치시 경계 부근에 있는 오송 시험 철도 구간에서 수행되었다. 해당 구간은 3번 터널과 4번 터널 사이에 위치하며 옹벽과 비탈면이 포함되어 있다 (Fig. 5(a)). 이 옹벽과 비탈면은 철도선로와 인접해 있으며, 실제 열차가 통과하는 구간이다. Fig. 5(b)는 현장의 실제 모습을 나타낸 것으로, 터널 출구 부와 연결된 비탈면이 선로 옆에 있음을 확인할 수 있다. 이러한 철도 현장은 옹벽과 같은 대형 구조물과 더불어 흔히 관찰되는 대상이며, 휴대폰 카메라 촬영의 현장 적용성을 검증하기에 적합하다고 판단하여 선정하였다.

Fig. 5. Osong railway, Section 3 tunnel endpoint

../../Resources/ksm/jksmi.2025.29.6.39/fig5.png

2.2.2 실험 조건

본 연구의 실험은 오송 철도 3터널 말단부의 옹벽 및 비탈면 구간을 대상으로 수행되었으며, 실험 조건은 Table 1에 요약하였다.

Table 1. Experimental conditions for smartphone-based rapid image acquisition.

Category Details
Target Osong railway, Section 3 tunnel endpoint (retaining wall)
Equipment Apple iPhone 15
Shooting method Smartphone video recording, 1× zoom
Resolution 1080 × 1920
Frame rate 59.94 FPS
Video length 90 seconds
Lens focal length (f) 26mm
Aperture f/1.6
Walking speed Approximately 0.8–1.0 m/s (side-stepping along the structure at a constant pace)
Frame extraction interval 1 frame per second (1 FPS)
Image overlapping Approximately 70–80 % overlap between consecutive frames
Stabilization (EIS/OIS) Disabled
ISO / Shutter setting Auto exposure mode used (manual ISO and shutter speed not applied for video recording)
Sooting distance 8–9m from the structure

촬영 장비로는 Apple iPhone 15를 사용하였으며, 별도의 전용 센서나 장비 없이 범용 스마트폰만으로 데이터 취득이 가능함을 확인하였다. 촬영 방식은 스마트폰 동영상 촬영(1× 줌 고정)으로, 1080 × 1920 해상도와 59.94 FPS의 프레임 속도를 유지하였다. 촬영 시간은 약 90초였으며, 이 과정에서 26 mm 초점거리 렌즈와 f/1.6 조리갯값이 적용되었다.

촬영은 구조물로부터 약 8–9 m 거리(레이저 미터계로 측정)에서 수행되었으며, 이는 대상 비탈면 및 옹벽 전경을 동시에 확보하기 위한 조건이다. 이러한 세부 설정은 고가 장비가 아닌 범용 스마트폰만으로도 현장에서 신속한 3차원 모델생성 및 변화탐지 실험을 수행할 수 있음을 보여준다.

Fig. 6(a)와 (b)는 옹벽 변형 유형을 모사한 개념도와 예시를 나타낸 것이다. 일반적으로 옹벽의 대표적인 변형은 기울어짐(tilting)과 배부름(bulging)으로 구분된다. 기울어짐은 옹벽 전체가 외측으로 회전하며 기울어지는 형태의 변형이며, 배부름은 국부적인 구간에서 벽체가 불룩하게 돌출되는 변형을 의미한다. 본 연구에서는 이러한 변형 유형을 단순화하여 개념적으로 모사하였으며, Fig. 6(c)Fig. 6(d)는 각각 기울어짐(T1–T4)과 배부름 (B1–B4)을 검출하기 위한 마커 배치를 예시적으로 제시한 것이다. 이와 같은 실험은 발생 가능한 변형을 모사하고, 스마트폰 기반 급속촬영 기법이 정성적/정량적 변화탐지에 적용될 수 있음을 설명하기 위한 목적을 가진다.

Fig. 6. Retaining wall deformation

../../Resources/ksm/jksmi.2025.29.6.39/fig6.png

앞서 제시한 Fig. 6가 옹벽 변형 위치와 개념 설명한 것이라면, Fig. 7은 동일한 변형을 구체적인 수치 조건에 따라 모사한 그림이다. Tilting의 경우, 높이 60 cm, 폭 40 cm, 하단 간격 21 cm 조건에서 1.9°부터 4.8°까지 단계적 회전각을 부여하였다. Bulging의 경우, 높이 30 cm 구간을 대상으로 2 cm에서 최대 8cm까지 전방 변위를 점진적으로 적용하였다. 이러한 수치화된 모사는 실제 현장에서 발생 가능한 변형 크기를 단계적으로 재현하기 위한 것으로, 이후 촬영 및 모델링 실험에 직접 활용되었다.

Fig. 7. Detailed conditions of tilting and bulging.

../../Resources/ksm/jksmi.2025.29.6.39/fig7.png

2.2.3 일반 스마트폰을 활용한 옹벽 급속촬영 방법 비교

본 연구에서는 스마트폰을 활용한 급속촬영 기법을 두 가지 방식으로 구분하여 적용하였다. 첫 번째는 촬영자가 제자리에서 스마트폰을 회전시키며 촬영하는 회전 촬영 방식(rotational shooting method)이며, 두 번째는 촬영자가 일정한 경로를 따라 이동하면서 촬영하는 전진 촬영 방식(translational shooting method)이다.

Fig. 8은 스마트폰 회전 촬영 방식의 특징을 보여준다. Fig. 8(a)는 촬영자가 제자리에서 스마트폰을 회전시키며 구조물을 촬영하는 카메라 위치를 나타내며, Fig. 8(b)는 이에 따라 생성된 포인트 클라우드를 보여준다. 이와 같은 회전 촬영 방식은 구조물의 다양한 각도를 확보할 수 있는 장점이 있으나, 촬영자의 위치와 가까운 영역에 촬영 밀도가 집중된다. 따라서 포인트 클라우드는 주로 근접한 부분에만 형성되고, 원거리 영역은 데이터가 부족하게 되는 한계가 존재한다.

Fig. 8. Smartphone video recording 1: Rotational shooting at a fixed position

../../Resources/ksm/jksmi.2025.29.6.39/fig8.png

Fig. 9는 스마트폰을 활용한 전진 촬영 방식(translational shooting method)과 그 결과를 보여준다. Fig. 9(a)는 촬영자가 스마트폰을 이동시키며 구조물을 동영상 촬영하는 카메라 위치를 나타낸 것이다. 이 방식은 항공 사진 측량(aerial photogrammetry)의 개념과 유사하게, 전진 경로를 따라 연속적인 영상 중첩(overlap)을 확보한다. Fig. 9(b)는 전진 촬영 방식을 통해 생성된 포인트 클라우드를 나타낸 것이다. 회전 촬영과 달리 전진 촬영은 구조물 전체에 걸쳐 비교적 균일한 촬영 밀도를 확보할 수 있으며, 이에 따라 포인트 클라우드 구조물 전면을 고르게 재현할 수 있다. 따라서 대형 구조물이나 원거리 영역의 정성적 변화탐지에는 전진 촬영 방식이 더 유리하다.

Fig. 9. Smartphone video recording 2: Translational forward path with overlap.

../../Resources/ksm/jksmi.2025.29.6.39/fig9.png

2.2.4 급속촬영 기반 변화탐지 결과

Fig. 10은 일반 스마트폰 급속촬영을 통해 생성된 포인트 클라우드 상에서 Tilt(T1–T4)와 Bulging(B1–B4)의 위치를 구분하여 표시한 것이다. 붉은색 원으로 표시된 T1–T4는 시험체의 위치를 나타내며, 블록 구간은 B1–B4로 구분된다. 본 연구에서는 이러한 시험체와 블록 구간을 변화탐지 목적으로 C2C distance 계산방법을 통해서 정성적 변화탐지를 수행하였다. 본 포인트 클라우드는 59.94 FPS로 1분 30초 동안 촬영된 영상을 기반으로 하였으며, 총 90장의 프레임을 추출하여 상용프로그램 Pix4dmapper를 사용하여 포인트 클라우드를 생성하였다.

Fig. 10. Point cloud for Tilt and Bulging.

../../Resources/ksm/jksmi.2025.29.6.39/fig10.png

Fig. 11는 두 시점의 포인트 클라우드(변형 전과 변형 후) 간 Cloud-to-Cloud(C2C) 거리 비교 결과를 나타낸 것이다. 즉, 실험체(T1–T4, B1–B4)를 부착하기 전과 부착한 후의 포인트 클라우드를 비교하여 변화가 발생한 영역을 시각적으로 표현하였다. 색상 분포는 거리 차이를 나타내며, 파란색에서 빨간색으로 갈수록 거리 차이가 벌어져 변형이 크게 발생한 부분임을 의미한다. 본 결과는 색상 분포를 통해 시험체(T1–T4) 및 블록(B1–B4) 구간에서 변화 발생 여부를 정성적으로 확인할 수 있다. 이는 급속촬영 기반 change detection의 실용적 가치를 보여주는 사례로, 정밀계측과의 보완적 활용 가능성을 시사한다.

Fig. 11. C2C results showing change detection in Tilt (T1-T4) and Bulging(B1-B4).

../../Resources/ksm/jksmi.2025.29.6.39/fig11.png

Fig. 1213은 시험체(T1–T4)와 블록(B1–B4) 구간을 줌인(zoom-in)하여 나타낸 결과이다. 일반 휴대폰 기반 급속촬영으로 취득한 데이터라 포인트 클라우드가 다소 희소(sparse)하게 분포하지만, 변화가 탐지된 것을 시각적으로 확인할 수 있다.

Fig. 12. Zoom-in views of the point cloud for Tilt.

../../Resources/ksm/jksmi.2025.29.6.39/fig12.png

Fig. 13. Zoom-in views of the point cloud for Bulging.

../../Resources/ksm/jksmi.2025.29.6.39/fig13.png

Table 2는 부착한 시편인 Tilt(T1–T4)와 Bulging(B1–B4)의 실제 치수와 급속촬영 기반 포인트 클라우드로 측정한 결과 및 오차(Mean Absolute Error, MAE)를 비교한 것이다. Dimension은 길이(Length), 높이(Height), 깊이(Depth)로 구분하였으며, 길이와 높이는 CloudCompare의 거리 측정 기능을 통해 산출하였다. 깊이 값은 기준 평면(plane)을 설정한 뒤, 전후 편차의 평균값으로 정의하였다. Tilt의 경우 각도 정보가 제시되어 있으나, 포인트 클라우드가 희소(sparse)하여 기준 평면(plane)의 법선벡터 차이를 계산하여 산출하였다. 또한, 스마트폰에는 절대 스케일 정보가 부재하므로, 옹벽한층의 실제 높이(1.2 m)를 참조하여 전체 모델을 보정하였다.

Tilt 시편(T1–T4)의 경우, 높이(Height) 항목에서 최대 7.4 cm의 오차가 발생하여 상대적으로 정밀도가 낮게 나타났다. 평균 절대오차(MAE)는 길이 5.1 cm, 높이 5.8 cm, 깊이 1.0 cm, 각도 0.75°로 분석되었으며, 이는 경사면 형상 특성상 촬영 각도 및 피사체 거리 변화가 측정 정확도에 영향을 미친 것으로 판단된다.

Table 2. Actual dimensions and point cloud–based measurement errors (with MAE) for Tilt (T1–T4) and Bulging (B1–B4)

Tilt (T1-T4)
Type (LxHxD, Angle) Length (cm) Actual / Measured (Error) Height (cm) Actual / Measured (Error) Depth (cm) Actual / Measured (Error) Angle (°) Actual / Measured (Error)
T1 (40x60x2, Angle:1.91°) 40.0 / 34.7 (5.3) 60.0 / 55.6 (4.3) 2.0 / 3.4 (1.4) 1.91 / 3.60 (1.70)
T2 (40x60x3, Angle:2.87°) 40.0 / 34.6 (5.4) 60.0 / 52.6 (7.4) 3.0 / 4.9 (1.9) 2.87 / 4.80 (1.93)
T3 (40x60x4, Angle:3.82°) 40.0 / 38.3 (4.7) 60.0 / 54.7 (5.3) 4.0 / 4.7 (0.7) 3.82 / 4.56 (0.74)
T4 (40x60x5, Angle:4.78°) 40.0 / 34.9 (5.1) 60.0 / 53.9 (6.1) 5.0 / 4.8 (0.2) 4.78 / 5.40 (0.62)
Mean Absolute Error (MAE) 5.1 5.8 1.0 0.75
Root Mean Square Error (RMSE) 5.1 5.8 1.1 0.83
Mean Absolute Percentage Error (MAPE, %) 13.3 9.8 26.4 21.3
Bulging(B1-B4)
Dimension (LxHxD) Length (cm) Actual / Measured (Error) Height (cm) Actual / Measured (Error) Depth (cm) Actual / Measured (Error) Angle (°) Actual / Measured (Error)
B1 (30x21x2) 21.0 / 18.1 (2.9) 30.0 / 26.2 (3.8) 2.0 / 5.5 (3.5) -
B2 (30x21x4) 21.0 / 19.6 (1.4) 30.0 / 26.2 (3.8) 4.0 / 6.5 (2.5) -
B3 (30x21x6) 21.0 / 19.1 (2.0) 30.0 / 26.3 (3.7) 6.0 / 6.4 (0.4) -
B4 (30x21x8) 21.0 / 17.3 (3.8) 30.0 / 27.3 (2.7) 8.0 / 7.0 (1.0) -
Mean Absolute Error (MAE) — / — (2.53) — / — (3.50) — / — (1.85) -
Root Mean Square Error (RMSE) 2.75 3.53 2.27 -
Mean Absolute Percentage Error (MAPE, %) 12.0 11.7 34.6 -

반면에 Bulging 시편(B1–B4)에서는 길이와 깊이 오차가 평균 2–3 cm 수준, 높이 오차는 약 3.5 cm도, 전반적으로 안정적인 측정결과를 보였다. MAE와 RMSE가 모두 3 cm 내외로 수렴하는 점은, 스마트폰 기반의 급속촬영 방식이 비교적 짧은 촬영 시간에도 불구하고 변화 유형(틸팅⋅배부름)의 정량적 차이를 구분할 수 있음을 의미한다. 또한 MAPE(%) 기준으로 Tilt는 9.8–26.4%, Bulging은 11–35% 수준으로, 절대오차는 작지만 실제 크기가 작은 항목(깊이)에서 상대 오차가 크게 나타났다. 이는 구조물 변형의 크기가 작을수록 상대적 변화율이 커지는 특성을 반영한다.

3. 결 론

본 연구는 범용 스마트폰을 활용한 급속촬영 기반의 3차원 포인트 클라우드 생성을 통해, 긴급사고 현장에서 최소한의 현장 기록과 구조물 변화탐지 가능성을 검증하였다. 스마트폰 기반 급속촬영 절차의 전체 흐름(영상 취득 → 포인트 클라우드 생성 → 변화탐지)은 2.1절에서 단계별로 상세히 기술되어 있다. 드론이나 LiDAR의 사용이 어려운 철도 사고현장을 가정하여, 스마트폰만으로도 기록⋅분석을 수행할 수 있는 절차적 가능성을 확인하였으며, 주요 연구성과는 다음과 같다.

⋅ 일반 스마트폰 급속촬영만으로도 3차원 포인트 클라우드 모델생성이 가능하였으며, 데이터가 희소하고 스케일 정보가 부재했음에도 정성적 변화탐지와 스케일 보정을 통한 정량적 치수 추정이 가능하였다.

⋅ 철도 사고현장 기록과 같은 긴급 상황에서, 최소한의 현장 기록 확보(1차 목적)와 필요 시 정성적/정량적 변화탐지(2차 목적)가 가능함을 보였다.

⋅ 기존의 정밀계측 중심 연구와 달리, 저비용⋅고속 촬영을 통해 현장 대응력 강화에 기여할 수 있음을 보여주었다.

⋅ 촬영 시 걷는 속도(walking pace)와 프레임 추출 방식에 따라 데이터 품질이 달라질 수 있어, 결과의 일관성 확보가 향후 과제이다.

⋅ 추후 연구에서는 아이폰 프로의 depth 카메라나 라이다 장치와 같은 정밀 장비와 비교분석을 통해 정확성 비교하고, 실시간으로 모델을 저장하고 사고원인분석 등에 활용할 수 있도록 스마트폰 애플리케이션(App) 기반 디지털 아카이빙 플랫폼을 구축하는 것이 필요하다.

본 연구에서는 C2C 기반 거리 분석을 통해 변형 영역을 시각적으로 구분하였으나, 별도의 세그멘테이션 알고리즘이 적용되지 않아 변형의 위치⋅면적⋅형상을 자동으로 정량화하기에는 한계가 있었다. 또한, 스마트폰의 RGB 영상만으로는 절대 거리 정보를 확보할 수 없어 옹벽(1.2 m)의 높이를 참조하여 스케일을 부여하였으나, 현장 규모나 접근성에 따라 적용이 어려울 수 있다.

더불어 본 기술의 적용 가능 대상은 비탈면, 옹벽, 및 옹벽 마감재(석재, 블록, 콘크리트 등)로 구분할 수 있으며, 표면 텍스처가 낮거나(저텍스처), 조도가 낮은 환경(야간⋅그늘), 비⋅먼지 등으로 영상 품질이 저하되는 상황에서는 정합 정확도가 떨어질 수 있다. 또한, 인파나 차량 통행이 빈번한 구간, 혹은 안전 확보가 어려운 급경사 및 협소 공간에서는 접근성과 촬영 안정성 측면에서 제약이 존재한다.

따라서, 향후 연구에서는 변형 영역을 자동 분리(segmentation)하여 돌출 깊이와 너비를 정량적으로 계산하는 기법을 도입하고, QR코드형 스케일 마커 또는 IMU/GPS 정보를 활용한 절대 거리 자동 산정 방법론을 추가적으로 연구할 필요가 있다.

감사의 글

한국철도기술연구원 기본사업 '철도 인프라의 극한 강우 대응능력 향상 기술개발(과제번호 : PK2502E1)' 및 '지진⋅폭우 대응 고도화를 위한 디지털 전환(DX) 기술 기반 시뮬레이터 개발, (과제번호 : PK2502E2)'의 지원을 받아 수행되었습니다.

References

1 
Hebel, M., Arens, M., Stilla, U. (2013), Change detection in urban areas by object-based analysis and on-the-fly comparison of multi-view ALS data, ISPRS Journal of Photogrammetry and Remote Sensing, 86, 52-64.DOI
2 
Gehrung, J., Hebel, M., Arens, M., Stilla, U. (2020), Change detection and deformation analysis based on mobile laser scanning data of urban areas, ISPRS Annals of Photogrammetry, Remote Sensing and Spatial Information Sciences, V-2-2020, 703-710.DOI
3 
Huang, R., Xu, Y., Hoegner, L., Stilla, U. (2022), Semantics-aided 3D change detection on construction sites using UAV-based photogrammetric point clouds, Automation in Construction, 134DOI
4 
Hoegner, L., Stilla, U. (2015), Building facade object detection from terrestrial thermal infrared image sequences combining different views, ISPRS Annals of Photogrammetry, Remote Sensing and Spatial Information Sciences, II-3/W5, 55-62.DOI
5 
Tang, P., Huber, D., Akinci, B., Lipman, R., Lytle, A. (2010), Automatic reconstruction of as-built building information models from laser-scanned point clouds: A review of related techniques, Automation in Construction, 19(7), 829-843.DOI
6 
Bosché, F., Ahmed, M., Turkan, Y., Haas, C. T., Haas, R. (2015), The value of integrating Scan-to-BIM and Scan-vs-BIM techniques for construction monitoring using laser scanning and BIM: The case of cylindrical MEP components, Automation in Construction, 49, 201-213.DOI
7 
Tuttas, S., Braun, A., Borrmann, A., Stilla, U. (2017), Acquisition and consecutive registration of photogrammetric point clouds for construction progress monitoring using a 4D BIM, PFG – Journal of Photogrammetry, Remote Sensing and Geoinformation Science, 85(1), 3-15.DOI
8 
Kalasapudi, V. S., Tang, P., Turkan, Y. (2017), Computationally efficient change analysis of piece-wise cylindrical building elements for proactive project control, Automation in Construction, 81, 300-312.DOI
9 
Kim, C., Son, H., Kim, C. (2013), Automated construction progress measurement using a 4D building information model and 3D data, Automation in Construction, 31, 75-82.DOI
10 
Ali, K., Lee, O. J., Lee, D., Park, C. (2021), Remote indoor construction progress monitoring using extended reality, Sustainability, 13(4), 2290DOI
11 
Jang, Y. J., Oh, K. Y., Lee, K. J., Oh, J. H. (2019), A study on urban change detection using D-DSM from stereo satellite data, Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography, 37(5), 389-395.Google Search
12 
Ji, S., Shen, Y., Lu, M., Zhang, Y. (2019), Building instance change detection from large-scale aerial images using convolutional neural networks and simulated samples, Remote Sensing, 11(11), 1343DOI
13 
Klomp, S., Boom, B., van Lankveld, T., Ledoux, H. (2019), Change detection in cadastral 3D models and point clouds and its use for improved texturing, Electronic Imaging, 2019(10), 1-7.Google Search
14 
Boerner, R., Hoegner, L., Stilla, U. (2019), Semantic change detection of river ground points in airborne LiDAR bathymetry data using voxel occupancies, ISPRS Annals of Photogrammetry, Remote Sensing and Spatial Information Sciences, IV-2/W7, 9-15.DOI
15 
Langer, E., Patten, T., Vincze, M. (2020), Robust and efficient object change detection by combining global semantic information and local geometric verification, Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 8453-8460.DOI
16 
de Gélis, I., Lefèvre, S., Corpetti, T. (2021), Change detection in urban point clouds: An experimental comparison with simulated 3D datasets, Remote Sensing, 13(13), 2629DOI
17 
Reymus, M., Hickel, R., Keßler, A. (2020), Accuracy of CAD/CAM-fabricated bite splints: Milling vs 3D printing, Clinical Oral Investigations, 24(12), 4607-4615.DOI
18 
Hristov, G., Dimitrov, I., Stoyanov, T., Ruseva, G. (2020), An overview of the use of unmanned aerial vehicles for precision agriculture, Proceedings of the 2020 International Conference on Biomedical Innovations and Applications (BIA), 137-140.DOI
19 
Ann, H., Yu, Y.-R., Kang, G.-S., Oh, J., Lee, J.-J., Koo, K.-Y. (2025), RTK-Enabled UAV for Structural Health Monitoring Without GCPs, Proceedings of the 13th International Conference on Structural Health Monitoring of Intelligent Infrastructure (SHMII-13)DOI
20 
Marcel, P. (2020), Accuracy of CAD/CAM-fabricated bite splints: milling vs 3D printing, Clinical oral investigations, 24(12), 4607-4615.DOI