Mobile QR Code QR CODE

Journal of the Korea Concrete Institute

J Korea Inst. Struct. Maint. Insp.
  • Indexed by
  • Korea Citation Index (KCI)

  1. 정회원, 주식회사 씨스텍 기술연구소 과장
  2. 정회원, 한국철도기술연구원 철도교통AX본부 철도인공지능융합연구실 선임연구원
  3. 정회원, 한국철도기술연구원 철도교통AX본부 본부장 수석연구원
  4. 정회원, 세종대학교 건설환경공학과 박사후연구원, 교신저자



Digital Twin, Smart Maintenance, 3D Modeling, Railway Slope, Cloud Platform
디지털 트윈, 스마트 유지관리, 철도 비탈면, 3차원 모델링, 클라우드 플랫폼

1. 서 론

철도 인프라는 국가 교통체계의 핵심 요소로서, 그 안전성 확보는 공공의 생명과 재산 보호와 직결된다. 특히 철도 노선 주변의 비탈면은 토사 유실, 침하, 사면 붕괴 등 다양한 불안정을 유발하여 열차 운행 지연과 중대한 사고로 이어질 수 있다. 기후 변화로 인한 집중호우, 동결–융해의 반복, 지반 약화와 같은 외부 환경 요인은 이러한 위험을 가속화시키며, 이에 따라 철도 비탈면의 체계적이고 정밀한 관리의 필요성이 점점 더 강조되고 있다.

현행 점검 체계는 「철도건설법」, 「시설물안전법」, 「급경사지법」에 근거하여 ‘계획 → 현장 조사⋅사진촬영 → 비탈면 종별 점검표 작성 → 판정⋅보고’의 형식으로 운영된다. 그러나 점검자의 주관성, 반복되는 인력⋅비용 부담, 수집 자료의 표준화와 이력 관리 미흡 등 구조적 한계가 지적되고 있다. 특히 2018년 법령 개정으로 모든 철도 비탈면에 대해 정기점검⋅정밀진단⋅성능평가가 의무화되면서 관리 대상은 급격히 증가하였고, 기존 수작업 중심의 관리 방식으로는 이를 효과적으로 대응하기 어려운 상황이다.

이러한 배경 속에서 배경 속에서 디지털 트윈(Digital Twin) 기술이 새로운 패러다임으로 주목받고 있다. 정보통신기획평가원(IITP)에 의하면 디지털 트윈은 5단계로 구분된다. 1 단계는 물리 대상을 디지털로 복제, 2 단계는 디지털 트윈 기반 모니터링 및 관계 분석을 통한 제어, 3 단계는 디지털 트윈 시뮬레이션 결과를 적용한 물리 대상 최적화, 4 단계는 최적화된 개별 물리 대상 간 상호 연계를 통한 복합 디지털 트윈 재구성 및 운영 최적화, 마지막으로 5 단계는 개별 및 복합 디지털 트윈의 자율적 문제 인지 및 해결을 통한 물리 대상의 지속적 최적화 단계이다(Jeong, 2020).

이러한 디지털 트윈 기반 유지관리 기술은 시설물의 전 생애주기 관리에 큰 혁신을 가져오고 있다. 최근에는 무인항공기, 3D 모델링, 인공지능 분석 등을 결합한 디지털 트윈 기반 인프라 관리 연구가 활발히 이루어지고 있다. 선행 연구들을 분석해본 결과, 디지털 트윈 모델을 생성하기 위한 기초 자료인 고품질 3D 모델을 생성하는 연구(Liu et al., 2020; Yoon et al., 2024; Tang et al., 2023; Pan et al., 2019; Khaloo et al., 2018; 2018; Ridolfi et al., 2017), IoT 센서를 연계하여 디지털 트윈 모델을 생성하는 연구(Piciullo et al., 2025; Armijo et al., 2024; Hielscher et al., 2023; Fawad et al., 2025; Shim et al., 2019), 무인항공기로부터 취득한 2D 영상을 토대로 인공지능 기반 손상 탐지를 수행하여 가시화시키는 연구(Lyu et al., 2025; Ni et al., 2024; Lin et al., 2025; Zhao et al., 2022; von Benzon et al., 2025)가 주로 수행되었으며, 교량에서는 위 언급한 모든 연구를 통합하여 디지털 트윈 3단계 수준까지 발전하였다. 반면, 철도 시설물의 경우 철도 궤도 및 터널에 현재 IoT 센서 설치 및 이를 통한 모니터링을 수행하고 있으나, 철도 비탈면의 경우 IoT 센서가 설치되어 있지 않아 3단계 이상의 디지털 트윈 모델을 구축하기에는 한계가 존재한다.

이에 본 연구에서는 폭발적으로 증가한 철도 비탈면 점검 수요에 대응하고 현재 비탈면 관리 체계를 고려하여 디지털 트윈 모델 기반 유지관리 시스템인 CSMS(Cut Slope Management System) 플랫폼을 제안한다. 제안하는 디지털 트윈은 IITP 기준 2단계 수준의 관제형 시스템으로, 실시간 센서 연계가 어려운 철도 비탈면 환경에서 UAV 기반 주기적 데이터 취득, 정밀 3D 모델링, 법정 점검 항목 자동 분석 및 보고서 생성까지의 전 과정을 지원한다. 즉, 본 시스템은 실시간 센서 데이터 확보가 어려운 철도 비탈면 환경에 적합한 관제형 디지털 트윈 기반 유지관리 플랫폼이다. 기존 시스템이 수기 중심의 자료 보관에 머무르는 반면, 본 연구에서 제안하는 플랫폼은 UAV로 취득한 영상을 기반으로 SfM(Structure from Motion)과 MVS(Multi-View Stereo) 기법(Schonberger et al., 2016)을 적용하여 정밀 3D 모델을 생성한다. 여기에 더해, 관심 영역 제거 알고리즘(Heo et al., 2022)을 철도 비탈면 환경에 맞게 학습 클래스를 재구성하여 학습하고 이를 적용함으로써, 생성된 3D 모델에서 불필요한 주변 객체를 효과적으로 제거할 수 있도록 하였다. 또한 이러한 정제된 3D 모델을 기반으로 「철도건설법」, 「시설물안전법」, 「급경사지법」에서 요구하는 정기 점검 항목을 직접 수행할 수 있도록 길이⋅각도 측정, 시기별 모델 비교 등 다양한 점검 기능을 개발하였다. 아울러 점검 계획 수립, 데이터 업로드, 3D 모델 기반 점검, 자동 보고서 생성, 클라우드 기반 이력 관리까지 전 과정을 End-to-End로 통합하여 점검 자료의 완전한 디지털화를 구현하였다.

이와 같은 통합 구조를 통해 기존 점검 방식의 비효율성과 주관성을 해소하고, 대규모 철도 비탈면 관리에 실질적으로 적용 가능한 디지털 트윈 기반 안전관리 시스템을 제시하고자 한다.

Table 1 Definition of Digital Twin for each level(IITP)
Level Definition
Level 1 Mirroring Digital Twin
Level 2 Monitoring Digital Twin
Level 3 Modeling&Simulation Digital Twin
Level 4 Federated Digital Twin
Level 5 Autonomous Digital Twin

2. 국내 비탈면 유지관리 시스템

빅데이터와 정보 기반의 플랫폼이 중요성이 확대됨에 따라, 시설물 유지관리를 지원하기 위한 다양한 시스템이 개발되었다. 대표적으로는 시설물통합관리시스템, 기반시설통합관리시스템, 소규모 취약시설 안전관리시스템, 터널 및 교량 관리시스템, 도로관리통합시스템, 일반국도 포장자료관리시스템 등 구축되어 운영되고 있다. 이 가운데 본 논문에서 목적으로 하는 시설물(철도 비탈면)과 관련하여 비탈면 유지관리 통합 시스템이 존재한다.

해당 시스템은 초기에는 한국건설기술연구원이 개발하여 운영하였으나, 2015년 이후로 국토안전관리원이 운영업무를 위임받아 운영하고 있다. 이 시스템은 전국 도로 비탈면의 현황을 체계적으로 관리하고, 위험도를 평가하여 유지관리의 우선순위를 설정하는 것을 주요 목표로 한다. 구체적인 기능은 다음과 같다. 비탈면 유지관리 시스템에서는 점검기관에서 수행한 점검 결과를 토대로 플랫폼 내에 점검 보고서의 입력 및 관리할 수 있는 기능을 제공한다. 점검 기관은 보고서 등록 시 기본정보 및 개요부터 비탈면 현황, 적용 공법 및 필요 공법, 총평 등에 대한 내용을 작성할 수 있으며, 이를 토대로 모든 데이터는 DB화되어 관리된다. 이와 같이 제출된 보고서는 시스템상에서 관리주체가 이에 대한 검토의견을 남길 수 있어 즉각적인 피드백이 수행되도록 하여 양식의 통일성 부재, 검토 과정에 발생하는 불필요한 시간 소요를 방지하고 효율적인 관리 업무를 수행할 수 있도록 지원한다. 뿐만 아니라 실시설계 요청, 기초조사 및 정밀조사 요청 등의 기능을 제공하여 데이터베이스 관리뿐만 아니라 점검 기관과의 효율적인 소통 창구로써 활용이 가능하다는 장점이 존재한다. 비탈면 통합 관리시스템은 국내 도로 인프라의 안전 관리 체계에서 핵심적인 역할을 수행하고 있다.

그러나 현재 시스템은 도로 비탈면을 중심으로 설계⋅운영되고 있어, 철도 비탈면은 관리 대상에서 제외되어 있다는 점에서 한계가 존재한다. 더불어, 현재 도로 비탈면 유지관리 시스템에서 기존 점검 정보는 주로 점검자의 육안 조사 결과와 2차원 이미지 또는 텍스트 형태의 기록에 의존하고 있어, 점검자의 주관적 판단에 따른 편차가 발생할 수 있고, 변형이나 손상 발생 과정을 장기적으로 추적⋅분석하기에도 한계가 있다. 이러한 특성은 단발적 점검이나 사후 대응에는 유용할 수 있으나, 장기적 이력 관리, 예방적 유지관리, 그리고 스마트 기술 기반의 선제적 안전관리 체계로 발전하기에는 한계가 있어 추가적인 기능 개발이 필요시 되는 실정이다.

3. 디지털 트윈 기반 비탈면 유지관리 플랫폼

3.1 시스템 아키텍쳐

본 논문에서 제안한 디지털 트윈 기반 비탈면 유지관리 플랫폼의 아키텍쳐는 Fig. 1과 같다. 해당 플랫폼은 데이터를 업로드하는 Input Layer, 업로드된 데이터를 토대로 3D 모델을 생성하고 분석하는 Processing Layer, 산출된 정보를 토대로 보고서를 생성할 수 있는 Output Layer, 마지막으로 데이터를 관리할 수 있는 Cloud Layer로 구성된다. 제안한 플랫폼은 파이썬 웹 프레임워크인 Django, 데이터베이스 관리를 위해 PostgreSQL, 포함된 각종 어플리케이션의 작동을 위한 Docker, 유저 인터페이스 설계를 위해 JavaScript 프레임워크인 Vue.js를 토대로 개발되었다.

1) Input Layer – Input Layer는 드론이나 휴대폰을 활용해 취득한 영상 데이터를 플랫폼에 업로드한다. 영상은 동영상 및 정지 이미지를 모두 지원하며, 동영상으로 업로드한 경우 사용자가 설정한 FPS(frame per second)에 따라 자동으로 프레임이 추출되어 정지 이미지 형태로 변환⋅저장된다. 또한 데이터 업로드 과정에서 촬영 위치 정보(GPS), 등이 메타데이터로 함께 저장되어 이후 Processing Layer에서의 정확한 3D 재구성에 기여한다.

2) Processing Layer – Processing Layer는 업로드된 영상 데이터를 기반으로 COLMAP에서 제공하는 SfM과 MVS기법과 추가적으로 인공지능 기반 관심 객체 외 제거 알고리즘을 적용하여 경량화⋅고밀도의 포인트 클라우드를 빠른 속도로 생성한다. 이를 통해 비탈면의 기하학적 특성이 반영된 정밀한 3차원 모델을 구축할 수 있다. 생성된 모델은 단순한 시각화 자료에 그치지 않고, Cloud간 거리비교를 통한 변형 검출, 사용자 기반 점검 항목 추출(경사각, 크기 등), 어노테이션 기능을 활용한 파손 위치 표시, 이력비교 등 정기점검에 활용 가능한 정보를 추출하는 데 활용된다.

3) Output Layer – Processing Layer에서 산출된 정보를 바탕으로 점검 보고서를 자동으로 생성한다. 보고서는 기본적으로 추출된 데이터가 자동 반영되며, 사용자가 직접 입력할 수 있는 항목도 포함된다. 또한 대상 비탈면의 구분(2종, 3종, 3종 미만, 급경사지)에 따라 보고서의 형태가 달리 제공된다.

4) Cloud Layer – 영상 데이터, 3D모델, 점검 보고서 등 점검 자료 관리에 필요한 데이터를 모두 디지털화하여 저장⋅관리하며, 프로젝트 단위의 데이터 이력 관리와 공유 기능을 지원한다.

Fig. 1 System architecture of the proposed platform(CSMS)
../../Resources/ksm/jksmi.2025.29.6.189/fig1.png

3.2 플랫폼 주요 기능

3.2.1 3D 모델 생성

3D 모델 생성은 SfM과 MVS 알고리즘을 기반으로 수행된다. 그러나 드론 촬영 영상에는 철도 비탈면 외의 도로⋅건축물⋅수목 등 불필요한 주변 객체가 포함되어 있어, 이러한 영역은 3D 모델 생성 과정에서 노이즈를 증가시키고 계산 부하를 가중시키는 문제를 야기한다. 이를 개선하기 위해 본 연구에서는 딥러닝 기반 관심 객체 외 제거 알고리즘을 3D 모델 생성 파이프라인에 추가로 적용하였다.

첫 번째 단계인 객체 외 제거 과정에서는, 입력 영상에서 철도 비탈면 객체만을 보존하고 나머지 영역을 모두 제거하여 입력 데이터로 사용하는 방식을 적용하였다(Fig. 2). 본 연구에 적용된 모델은 DeepLabv3+로, encoder–decoder 구조를 통해 객체 경계 표현력이 우수하다는 장점이 있다. 비탈면 촬영 영상은 촬영 고도, 배경 환경 등이 크게 변화하므로, 다중 스케일 정보를 안정적으로 처리하는 DeepLabv3+는 주변 불필요 영역 제거에 적합한 모델로 판단하였다. 본 연구에서는 기존 연구의 대상과 달리 철도 비탈면이라는 주요 대상에 맞게 철도 비탈면, 주변 논지, 도로, 철도 선로의 4개 클래스로 학습용 라벨 구성을 재정의하였으며, 총 545장의 드론 촬영 이미지를 수집하여 라벨링 및 학습을 수행하였다. 데이터셋은 일반적인 분할 학습 전략에 따라 학습⋅검증⋅테스트 데이터를 7:2:1 비율로 구성하였다. 모델 평가는 mIoU(mean Intersection over Union)을 활용하였다. mIoU는 각 클래스별 예측 영역과 정답 영역의 교집합 대비 합집합 비율을 평균한 지표로, 세그멘테이션 성능을 정량적으로 표현하는 대표적 평가 기준이다. 본 연구에서 학습된 모델은 약 72%의 mIoU를 달성하였다. 해당 값은 고정밀 분할을 목표로 하는 일반적인 세그멘테이션 연구 대비 높은 수준은 아니지만, 본 알고리즘의 목적이 정확한 탐지보다 관심 영역인 철도 비탈면을 안정적으로 보존하면서 3D 재구성시 방해되는 주변 객체를 효과적으로 제거하는 것이 목표임을 고려하면, 관심 객체를 안정적으로 보존하기에 충분한 성능으로 판단된다.

두 번째 단계에서는 SIFT(Scale-Invariance Feature Transform) 기반의 특징점을 추출한다. 이 단계는 영상 내에서 불변성을 가지는 키포인트를 검출하여 이후 정합 과정의 기초 데이터를 제공한다. 그리고 추출된 특징점들간의 매칭 과정을 통해 각 영상간의 대응 관계를 추정한다.

세 번째 단계로 매칭된 특징점을 이용하여 카메라의 상대적 위치와 자세를 추정하고 이를 기반으로 초기 포인트 클라우드를 생성한다. 이 과정에서 번들 조정(Bundle adjustment)이 적용되어 카메라의 내부 파라미터(초점거리, 왜곡계수 등)와 외부 파라미터(자세, 위치), 그리고 3차원 점 좌표를 최적화시키고 초기 포인트 클라우드를 생성한다.

마지막 단계로 초기 포인트 클라우드를 입력으로 MVS 알고리즘을 적용하여 고밀도의 포인트 클라우드 모델을 생성한다. MVS는 다수의 영상에서 동일 지점을 관측한 정보를 융합하여 점군을 정밀하게 보강하는 과정으로, 비탈면의 미세한 구조와 표면 특성까지 반영할 수 있다. 이 단계에서 얻어진 고밀도 포인트 클라우드는 비탈면의 기하학적 형상과 세부 구조를 명확하게 표현할 수 있으며, 이후 단계에서 수행되는 점검 항목 정보 추출(경사각, 크기, 변형 탐지 등)에서 기초 자료로써 활용된다.

이와 같은 단계를 거쳐 생성된 3D 모델은 기존 모델대비 가벼우며 정기점검 시 활용 가능할 정도의 품질도 보유하고 있다는 장점이 존재한다. 특히, 일부 비탈면을 대상으로 인공지능 기반 관심 객체 외 제거 알고리즘과 렌더링 가속화 기법을 적용하여 유효성을 확인한 결과, 원본 3D 모델상에서는 9,036,082개의 포인트로 구성된 3D 모델은 6,067,115 포인트로 수가 감소하였다(Fig. 3). 또한, 관심 영역 외 부분이 모델에서도 성공적으로 제거되어 3D 모델 점검 기반에도 유용하게 활용할 수 있다는 장점이 있다.

Fig. 2 Segmentation process for extracting ROI images
../../Resources/ksm/jksmi.2025.29.6.189/fig2.png
Fig. 3 Comparison of 3D model generation before and after applying the non-ROI area removal algorithm: (a) before applying the algorithm (9,036,082 points); (b) after applying the algorithm (6,067,115 points).
../../Resources/ksm/jksmi.2025.29.6.189/fig3.png

3.2.2 점검 항목 정보 추출

이전 단계에서 생성된 고밀도 포인트 클라우드 모델을 기반으로 점검 시 필요한 항목을 추출할 수 있는 기능을 개발하였다. 해당 기능은 사용자가 생성된 3D 모델을 통해 다양한 정보를 산출할 수 있으며, 주요 기능은 다음과 같다.

1) 길이 측정 - 3차원 모델에서 거리 측정은 두 가지 방식으로 제공된다. 첫째, 드론 영상 취득 시 부가되는 GPS(Global Positioning System) 메타데이터를 활용하여 각 포인트의 3차원 좌표를 추정한 뒤, 두 점 간의 유클리드 거리(Euclidean distance)를 산출한다. 이는 절대좌표 기반의 측정 방식으로, 측정값의 정확도는 드론의 GPS 오차 범위(일반적으로 수 미터 내외)와 후처리 알고리즘의 보정 성능에 따라 달라진다. 둘째, 실제 크기를 알고 있는 참조 객체를 기준으로 스케일 정규화를 수행하는 방식이다. 포인트 클라우드 상에서 참조 객체의 측정 길이와 실제 길이를 비교하여 스케일 팩터를 도출하고, 이를 모델 전체에 적용함으로써 GPS 정보가 없는 경우에도 실제 거리 산출이 가능하다(Fig. 4). 이러한 이중 방식 제공을 통해 현장에서 데이터 취득 조건이 상이할 경우에도 유연하게 대응할 수 있도록 설계하였다.

Fig. 4 Inspection data extraction function : Distance measurement
../../Resources/ksm/jksmi.2025.29.6.189/fig4.png

2) 경사 측정 - 3차원 공간에서 두 점 간의 경사를 측정하기 위해서는 기본적인 기하학적 원리에 따라 직삼각형을 구성한다. 사용자가 지정한 두 점의 좌표 P 1 ( x 1 , y 1 , z 1 ), P 2 ( x 2 , y 2 , z 2 )를 기반으로, 수평면 상의 투영 벡터를 밑변으로 설정하고, 두 점을 연결하는 벡터( v )와 수직축 벡터 k 의 내적(inner product)을 통해 각도( α )를 계산하고 이를 통해 두 지점의 실제 경사( θ )를 추정한다(식 1).

(1)

$\cos\alpha =\dfrac{v\bullet k}{∥ v ∥ ∥ k ∥}=\dfrac{\triangle z}{\sqrt{\triangle x^{2}+\triangle y^{2}+\triangle z^{2}}}$

$\theta =90^{^{\circ}}-\alpha$

여기서 x , y 는 두 지점의 수평 방향 좌표 차이, z 는 두 지점의 고도 차이를 나타낸다. α 는 두 점을 연결하는 벡터와 수직축 사이의 각을 나타내며, 수평면 대비 경사각 θ θ = 90 - α 로 정의된다. 이와 같이 산출되는 경사각은 사면 안정성 분석의 핵심 지표로 활용될 수 있다. 특히, 관련 법령에서 규정하는 기준 경사각과 비교하여 위험 여부를 정량적으로 판별할 수 있다(Fig. 5).

Fig. 5 Inspection data extraction function : Angle measurement
../../Resources/ksm/jksmi.2025.29.6.189/fig5.png

3) 원본 영상 출력 및 어노테이션 기능 - 3차원 모델에서 특정 포인트를 선택하면, 해당 포인트의 재구성에 활용된 2차원 영상 프레임 목록을 역추적방식으로 가시화할 수 있다. 이는 SfM에서 이용되는 카메라 포즈 추정 결과를 활용하는 것으로, 3차원 좌표를 카메라 좌표계로 변환하여 대응하는 영상 픽셀을 추출하는 원리이다. 사용자는 출력된 2차원 영상 내에서 관심 구간을 지정할 수 있으며, 이러한 어노테이션은 즉시 3차원 모델에 반영된다. 어노테이션은 분석 목적과 구조물 특성에 따라 박스(box), 폴리곤(polygon), 폴리라인(polyline) 등 다양한 기하학적 도형으로 표현할 수 있다. 본 기능을 통해 사용자는 균열이나 박락이 의심되는 구간을 별도로 표시하여 후속 점검 시 참조할 수 있다(Fig. 6).

Fig. 6 Inspection data extraction functions: Annotation
../../Resources/ksm/jksmi.2025.29.6.189/fig6.png

4) 변형 탐지 – 동일 대상에 대해 시기별로 생성된 두 개 이상의 3차원 모델이 존재할 경우, Cloud-to-Cloud Distance를 적용하여 변형 여부를 정량적으로 분석한다. Cloud-to-Cloud Distance 기법은 두 시점의 포인트 클라우드 집합(P,Q)간 최근접점(nearest neighbor)을 매칭하여 점 간 거리 차이를 계산할 수 있다(식 2).

(2)
$d_{i}=\min\left . ∥ p_{i}-q_{j}\right .∥$

여기서, p i 는 시점 t 1 (예: 첫 번째 점검 시)에서 얻어진 포인트 클라우드 집합(P) 중 i-번째 점의 좌표( x i , y i z i ), q j 는 시점 t 2 (예 : 두 번째 점검 시)에서 얻어진 포인트 클라우드 집합(Q) 중 j-번쨰 점의 좌표( x j , y j , z j )를 의미한다. 즉 d i 는 P의 한 점 p i 와 Q의 모든 점들 사이 거리를 계산했을 때, 그 중 가장 가까운 점과의 거리를 의미한다.

여기서 특정 임계값을 초과하는 포인트가 집중되는 영역은 국부적 변형 또는 손상 가능성이 있는 구간으로 식별된다. 특히 본 플랫폼에서는 변형 탐지 결과를 3차원 모델 상에 색상 스케일링 방식으로 시각화하여, 관리자가 변형 발생 위치와 규모를 히트맵을 통해 직관적으로 확인할 수 있다(Fig. 7). 이러한 정량적 변형 분석은 기존 육안 점검 대비 재현성과 객관성을 크게 향상시킬 수 있다.

Fig. 7 Inspection data extraction functions: Change detection
../../Resources/ksm/jksmi.2025.29.6.189/fig7.png

3.2.3 비탈면 종별 보고서 생성

본 논문에서 대상으로 하는 철도 비탈면은 「철도건설법」, 「시설물안전법」, 「급경사지법률」에 근거하여 총 네 가지 유형으로 분류된다. 구체적으로, 「시설물안전법」, 철도건설법」에 따라 2종⋅3종 시설물⋅3종미만 시설물로 분류할 수 있으며, 「급경사지법」에 따라 급경사지로 구분된다.

따라서 철도 비탈면은 세 가지 법령에 근거하여 점검을 수행해야 하기 때문에, 각 법령에서 요구하는 점검 양식은 상이하다. 이에 본 플랫폼에서는 시설물의 종별 구분에 따라 점검 보고서 양식을 제공하며, 사용자가 직접 대상 유형을 선택하여 활용할 수 있도록 하였다(Fig. 8). 또한, 생성한 보고서를 pdf 파일 형식으로 다운받을 수 있는 기능도 포함되어 있다.

Fig. 8 Report Generation function
../../Resources/ksm/jksmi.2025.29.6.189/fig8.png

3.2.4 클라우드 기반 정보 이력 관리

플랫폼 내에서 생성된 모든 정보(3차원 모델, 추출된 점검 항목, 보고서 등)는 클라우드 기반 시스템을 통해 체계적으로 이력을 관리할 수 있다(Fig. 9). 클라우드 서버는 각 프로젝트 단위로 데이터베이스를 구성하여, 대상 비탈면별로 시기별 데이터가 축적되도록 하였다. 이를 통해 동일 비탈면에 대해 반복적으로 수행된 점검 결과를 장기적으로 추적⋅관리할 수 있다. 특히, 동일 대상에 대해 시기별로 취득된 3차원 모델이 존재하는 경우, 본 플랫폼은 이를 동시에 불러와 비교⋅분석할 수 있는 기능을 제공한다. 사용자는 두 시점의 데이터를 병렬적으로 시각화하여 육안으로 직접 비교할 수 있으며, Cloud-to–Cloud distance와 같은 기능을 적용하여 변형 여부를 자동으로 탐지할 수도 있다. 이 기능을 통해 관리자는 대상 비탈면의 변형 발생 위치와 규모를 직관적으로 확인할 수 있고, 시계열 데이터를 바탕으로 변형의 진행 추세를 정량적으로 평가할 수 있다. 나아가, 이러한 장기 이력 비교는 유지관리 우선순위 설정, 위험도 평가 고도화, 예방적 보수 계획 수립 등 의사결정 과정에서 핵심적인 근거 자료로 활용될 수 있다.

Fig. 9 3D Model History Comparison Function: (a) List of Models Generated in the Platform, (b) List of Drone Images
../../Resources/ksm/jksmi.2025.29.6.189/fig9.png

4. 현장 적용을 통한 플랫폼의 기능 검증

4.1 테스트베드 선정 및 촬영 방법

개발한 플랫폼을 활용한 현장 적용을 위해 오송 철도종합시험선로에 위치한 3터널 시점부를 실험 대상으로 선정하였다(Fig. 10). 그리고 선정한 대상을 촬영한 드론은 matrice 300 RTK를 활용하였다. 촬영 시 드론을 안정적으로 운행하고, 길이 탐지 기능 및 손상 탐지 기능의 정확도를 분석하기 위해 줌카메라 기준 GSD 0.405 mm/1px를 취득할 수 있는 거리인 20 m에서 촬영하였으며, 환경 특성상 경로 비행으로 촬영하기에 어려움이 있어 수동 촬영을 수행하였다. 또한, 고밀도의 3D 모델을 획득하기 위해서 줌 카메라, 와이드 카메라를 모두 활용하였다.

대상 구간을 촬영한 총 941장의 이미지를 플랫폼에 업로드하여 촬영 구간에 대한 3차원 모델을 생성하였다(Fig. 11). 이 과정에서 약 400만 개의 포인트로 구성된 정밀한 3D 모델을 생성하였다. 추가적으로 정밀한 분석을 수행하기 위해 줌카메라를 통해 촬영한 영상을 토대로 옹벽에 대한 모델을 추가적으로 생성하였다.

Fig. 10 Testbed : Osong Railway
../../Resources/ksm/jksmi.2025.29.6.189/fig10.png
Fig. 11 Generated 3D model
../../Resources/ksm/jksmi.2025.29.6.189/fig11.png

4.2 3D 모델 기반 길이 측정 기능의 정확도 검증

본 연구에서는 제안한 플랫폼의 길이 측정 기능의 정확도를 검증하기 위해, 실제 현장의 기준 치수와 3D 모델에서의 측정값을 비교⋅분석하였다. 특히, x, y 좌표 방향의 정확도 검증을 위해 철도 궤간을, z 좌표 방향의 정확도 검증을 위해 계단식 옹벽의 높이를 비교 대상으로 선정하였다. 이러한 항목들은 철도 비탈면 환경의 대표적인 구조적 요소로, 각 방향의 측정 정확도를 검증하기에 적절하다고 판단하였다.

검증 절차는 다음과 같다. 우선, 설계도면상의 기준 치수를 실제 측정값으로 설정하고, 동일 위치에서 제안된 CSMS 플랫폼을 활용하여 3D 모델 기반 측정을 산출하였다. 이후 두 값의 차이를 비교하여 오차를 산정하고, 이를 통해 플랫폼의 길이 측정 기능의 정밀도를 평가하였다.

분석 결과, 철도 궤간 측정 시 최소 오차는 0.005 m, 최대 오차는 0.012 m, 계단식 옹벽 높이 측정 시 최소 오차는 0.15 m, 최대오차는 0.17 m로 나타났다(Table 2, Fig. 12, Fig. 13). 계단식 옹벽의 높이 측정 결과에서 상대적으로 큰 편차가 나타났는데, 이는 다음과 같은 기인한 것으로 판단된다. 첫째, 설계도면을 기준으로 한 실제 시공 과정에서 발생할 수 있는 시공 오차가 존재하며, 둘째, 3D 모델 상에서 측정 포인트를 사람이 직접 지정하는 과정에서 발생하는 주관적 선택 차이가 오차에 영향을 미친 것으로 분석된다. 그럼에도 불구하고, 약 20 m의 고도에서 촬영된 무인항공기 영상으로 생성된 모델임에도 최대 오차가 0.17 m에 불과하다는 점은, 제안된 3D 모델의 정밀도가 실무 적용에 충분한 수준임을 입증하였다.

Table 2 Accuracy of length measurement function
Category Design Minimum error in 3D model-based measurements Maximum error in 3D model-based measurements
Track gauge 1.435 m 0.005 m 0.012 m
Heigth of stepped reinforced retaining wall 1.30 m 0.15 m 0.17 m
Fig. 12 Measurement of track gauge using a 3D model
../../Resources/ksm/jksmi.2025.29.6.189/fig12.png
Fig. 13 Measurement of stepped reinforced retaining wall height using a 3D model
../../Resources/ksm/jksmi.2025.29.6.189/fig13.png

4.3 경사각 측정 정확도 분석

추가적으로 플랫폼에 탑재된 경사각 측정 알고리즘의 정확도 분석을 수행하였다. 정확도 분석은 설계도면에 제시된 기준 경사와 3D 모델을 기반으로 추정된 실제 경사를 비교하는 방식으로 수행하였다. 분석 대상은 계단식 옹벽 구간으로 선정하였다. 해당 구간은 구조적 특성상 단일한 일정 경사를 가지지 않고, 일정 구간마다 경사 변화가 발생하도록 설계되어 있어 전체 옹벽을 대상으로 한 단일 평균 경사 추정은 정확도를 저하시킬 수 있다. 따라서 본 연구에서는 옹벽 최상단 구간의 경사각을 중심으로 추출하여 기준값과 비교함으로써 알고리즘의 정확도를 평가하였다(Fig. 14).

분석 결과, 설계도면 상의 경사와 3D 모델에서 산출된 경사 간의 편차는 약 1° 이내로 나타났다. 이는 촬영 고도(20 m)를 고려했을 때 매우 미소한 오차 수준으로, 제안된 알고리즘이 실제 옹벽의 기하학적 형상을 정밀하게 반영하고 있음을 의미한다. 이러한 결과는 본 플랫폼의 경사각 측정 알고리즘이 단순한 시각적 판단이나 수동 측정보다 훨씬 높은 정량적 신뢰도를 확보하고 있음을 보여준다. 따라서 향후 본 경사각 측정 기능은 비탈면의 점검 항목 중 사면 경사, 절리 경사 등 형상 정보 추출 시, 높은 객관성과 정확도를 바탕으로 실무 현장에서 효과적으로 활용될 수 있을 것으로 기대된다.

Fig. 14 Accuracy of angle measurement function : (a) design slope, (b) measurement of angle using a 3D model
../../Resources/ksm/jksmi.2025.29.6.189/fig14.png

5. 결 론

본 연구에서는 2018년 법 개정으로 증가한 철도 비탈면 점검 수요에 대응하고, 기존 인력 중심 점검 방식의 한계를 극복하기 위해 CSMS(Cut Slope Management System) 플랫폼을 개발하였다. 플랫폼 개발의 당위성은 철도 비탈면의 안전 위험성과 반복적 육안 점검의 비효율성을 해결하고, 데이터 기반 표준화 유지관리 체계를 구축하는 데 있다.

제안된 CSMS 플랫폼은 휴대폰 및 무인항공기를 활용한 영상 취득, 3D 모델 생성, 관심 객체 외 제거 알고리즘, 법정 점검 항목 자동 추출 및 보고서 자동화 기능을 통합한 디지털 트윈 유지관리 시스템으로 설계되었다. 특히, 철도 비탈면 환경에 최적화된 관심 객체 외 제거 알고리즘(mIOU 72%)을 적용하여 3D 모델 경량화와 처리 효율성을 크게 향상시켰다. 또한, 법령에서 요구하는 점검 항목을 자동 분석할 수 있는 기능을 개발하였다.

플랫폼의 성능 검증을 위해 오송 철도종합시험선로를 대상으로 현장 실험을 수행하였다. 3D 모델과 설계도면을 비교 분석한 결과, 최소 오차 약 0.005 m, 최대 오차 약 0.17 m, 경사각 편차 1° 내로 측정되어 높이 20 m에서 촬영되었음에도 불구하고, 실무 적용에 충분한 정밀도와 신뢰성을 확보하였다.

결론적으로, 본 플랫폼은 기존 점검자의 주관적 판단에 의존하지 않고, 데이터 기반으로 점거을 수행할 수 있는 시스템을 개발하였다. 이로 인해 기존 점검 방식 대비 약 30%의 비용 절감, 인력 최소화, 업무 기간 단축, 현장 안전성 향상 등의 효과가 기대된다.

향후 실무 적용성을 높이기 위해서는 AI 기반 영상 분석을 적용하여 자동 탐지 가능한 점검 항목을 확대하고, 3D 모델링 자동화 및 실시간 데이터 연계성을 강화할 필요가 있다. 또한, 시스템 도입 및 운영 비용을 포함한 전주기(Life-Cycle) 경제성 검증을 통해 실무 적용성을 높이는 연구가 요구된다. 이러한 후속 연구를 통해 비탈면 점검 업무의 내업 전환, 유지관리 비용 절감, 안전성 향상 등 추가적인 효과를 기대할 수 있다.

Fig. 15 Digital twin–based smart maintenance platform
../../Resources/ksm/jksmi.2025.29.6.189/fig15.png

감사의 글

본 연구는 국토교통부 이어달리기 사업(과제번호 : RS-20 24-00412837)의 연구비 지원으로 수행되었으며, 이에 감사드립니다.

References

1 
Liu, Z., Wu, W., Wang, D., Cui, B., Gu, X. (2024), Automatic extraction and 3D modeling of real road scenes using UAV imagery and deep learning semantic segmentation, International Journal of Digital Earth, 17(1), 2365970DOI
2 
Yoon, J., Kim, Y., Lee, S., Shin, M. (2024), UAV-based automated 3D modeling framework using deep learning for building energy modeling, Sustainable Cities and Society, 101, 105169DOI
3 
Tang, Z., Peng, Y., Li, J., Li, Z. (2023), UAV 3D modeling and application based on railroad bridge inspection, Buildings, 14(1), 26DOI
4 
Pan, Y., Dong, Y., Wang, D., Chen, A., Ye, Z. (2019), Three-dimensional reconstruction of structural surface model of heritage bridges using UAV-based photogrammetric point clouds, Remote Sensing, 11(10), 1204DOI
5 
Khaloo, A., Lattanzi, D., Cunningham, K., Dell’Andrea, R., Riley, M. (2018), Unmanned aerial vehicle inspection of the Placer River Trail Bridge through image-based 3D modelling, Structure and Infrastructure Engineering, 14(1), 124-136.DOI
6 
Khaloo, A., Lattanzi, D., Jachimowicz, A., Devaney, C. (2018), Utilizing UAV and 3D computer vision for visual inspection of a large gravity dam, Frontiers in Built Environment, 4, 31DOI
7 
Ridolfi, E., Buffi, G., Venturi, S., Manciola, P. (2017), Accuracy analysis of a dam model from drone surveys, Sensors, 17(8), 1777DOI
8 
Piciullo, L., Abraham, M. T., Drøsdal, I. N., Paulsen, E. S. (2025), An operational IoT-based slope stability forecast using a digital twin, Environmental Modelling & Software, 183, 106228DOI
9 
Armijo, A., Zamora-Sánchez, D. (2024), Integration of railway bridge structural health monitoring into the internet of things with a digital twin: A case study, Sensors, 24(7), 2115DOI
10 
Hielscher, T., Khalil, S., Virgona, N., Hadigheh, S. A. (2023), A neural network based digital twin model for the structural health monitoring of reinforced concrete bridges, Structures, 57, 105248DOI
11 
Fawad, M., Salamak, M., Chen, Q., Uscilowski, M., Koris, K., Jasinski, M., Lazinski, P., Piotrowski, D. (2025), Development of immersive bridge digital twin platform to facilitate bridge damage assessment and asset model updates, Computers in Industry, 164, 104189DOI
12 
Shim, C. S., Dang, N. S., Lon, S., Jeon, C. H. (2019), Development of a bridge maintenance system for prestressed concrete bridges using 3D digital twin model, Structure and Infrastructure Engineering, 15(10), 1319-1332.DOI
13 
Lyu, C., Lin, S., Lynch, A., Zou, Y., Liarokapis, M. (2025), UAV-based deep learning applications for automated inspection of civil infrastructure, Automation in Construction, 177, 106285DOI
14 
Ni, Y., Mao, J., Wang, H., Xi, Z., Chen, Z. (2024), Surface damage detection and localization for bridge visual inspection based on deep learning and 3D reconstruction, Structural Control and Health Monitoring, 2024(1), 9988793DOI
15 
Lin, C., Chen, Y., Itakura, K., Maharjan, S., Chun, P. J. (2025), Bridge inspection using image–point cloud fusion with image filtering, damage detection and 3D registration, Automation in Construction, 180, 106538DOI
16 
Zhao, S., Kang, F., Li, J. (2022), Concrete dam damage detection and localisation based on YOLOv5s-HSC and photogrammetric 3D reconstruction, Automation in Construction, 143, 104555DOI
17 
von Benzon, H.-H., Chen, X. (2025), Mapping damages from inspection images to 3D digital twins of large-scale structures, Engineering Reports, 7(1)DOI
18 
Schonberger, J. L., Frahm, J.-M. (2016), Structure- from-motion revisited, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 4104-4113.Google Search
19 
Heo, J. H., Kwon, J. H., Khudoyarov, S., Kim, N. (2022), Deep learning approach to generate 3D civil infrastructure models using drone images, Smart Structures and Systems, 30(5), 501-511.Google Search
20 
Jeong, D. Y. (2021), Technical definition and detailed development of digital twin: A five-level model, OSIA Standards &Technology Review Journal, 34(1), 10-16.Google Search