Mobile QR Code QR CODE

Journal of the Korea Concrete Institute

J Korea Inst. Struct. Maint. Insp.
  • Indexed by
  • Korea Citation Index (KCI)

  1. 정회원, (주)카이센테크 대표이사, 교신저자
  2. 정회원, (주)일신이앤씨 상무
  3. 정회원, (주)일신이앤씨 부사장



교량 처짐, 딥러닝, 상호 상관, 액션캠, 비접촉 변위 계측
Bridge deflection, Deep learning, Cross-correlation, Action camera, Non-contact displacement measurement

1. 서 론

토목 기반 시설물은 공용 수명 기간 동안 교통량, 풍하중 및 환경적 요인에 기인한 반복적인 외부 하중의 영향으로 다양한 진폭의 동적 및 정적 변위 응답을 지속적으로 수반하게 되며, 변위 기반의 거동 특성을 정량적으로 모니터링하고 분석하는 것은 구조 시스템의 현 상태를 식별하고 잠재적 손상을 조기에 탐지하여 구조적 건전성 및 잔존 수명을 평가하는 데 있어 결정적인 지표로서의 역할을 수행한다(Catbas and Aktan, 2002).

구조물의 안전성 평가를 위한 변위 계측에는 일반적으로 접촉식 센서인 LVDT와 비접촉식 센서인 LDS가 주로 사용된다. 이 중 LVDT는 높은 정밀도를 장점으로 하여 현장에서 널리 활용되고 있다(Kim et al., 2025). 그러나 LVDT는 접촉식 설치가 필수적이라는 점에서 명확한 한계를 가진다. 변위가 매우 크거나 접근이 어려운 구조물의 경우 센서 설치 자체가 현실적으로 불가능하거나 난이도가 높은 경우가 빈번하다.

이에 대한 대안으로 물리적 접촉 없이 계측이 가능한 LDS나 비전 시스템 등이 활용되지만, 이들 역시 단점이 존재한다. LDS와 같은 비접촉 센서는 통상 1∼2 mm 수준의 오차를 보여 고정밀 계측이 요구되는 환경에서는 적용에 제약이 따를 수 있다. 또한, 비전 기반 시스템의 경우 원거리 측정을 위해서는 고가의 망원 렌즈가 요구되며, 렌즈 왜곡이 적절히 보정되지 않는 일반적인 환경에서는 오차가 증대되는 한계를 가진다(Feng and Feng, 2015).

4차 산업혁명 기술의 확산과 함께, 최근 SHM 분야에서는 인공지능(AI), 특히 딥러닝을 활용하여 센서의 물리적 성능 한계를 소프트웨어적으로 극복하려는 연구가 활발히 진행되고 있다. 초기 딥러닝 연구는 주로 구조물의 균열이나 박리 같은 손상 이미지를 분류하거나 탐지하는 데 집중되었다(Zhang et al., 2021). 그러나 최근에는 단순한 객체 인식을 넘어, 영상의 기하학적 정보를 정밀하게 추정하거나 보정하는 영역으로 확장되고 있다.

Liao et al.(2025)은 딥러닝 기반의 카메라 캘리브레이션 기술 동향을 분석하며, 기존의 수학적 모델 기반 보정 방식이 갖는 복잡성을 데이터 학습을 통해 해결할 수 있는 가능성을 제시하였다. 이는 카메라 캘리브레이션과 왜곡 보정 문제가 단순한 전처리 단계가 아니라, 계측 결과의 신뢰성을 좌우하는 핵심 알고리즘 요소로 재인식되고 있음을 의미한다. 그러나 대부분의 기존 연구는 왜곡 보정 이후의 좌표를 고정된 입력값으로 가정하고, 해당 좌표의 불확실성이 변위 계측 결과에 미치는 영향에 대해서는 충분히 다루지 않았다. 특히 주목할 점은 좌표 보정과 서브픽셀 추정 기술이다. Wen et al.(2024)은 superpoint와 같은 딥러닝 네트워크를 이용해 특징점을 추적하고 그 정확도를 분석하였으며, Weng et al.(2023)은 딥러닝과 전통적인 영상 처리를 결합하여 픽셀 해상도 이하의 미세 변위를 측정하는 상호보완적 전략을 제안하였다. 이는 저가형 카메라나 저해상도 이미지에서도 고가의 정밀 센서에 버금가는 데이터를 추출할 수 있는 이론적 근거를 제공한다. 이들 연구는 서브픽셀 수준의 변위 추정을 가능하게 하였으나, 좌표 보정 알고리즘이 계측 시스템 전체의 정밀도 향상에 미치는 구조적 역할을 통합적으로 분석하지는 않았다.

기존 연구들은 대부분 정지 영상이나 제한된 실험 환경에서의 검증에 그치거나, 고가의 하드웨어를 전제로 한 알고리즘 개발에 치중된 경향이 있다. 토목 현장에서 널리 사용될 수 있는 웹캠이나 액션캠과 같은 범용 장비를 활용하되, 렌즈 왜곡과 환경 노이즈를 딥러닝 기술로 완벽하게 보정하여 정밀 계측을 구현한 통합 시스템에 관한 연구는 아직 미진한 실정이다.

이러한 단점을 보완하고자, Lee et al.(2025)는 레이저 빔과 웹카메라, 그리고 딥러닝 기반 왜곡 보정 기술을 융합하여 경제성과 정밀도를 겸비한 비접촉식 교량 처짐 측정 시스템을 제안하였다. 실내 검증 결과, 해당 시스템은 0.1 mm 미만의 예측 오차를 기록하며 처짐 계측의 정확성을 입증한 바 있다. 그러나 선행 연구는 웹카메라를 기반으로 하여 데이터 수집 빈도가 30 Hz에 머물렀으며, 측정 범위는 대형 교량까지 고려한 200 mm로 설정되었다. 30 Hz의 수집 속도는 저속 주행 시의 거동 계측에는 유효하나 고속 주행을 포함한 동적 시험에는 한계가 따르며, 200 mm의 범위는 중소형 교량의 미세한 변위 특성을 고려할 때 다소 과도한 측면이 있다. 이에 본 연구에서는 중소형 교량 안전진단에 최적화된 성능을 확보하기 위해, 기존의 웹카메라 대신 시중에서 접근이 용이한 범용 액션캠(action cam)을 영상 수집 장치로 채택하였다. 이를 통해 수집 빈도를 100 Hz로 대폭 향상시키고 측정 범위를 100 mm 수준으로 현실화한 개선된 시스템을 개발하였다.

2. 연구방법

2.1 레이저빔-액션캠 기반 처짐 측정 시스템 구성

제안된 레이저-비전 기반 처짐 계측 시스템의 전체 구성은 Fig. 1과 같이 레이저 송신 모듈과 영상 수신 모듈로 구분된다. 송신 모듈에서 방출된 레이저 빔이 수신 모듈의 타겟 플레이트(target plate)에 투영되면, 이를 수신부에 장착된 액션캠이 고해상도 영상으로 기록하는 방식을 따른다.

획득된 영상 데이터는 좌표 추출 알고리즘과 딥러닝 기반의 왜곡 보정 과정을 거쳐 최종적으로 교량의 변위량으로 환산된다(Fig. 2 참조).

본 시스템의 구축을 위해 5 mW 출력의 650 nm 파장대역 적색 레이저를 적용하였으며, 영상 수집 장치로는 4K(3840 × 2160) 해상도에서 초당 100프레임(fps)의 고속 촬영이 가능한 액션캠을 채택하였다.

Fig. 1. System configuration

../../Resources/ksm/jksmi.2026.30.1.9/fig1.png

Fig. 2. Vision Analyzer GUI

../../Resources/ksm/jksmi.2026.30.1.9/fig2.png

2.2 딥러닝 기반 왜곡 보정

수신부의 카메라와 타겟 플레이트 사이의 거리는 구조적으로 일정하게 유지되므로, 초기 정밀 보정을 통해 계측의 재현성을 확보하는 것이 필수적이다. 비전 시스템에서 발생하는 왜곡은 크게 광학적 왜곡(optical distortion)과 기하학적 왜곡(geometric distortion)으로 구분된다.

광학적 왜곡은 렌즈의 비이상적인 굴절 특성으로 인해 3차원 공간의 직선이 이미지 평면에 비선형 곡선으로 매핑되는 현상이다. 이상적인 핀홀 카메라 모델과 달리, 실제 렌즈는 렌즈 중심에서 멀어질수록 배율이 변하는 방사형 왜곡(radial distortion)과, 렌즈 광축과 이미지 센서가 수직을 이루지 못해 발생하는 접속 왜곡(dangential distortion)을 유발한다.

기하학적 왜곡은 렌즈 특성 외에도 카메라의 설치 각도에 따른 투영 모델의 한계, 센서의 구조적 불완전성 등이 복합적으로 작용하여 발생하는 시스템 전반의 비선형성을 의미한다.

본 연구에서는 이러한 왜곡을 보정하기 위해 수신부 내부에 카메라를 고정하고, 기지(known) 거리 정보를 가진 체스보드 패턴((21, 11) 격자, 4 mm 간격)을 타겟 플레이트 위치에 설치하여 보정 데이터를 획득하였다. 초기 보정 단계에서는 정밀한 파라미터 산출을 위해 카메라 위치를 고정한 상태에서 총 50장의 이미지를 수집하였다(Fig. 3 참조).

OpenCV의 calibrateCamera() 함수를 이용하여 카메라 행렬(camera matrix)과 왜곡 계수(distortion coefficients)를 산출하였으며, 이를 기반으로 undistortPoints() 함수를 적용하여 1차적인 렌즈 왜곡을 제거하였다. 이후, 3차원 공간의 평면이 2차원 이미지로 투영될 때 발생하는 원근 왜곡(perspective distortion)을 보정하기 위해 호모그래피 변환을 수행하였다. 4개의 기준점을 바탕으로 투시 변환 행렬을 산출하고 warpPerspective 변환을 적용하여 기하학적 보정과 스케일 보정을 수행하였다. 그러나 이러한 전통적인 보정 방식(렌즈 왜곡 보정 및 호모그래피 변환)만으로는 미세한 잔여 오차를 완벽히 제거하는 데 한계가 있었다.

잔존하는 미세 오차를 줄이기 위해, 본 연구에서는 딥러닝 기반의 상호 상관(cross-correlation) 좌표 보정 기법을 제안한다. 이 기법은 이미지 내 존재하는 모든 점 쌍(point pair) 간의 픽셀 좌표 관계와 실제 물리적 거리 간의 상관관계를 인공지능 모델이 학습하도록 하는 방식이다.

구체적인 데이터 생성 및 학습 절차는 다음과 같다.

ㆍ데이터 수집: 총 50장의 보정판 이미지를 촬영하여 데이터셋을 구축하였다. 각 이미지는 4 mm 간격의 21×11 격자점을 포함하여, 이미지 당 총 231개의 좌표점이 도출된다.

ㆍ상호 상관 데이터 생성: 단일 이미지 내의 231개 좌표점에 대하여 가능한 모든 두 점의 조합(pair)을 생성한다. 즉, 한 장의 이미지에서 231×231 = 53,361개의 좌표 쌍 데이터를 생성한다. 입력 데이터(feature)는 두 지점의 픽셀 좌표 (x1, y1, x2, y2)이며, 타겟 데이터(target)는 해당 두 지점 사이의 실제 물리적 거리 차이 (dx, dy)이다.

ㆍ데이터셋 구성: 50장의 이미지 중 49장은 학습용(train set)으로, 1장은 테스트용(test set)으로 분류하였다. 이에 따라 전체 데이터셋은 약 266만 개(53,361×50)이며, 학습 데이터는 약 261만 개(53,361×49), 테스트 데이터는 약 5.3만 개(53,361×1)로 구성하여 모델 학습을 수행하였다.

좌표 쌍 간의 비선형 관계를 학습하기 위해 인공신경망(ANN) 모델을 설계하였다. 입력층은 4개의 노드(x1, y1, x2, y2), 출력층은 2개의 노드(dx, dy)로 구성되며, 은닉층에는 ReLU 활성화 함수를 적용하여 비선형성을 모델링하였다. 손실 함수로는 평균 제곱 오차(MSE loss)를, 최적화 알고리즘으로는 adam optimizer(학습률 0.001)를 사용하였다. 과적합 방지를 위해 early stopping 기법을 적용하였으며, 검증 손실(validation Loss)이 10회 연속 개선되지 않을 경우 학습을 조기 종료하도록 설정하였다(Lee et al., 2025).

정리하면 본 연구의 왜곡 보정 모델은 4개의 입력 노드와 2개의 출력 노드를 갖는 3계층 MLP 구조로 설계되었다. 전처리 단계에서는 입력 좌표를 상호 상관 좌표 보정 기법을 적용하고, 모델 통과 후 후처리 단계에서는 이를 다시 실제 거리로 변환하여 최종 처짐량을 획득하였다.

학습된 PyTorch 모델은 실시간 추론 효율성을 극대화하기 위해 ONNX(open neural network exchange) 포맷으로 변환하여 시스템에 탑재하였다. 테스트 데이터를 이용한 성능 평가 결과, 결정 계수 R$^2$는 0.999998 이상을 기록하여 제안된 모델이 픽셀 좌표와 실제 거리 간의 관계를 거의 정확하게 모사함을 확인하였다. 최종적으로 제안된 딥러닝 보정 기법을 적용한 결과, X축 좌표의 예측 오차 범위는 –0.0283∼0.0529 mm, Y축 좌표의 오차 범위는 –0.0553∼0.0461 mm 수준으로 감소하였다(Fig. 4 참조). 이는 보정을 실시하지 않은 기존 방식 대비 정밀도가 대폭 향상되었음을 시사하며, 본 시스템이 미세 변위 계측에 적합함을 입증한다.

Fig. 3. Image of the calibration plate

../../Resources/ksm/jksmi.2026.30.1.9/fig3.png

Fig. 4. Error distribution with distortion correction

../../Resources/ksm/jksmi.2026.30.1.9/fig4.png

2.3 Post processing

액션캠으로 동영상을 저장하며, 이는 BridgeEye Analyzer와 BridgeEye Post를 이용하여 실제 변위로 환산한다.

BridgeEye Analyzer는 사전 녹화된 고해상도 동영상 파일(mp4, avi 등)을 로드하여 프레임 단위로 정밀 분석을 수행하는 영상 처리 GUI 프로그램이다. 현장에서 촬영된 영상을 기반으로 밝은 도트를 검출하고, 추출된 픽셀 좌표를 시계열 데이터(CSV)로 변환하여 저장하는 기능을 수행한다. 주요 처리 알고리즘은 다음과 같다.

ㆍ영상 입력 및 정보 분석: OpenCV를 활용하여 고해상도 영상을 로드하고, 영상의 해상도, 총 프레임 수, FPS 정보를 분석하여 GUI에 표시한다.

ㆍ이미지 전처리: 검출 속도 향상을 위한 리사이징, 그레이스케일 변환, CLAHE를 통한 국소 대비 향상, 가우시안 블러를 적용하여 노이즈를 제거하고 타겟의 선명도를 확보한다.

ㆍ타겟 검출: 사용자 조절이 가능한 밝기 임계값을 기반으로 이진화를 수행하고, 컨투어 분석을 통해 후보 영역을 검출한다. 이후 타원 피팅 및 모멘트 기반 중심점 추정 알고리즘을 적용하여 서브 픽셀 단위의 정밀한 도트 좌표를 추출한다.

ㆍ데이터 시각화 및 저장: 분석 진행률을 실시간으로 표시하며, 검출된 타겟을 영상 위에 오버레이하여 시각화한다. 분석이 완료되면 시계열 픽셀 좌표 데이터를 CSV 파일로 자동 저장한다.

BridgeEye Post는 Analyzer를 통해 수집된 픽셀 단위의 시계열 좌표 데이터를 입력받아, 물리적 변위(mm)로 변환하고 정밀 보정을 수행하는 딥러닝 기반 후처리 프로그램이다. processingworker 스레드를 통해 대용량 데이터를 효율적으로 일괄 처리하며, 주요 기능은 다음과 같다(Fig. 5 참조).

ㆍ데이터 정렬 및 전처리: 다중 타겟 추적 시 발생할 수 있는 인덱스 꼬임 현상을 방지하기 위해, 각 프레임의 검출 좌표를 X축 기준으로 재정렬하여 데이터의 일관성을 확보한다.

ㆍ이동평균 필터링: 센서 노이즈 및 미세 진동을 제거하기 위해 중심 이동평균 필터를 적용하며, 윈도우 크기를 사용자가 조절할 수 있도록 하여 데이터의 평활화 정도를 최적화한다.

ㆍ기하학적 왜곡 보정: 사전에 산출된 카메라 내부 파라미터와 왜곡 계수를 로드하여 렌즈의 방사형 및 접선 왜곡을 보정하고, 투영 변환을 통해 카메라 설치 각도에 따른 원근 왜곡을 보정한다.

ㆍ딥러닝 기반 정밀 보정: ONNX 런타임을 활용하여 사전에 학습된 인공신경망(ANN) 모델을 로드한다. 보정된 좌표 데이터를 모델에 입력하여 잔존하는 비선형 오차를 추론 및 보정함으로써, 고정밀 실측 변위 데이터를 산출한다.

ㆍ결과 분석 및 저장: 최종 보정된 변위 데이터를 그래프로 시각화하여 사용자가 직관적으로 분석할 수 있도록 하며, 처리된 결과를 CSV 파일로 저장하는 기능을 제공한다.

Fig. 5. BridgeEye Post

../../Resources/ksm/jksmi.2026.30.1.9/fig5.png

3. 실내 검증 실험

본 연구에서는 액션캠 기반 변위 계측 시스템의 신뢰성을 확보하기 위하여 실내 검증 실험을 수행하였다. 제안된 시스템의 계측 성능과 현장 적용성을 종합적으로 평가하기 위해 실험은 다음의 세 가지 항목으로 구성하였다.

첫째, 선형성 검증이다. 가로(X축) 및 세로(Y축) 방향의 변위를 단계적으로 제어하며 시스템 출력값의 선형 응답 특성을 확인하였다. 둘째, 미소 변위 검증이다. 1 mm 이하의 미소 변위 구간에서 고감도 전기식 변위계와의 비교를 통해 시스템의 정밀도와 오차율을 정량적으로 평가하였다. 셋째, 입사각 변화에 따른 성능 검증이다. 레이저가 타겟 플레이트에 법선 방향이 아닌 경사 방향으로 입사할 때 발생하는 도트 형상의 변화(원형 ▸ 타원형)가 변위 산출 결과에 미치는 영향을 분석하였다.

기준 변위 확보를 위해 실험별 예상 이동량에 적합한 LVDT (SDP-200, CDP-25)를 2개소에 설치하여 비교 데이터를 수집하였다. 레이저 광원은 수신부로부터 약 2 m 이내의 거리(실험실 환경의 가용 공간을 고려함과 동시에, 레이저 광원의 직진성과 도트 형상을 가장 안정적으로 유지할 수 있는 거리 이내)에서 조사하였으며, 타겟에 결상된 도트의 직경은 약 3 mm 수준이 되도록 조정하였다. 모든 실험 항목은 데이터의 신뢰성을 확보하기 위해 각 케이스별 3회 이상의 반복 실험을 수행하였다(Fig. 6 참조).

Fig. 6. Laboratory Verification Experiment

../../Resources/ksm/jksmi.2026.30.1.9/fig6.png

3.1 선형성 검증

선형성 검증 실험은 액션캠 기반 계측 시스템의 입력 변위 변화에 따른 출력 응답 특성을 평가하기 위해 수행되었다. 특히, 카메라 이미지 센서의 종횡비 특성을 고려하여 가로(horizontal, 장축) 방향과 세로(vertical, 단축) 방향에 대해 독립적인 선형성 평가를 진행하였다.

변위 인가 단계는 가로 방향의 경우 20, 40, 60 mm의 3단계로, 세로 방향은 20, 40, 50 mm의 3단계로 설정하였다. 각 단계에서의 기준 변위는 측정 대상에 설치된 두 개의 전기식 변위계(LVDT) 측정값의 산술 평균을 적용하였으며, 이를 비전 시스템의 측정 결과와 비교하여 비례 관계 및 오차를 분석하였다.

실험 결과, 비전 시스템의 측정값과 기준값 간의 편차는 대부분 0.1 mm 미만으로 나타나 우수한 선형성을 확보하였음을 확인하였다. 단, 세로 방향 20 mm 구간에서 약 0.12 mm의 편차가 발생하였으나, 이는 해당 구간에서 기준이 되는 두 LVDT 간의 편차(20.42 mm – 20.28 mm = 0.14 mm) 범위 내에 존재하는 수치이다. 이를 고려할 때, 제안된 시스템은 기존 접촉식 변위계와 동등한 수준의 정밀한 변위 추정 성능을 확보한 것으로 판단된다(Table 1, 2 참조).

Table 1. Test result of Horizontal linearity(displacement, mm)

LVDT1 LVDT2 LVDT_avr Vision difference
0.00 0.00 0.00 0.00 0.00
20.26 20.26 20.26 20.19 0.07
40.50 40.44 40.47 40.41 0.06
60.72 60.60 60.66 60.68 -0.02

Table 2. Test result of Vertical linearity(displacement, mm)

LVDT1 LVDT2 LVDT_avr Vision difference
0.00 0.00 0.00 0.00 0.00
20.42 20.28 20.35 20.23 0.12
40.30 40.28 40.29 40.33 -0.04
50.32 50.30 50.31 50.36 -0.05

3.2 미소변위 정밀도 검증

본 실험은 실제 교량의 상시 교통 하중 하에서 발생하는 1 mm 이하의 미소 변위 거동을 모사하여, 제안된 시스템의 정밀도 및 오차 특성을 검증하기 위해 수행되었다. 실험은 0.1 mm 단위로 제어된 변위를 단계적으로 인가하는 방식으로 진행되었으며, 측정 범위 25 mm의 고정밀 전기식 변위계(LVDT) 2대를 참조 기준(reference)으로 사용하여 시스템의 측정값을 정량적으로 비교ㆍ평가하였다(Fig. 7 참조).

아울러, 레이저의 조사 조건에 따른 도트 크기(spot size)가 계측 성능에 미치는 영향을 분석하기 위해 비교 실험을 병행하였다. 레이저 모듈의 초점 조절 기능을 활용하여 직경 약 3 mm의 최소점(small dot)과 약 4∼5 mm로 확산된 도트(large dot) 조건에 대해 각각 측정을 수행하였다.

실험 결과, 도트 크기에 따른 계측 성능의 유의미한 차이는 관찰되지 않았으나, 최소점(small dot) 조건에서 소폭 향상된 정밀도를 보였다. 정량적으로는 1 mm 변위 발생 시 최대 0.03∼0.04 mm 수준의 오차가 확인되었다(Table. 3 참조). 이는 본 시스템의 기하학적 설정과 해상도에 기인한 결과로 판단된다. 4K(3840 ×2160) 해상도의 액션캠으로 100 mm의 측정 범위를 촬영할 경우, 1픽셀당 공간 분해능(spatial resolution)은 약 0.026 mm(100mm/3840pixel)로 산출된다. 따라서 발생한 오차는 약 1.5픽셀 내외의 수준으로, 시스템이 하드웨어적 분해능 한계에 근접한 고정밀 계측을 수행하고 있음을 시사한다.

Fig. 7. Micro-Displacement Verification Test Setup

../../Resources/ksm/jksmi.2026.30.1.9/fig7.png

Table 3. Micro-Displacement Error with Respect to Dot Size

LVDT-1 LVDT-2 LVDT (avr) L-dot (Large) S-dot (Small) difference (L-dot) difference (S-dot)
0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.11 0.13 0.12 0.13 0.12 -0.01 0.00
0.21 0.22 0.22 0.24 0.22 -0.02 0.00
0.33 0.33 0.33 0.36 0.33 -0.03 0.00
0.44 0.44 0.44 0.48 0.46 -0.04 -0.02
0.55 0.56 0.56 0.58 0.56 -0.02 0.00
0.66 0.66 0.66 0.71 0.70 -0.05 -0.04
0.76 0.77 0.77 0.82 0.80 -0.05 -0.03
0.87 0.88 0.87 0.90 0.88 -0.03 -0.01
0.97 0.98 0.98 0.99 0.99 -0.01 -0.01
1.08 1.09 1.08 1.10 1.10 -0.02 -0.02

3.3 경사방향 레이저 조사 검증

이상적인 실험 조건에서는 레이저를 타겟 플레이트에 수직으로 입사시켜 원형의 결상점을 형성한다. 그러나 실제 현장 환경에서는 장비 설치 공간의 제약이나 구조물의 기하학적 형상 등으로 인해 레이저 입사각을 항상 법선(normal) 방향으로 유지하는 것은 현실적으로 어렵다. 레이저 입사각이 법선에서 벗어날 경우 결상점의 형상은 원형에서 타원형으로 기하학적 왜곡이 발생한다. 이는 결상점의 경계(contour)를 추출하여 중심 좌표를 산출하는 과정에서 계측 정밀도에 영향을 미칠 수 있다.

따라서 본 연구에서는 입사각 변화가 측정 정확도에 미치는 영향을 정량적으로 검증하고, 현장 적용 가능한 임계 입사각을 도출하기 위해 입사각을 최대 45도까지 기울인 조건에서 비교 실험을 수행하였다(Fig. 8 참조).

실험 결과, 입사각이 증가함에 따라 도트의 형상이 타원형으로 변형되었으나, 본 시스템의 중심점 추출 알고리즘은 도트 영역의 무게중심을 산출하는 방식을 적용하고 있어 이러한 형상 비대칭성에도 강건한 검출 성능을 유지하였다. 법선 방향 조사와 45도 경사 조사 조건에 대한 비교 분석 결과, 유의미한 성능 저하는 관찰되지 않았으며 오차율 또한 허용 범위 이내임을 확인하였다.

결론적으로, 현장 설치 시 발생할 수 있는 설치 오차를 고려하더라도 레이저 입사각 45도 이내의 범위에서는 시스템의 측정 신뢰도가 확보되는 것으로 판단된다.

Fig. 8. Experimental Setup for Inclined Laser Projection Test

../../Resources/ksm/jksmi.2026.30.1.9/fig8.png

Table 4. Measurement Error under Inclined Laser Projection

LVDT-1 LVDT-2 LVDT (avr) Inclined Laser Normal Laser difference (Inc) difference (Norm)
0.00 0.00 0.00 0.00 0.00 0.00 0.00
0.12 0.12 0.12 0.12 0.12 0.00 0.00
0.23 0.23 0.23 0.25 0.25 -0.02 -0.02
0.30 0.28 0.29 0.34 0.34 -0.05 -0.05
0.39 0.36 0.37 0.42 0.42 -0.05 -0.05
0.50 0.48 0.49 0.53 0.53 -0.04 -0.04
0.63 0.60 0.62 0.66 0.66 -0.04 -0.04
0.78 0.75 0.77 0.79 0.81 -0.02 -0.04
0.96 0.95 0.96 0.95 0.99 0.01 -0.03
1.08 1.08 1.08 1.06 1.09 0.02 -0.01
1.22 1.23 1.23 1.20 1.23 0.03 0.00

4. 현장 검증 실험

본 연구에서 제안한 시스템의 현장 적용 시 신뢰도를 확보하기 위해 구조적, 환경적 변수에 대한 고려사항을 다음과 같이 반영하였다.

첫째, 구조적 변수의 통제이다. 기존 휴대용 장비 운용 시 반복적으로 발생하는 설치 오차와 구조물 진동에 의한 영상 흔들림을 방지하기 위해, 본 시스템은 카메라를 수신부에 영구적으로 고정하는 방식을 적용하였다. 현장 설치 전 수행되는 정밀 캘리브레이션을 통해 초기 위치 오차를 보정하고, 영구 고정 방식을 통해 계측 시 진동에 의한 하드웨어의 물리적 유동을 억제함으로써 딥러닝 모델 입력 데이터의 일관성을 확보하였다.

둘째, 환경적 운용 범위의 설정 및 광학적 대응 방안이다. 본 시스템은 외부 광원의 간섭을 배제하고 레이저 도트의 식별 정확도를 극대화하기 위해, 타겟 플레이트 표면에 특수 코팅지를 적용하여 난반사를 최소화하고 도트의 휘도 대비가 일정하게 유지되도록 설계하였다. 또한, 근본적인 조도 변화 요인을 차단하기 위해 주로 야간에 수행되는 차량재하실험 환경을 전제로 개발되었다. 이를 통해 주간의 급격한 조도 변화나 직사광선, 그림자 등에 의한 딥러닝 모델의 인식 오류 가능성을 최소화하였다. 추가로, 본 연구의 주 적용 대상은 거더 길이 50 m 미만의 중소규모 교량으로 한정된다. 이에 따라 레이저와 타겟 간의 유효 계측 거리는 최대 25 m 미만(거더 중앙부 기준)으로 설정되었다. 이 거리를 초과하여 운용할 경우, 레이저 빔의 떨림 현상 심화 및 영상 내 픽셀 분해능(pixel resolution) 저하로 인해 미세 변위 산출의 오차가 커질 수 있다(Lee et al., 2025).

본 연구에서는 개발된 액션캠 기반 변위 계측 시스템의 현장 적용성 및 신뢰성을 검증하기 위하여, 총 연장 230 m (22.0 m× 10경간+10.0 m) 규모의 PSC I-girder 교량 중 S1 경간을 대상으로 현장 차량 재하 실험을 수행하였다. 재하 하중으로는 토사를 만재하여 총중량이 약 26.9톤에 달하는 15톤 덤프트럭 2대를 운용하였으며(Table. 5 참조), 실험은 정적 재하와 동적 주행 조건으로 구분하여 진행되었다.

Table 5. Specifications of the Test Vehicle

../../Resources/ksm/jksmi.2026.30.1.9/tb5-1.png
구분 l1 (m) l2 (m) l3 (m) l4 (m) 총중량 (ton) 전륜 (ton) 중륜 (ton) 후륜 (ton)
1호차 1.30 3.30 1.88 2.05 26.950 7,580 9,685 9,685
2호차 1.30 3.30 1.88 2.05 26.850 7,610 9,620 9,620

Fig. 9. 15-ton Dump Truck for Bridge Load Testing

../../Resources/ksm/jksmi.2026.30.1.9/fig9.png

Fig. 10. Installation of Action Camera, Laser, and LVDT

../../Resources/ksm/jksmi.2026.30.1.9/fig10.png

4.1 정적 응답

정적 재하 실험은 Fig. 11과 같이 차량을 경간의 L/4, L/2, 3L/4 지점에 순차적으로 정지시키는 방식으로 수행되었다. 하중 재하 위치 간의 이동 시에는 차량 속도를 5 km/h 이하로 제어하여 동적 효과를 최소화하였으며, 각 정지 구간에서 안정화된 변위 응답을 측정하여 교량의 정적 거동 특성을 분석하였다.

정적 재하 실험 결과(Table. 6 참조), 액션캠 기반 비전 시스템과 기준 센서인 LVDT의 최대 변위값은 매우 유사한 경향을 보였다. 두 측정 방식 간의 정량적 오차를 분석한 결과, 편차는 0.04 mm 이내 수준으로 나타났다. 이는 제안된 시스템이 미소한 정적 변위에 대해서도 접촉식 센서에 준하는 매우 높은 정밀도를 확보하고 있음을 시사한다. Fig. 12에는 대표적으로 LC1 결과를 수록하였다.

Fig. 11. Vehicle Loading Positions for Static Test

../../Resources/ksm/jksmi.2026.30.1.9/fig11.png

Table 6. Deflection Results by Vehicle Loading Position

Position Vision deflection Max(mm) LVDT deflection Max(mm) error (mm)
LC1 -3.252 -3.222 -0.03
LC2 -2.655 -2.645 -0.01
LC3 -1.113 -1.073 -0.04

Fig. 12. Deflection Graph(static, LC1)

../../Resources/ksm/jksmi.2026.30.1.9/fig12.png

4.2 동적 응답

동적 주행 실험은 차량 이동 하중에 따른 교량의 시간 이력 거동 특성을 분석하고, 액션캠 기반 계측 시스템의 동적 추종 성능 및 실시간 계측의 유효성을 검증하기 위해 수행되었다. 실험 조건은 차량의 주행 속도를 10 km/h부터 50 km/h까지 10 km/h 간격으로 증가시켜, 총 5가지 속도 단계에 대해 진행하였다(Fig. 13 참조).

이를 통해 주행 속도 변화에 따른 교량의 동적 처짐 응답, 진폭 특성, 그리고 시스템의 측정 오차를 정량적으로 분석하였다. 각 속도 조건별 시간 이력 응답을 비교 분석한 결과, 제안된 비전 시스템은 기준 센서(LVDT)의 거동을 매우 정확하게 추종하는 것으로 나타났다. 특히, 두 파형 간의 최대 오차는 0.04∼0.05 mm 이내로 확인되어, 동적 하중 상태에서도 실내 실험과 유사한 수준의 계측 신뢰성을 확보함을 입증하였다(Table. 7 참조). Fig 14에는 대표적으로 20 km/h 결과를 수록하였다.

Fig. 13. Dynamic Test Vehicle Position

../../Resources/ksm/jksmi.2026.30.1.9/fig13.png

Table 7. Results for Dynamic Vehicle Loading at Various Speeds

Speed Vision deflection Max(mm) LVDT deflection Max(mm) error (mm)
10km/h -1.850 -1.840 -0.01
20km/h -1.942 -1.902 -0.04
30km/h -1.891 -1.851 -0.04
40km/h -1.907 -1.857 -0.05
50km/h -1.941 -1.941 0.00

Fig. 14. Deflection Graph(dynamic,20km/h)

../../Resources/ksm/jksmi.2026.30.1.9/fig14.png

5. 결 론

본 연구에서는 기존 접촉식 센서(LVDT)의 설치 제약과 웹캠 기반 비전 시스템의 낮은 수집 빈도 및 정밀도 한계를 극복하기 위하여, 레이저 빔과 고속 액션캠, 그리고 딥러닝 기반 왜곡 보정 기술을 융합한 비접촉식 교량 처짐 측정 시스템을 개발하였다. 제안된 시스템의 성능 검증을 위해 실내 실험 및 실교량 대상 현장 재하 실험을 수행하였으며, 그 결과는 다음과 같다.

1) 시스템 고도화 및 보정 알고리즘의 우수성 입증: 기존 웹캠 대신 100 fps 촬영이 가능한 4K 액션캠을 도입하여 고속 동적 거동 계측이 가능하도록 시스템을 개선하였다. 또한, 딥러닝 기반의 상호 상관(cross-correlation) 좌표 보정 기법을 적용하여 픽셀 좌표와 실제 거리 간의 비선형 관계를 R$^2$=0.999998 수준으로 정밀하게 모사함으로써, 기존 방식 대비 획기적으로 향상된 예측 정확도를 확보하였다.

2) 실내 검증을 통한 정밀도 및 강건성 확인: 실내 실험 결과, 가로ㆍ세로 방향 선형성 검증에서 기준 센서와 0.1 mm 미만의 편차를 보였으며, 1 mm 이하의 미소 변위 구간에서도 약 0.03∼0.04 mm(약 1.5픽셀) 수준의 오차를 기록하여 하드웨어 분해능 한계에 근접한 정밀도를 입증하였다. 또한, 레이저 입사각 변화에 따른 도트 형상 왜곡이 계측 성능에 미치는 영향이 무시할 수 있는 수준임을 확인하여 현장 설치의 유연성을 확보하였다.

3) 현장 적용성 및 동적 계측 신뢰성 검증: PSC I-girder 교량(230 m)을 대상으로 한 현장 실험에서 정적 및 동적 하중 조건 모두 기준 센서(LVDT)와 매우 높은 일치도를 보였다. 정적 재하 시 최대 오차는 0.04 mm 이내로 매우 정밀하였으며, 10∼50 km/h의 동적 주행 실험에서도 최대 오차가 0.04∼ 0.05 mm 수준으로 억제되어, 고속 주행에 따른 동적 응답 특성을 실시간으로 정밀하게 추종함을 확인하였다.

결론적으로, 본 연구에서 제안한 레이저-액션캠 기반 변위 계측 시스템은 고가의 계측 장비나 복잡한 설치 과정 없이도 중소형 교량의 정적 및 동적 거동을 정밀하게 모니터링 할 수 있는 경제적이고 효율적인 솔루션임이 확인되었다. 향후 본 시스템은 노후화된 사회기반시설의 구조적 건전성을 상시 평가하고 잠재적 손상을 조기에 탐지하는 데 유용하게 활용될 수 있을 것으로 기대된다.

감사의 글

본 연구는 경기도 경제과학진흥원의 경기도 R&D 첫걸음 기업연구소 지원사업(D2403013)의 지원을 받아 수행되었으며, 이에 감사드립니다.

Note: Unless otherwise noted, all figures and tables were created by the authors based on the experimental results

References

1 
Catbas, F. N., Aktan, A. E. (2002), Structural health monitoring of civil infrastructure systems, Journal of Infrastructure Systems, 8(2), 89-96.Google Search
2 
Kim, J. K., Choi, W. S., Baik, S. H., Woo, U. Y., Choi, H. J. (2025), Study on Noise Reduction in Non-Attached, Non-Contact Displacement Detection Technology Using AI, Journal of the Korea Institute for Structural Maintenenace and Inspection, 29(2), 23-32.Google Search
3 
Feng, D., Feng, M. Q. (2015), Vision-based multipoint displacement measurement for structural health monitoring, Structural Control and Health Monitoring, 22(3), 558-574.DOI
4 
Zhang, Y., Liu, P., Zhao, X. (2021), Structural displacement monitoring based on mask regions with convolutional neural network, Construction and Building Materials, 268, 121175DOI
5 
Liao, K., Nie, L., Huang, S., Chunyu, L., Zhang, J., Zhao, Y., Gabbouj, M., Tao, D. (2025), Deep Learning for Camera Calibration and Beyond: A Survey, arXiv preprint arXiv:2303.10559Google Search
6 
Weng, Y., Quek, S. T., Yeoh, J. K. W. (2023), Robust vision-based sub-pixel level displacement measurement using a complementary strategy, Mechanical Systems and Signal Processing, 185, 109789Google Search
7 
Wen, H., Dong, R., Dong, P. (2024), Application of Deep Learning on Structure Displacement Measurement and Accuracy Analysis, Optics and Lasers in Engineering, 178, 108218DOI
8 
Lee, K. W., Kim, D. K., Park, Y. S. (2025), Experimental Validation of a Deep Learning Distortion-Corrected Laser-Vision System for Bridge Deflection Measurement, Journal of the Korea Institute for Structural Maintenance and Inspection, 29(4), 10-17.Google Search