Mobile QR Code QR CODE

Journal of the Korea Concrete Institute

J Korea Inst. Struct. Maint. Insp.
  • Indexed by
  • Korea Citation Index (KCI)

  1. 정회원,한국건설기술연구원 미래스마트건설연구본부 박사후연구원, 교신저자



대기외란, 변위 측정, 비전센서, 템플릿 매칭 기법
Atmospheric turbulence, Displacement measurement, Vision sensor, Template matching technique

1. 서 론

많은 선진국에서 사회기반 시설물의 노후화는 주요 관심사이며, 구조물의 상태평가를 수행하여 구조부재의 보수, 보강뿐만 아니라 사용성 판단에 큰 노력을 기울이고 있다(ASCE, 2021; ICE, 2014).

구조물의 건전성 모니터링을 위해 주요부재의 변위를 측정하며, 측정된 변위를 활용하여 구조물의 모드해석, 처짐량, 내하력 및 손상도 측정이 가능하다(Spencer et al., 2019; Celik, 2018; Kim et al., 2013; Cha, 2017; Feng and Feng, 2015; Poozesh et al., 2017). 구조물의 변위량 측정을 위해 접촉식 센서 예를 들어 LVDTs (Linear Variable Differential Transformers), 가속도계, 레이저 변위계 등을 활용하여 계측하며, 이를 적극 활용하여 건설 구조물의 건전성 모니터링에 적용되고 있다.

이러한 접촉식 센서는 높은 수준의 분해능과 계측 정확도를 만족하고 있지만, 센서 설치는 노동집약적 업무이며 관심영역이 넓고 많아질수록 많은 수의 센서가 필요하다는 단점이 있다(Lee and Shinozuka, 2006; Feng et al., 2015; Yoon et al., 2016; Xu and Brownjohn, 2018). 언급된 단점을 보완하기 위해, 비접촉식 센서(GPS, 레이저 변위계, LiDAR, 레이더 등)를 활용한 연구가 진행되었다. 하지만 GPS의 낮은 계측 분해능, 작업자의 안전 문제 및 레이더 반사판의 추가 설치가 필요한 한계점을 보여준다(Kohut et al., 2013; Lee et al., 2014).

고성능의 이미지센서 및 광학 기술개발로 인해 비전센서를 활용하여 원격으로 넓은 관심영역의 구조물 변위를 계측하는 방안이 다양하게 제안되었다. 비전센서를 활용한 변위 계측의 원리는 이미지상 구조물의 픽셀 단위 변위와 실 구조물의 물리 변화량 계측치로 변환하는 단계로 이뤄진다(Kim et al., 2013; Feng and Feng, 2015; Yoon et al., 2016). 비전센서의 장점으로 1) 간편한 센서 설치, 2) 비접촉 원격 측정, 3) 다측점 계측이 있어 기존의 접촉식 센서의 문제점을 해결할 수 있다(Xu and Brownjohn, 2018). 하지만 단일 비전센서를 활용한 변위 계측의 문제점으로 1) 인공타겟 패널 설치, 2) Scaling factor에 따라 변동되는 변위 계측 분해능, 3) 센서 주변 환경 (조도변화, 대기외란 등)에 따른 계측 성능 변화는 비전센서 분야의 극복해야 할 도전과제로 남아있다(Feng and Feng, 2015; Luo et al., 2020).

비전센서의 계측 성능 저하의 주요 환경적 원인으로 대기외란은 태양열을 받아 뜨거워진 지면에서 복사열을 방출하면 지표면 주변공기가 가열되면서 불규칙한 대류 운동을 일으킨다. 이때 밀도가 낮은 따뜻한 공기를 빛이 통과할 때 굴절 현상이 발생한다(Liu et al., 2016). 이 굴절된 빛이 이미지센서를 통해 왜곡된 이미지를 생성하여 변위 계측의 성능을 저하시킨다(Luo et al., 2020).

조도 환경 변화에 따른 비전센서 계측 성능에 관한 연구는 활발히 이루어지고 있으나 대기외란을 극복에 관한 연구는 미비한 상태이며, 여전히 난제로 남아있다(Luo et al., 2020; Liu et al., 2016). 따라서, 본 논문은 대기외란시 비전센서를 활용한 구조물의 동적 변위를 계측하는 기법을 제안한다. 제안된 기법을 활용하여 인공적 대기외란 조건에서 조화진동이 가해진 3층 전단 구조물 횡변위 계측 정확도를 촬영거리에 따라 분석하여 제시한 기법의 계측 성능을 파악하였다.

2. 멀티스케일 템플릿 매칭 기법

비전센서 기반 구조물의 변위 계측을 위해서는 scaling factor를 활용하여 이미지상 구조물 변위를 실제 변위량으로 변환해야 하며, 대기외란 조건에서 변위 계측을 위해 안정된 객체인식 및 객체추적 알고리즘이 필요하다.

2.1 비전센서의 scaling factor

Scaling factor는 실제 물리적인 크기와 이미지상의 픽셀 단위의 상관관계로 표현할 수 있다(Badali et al., 2005). Fig. 1은 핀홀카메라에서 피사체가 이미지센서에 투영되는 과정의 모식도이다. 모식도에 나타나 있듯이, scaling factor는 피사체와 이미지센서 면이 광학축과 수직인 가정하에 식 (1)과 같이 표현 가능하다.

Fig. 1 Scaling factor for pinhole camera
../../Resources/ksm/jksmi.2024.28.3.1/fig1.png
(1)
$S =\dfrac{d_{object}}{I}d_{pixel}=\dfrac{D}{f}d_{pixel}[mm/pixel]$

여기서, $S$는 scaling factor이고, $d_{object}$와 $d_{pixel}$는 각각 피사체의 크기 및 이미지센서의 픽셀사이즈(mm/pixel)이며, $I$, $D$ 및 $f$는 각각 렌즈와 이미지센서의 거리, 피사체와 렌즈의 거리(촬영거리)와 렌즈의 초점거리이다. 촬영거리가 멀어짐에 따라 $I$와 $f$는 근사한 값을 가지기 때문에 렌즈의 초점거리로 치환하여 scaling factor를 계산할 수 있다(Badali et al., 2005; Hijazi et al., 2011).

2.2 멀티스케일 템플릿 매칭 기법(TMI: Template Matching with Image Pyramids)

비전센서 기반 변위 계측 시스템에 다양한 객체인식 및 추적 알고리즘이 사용된다. 대표적인 알고리즘으로 템플릿 매칭(template matching) 기법과 특징점(feature point) 추적 기법으로 변위 계측 시스템이 개발되고 있다(Feng and Feng, 2015; Kim et al., 2013; Yoon et al., 2016).

템플릿 매칭 기법은 참조 영상(이미지 패치)에서 템플릿영상과 유사도가 가장 높은 위치를 탐색하여 위치 간의 벡터를 계산하여 변위를 측정하는 방법이다. 선행 연구에서는 밝기 대비가 강한 인공 마커 및 구조물에 존재하는 특정 구조물(리벳 패턴, 트러스 조인트 등)을 참조 영상으로 활용하여 구조물의 변위를 계측하였다. 이 매칭 기법은 전통적으로 높은 변위 측정정확도를 확보하지만, 영상의 밝기 변화에 민감하며 고화소 이미지를 활용할 때 유사도 연산 시간이 증가하는 단점이 있다(Feng and Feng, 2015; Fukuda et al., 2010).

특징점 추적 기반 변위 계측 알고리즘은 1) 초기 영상의 관심영역(ROI: Region of Interest)내 특징점을 추출하고, 2) 다음 영상에서 초기 추출된 특징점과 유사한 특징점 대상 KLT tracker 알고리즘(Lucas and Kanade, 1981; Tomasi and Kanade, 1991)을 활용하여 추적하며, 3) 특징점의 이동 벡터와 scaling factor를 적용하여 구조물의 변위량을 측정한다. Shi-Tomasi Corner (Shi and Tomasi, 1994), SIFT:Scale-Inveriant-Feature Transform (Lowe, 2004), SURF:Speeded Up Robust Feature (Bay et al., 2006), KAZE (Alcantarilla et al., 2012) 등 다양한 특징점 검출 및 기술자 알고리즘이 적용되었으며, 낮은 연산 속도로 인해 고화소 이미지에 적용할 수 있지만, 대기외란으로 기인한 이미지 왜곡엔 취약한 단점이 있다.

대기외란 조건에서 고화소 이미지를 활용한 변위를 측정하기 위해 Alsaade(2012)MacLean and Tsotsos(2000) 에서 제안한 기법을 활용하여 Fig. 2와 같이 멀티스케일 템플릿 매칭 기법을 제안한다. 알고리즘의 첫 단계로 초기 이미지는 멀티스케일 이미지(이미지 피라미드) 생성 및 매칭을 위한 레퍼런스 이미지 저장에 활용된다. 다음 단계로 저장된 레퍼런스 이미지의 최대 유사도를 피라미드의 최상위 단계(Level 2) 이미지에서 찾는다. 1차로 얻어진 유사도는 다음 단계의 새로운 레퍼런스 이미지 저장에 사용되며 정밀한 최대 유사도 탐색 및 초기 레퍼런스 이미지 간의 벡터 계산에 적용된다.

레퍼런스 이미지 유사도를 계산법은 다양하지만, NCC (Normalized Cross Correlation)는 다른 알고리즘 대비 단순하고 빠른 방법으로 고화소 이미지에서 유사도 계산을 위해 많이 사용되는 방법이다(Lewis, 1995). 최대 유사도는 식 (2)와 같이 계산되며,

(2)
$\gamma(u,\: v)=\dfrac{1}{n}\sum_{x,\: y}\dfrac{(f(x,\: y)-\overline{f})(t(x,\: y)-\overline{t})}{\sigma_{f}\sigma_{t}}$
Fig. 2 Flowchart of multi-scale template matching algorithm
../../Resources/ksm/jksmi.2024.28.3.1/fig2.png

여기서, $n$은 픽셀의 개수이며, $f(x,\: y)$는 원본 이미지의 서브 이미지 픽셀이고, $t(x,\: y)$는 템플릿 이미지의 픽셀이며, $\overline{f}$와 $\overline{t}$는 서브 및 템플릿 이미지의 픽셀 평균값이고, $\sigma_{f}$와 $\sigma_{t}$는 서브 및 템플릿 이미지 픽셀의 표준편차다.

3. 실험 검증

제안한 매칭기법의 대기외란시 변위 측정정확도를 촬영거리에 따라 검증하기 위해 실험실 수준 실험을 수행했다. 3층 전단 구조물을 조화진동으로 가진하였으며, 열 발생장치로 대기외란 조건을 인공적으로 재현하여 전단 구조물 횡변위 측정시 왜곡된 이미지를 생성하였다. 사전실험을 통해 선행연구에서 개발된 특징점 추적 기반 변위 측정과 제안기법의 변위 측정 성능을 비교 분석하였다. 더불어 제안기법의 촬영거리 및 타겟의 종류에 따른 변위 측정정확도 분석을 추가로 진행하였다.

3.1 실험 개요

제안기법 적용 가능성 분석과 변위 측정정확도 성능 검증을 위해 수행한 실험의 개요는 Fig. 3과 4와 같다. 알루미늄 재질 바닥판(300mm×200mm)과 스테인레스 재질 기둥(300mm× 25mm)을 볼트 접합한 3층 전단 구조물을 디자인하여 서브모터 회전운동을 바닥층의 1축 좌우 반복운동으로 변환시켜 전단 구조물의 약축방향으로 180초 동안 가진시켰다. 바닥층 변위량은 ±14.5mm이며, 0.67s 주기로 조화진동을 가진하였으며, 이때 발생한 각층 횡변위는 LVDT로 계측하였다. 전단 구조물 변위 응답은 DAQ (data acquisition system)로 샘플링속도 120Hz로 수집하였다.

비전센서 기반 변위 응답을 측정하기 위해 72mm의 초점거리(35mm 이미지센서 환산 200mm)의 DSC-RX100M7 카메라를 사용하였으며, FHD급(1920×1080) 화질로 120fps로 영상을 기록하였다. 자동 초점 기능으로 인한 촬상면의 이미지 블러(blur)현상을 줄이고자 수동으로 초점을 고정하였다. 변위 측정 실험 시 실내 조도는 450lux로 고정하였으며, 대기외란 조건을 만들기 위해 핫플레이트를 카메라 전방 300mm에 배치하여(Fig. 4) 200℃까지 상승시켜 실내온도 18℃에서 Fig. 5와 같이 대기외란을 발생시켰다.

사전실험으로 촬영거리 10m에서 특징점 기반 변위 측정 알고리즘(Cho and Gong, 2023)과 제안기법을 적용하여 바닥층 변위 응답을 계측하였으며, 제안기법의 촬영거리 및 타겟의 종류별 변위 측정 성능을 분석하였다. 타겟 종류에 따른 제안기법의 측정정확도 분석을 위해 밝기의 대비가 강한 인공 타겟 (105mm×70mm)을 전단 구조물 각 층 중앙지점에 부착하였으며(Fig. 3의 빨간 면적), 자연 타겟(20mm×20mm)으로 볼트 접합부(Fig. 3의 초록 면적)로 선정하였다. 카메라의 최초 촬영거리를 10m로 설정하였으며, 토탈스테이션을 사용하여 촬영거리를 10m 단위로 멀어지면서 최대 40m에서 변위를 측정하였다. 이러한 조건에서 scaling factor는 0.95mm/pixel에서 1.91mm/ pixel, 2.87mm/pixel, 최대 3.81mm/pixel로 변화하였다.

Fig. 3 Frame structure configuration (front view)
../../Resources/ksm/jksmi.2024.28.3.1/fig3.png
Fig. 4 Shaking table test set up with atmospheric disturbance
../../Resources/ksm/jksmi.2024.28.3.1/fig4.png
Fig. 5 Test configuration comparison at measurement distance of 10m (a) Test set up in normal illuminance (450lux), (b) Test set up with optical turbulence
../../Resources/ksm/jksmi.2024.28.3.1/fig5.png

3.2 실험 결과

3.2.1 대기외란시 제안기법과 특징점 추적 기반 변위 측정 결과 비교

Fig. 6은 대기외란시 촬영거리 10m에서 base floor의 변위를 인공타겟을 활용하여 KAZE (Alcantarilla et al., 2012)특징점(KZF) 과 제안기법(TMI)의 시간-변위 응답 결과를 사비츠키-골레이 필터(Savitzky and Golay, 1964)로 평활화한 결과와 LVDT 데이터와 비교한 그래프이다.

대기외란 발생 시점(2sec)부터 변위 발생 시점까지(22sec) base floor의 변위는 발생하지 않았지만, KZF는 대기외란으로 발생한 이미지 왜곡으로 인해 측정 오차가 발생하였다. 바닥층 변위가 발생하면서 변위 경향성이 LVDT 데이터와 잘 일치하는 것을 보여줬지만, RMSE (Root Mean Square Error)와 변위 최대 진폭에서 평균 에러율(MAPE: Mean of Absolute Peak Error)이 각각 –2.26mm와 31.23%로 계산되었다.

Fig. 6 Disp. measurement comparison
../../Resources/ksm/jksmi.2024.28.3.1/fig6.png

TMI의 경우 구조물이 정지한 상태에서 대기외란으로 인해 약간의 oscillation이 발생하였지만, 바닥층 횡변위가 발생한 시점부터 인공 타겟 위치를 잘 추적하여 RMSE와 MAPE가 각각 1.58mm와 1.11%로 계산되었다. 이를 통해 제안기법은 특징점 기반 변위 측정법보다 낮은 오차율로 변위 측정이 가능한 것으로 나타났다.

3.2.2 대기외란시 촬영거리 및 타겟 종류에 따른 제안기법의 변위 측정 성능 결과

대기 발생 유무 및 촬영거리의 증가에 따라 TMI의 측정 성능을 비교 분석하였고, Table 1에 RMSE 와 MAPE 결과를 정리하였다. Fig. 7과 8은 대기외란시 제안기법(TMI)을 적용하여 측정된 전단 구조물의 시간-변위 응답을 LVDT 계측 결과와 비교한 것이다.

Fig. 7 Disp. measurements of LVDT and TMI using artificial target. (a) Measurement dist. 10m, (b) Measurement dist. 40m
../../Resources/ksm/jksmi.2024.28.3.1/fig7.png
Table 1 Error quantification

Optical Turbulence

Error

Target type

Measurement dist. [m]

10

20

30

40

w/o OT1

RMSE

[mm]

A2

0.87

0.96

1.23

1.39

B3

0.92

0.99

1.12

1.41

MAPE

[%]

A

1.06

1.22

1.95

4.98

B

1.75

1.94

-4.69

-10.24

w/ OT

RMSE

[mm]

A

1.62

1.82

2.05

4.11

B

1.92

3.17

8.48

35.79

MAPE

[%]

A

1.16

1.35

2.20

5.97

B

1.35

-1.46

-5.43

68.33

1Optical turbulence, 2Artificial target, 3Bolt connection

Table 1 에서 볼 수 있듯이, 대기외란이 발생하지 않는 일반 실내 조도와 촬영거리 10m에서 인공 타겟을 활용한 TMI의 RMSE는 0.87mm로 계산되었으며, 촬영거리 40m에서 RMSE가 10m 대비 160% 증가하여 1.39mm로 나타났다. 촬영거리 10m와 40m에서의 MAPE는 각각 1.06% 와 4.98%로 촬영거리 증가에 따라 MAPE도 함께 증가하는 것으로 나타났다.

자연 타겟을 활용한 TMI의 RMSE는 촬영거리 10m에서 0.92mm로 계산되었으며, 촬영거리가 증가함에 따라 RMSE가 증가하여 40m에서 1.41mm로 계산되었다. MAPE는 촬영거리 20m까지 증가하다가 30m부터 급격하게 감소하는 것으로 나타났다.

Fig. 7(a)와 (b)는 촬영거리 10m와 40m에서 인공 타겟을 레퍼런스 이미지로 활용한 TMI 결과를 나타낸 것이다. 비교 그래프에서 볼 수 있듯이 대기외란이 발생하였을 때 촬영거리 10m와 40m에서 모든 층에서 인공 타겟을 활용한 TMI는 LVDT 계측 데이터의 경향성과 잘 일치하는 것을 보여줬다. TMI의 RMSE 값은 촬영거리 10m에서 1.62mm였으나, 촬영거리가 10m씩 증가함에 따라 각각 1.1배, 1.3배, 2.5배 증가하였고, 촬영거리 10m의 MAPE는 1.16%였으며, 40m의 경우 5.97%로 나타났다.

촬영거리 10m와 40m의 볼트 연결부를 활용한 TMI 변위 응답과 LVDT 비교한 결과는 Fig. 8(a)와 (b)에 각각 나타났다. 인공적 타겟과 비슷한 경우로 촬영거리 10m에서 자연 타겟을 활용한 TMI 측정값은 LVDT 데이터의 경향성과 잘 일치하는 것을 보여줬다. RMSE는 1.92mm로 계산되었으며, MAPE는 1.35%의 에러율을 나타냈다. 반면에, 촬영거리 20m 이상부터 RMSE가 10m 대비 1.65배, 4.42배, 18.6배 증가하였으며, 촬영거리 40m에서 볼트 연결부 활용한 TMI는 진폭이 평균 68.33% 높게 측정되었었다.

대기외란시 촬영거리 증가에 따라 자연 타겟을 활용한 TMI의 MAPE의 증가 원인분석을 위해 변위 측정 실험 시점과 종점 템플릿 이미지의 NCC를 타겟의 종류별로 비교 분석한 결과가 Fig. 9와 10에 나타났다. Fig. 9에서 볼 수 있듯이, 인공 타겟을 적용한 TMI는 초기 레퍼런스 템플릿의 NCC 최대값 주변 x축과 y축 미분값이 촬영거리가 증가하여도 높게 유지하는 것으로 나타났다.

Fig. 8 Disp. measurements of LVDT and TMI using natural target. (a) Measurement dist. 10m, (b) Measurement dist. 40m
../../Resources/ksm/jksmi.2024.28.3.1/fig8.png
Fig. 9 NCC comparison of artificial target. (a) NCC of template image from initial frame at 10m, (b) NCC of template image from final frame at 10m (c) NCC of template image from initial frame at 40m (d) NCC of template image from final frame at 40m
../../Resources/ksm/jksmi.2024.28.3.1/fig9.png

촬영거리 10m의 자연 타겟의 경우(Fig. 10(a)), NCC 최대값 주변 기울기가 변위 측정 실험 종료 시점까지 높게 유지하는 것을 관찰할 수 있다. 하지만, 촬영거리가 40m로 증가하면서 scaling factor도 동시에 증가하여 ROI의 낮은 해상력으로 인해 NCC 최대값 주변 미분값이 낮아지며, 레퍼런스 이미지 위치추적에 오류를 발생시킨다. 이런 메카니즘으로 본 기법의 밝기 대비가 강한 인공 타겟은 대기외란 조건에서 매칭 성능을 증가시키는 레퍼런스 이미지를 제공하여 높은 변위 측정 성능을 보여줬다. 하지만 낮은 해상력과 대비가 약한 자연 타겟은 NCC 최대값 주변 낮은 기울기 값으로 인하여 낮은 변위 측정 성능을 나타냈다.

Fig. 10 NCC comparison of natural target. (a) NCC of template image from initial frame at 10m, (b) NCC of template image from final frame at 10m (c) NCC of template image from initial frame at 40m (d) NCC of template image from final frame at 40m
../../Resources/ksm/jksmi.2024.28.3.1/fig10.png

4. 결 론

본 연구는 대기외란 조건에서 비전센서를 활용한 구조물 변위 응답을 멀티스케일 템플릿 매칭 기법으로 인공 및 자연 타겟을 활용하여 구조물의 변위량을 촬영거리를 변화하며 계측하였으며, 제안한 기법에 대한 변위 측정 성능을 분석하였다. 본 연구의 주요 결론은 다음과 같다.

사전실험을 통해 대기외란 조건에서 특징점 기반 변위 측정 기법은 제안기법 대비 낮은 측정정확도를 보여줬다. 이는 대기외란시 굴절된 빛으로 인한 이미지 왜곡이 특징점 검출 및 추적에 영향을 미쳐 인공 타겟을 사용하여도 높은 변위 측정 에러율이 나타났다. 반면에 제안기법은 대기외란 조건에서 특징점 추적 기반 변위 측정 기법보다 강건한 변위 측정 결과를 보여줘 대기외란 조건에서 변위 측정에 적용할 수 있는 것으로 판단된다.

일반 실내조명 조건에서 제안기법의 촬영거리 증가 및 타겟의 종류에 따라 변위 측정 성능을 비교한 결과, 대비가 강한 인공 타겟을 활용한 TMI는 최대 촬영거리 40m에서 1.39mm의 RMSE 4.98%의 MAPE값을 나타냈다. 하지만 동일한 조건에서 자연 타겟을 활용한 TMI의 RMSE는 1.41mm로 비슷한 수준의 측정 성능을 보여줬지만 –10.24%의 MAPE값이 계산되면서 제안기법의 자연 타겟의 활용에 한계점을 나타냈다.

대기외란을 발생하여 변위 측정 성능을 비교한 결과, 인공 타겟을 활용한 TMI는 일반 실내조명 조건에 준하는 변위 측정 성능을 보여준다. 하지만, 자연 타겟의 경우 촬영거리 40m에서 scaling factor의 증가로 템플릿 이미지의 해상력을 저하가 NCC 피크점 추적을 방해하여 변위 측정에 한계점을 보여줬다.

비전센서의 높은 해상력은 센서의 높은 계측 분해능과 연결되기 때문에, 충분한 해상도 확보는 원격 변위 측정에 필요한 조건이다. 향후 진행할 연구에서 자연 타겟의 활용 한계점을 극복하고자, 초해상화(super-resolution) 기술을 활용하여, 자연 타겟의 해상력 증가에 따른 변위 측정 성능분석 및 평가를 진행할 예정이다.

감사의 글

본 연구는 과학기술정보통신부 한국건설기술연구원 연구운영비지원(주요사업)사업으로 수행되었습니다(20240143-001, 미래 건설산업견인 및 신시장 창출을 위한 스마트 건설기술 연구).

References

1 
ASCE (2021), 2021 Report Card for America's Infrastructures, American Society of Civil Engineers.URL
2 
ICE (2014), The State of the Nation: Infrastructure 2014, Institution of Civil Engineers.URL
3 
Spencer Jr, B. F., Hoskere, V., and Narazaki, Y. (2019), Advances in computer vision-based civil infrastructure inspection and monitoring, Engineering, 5(2), 199-222.DOI
4 
Celik, O., Dong, C. Z., and Catbas, F. N. (2018), A computer vision approach for the load time history estimation of lively individuals and crowds, Computers & Structures, 200, 32-52.DOI
5 
Kim, S. W., Jeon, B. G., Kim, N. S., and Park, J. C. (2013), Vision-based monitoring system for evaluating cable tensile forces on a cable-stayed bridge, Structural Health Monitoring, 12(5-6), 440-456.DOI
6 
Cha, Y. J., Chen, J. G., and Buyukozturk, O. (2017), Output-only computer vision based damage detection using phase-based optical flow and unscented Kalman filters, Engineering Structures, 132, 300-313.DOI
7 
Feng, D., and Feng, M. Q. (2015), Model updating of railway bridge using in situ dynamic displacement measurement under trainloads, Journal of Bridge Engineering, 20(12), 04015019.DOI
8 
Poozesh, P., Sarrafi, A., Mao, Z., and Niezrecki, C. (2017), Modal parameter estimation from optically-measured data using a hybrid output-only system identification method, Measurement, 110, 134-145.DOI
9 
Lee, J. J., and Shinozuka, M. (2006), A vision-based system for remote sensing of bridge displacement, Ndt & E International, 39(5), 425-431.DOI
10 
Feng, D., Feng, M. Q., Ozer, E., and Fukuda, Y. (2015), A vision- based sensor for noncontact structural displacement measurement, Sensors, 15(7), 16557-16575.DOI
11 
Yoon, H., Elanwar, H., Choi, H., Golparvar‐Fard, M., and Spencer Jr, B. F. (2016), Target‐free approach for vision‐based structural system identification using consumer‐grade cameras, Structural Control and Health Monitoring, 23(12), 1405-1416.DOI
12 
Xu, Y., and Brownjohn, J. M. (2018). Review of machine-vision based methodologies for displacement measurement in civil structures. Journal of Civil Structural Health Monitoring, 8, 91-110.DOI
13 
Kohut, P., Holak, K., Uhl, T., Ortyl, Ł., Owerko, T., Kuras, P., and Kocierz, R. (2013), Monitoring of a civil structure’s state based on noncontact measurements, Structural Health Monitoring, 12(5-6), 411-429.DOI
14 
Lee, J., Cho, S., and Sim, S. (2014), Vision-Based Displacement Measurement System Operable at Arbitrary Positions, Journal of the Korea Institute for Structural Maintenance and Inspection, 18(6), 123-130 (in Korean).URL
15 
Luo, L., Feng, M. Q., and Wu, J. (2020), A comprehensive alleviation technique for optical‐turbulence‐induced errors in vision‐based displacement measurement, Structural Control and Health Monitoring, 27(3), e2496.DOI
16 
Liu, J., Xue, B., and Cui, L. (2016, November), Analysis of statistical properties of atmospheric turbulence-induced image dancing based on Hilbert transform and dense optical flow, 2016 IEEE 13th International Conference on Signal Processing (ICSP), IEEE, 702-707.DOI
17 
Badali, A. P., Zhang, Y., Carr, P., Thomas, P. J., and Hornsey, R. I. (2005, October). Scale factor in digital cameras. In Photonic Applications in Biosensing and Imaging (Vol. 5969, pp. 556-565). SPIE.DOI
18 
Hijazi, A., Friedl, A., and Kahler, C. J. (2011), Influence of camera’s optical axis non-perpendicularity on measurement accuracy of two-dimensional digital image correlation, Jordan Journal of Mechanical and Industrial Engineering, 5(4), 1-10.URL
19 
Fukuda, Y., Feng, M. Q., and Shinozuka, M. (2010), Cost‐effective vision‐based system for monitoring dynamic response of civil engineering structures, Structural Control and Health Monitoring, 17(8), 918-936.DOI
20 
Lucas, B. D., and Kanade, T. (1981, August), An iterative image registration technique with an application to stereo vision, Proceeding of 7th international joint conference on Artificial intelligence, Canadam Vol. 2, 674-679.URL
21 
Tomasi, C., and Kanade, T. (1991), Detection and tracking of point, Int J Comput Vis, 9, 137-154.URL
22 
Shi, J. and Tomasi, C. (1994, June), Good features to track, 1994 Proceedings of IEEE conference on computer vision and pattern recognition, IEEE, Seattle WA USA, 593-600.DOI
23 
Bay, H., Tuytelaars, T., and Van Gool, L. (2006), Surf: Speeded up robust features, Computer Vision–ECCV 2006: 9th European Conference on Computer Vision, Springer Berlin Heidelberg, Graz, Austria, 404-417.DOI
24 
Lowe, D. G. (2004), Distinctive image features from scale- invariant keypoints, International Journal of Computer Vision, 60, 91-110.DOI
25 
Alcantarilla, P. F., Bartoli, A., and Davison, A. J. (2012), KAZE features, Computer Vision–ECCV 2012: 12th European Conference on Computer Vision, Springer Berlin Heidelberg, 214-227.DOI
26 
Alsaade, F. (2012), Fast and accurate template matching algorithm based on image pyramid and sum of absolute difference similarity measure, Research Journal of Information Technology, 4(4), 204-211.URL
27 
MacLean, J., and Tsotsos, J. (2000, September), Fast pattern recognition using gradient-descent search in an image pyramid, 15th International Conference on Pattern Recognition, IEEE, 873-877.DOI
28 
Lewis, J. P. (1995, May), Fast normalized cross-correlation, Vision Interface, 120-123.URL
29 
Cho, D., and Gong, J. (2023), A Feasibility Study on Extension of Measurement Distance in Vision Sensor Using Super-Resolution for Dynamic Response Measurement, Sensors, 23(20), 8496.DOI
30 
Savitzky, A., and Golay, M. J. (1964), Smoothing and differentiation of data by simplified least squares procedures, Analytical Chemistry, 36(8), 1627-1639.DOI