김승우
(Seungwoo Kim)
1
최웅규
(Woonggyu Choi)
2
나상일
(Sangil Na)
3
박승희
(Seunghee Park)
4,*
-
학생회원, 성균관대학교 글로벌스마트시티융합전공 석사과정
-
비회원, 성균관대학교 글로벌스마트시티융합전공 석박통합과정
-
학생회원, 성균관대학교 글로벌스마트시티융합전공 석사과정
-
종신회원, 성균관대학교 건설환경공학부 교수, 교신저자
Copyright Ⓒ 2025 by The Korea institute for Structural Maintenance and Inspection.
핵심용어
도시 침수, 컴퓨터비전, 면적 추정, 실시간 감지, 딥러닝
Keywords
Urban Flood, Computer Vision, Area Estimation, Real-time Detection, Deep Learning
1. 서 론
현재 대한민국은 기후 변화로 인해 집중호우의 빈도와 강도가 점점 증가하고 있으며, 이는 도시 침수 피해를 더욱 심화시키는 요인으로 작용하고 있다(Zhang and Zhou, 2024). 2022년에 발생한 침수 사고는 막대한 재산 피해가 발생한 사고사례로 Fig. 1과 같다. 2022년 6월 29일 오후 3시부터 6월 30일 오전 10시까지 수원 일대에는 약 219.2 mm(누적 강수량)의 강우가 내렸다. 특히,
6월 30일 오전 9시부터 오전 10시 사이에는 57.8 mm가 내리며, 수원시 일대가 침수되는 사고가 발생한 이력이 있다.
Fig. 1 Suwon flood damage case in June 2022
특히 경기도 수원의 경우, 연평균 강수량의 변화는 크게 없지만, Fig. 2의 통계 분석 결과에 따르면 2001년부터 2024년까지 50 mm 이상, 80 mm 이상, 100 mm 이상의 강수일수가 전반적으로 증가하고 있는
양상이 관측되고 있다. 특히 100 mm 이상의 강한 집중호우 강도가 높아지고, 집중화 현상이 두드러지고 있다(기상청, 2025). 이는 평소 강수량
변화가 크지 않더라도, 대한민국 특성상 6월에서 8월에 도심지 기반 시설의 수용 한계를 초과하는 폭우가 발생할 가능성과 도시 침수 발생 가능성이 높아졌음을
시사한다.
이러한 변화는 도심지 기반 시설의 대응 역량을 초과하는 침수 피해로 이어지고 있으며, 이에 따라 실시간 침수 상황 파악 및 정확한 피해 규모 추정의
중요성이 부각되고 있다.
도심지 배수 시스템의 한계를 초과하는 강우는 광범위한 도심지 침수와 교통마비를 발생시킨다. 도시 침수에 효과적으로 대응하기 위해서는 실시간 침수 영역
탐지 및 침수 영역 면적 추정이 신속하게 이루어지는 것이 중요하다.
현재 도심지 침수 예방을 위한 방법으로는 센서 설치, 인력 조사 등 전통적인 방식이 주로 활용되고 있다. 하지만, 전통적인 방식은 다음과 같은 근본적인
한계를 지닌다. 센서는 특정 지점에 국한되어 설치되기 때문에 광범위한 지역에 대해서는 제한적이고, 실시간 모니터링이 어려우며, 운용 비용이 높다(Rose et al., 2022). 또한, 장비 구축 및 유지 관리에서도 상당한 비용이 수반된다. 인력 조사의 경우에는, 침수 상황의 실시간성에 대한 한계를 보인다. 이는 침수 발생
이후에 수작업으로 침수 범위를 측정하므로, 수시로 변화하는 침수 상황을 제대로 반영하지 못한다(Wienhold et al., 2023).
따라서 본 연구는 기존 방식의 한계를 보완하기 위해, CCTV 등 도심 내 영상 데이터를 활용하여 컴퓨터비전 기반의 실시간 침수 영역 탐지 및 면적
정량 추정 기법을 제안한다. 제안 방법은 영상 데이터를 통해 침수 영역을 자동으로 인식하고, 도로 표지판이나 신호등과 같은 기준 객체를 활용하여 해당
면적을 실제 단위(m²)로 계산한다. 이를 통해 단순 침수 여부 판별에 그치던 기존 연구를 넘어, 실시간성과 정량성을 동시에 확보할 수 있으며, 도시
재난 상황에서 신속하고 객관적인 의사결정을 지원할 수 있는 대안 기술로 기능할 것이다.
이 논문은 다음과 같은 순서로 구성되어 있다. 먼저 본 연구와 관련된 관련 연구 및 이론적 배경을 검토하여 직면해 있는 한계점을 조사한다. 이후 도전
과제들을 해결하기 위해 실험 배경과 본 연구에서 제안하는 전반적인 방법론을 설명한다. 나머지 부분에서는 제안된 방법을 검증하기 위해 설계한 실험과
결과를 설명한다.
2. 관련 연구 및 이론적 배경
2.1 도시 침수 감지를 위한 기존 연구
2.1.1 위성이미지와 GIS를 이용한 도시 침수 예측 및 분석
기존 연구에서는 위성 이미지의 경우, SAR(Synthetic Aperture Radar) 위성 영상 및 PlanetScope 광학 위성 영상 등
다양한 위성영상 및 이미지를 이용해 홍수 지도 제작 등 실시간 대응이 아닌 침수 피해가 발생한 이후 피해 규모 파악 및 향후 침수 예측에 관한 연구가
진행되고 있다 (Tanim et al., 2022; Van et al., 2025). GIS의 경우, 지형 정보(DEM, Digital Elevation Model), 강우량, 하천 범람 예측 데이터를 이용하여 침수 피해 영역을
예측하는 방식을 사용한다(Misra et al., 2025). GIS 기반 침수 예측 및 분석은 정밀 지형 데이터를 바탕으로 시뮬레이션 혹은 통계 분석을 통해 넓은 지역의 침수 영향을 파악할 수 있지만, 실시간
정보를 포함하고 있지 않다는 한계점이 있다(Fakhri and Gkanatsios, 2025).
Fig. 2 Suwon area daily precipitation and heavy rainfall trend lines by section (2001-2024)
2.1.2 카메라 기반 도시 침수 감지 및 모니터링
기존의 카메라 기반 도시 침수 감지 및 모니터링 연구는 단순 침수 영역 감지 및 추가 장비 사용 혹은 대상물과 비교하여 침수심을 측정하는 방식에 의존하고
있다(Zhao et al., 2025). 컴퓨터비전을 활용하여 침수 영역을 Bounding-Box로 처리하는 기법, Segmentation으로 감지하는 기법, 혹은 LiDAR를 활용한
침수심을 추정하는 기법, 침수 발생 시 대상물과 비교하여 물에 잠긴 높이를 산출해 침수심을 추정하는 기법을 사용하는 것이 일반적인 방법이다(Zamanizadeh et al., 2025; Zhong et al., 2023). 기존 연구들은 실시간성에 적합하지만 단순 침수 유무 판별에만 사용되며 면적 추정까지 연결된 연구는 드문 실정이다. 따라서 본 연구는 도시 CCTV를
활용하여 실시간으로 침수 영역을 탐지하고, 침수 영역의 면적을 정량적으로 계산하는 새로운 방법론을 제시한다는 점에서 기존 연구와의 차별점을 가진다.
2.2 딥러닝 및 컴퓨터비전 기반 분석 이론
2.2.1 딥러닝
딥러닝은 인공신경망을 기반으로 하여 데이터로부터 중요한 특징을 스스로 학습하고, 이를 통해 복잡한 문제를 해결할 수 있는 기계학습 기술이다. 특히
영상 인식 분야에서는 CNN(Convolutional Neural Network)이 대표적으로 활용되며, 객체의 검출, 분류, 영역 분할 등 다양한
작업에서 우수한 성능을 입증하고 있다(Goodfellow et al., 2016; Lamichhane et al., 2025). 본 연구는 영상 속 침수 영역을 자동으로 탐지하고 면적을 정량적으로 산출하기 위해 딥러닝 기법을 도입하였으며, 이를 통해 기존 전통적인 방식이
지닌 한계를 복복하고, 보다 효율적이며 신뢰도 높은 분석이 가능하도록 했다.
2.2.2 컴퓨터비전
컴퓨터비전(Computer Vision)은 디지털 영상으로부터 의미 있는 정보를 자동으로 인식하고 분석하는 기술로, 객체 검출, 분류, 영역 분할
등 다양한 응용 분야에서 활용되고 있다(Szeliski, 2022). 침수 감지 연구에서도 카메라 영상을 이용해 침수 영역을 탐지하거나 객체의 침수 정도를 파악하는 방식이 제안되어 왔다. 예를 들어, Mask R-CNN,
DeepLab 등과 같은 세그멘테이션 기반 딥러닝 기법은 객체 단위의 정밀한 영역 추정이 가능하나, 연산 복잡도가 높아 실시간 적용에는 제약이 따른다.
이에 비해 YOLO(You Only Look Once) 계열의 모델은 높은 검출 정확도와 빠른 처리 속도를 동시에 달성하여 실시간성에 유리한 장점을
가진다. 최근에는 Instance Segmentation까지 지원하는 YOLOv8이 등장하면서, 도시 침수와 같은 재난 상황에서 침수 영역뿐만 아니라
기준 객체(표지판, 신호등 등)의 영역까지 효율적으로 인식할 수 있게 되었다. 본 연구에서는 이러한 장점을 고려하여 YOLOv8을 기반으로 한 실시간
침수 영역 탐지 및 면적 추정 기법을 제안하며, YOLOv8의 구체적인 구조와 특징은 3장에서 상세히 설명한다.
3. 침수 영역 감지 및 면적 추정 실험 개요
3.1 침수 영역 감지 실험 방법
3.1.1 데이터 수집
학습 데이터는 AI hub에서 “태풍 및 홍수로 인한 피해 및 위험 데이터”와 “승용 자율주행차 주간 도심도로 데이터”를 수집하여 사용한다. “태풍
및 홍수로 인한 피해 및 위험 데이터”에서는 침수 영역과 정상 상태의 데이터를 분류하여 수집하고, “승용 자율주행차 주간 도심도로 데이터”에서는 전체
데이터 중 표지판과 신호등 데이터를 추출하여 사용한다. 하지만, “태풍 및 홍수로 인한 피해 및 위험 데이터”의 총 데이터 개수는 120,000개임에도
불구하고, 데이터 학습한 결과 정확도가 낮게 나오는 것을 확인할 수 있었다. 따라서 annotation 데이터를 Darwin v7 라벨링 툴을 이용하여
보정했다. 그 결과, 데이터 학습 정확도가 원본 데이터 보다 높아진 것을 확인할 수 있었다.
Table 1 Dataset outline
|
Data Area
|
태풍 및 홍수로 인한 피해 및 위험 데이터
|
|
Data Format
|
jpg
|
|
Labeling Format
|
JSON
|
|
Image Size
|
1,920*1,080
|
|
Total Data Collection Amount
|
120,000
|
|
Training : Validation
|
8:2
|
|
Data Area
|
승용 자율주행차 주간 도심도로 데이터
|
|
Data Format
|
jpg
|
|
Labeling Format
|
JSON
|
|
Image Size
|
1,920*1,080
|
|
Total Data Collection Amount
|
136,378
|
|
Training : Validation
|
8:2
|
3.1.2 데이터 학습 모델 선정
도심지의 침수 영역 감지를 수행하기 위해선 높은 정확도는 필수적인 요소이다. 또한, 실시간 감지를 위해선 지연시간이 최소화된 모델이 요구된다. 이러한
이유로 본 연구에서는 높은 정밀도와 연산 효율성에 모두 적합한 YOLO(You Only Look Once) 계열의 모델을 선정하였다. 그 중, Instance
segmentation이 가능한 모델인 YOLO v8 모델을 선정하였다(Reis et al., 2024; Yaseen, 2024). 도심 침수 영역을 실시간으로 탐지하기 위해서는 높은 정확도와 빠른 처리 속도가 동시에 요구된다. 이에 본 연구에서는 연산 효율성과 정밀한 객체
분할이 가능한 YOLO 계열 중 Instance Segmentation을 지원하는 YOLO v8 모델을 선택하였다.
YOLO v8은 기존 YOLO v5 대비 구조적 개선이 이루어진 모델로, 복잡하고 다양한 크기의 도심 객체를 효과적으로 인식하는 데 강점을 가진다.
YOLO v8의 주요 특징은 다음과 같다(Wang et al., 2019).
- Backbone: CSPDarknet53 + SPPF : 다중 스케일 특징을 효율적으로 추출하는 SPPF(Spatial Pyramid Pooling
– Fast) 모듈과 gradient 흐름을 최적화한 CSP(Cross Stage Partial) 구조가 결합되어, 높은 표현력과 연산 효율성을 동시에
확보한다.
- Neck: C2f 기반 특징 융합 : 기존 FPN(Feature Pyramid Network) 대신 C2f(Cross Stage Partial
with Faster gradient flow) 모듈을 사용해 고⋅저해상도 특징을 효율적으로 융합하면서도 연산량을 약 15% 절감한다.
- Head: Decoupled & Anchor-Free 구조 : 위치 예측과 클래스 분류를 병렬로 처리하는 Decoupled Head, 고정된 앵커
없이 다양한 객체 크기에 유연하게 대응하는 Anchor-Free 설계를 통해 성능(mAP)이 약 3.2% 향상된다.
이러한 구조적 장점을 바탕으로 YOLO v8은 도시 재난 상황에서 빠르고 정확한 실시간 침수 모니터링 시스템 구현에 적합한 기술적 기반을 제공한다.
Table 2 Data Learning Parameter
|
Parameter
|
Value
|
|
Batch size
|
16
|
|
Epochs
|
100
|
|
Optimizer
|
Adam
|
|
Learning Rate
|
0.0001
|
|
Input size
|
640*640
|
3.1.3 데이터 학습 평가지표
YOLO v8 모델은 mAP와 f1-score를 평가지표로 정확도와 검출률을 평가한다(Henderson and Ferrari, 2016; Everingham et al., 2010). mAP(Mean Average Precision)에서 AP(Average Precision)는 Precision-Recall Curve의 그래프
아래부분의 면적을 수치로 나타낸 것을 의미하고, mAP는 다중 class일 경우 AP 합의 평균을 의미한다.
여기서, TP는 True Positive(실제로 긍정인데 모델도 긍정으로 예측한 경우), FP는 False Positive(실제로는 부정인데 모델이
긍정으로 잘못 예측한 경우), FN은 False Negative(실제로는 긍정인데 모델이 부정으로 잘못 예측한 경우), TN은 True Negative(실제로
부정이고 모델도 부정으로 예측한 경우)를 의미한다.
Precision은 정밀도를 의미하며, 모델이 Positive로 판정한 결과 중 실제 Positive로 검출된 비율을 의미한다.
여기서, Recall은 재현율을 의미하며, 실제 Positive인 결과 중에서 모델이 Positive로 판정한 비율을 의미한다.
IoU(Intersection over Union)는 실제 Positive 영역과 모델이 Positive라고 판단한 영역의 합집합과 교집합의 비율을
의미한다. 또한, IoU는 데이터 학습 성능 평가 지표로 사용되는 것이 아닌 성능 평가를 하는 과정에서 사용되는 도구이다.
f1-score는 Precision과 Recall의 조화평균값으로 정밀도와 재현율 성능을 동시에 고려한 평가지표이다.
Table 3 Confusion Matrix
|
|
Actual
|
|
Positive
|
Negative
|
|
Predicted
|
Positive
|
TP
|
FP
|
|
Negative
|
FN
|
TN
|
3.1.4 데이터 학습
수집한 데이터를 기반으로 단독 학습한 결과 데이터의 불균형으로 낮은 검출률을 보이는 것을 확인했다. 데이터의 불균형으로 발생하는 문제점을 해결하고자
데이터세트를 조합하여 데이터 학습을 진행한다. 데이터 class는 총 3가지로 침수 영역은 Water_flow, 표지판은 traffic_sign,
신호등은 traffic_light로 명명했다. 데이터 class를 조합하여 사용한 데이터세트는 Table 4와 같다.
Table 4 Dataset Combination
|
Combination
|
Data class
|
|
case 1
|
Water_flow, traffic_sign
|
|
case 2
|
Water_flow, traffic_light
|
|
case 3
|
Water_flow, traffic_sign, traffic_light
|
Fig. 3은 각 데이터 세트별 학습한 결과를 나타내고 데이터 학습한 결과를 비교해본 결과, 3가지 class를 조합한 데이터 세트가 가장 높은 mAP와 f1-score를
보이는 것을 확인했다.
Fig. 3 Results of Dataset Combination
3.2 침수 영역 면적 추정 실험 방법
3.2.1 카메라 캘리브레이션(Camera Calibration)
카메라를 이용한 침수 영역 감지 및 침수 영역 면적 추정을 정확하고 정밀하게 하기 위해선 렌즈로부터 생기는 왜곡을 보정하는 작업인 카메라 캘리브레이션이
필수적이다. 카메라 캘리브레이션을 진행하면 내부 파라미터와 외부 파라미터를 추정하여 그 결과값을 이용하여 카메라 렌즈로부터 생기는 왜곡을 보정한다.
내부 파라미터로는 초점거리, 주점, 비대칭계수가 존재하고 외부 파라미터로는 회전 변환, 평행이동 변환 등 다양한 파라미터가 존재한다(Zhang, 2000).
카메라 캘리브레이션을 진행하기 위해서는 pattern을 이용하여 다양한 각도에서 checkerboard를 촬영하거나, 영상에서 이미지를 캡쳐한 이미지를
통해 파라미터를 추정하는 방법이 있다. 또한, 딥러닝을 사용하는 방식은 단일 이미지로 마커를 사용하지 않고 카메라 파라미터를 추정하는 방식이다. 본
연구에서는 실험 환경을 제어할 수 있는 환경이므로 pattern을 이용한 방식을 사용해 카메라 내외부 파라미터를 추정한다.
Fig. 4는 실제 실험에 사용한 checkerboard의 예시 이미지이다. 카메라 캘리브레이션을 진행한 결과는 Table 5와 같다.
Fig. 4 Example of checkerboard used in experiments
Table 5 Result of camera calibration
|
Parameter
|
Definition(unit)
|
Value
|
|
fx
|
Focal length x-axis (pixels)
|
2850.062335
|
|
fy
|
Focal length y-axis (pixels)
|
2850.062335
|
|
cx
|
Principal point x-axis (pixels)
|
1920.000000
|
|
cy
|
Principal point y-axis (pixels)
|
1080.000000
|
|
k1
|
Radial distortion coefficients
|
0.041946
|
|
k2
|
Radial distortion coefficients
|
-0.071663
|
|
p1
|
Tangential distortion coefficients
|
-0.000630
|
|
p2
|
Tangential distortion coefficients
|
-0.000414
|
3.2.2 침수 영역 면적 추정을 위한 마커 설계
본 연구에서는 도심지에서 자주 볼 수 있는 규격화된 도로시설물 중 표지판과 신호등을 마커로 대신하여 사용한다. 「대한민국 도로교통법」에 의하면 주의
표지의 면적은 202,500 mm², 경고 표지의 면적은 약 282,743 mm², 신호등의 면적은 504,100 mm²이다.
Fig. 5 Road facility specifications
3.2.3 픽셀 기반 침수 영역 면적 추정
데이터 학습 결과를 기반으로 침수 영역, 신호등, 표지판을 감지한 실시간 영상에 카메라 캘리브레이션 결과를 적용하여 카메라의 렌즈로부터 생기는 왜곡을
보정한다. 왜곡이 보정된 영상에서 감지된 표지판과 신호등의 픽셀을 실제 규격과 비교하여 단위 픽셀당 단위 면적을 계산한다. 계산된 단위 면적을 침수
영역의 픽셀에 적용하여 침수 영역의 면적을 추정한다. 추정한 침수 영역 면적의 단위는 m²이다.
4. 침수 영역 감지 및 면적 추정 결과
4.1 침수 영역 감지 및 면적 추정 실험 검증
4.1.1 침수 영역 감지 및 면적 추정 실험 위치 선정
본 연구는 실시간 침수 감지 및 면적 추정의 정확도를 향상시키기 위해 상습 침수 지역을 실험 대상지로 선정했다. 대상지는 대한민국 환경부에서 운영하는
‘홍수위험지도 정보시스템’을 기반으로 선정했다. ‘홍수위험지도 정보시스템’은 침수 이력 및 위험도를 시각화하여 공간적으로 제공한다. 이를 통해, 상습
침수 발생 지역과 과거 침수 이력을 확인해 대상지를 분석했다. 분석 결과, Fig. 6에 보이는 경기도 용인시 기흥구 보정동 탄천 지역에서 실험을 진행했다. ‘홍수위험지도 정보시스템’에 의하면 대상지는 30년 빈도 기준으로 침수 취약지로
분류된다. 또한, 대상지는 도심지 중심부로 실제 침수 발생 시 인명 피해 및 재산 피해 가능성이 높은 지역으로 침수 영역 감지 및 면적 추정의 타당성을
평가하기에 적합한 지역이다.
Fig. 6 Location of target area on flood risk map information system
4.1.2 침수 영역 감지 및 면적 추정 실험 비교군 설정
동일한 위치를 선정하기 위해 GPS(Global Positioning System) 좌표를 추출하여 위성 이미지에 GPS 좌표를 적용하여 면적을 계산했다.
본 연구 결과를 비교 검증하기 위해 대상지와 동일한 좌표(37°19′17″N 127°06′29″E)의 위성 이미지와 GIS(Geographic Information
System) 데이터를 이용한 비교군을 Fig. 7과 같이 설정한다. GIS에 사용하는 위치 좌표로 변환하여 면적을 계산했다. 위성 이미지는 2023년 4월 27일에 촬영된 이미지를 수집하여 사용하였으며,
공간 해상도는 0.3 m/pixel이다. 위성 이미지를 이용한 면적 추정 방식은 대상지를 촬영한 좌표의 3개의 점을 이용해 면적 추정을 진행하고 면적
추정 결과는 36.03 m²이다. GIS를 이용한 면적 추정 방식은 위성 이미지 좌표를 GIS 좌표계(GCS(Geographic Coordinate
System))로 변환하여 면적 추정을 진행하고 면적 추정 결과는 48.38 m² 이다. 위성 이미지를 이용한 결과를 참값으로 설정하고, GIS를
이용한 결과는 임계값으로 설정한다.
Fig. 7 Location of the comparison group target site
4.2 침수 영역 감지 및 면적 추정 실험 결과
카메라를 이용한 실시간 침수 영역 감지 및 면적 추정 실험 결과는 Fig. 8과 같다. 침수 영역과 표지판을 Fig. 8(a)와 같이 감지하고, 표지판의 규격과 픽셀을 비교하여 단위 픽셀당 면적을 계산한 결과는 Table 6과 같다.
Table 6 Comparison of Experimental Results
|
|
Area (m²)
|
FPS
|
|
Satellite image
|
Ground Truth
|
36.03
|
|
|
GIS
|
Threshold Value
|
48.38
|
|
|
Area estimation
|
Predicted Value
|
34.07
|
66.66
|
Fig. 8 Target Area Real-Time Water_flow Detection and Area Estimation Results
Table 6의 결과를 식 (4)에 적용하여 위성 이미지와 본 연구의 결과를 비교한 결과, 오차율은 약 5.63%이다.
본 연구에서는 데이터 불균형으로 인해 다중 클래스 조합 시 mAP가 0.548로 낮게 나타났으나, 단일 클래스 학습에서는 mAP가 0.7 이상으로
높았지만 검출률이 낮아 실시간 탐지에 한계가 있었다. 이에 따라 mAP는 다소 낮더라도 검출 안정성이 높은 다중 클래스 학습 방식을 채택하였다.
5. 결 론
본 연구에서는 도시 침수에 효과적으로 대응하기 위한 영상 기반 침수 탐지 및 면적 추정 시스템을 개발하였으며, 그 결과는 다음과 같다.
1. YOLO v8 기반의 딥러닝 모델을 활용하여 침수 영역(Water_flow)과 기준 객체(traffic_sign, traffic_light)를
동시에 탐지하고, 기준 객체의 크기와 위치를 이용해 침수 면적을 정량적으로 추정할 수 있는 시스템을 구축하였다. 이를 통해 전통적인 수위계 기반 탐지
방식의 한계를 극복하고, 실시간성과 정량성을 동시에 확보하였다.
2. 학습 데이터 구성에 있어 세 가지 클래스(Water_flow, traffic_sign, traffic_light)를 통합하여 학습한 조합이 가장
우수한 성능을 나타냈으며, mAP 0.548, F1-score 0.59의 정확도와 검출률을 확보하였다. 이는 침수 영역과 도로시설물 간의 정보 융합이
탐지 신뢰도 향상에 효과적임을 입증하였다.
3. 실제 홍수 위험 지역(경기도 용인시 보정동 일대)을 대상으로 실험을 수행하고, 위성 이미지 및 GIS 기반 면적 데이터와의 비교 분석을 통해
영상 기반 추정 면적의 오차율이 약 5.63%임을 확인하였다. 이는 영상 기반 침수 면적 추정의 실효성을 정량적으로 검증한 결과이다.
본 연구는 단일 고정형 카메라 기반으로 수행되었으며, 야간이나 기준 객체가 부재한 경우 등 일부 환경에서는 탐지 정확도 및 적용 가능성에 제한이 존재하였다.
또한, 본 연구에서 수행된 카메라 캘리브레이션은 내부 파라미터(fx, fy, cx, cy 등)를 추정하기 위한 과정으로, 실제 현장의 카메라 기울기나
지면 굴곡에 따른 외부 요인은 반영되지 않았다. 이러한 요인은 단위 픽셀당 실제 면적의 변화를 초래하여 면적 추정에 오차를 유발할 수 있으므로, 향후
연구에서는 Homography 기법, 2대의 카메라를 이용한 삼각측량(Trilateration) 기법, 그리고 MiDaS 알고리즘을 활용한 이미지
깊이 추정 기반 보정 모델의 도입이 필요하다.
또한, 학습 데이터는 AI-Hub 데이터와 일부 라벨 보정만으로 구성되어 있어, 야간⋅우천⋅저해상도 등 다양한 실제 재난 환경이 충분히 반영되지 못하였다.
향후에는 다양한 기상⋅조명 조건뿐만 아니라 영상 노이즈 제거, 명암비 향상, 색상 균질화 등의 전처리 기법을 도입하여 모델의 입력 품질을 향상시키고,
이를 기반으로 모델의 전반적인 성능을 개선할 예정이다.
아울러, 본 연구에서는 위성 이미지 및 GIS 데이터를 참값 비교 대상으로 활용하였으나, 보다 정밀한 검증을 위해 드론 영상이나 LiDAR 등 실측
데이터를 활용한 교차검증이 필요하다.
종합적으로, 향후 연구에서는 다중 CCTV를 기반으로 한 침수 지도 제작, Homography⋅삼각측량⋅MiDaS 기반 보정 모델, 다양한 환경 데이터
수집, 그리고 실측 데이터와의 교차검증을 통해 시스템의 정밀도와 적용 범위를 한층 향상시킬 계획이다.
감사의 글
이 논문은 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구(RS-2024-00336270)이고 정부(과학기술정보통신부)의
재원으로 한국연구재단의 지원을 받아 수행된 연구임(RS-2025-02223612). 또한, 국토교통부의 스마트시티 혁신인재육성사업으로 지원을 받아
수행된 연구임.
References
Zhang, W., Zhou, T., Wu, P. (2024), Anthropogenic amplification of precipitation variability
over the past century, Science, 385(6652), 427-432.

Rose, A., Wei, D., Machado, J., Spencer, K. (2022), Benefit–cost analysis of low-cost
flood inundation sensors, Natural Hazards Review, 23(4), 04022037

Wienhold, K. J., Li, D., Li, W., Fang, Z. N. (2023), Flood inundation and depth mapping
using unmanned aerial vehicles combined with high-resolution multispectral imagery,
Hydrology, 10(8), 158

Tanim, A. H., McRae, C. B., Tavakol-Davani, H., Goharian, E. (2022), Flood detection
in urban areas using satellite imagery and machine learning, Water, 12(4), 1140

Van, L. N., Nguyen, G. V., Kim, Y., Do, M. T. T., Kwon, S., Lee, J., Lee, G. (2025),
Rapid urban flood detection using PlanetScope imagery and thresholding methods, Water,
17(5), 1005

Misra, A., White, K., Nsutezo, S. F., Straka, III, W., Lavista, J. (2025), Mapping
global floods with 10 years of satellite radar data, Nature Communications, 16, 5762

Fakhri, F., Gkanatsios, I. (2025), Quantitative evaluation of flood extent detection
using attention U-Net: Case studies from Eastern South Wales, Australia in March 2021
and July 2022, Scientific Reports, 15, 12377

Woo, H., Choi, H., Kim, M., Noh, S. J. (2024), Estimating urban inundation using physics-informed
deep learning: A case study of the Oncheon-cheon catchment, Journal of Korea Water
Resources Association, 57(12), 989-1001.

Zhao, J., Wang, X., Zhang, C., Hu, J., Wan, J., Cheng, L., Shi, S., Zhu, X. (2025),
Urban waterlogging monitoring and recognition in low-light scenarios using surveillance
videos and deep learning, Water, 17(2), 707

Zamanizadeh, M., Cetin, M., Shahabi, A., Tahvildari, N. (2025), Depth estimation in
urban flooding using surveillance cameras and high-resolution LiDAR data, Environmental
Modelling and Software, 192, 106572

Zhong, P., Liu, Y., Zheng, H., Zhao, J. (2023), Detection of urban flood inundation
from traffic images using deep learning methods, Water Resources Management, 38, 287-301.

Goodfellow, I., Bengio, Y., Courville, A. (2016), Deep learning

Lamichhane, B. R., Srijuntongsiri, G., Horanont, T. (2025), CNN based 2D object detection
techniques: A review, Frontiers in Computer Science, 6, 1475664

Szeliski, R. (2022), Computer vision: Algorithms and applications (2nd ed.)

Masoumian, A., Marei, D. G. F., Abdulwahab, S., Cristiano, J., Puig, D., Rashwan,
H. A. (2021), Absolute distance prediction based on deep learning object detection
and monocular depth estimation, arXiv preprint

Reis, D., Hong, J., Kupec, J., Daoudi, A. (2024), Real-time flying object detection
with YOLOv8, arXiv preprint

Yaseen, M. (2024), What is YOLOv8: An in-depth exploration of the internal features
of the next-generation object detector, arXiv preprint

Wang, C.-Y., Liao, H.-Y. M., Yeh, I.-H., Wu, Y.-H., Chen, P.-Y., Hsieh, J.-W. (2019),
CSPNet: A new backbone that can enhance learning capability of CNN, arXiv preprint

Henderson, P., Ferrari, V. (2016), End-to-end training of object class detectors for
mean average precision, arXiv preprint

Everingham, M., Van Gool, L., Williams, C. K. I., Winn, J., Zisserman, A. (2010),
The PASCAL Visual Object Classes (VOC) Challenge, International Journal of Computer
Vision, 88, 303-338.

Zhang, Z. (2000), A flexible new technique for camera calibration, IEEE Transactions
on Pattern Analysis and Machine Intelligence, 22(11), 1330-1334.
