• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Radio Communication Engineering / Interdisciplinary Major of Maritime AI Convergence, National Korea Maritime & Ocean University, Korea)



Angle of Incidence, Convolutional Neural Network, Space-Target, Micro-Doppler Signature, Micro-Motion

1. 서 론

레이다 탐지하는 우주표적(Space-target)은 다양한 타겟들이 존재한다. 대표적으로 위협 우주표적(Warhead), 기만체(Decoy), 파편(Debris) 등이 있다. 이러한 우주표적들은 발사체를 비롯한 비행체가 대기권 밖으로 비행하는 과정에서 발사체 분리되거나 의도적으로 떨어뜨림으로써 관측될 수 있다. 이러한 우주표적들은 발사체에서부터 분리되어 대기권 밖에서 낮은 공기저항으로 다수의 타겟들이 그룹지어 움직이기 때문에 이러한 환경에서 위협 우주표적을 정확하게 인식할 필요가 있다[1]. 기존의 고해상도 거리 측면도(HRRP; High-resolution range profile)나 역합성 개구면 레이다(ISAR; Inverse-synthetic aperture radar) 영상과 달리 미세도플러 특징(Micro-Doppler signature)을 이용한 표적 식별은 수십 년간 광범위하게 연구되었다[2]. 우주표적은 보통 중간 단계(Mid-course phase) 중 궤적에서 벗어나지 않기 위해 회전 안정화하며, 지구의 중력의 영향으로 세차운동(Precession)과 장동(Nutation)을 보인다[3]. 이러한 우주표적의 세차운동, 자전(Spin), 장동 등의 미세운동(Micro-motion)은 레이다를 이용한 관측에서 특징적인 미세도플러(Micro-Doppler) 효과를 야기하며 따라서 미세도플러 주파수을 하나의 특징으로써 우주표적의 분류에 사용될 수 있다.

우주표적의 식별에 관한 연구는 최근에도 꾸준히 이루어지고 있다. 우주표적의 적외선을 분류하기 위해 RNN(Recurrent neural networks) 심층학습 모델을 설계하거나[4,5], 앙상블 분류기와 향상된 Dempster-Shafer 증거 이론을 결합한 Multi-feature decision-level fusion을 제안하였다[6]. 또한 레이다 반사 단면적(RCS; Radar cross-section)이나[1, 7~9] HRRP[10]로부터 우주표적을 분류하거나, RCS와 HRRP를 포함한 다중 특징을 융합하는 문헌도 존재한다[11~14]. 특히 우주표적은 세차운동, 자전, 장동 등의 미세운동을 가지므로 많은 수의 문헌들이 미세운동의 특징을 잘 보여줄 수 있는 형태로 레이다 신호를 변환하여 우주표적을 분류하고 있다. 이러한 형태는 스펙트로그램(Spectrogram)과 같은 2-D Time-frequency 영상[15~18]이나 Time-range map[19~21], CVD(Cadence velocity diagram)[2~3] 등 다수 존재하며 시간, 거리, 속도, 전력의 4-D point cloud 형태로도 가공한 사례도 있다[22].

위처럼 레이다 관측으로부터 반사된 전자기적 신호뿐 아니라 RCS, HRRP, 거리, 속도, 도플러 주파수 등을 얻을 수 있다. 또한 우주표적의 진행 방향과 레이다의 고도각을 알고 있다면 간단한 벡터 연산으로 우주표적에 대한 레이다 전자기파의 입사각을 알 수 있으며, 어떤 물체에 대한 전자기파의 입사각은 그 반사된 전자기파와 관련이 있으므로 입사각 특징을 우주표적의 분류에 활용할 수 있다. Lee 등[2]은 레이다 전자기파의 우주표적에 대한 입사각에 따라 미세도플러 특징 영상에 전처리함으로써 위협 우주표적 간의 분류 성능을 향상시켰다. 그러나 위협 우주표적의 형태는 방어자산의 할당, 교전 우선순위 및 방어전략 수립의 중요 요소이므로[23], 위협 우주표적의 종류를 구분해 어떤 종류인지 식별하는 것은 관련 레이다의 필수 기능이다. 따라서 본 논문에서는 합성곱 신경망(CNN; Convolutional neural networks)과 미세도플러 특징을 이용한 우주표적의 분류에서 표적에 대한 입사각 특징을 수동으로 입력해 줌으로써 위협 우주표적과 비위협 우주표적간 분류 성능을 포함하여 위협 우주표적 사이의 분류 성능 또한 향상시키고자 한다.

본 논문은 다음으로 구성되어 있다. 2 장은 CNN의 훈련에 사용된 데이터셋에 대한 내용이며, 3 장은 본 논문에서 제안하는 방법과 시뮬레이션을 위한 설정들을 서술하였다. 4 장은 제안하는 방법을 적용 여부를 달리하여 수행한 시뮬레이션 결과와 그 고찰이 내용이고 5장은 본 논문의 결론이다.

2. 우주표적의 데이터셋

데이터셋에 대한 서술에 앞서, 본 논문에서 CNN 모델의 훈련에 사용한 우주표적 데이터셋은 [3]에서 사용된 우주표적 모델과 동일한 모델을 생성하였음을 밝힌다. 생성된 모델들에 대한 전자기 해석은 FEKO의 PO(Physical optics)를 이용하여 수행하였다. 우주표적 모델의 시뮬레이션을 통해 계산된 동적 RCS를 변환하면 2-D Time-frequency 영상인 스펙트로그램을 얻을 수 있으며, CNN 모델은 이를 훈련하여 우주표적을 분류할 수 있다. 스펙트로그램은 윈도우가 시간축을 따라 지날 때 고속 푸리에 변환(FFT; Fast Fourier transform)을 수행함으로써 얻을 수 있으며[2], 데이터셋의 스펙트로그램은 시간축과 도플러 주파수축에서의 강도를 나타낸다.

위협 우주표적의 미세운동에 세차운동과 장동이 포함되는 것은 잘 알려져 있으며, 세차운동은 회전 안정화와 같은 표적의 자세 조정 시스템이 원인이고 장동은 작은 장동각을 가지는 미세진동의 하나이다[18, 24~25]. 그림 1은 세차운동 및 자전을 하는 우주표적과 이를 관측하는 레이다를 기하학적으로 표현한 것이다. 우주표적은 진행방향 $\hat{{z}}$를 따라 이동하며, 우주표적의 자전축 $\hat{a}$는 $\theta_{p}$만큼 기울어져 $\hat{{z}}$를 중심으로 회전하며 세차운동을 한다. 이때 레이다가 우주표적을 관측하는 LoS(Line of sight)와 $\hat{{z}}$의 법선평면이 이루는 고도각과 방위각은 각각 레이다 전자기파의 입사각 $\theta_{i}$와 $\phi_{i}$이다.

그림 1. 세차운동과 자전을 가진 우주표적과 레이다의 기하학적 표현

Fig. 1. Geometry of radar and target with precession and spin

../../Resources/kiee/KIEE.2024.73.9.1551/fig1.png

표 1 데이터셋 생성을 위한 동적 및 레이다 시스템 파라미터[3]

Table 1 Dynamic and radar system parameters for dataset generation[3]

Parameter

Values

Step

Rotation rate ($\omega_{p}$)

0.25–3 Hz

0.25 Hz

Incident angle ($\theta_{i}$)

0–85°

Precession angle ($\theta_{p}$)

4–12°

Initial direction of debris ($\theta_{init}$)

0–180°

10°

SNR

-10–20 dB, w/o noise

5 dB

Operating frequency

X-band

Time step: 0.2 ms

Sampling frequency

5 kHz

Dwell time

1 s, 2 s, and 4 s

데이터셋 생성에 사용된 우주표적의 종류는 원뿔(Cone), 뭉툭한 원뿔(Rounded cone), 날개 달린 원뿔(Cone with empennages), 원통(Cylinder), 굽은 사각판(Curved plate), 그리고 평평한 사각판(Squared plate)으로 총 여섯 가지이며 이는 그림 2와 같다[3]. 이 중 원뿔 종류의 모델은 $\hat{a}$를 따라 세차운동을 하며, 그 외의 모델은 파편 종류로 90°의 각도로 텀블링한다. 데이터셋 생성에 사용된 파라미터는 원뿔 종류와 파편 종류가 다르다. 원뿔 종류는 회전율 ($\omega_{p}$), $\theta_{p}$, 그리고 $\theta_{i}$를, 파편 종류는 $\omega_{p}$, 파편 초기각 ($\theta_{"\in "}$), 그리고 $\theta_{i}$를 파라미터로 한다. Dwell time은 레이다가 표적에게 할당한 시간으로, 레이다의 탐지나 추적 성능에 영향을 준다. 데이터셋은 1 초, 2 초, 그리고 4 초의 동안 레이다에게 관측되었을 때의 동적 RCS이며 일반적으로 Dwell time이 길수록 레이다의 탐지나 추적이 용이해진다. 표 1은 데이터셋 생성에 사용된 상세 파라미터와 시뮬레이션의 레이다 시스템의 파라미터이고, 표 2표 1의 파라미터에 따라 생성된 데이터셋의 개수를 나타낸 것이다. 그림 3은 회전율이 1 Hz이고 $\theta_{i}$이 10°인 굽은 사각판의 스펙트로그램을 입사각과 SNR(Signal-to-noise ratio)별로 정렬한 것이다. 잡음이 존재하는 데이터셋은 해당 파라미터의 잡음이 없는 데이터셋을 기준으로 하여 동적 RCS 구간의 전체 전력을 구한 후, SNR을 고려하여 백색 가우시안 잡음(White Gaussian noise)이 전체 잡음 전력과 동일하도록 난수 생성하여 잡음이 없는 데이터셋에 합산함으로 얻을 수 있다. SNR이 낮을수록 잡음의 강도가 강해져 스펙트로그램이 전체적으로 붉게 된다.

그림 2. 우주표적의 모델: (a) 원뿔, (b) 뭉툭한 원뿔, (c) 날개가 달린 원뿔, (d) 원통, (e) 굽은 사각판, (f) 평평한 사각판 [3]

Fig. 2. Model of space-target: (a) Cone, (b) Rounded cone, (c) Cone with empennages, (d) Cylinder, (e) Curved plate, (f) Squared plate [3]

../../Resources/kiee/KIEE.2024.73.9.1551/fig2.png

표 2 생성된 미세도플러 특징 영상의 개수 [3]

Table 2 Number of generated micro-Doppler signature images [3]

Dwell time

Cone

Rounded cone

Cone w/ empennages

Cylinder

Curved plate

Squared plate

Total

1 s

8640

8640

8640

1728

32,832

32,832

93,312

2 s

8640

8640

8640

1728

32,832

32,832

93,312

4 s

8640

8640

8640

1728

32,832

32,832

93,312

Total

25,920

25,920

25,920

5184

98,496

98,496

279,936

그림 3. SNR과 입사각별로 정렬한 $\omega_{p}$이 1 Hz이고 Dwell time이 1 초인 굽은 사각판의 스펙트로그램

Fig. 3. Spectrogram of a curved plate with $\omega_{p}$ of 1 Hz and the dwell time of 1 second, sorted by SNR and angle of incidence

../../Resources/kiee/KIEE.2024.73.9.1551/fig3.png

3. 제안하는 방법

중간 단계에서 레이다가 우주표적이나 파편을 추적할 때, $\hat{{z}}$와 레이다의 LoS 사이의 상대 각도 $\theta_{r}$은 간단한 벡터 연산으로 얻을 수 있으며[2], 입사각 $\theta_{i}$는 $\theta_{r}$과의 관계 ($\theta_{r}+\theta_{i}=90^{\circ}$)에서 계산할 수 있다. 시뮬레이션 결과인 스펙트로그램은 그림 3에서 보이는 것과 같이 입사각에 따른 변화가 명확하며 $\theta_{i}$는 레이다로부터 쉽게 추출할 수 있다. CNN은 일반적으로 스스로 데이터 학습을 통해 특징을 추출 및 입력하지만, 레이다로부터 입사각 정보를 얻어 수동 입력함으로써 CNN의 정확도 향상이 가능할 것이다. 데이터셋 생성 시 $\theta_{i}$는 0°부터 85°까지 5° 간격으로 총 18 개의 $\theta_{i}$가 시뮬레이션 되었다. 수동으로 추출된 특징을 CNN에서 이용할 수 있도록 $\theta_{i}$를 5로 나눈 몫에 해당하는 인덱스의 값을 가중치 w, 이외의 인덱스의 값을 0으로 하는 길이가 18인 배열로 변환하고, CNN의 특징 추출단 이후에 위의 입사각 배열을 덧붙임으로써 제안하는 방법을 구현할 수 있다. 그림 4는 제안한 방법의 과정을 나타낸 것이다.

그림 4. 제안한 방법의 과정

Fig. 4. Process of the proposed method

../../Resources/kiee/KIEE.2024.73.9.1551/fig4.png

그림 5는 제안하는 방법을 적용한 CNN 모델들이다. 그림 5(a)는 합성곱 층(Convolutional layer) 세 층과 출력 층을 포함한 세 층의 완전연결 층(FC layer; Fully connected layer)으로 이루어져 있는 간단 모델(Simple model)이다. 간단 모델은 크기가 7×7인 커널이 32 개인 층이 하나, 크기가 3×3인 커널이 64 개인 층이 둘이며 완전연결 층은 144 길이 둘과 출력 층 하나인 모델로, 성능이 낮은 모델에 적용 시의 성능을 보기 위해 깊지 않은 층을 가져 낮은 성능을 갖도록 설계하였다. 그림 5(c)그림 5(a)의 간단 모델에 본 논문에서 제안하는 방법을 적용한 것으로, 합성곱 층 이후 완전연결 층 하나를 더 거친 후에 입사각 배열을 결합(Concatenate)하였다. 합성곱 층 이후 평탄화 층(Flatten layer)에서 특징맵(Feature map)을 1차원 벡터 형태로 변형하게 되며 간단 모델의 경우 평탄화된 벡터의 길이가 53,824로 매우 길어, 입사각 배열의 길이에 비해 더 짧은 144 길이의 완전연결 층 다음에 결합하였다. 그림 5(b)와 5(d)는 각각 Residual networks-18(ResNet-18)[26]과 제안하는 방법을 적용한 ResNet-18으로, 간단 모델에 비해 충분히 복잡하고 그에 따라 더 높은 성능을 가지고 있다. ResNet-18은 총 17 층의 합성곱 층과 출력 층인 완전연결 층 하나로 이루어져 있으며, 특징 추출 후 512 길이의 벡터를 출력하므로 간단 모델과 달리 Average pool 이후 곧바로 입사각 배열을 결합하였다. 그림 5의 입력 층과 출력 층을 제외한 모든 합성곱 층과 완전연결 층은 ReLU를 활성화 함수로 사용하였으며 ResNet-18의 경우 Batch normalize(BN)를 적용하였다. 모델은 훈련 과정 중 검증 정확도가 제일 높은 Epoch의 w를 사용하도록 하였으며 Optimizer는 Adam, 손실 함수는 Categorical cross-entropy이다. 간단 모델과 ResNet-18은 총 50 Epoch 동안 훈련하였고 동일하게 256을 미니 배치(Mini batch) 크기로 설정하였다.

그림 5. CNN 모델들: (a) 간단 모델, (b) ResNet-18, (c) 제안하는 방법을 적용한 간단 모델, (d) 제안하는 방법을 적용한 ResNet-18

Fig. 5. CNN models: (a) Simple model, (b) ResNet-18, (c) Simple model with proposed method, (d) ResNet-18 with proposed method

../../Resources/kiee/KIEE.2024.73.9.1551/fig5.png

표 3 훈련 및 검증에 사용된 데이터셋과 평가 데이터셋의 개수

Table 3 Number of train and validation dataset and evaluation dataset

Dataset

Cone

Rounded cone

Cone w/ empennages

Cylinder

Curved plate

Squared plate

Total

Train and validation

6914

6987

6956

1375

26,190

26,251

74,673

Evaluation

1726

1653

1684

353

6642

6581

18,639

Total

8640

8640

8640

1728

32,832

32,832

93,312

본 논문에서는 간단 모델과 ResNet-18 각각 기본 모델인 그림 5(a)와 5(b), w가 1인 모델, 그리고 w가 10인 모델을 사용했다. 또한 각 모델은 Dwell time이 1 초, 2 초, 그리고 4 초인 데이터셋에 대해 수행되었으므로 총 18 번의 훈련 및 평가를 수행하였다. 데이터셋은 훈련 72%, 검증 8%, 평가 20%로 나누어져 사용되었고 그 개수는 표 3과 같다. 훈련, 검증, 그리고 평가에 사용된 데이터셋은 동일한 Dwell time이라면 같은 데이터셋을 사용하도록 데이터 로드 시 모든 모델에 대해 같은 시드(Seed)를 적용했다. CNN 모델은 Intel® Core™ i9-10900X CPU @ 3.70 GHz, NVIDIA RTX A6000, 256 GB RAM, Windows 10 Pro, Python 3.9.0과 Tensorflow 환경에서 구현 및 훈련되었다.

4. 결과 및 분석

표 4와 5는 각각 간단 모델과 ResNet-18의 평가(Evaluation) 결과이다. 평가 결과의 성능 지표로 정확도(Pacc), 정밀도 (Ppre), 재현율 (Prec), 그리고 F1-score를 사용하였다. 위 지표들은 그림 6의 혼동 행렬(Confusion matrix)을 이용하면 쉽게 계산할 수 있다. 먼저 True Positive(TP)와 True negative(TN)는 실제 데이터가 Positive인 것과 Negative인 것을 CNN 모델 또한 Positive와 Negative라고 예측한 것을 나타낸다. False positive(FP)는 이와 반대로 실제로는 Negative인 데이터를 Positive로 예측한 것이고, 똑같이 False negative(FN)는 실제 Positive 데이터를 Negative로 예측한 것이다. Pacc, Ppre, Prec, 그리고 F1-score의 계산식은 식 (1)-(4)로 표현할 수 있다. Pacc는 모든 데이터를 포함해서 정답으로 분류한 것을 말하며, Ppre는 Positive로 예측한 것 중에서 정답으로 분류한 것, Prec는 실제 Positive인 데이터 중에서 정답으로 분류한 것이다.

F1-score는 분류기의 종합적인 성능 지표이며 Ppre와 Prec의 조화 평균을 구함으로써 얻을 수 있다. 본 논문에서는 6 종의 다중 클래스를 분류하였으므로 표 4와 5의 지표는 6 종 각각의 Ppre와 Prec를 구한 후 평균을 취한 평균 Ppre와 Prec이며, F1-score 또한 평균 Ppre와 Prec를 사용하여 계산하였다. 그림 7표 4표 5의 가중치 w와 Dwell time에 따른 정확도와 F1-score의 양상을 그래프로 나타낸 것이다.

그림 6. 혼동 행렬

Fig. 6. Confusion matrix

../../Resources/kiee/KIEE.2024.73.9.1551/fig6.png
(1)
$P_{{acc}}=\dfrac{TP+TN}{TP+TN+FP+FN}$
(2)
$P_{{pre}}=\dfrac{TP}{TP+FP}$
(3)
$P_{{rec}}=\dfrac{TP}{TP+FN}$
(4)
$F_{1}-{score}=2\dfrac{P_{{pre}}\times P_{{rec}}}{P_{{pre}}+P_{{rec}}}$

간단 모델의 평가 결과는 Dwell time이 증가할수록 그에 따라서 거의 모든 성능 지표들이 상승하는 양상을 보였다. Dwell time을 늘리는 것은 우주표적을 더 긴 시간동안 관측하는 것과 마찬가지이므로 성능 향상은 당연한 결과이다. 제안하는 방법을 적용해 w를 1로 했을 때와 w가 10으로 증가할 때에도 거의 모든 지표들이 상승하였다. 더 자세히는, Ppre와 Prec는 간혹 상승하지 않고 하락하는 경우가 있었으나 Pacc와 종합 분류 성능 지표인 F1-score는 계속 상승해 제안하는 방법을 적용하였을 때 모두 성능 향상이 명확했다. 또한 모든 성능 지표에서 Dwell time을 2 배로 증가시키는 것보다 동일한 Dwell time에서 입사각 배열의 w를 10으로 한 것이 더 좋은 성능을 보였다. Dwell time이 1 초와 2 초인 기본 모델의 F1-score를 비교했을 때보다 1 초의 Dwell time에서 입사각 배열의 w를 10으로 하였을 때 더 큰 상승폭을 보였다. 이는 Dwell time을 2 초에서 4 초로 하였을 때에도 동일하였다.

ResNet-18의 경우, 간단 모델과 마찬가지로 Dwell time의 증가와 제안하는 방법의 적용은 전체적으로 CNN 모델의 성능을 향상시키는 결과를 보였지만, 그 향상치는 간단 모델에 비해 크지 않았다. 제안하는 방법을 적용했을 때, 비록 F1-score를 이외의 성능 지표 중 일부가 하락하는 경우가 있었으나 F1-score는 언제나 상승하였으며 특히 w가 10일 때의 향상치는 Dwell time을 2배로 증가시켰을 때보다 높았다.

표 4 간단 모델의 평가 결과

Table 4 Evaluation results of simple model

Dwell time

w

Pacc

Ppre

Prec

F1-score

1 s

None

0.94899

0.9366

0.92644

0.93149

1

0.9521

0.94161

0.92639

0.93394

10

0.9566

0.94678

0.94265

0.94471

2 s

None

0.95354

0.93515

0.9328

0.93398

1

0.96089

0.94958

0.94585

0.94771

10

0.96587

0.96345

0.94682

0.95506

4 s

None

0.96346

0.95975

0.943

0.9513

1

0.96699

0.95743

0.95624

0.95683

10

0.96898

0.97188

0.95007

0.96085

표 5 ResNet-18의 평가 결과

Table 5 Evaluation results of ResNet-18

Dwell time

w

Pacc

Ppre

Prec

F1-score

1 s

None

0.98012

0.97618

0.97579

0.97599

1

0.98162

0.97581

0.9794

0.97761

10

0.98425

0.98258

0.97898

0.98078

2 s

None

0.98489

0.97978

0.9806

0.98019

1

0.9865

0.98081

0.98742

0.98411

10

0.98602

0.98639

0.98535

0.98587

4 s

None

0.98602

0.97683

0.98542

0.98111

1

0.98907

0.98697

0.98787

0.98742

10

0.99025

0.99054

0.9917

0.99112

그림 7. Dwell time과 가중치 w에 따른 성능지표: (a) 간단 모델의 정확도, (b) 간단 모델의 F1-score, (c) ResNet-18의 정확도, (d) ResNet-18의 F1-score

Fig. 7. Performance indicators by dwell time and w: (a) Accuracy of simple model, (b) F1-score of simple model, (c) Accuracy of ResNet-18, (d) F1-score of ResNet-18

../../Resources/kiee/KIEE.2024.73.9.1551/fig7.png

그림 8은 SNR에 따른 정확도를 나타낸 것으로, 그림 8의 (a)와 (b)는 Dwell time이 1 초, (c)와 (d)는 2 초, 그리고 (e)와 (f)는 4 초이며 (a), (c), (e)는 간단 모델, (b), (d), (f)는 ResNet-18의 결과이다. 두 모델 공통적으로 잡음이 없어 SNR이 None일 때의 정확도가 제일 높고 SNR이 낮아질수록 정확도도 그에 따라 낮아지는 양상을 볼 수 있으며 Dwell time이 증가하면 모든 SNR에 대해 전체적으로 성능이 향상되었다.

간단 모델의 경우 SNR이 -10 dB일 때 최소 2%의 정확도가 상승하였고 SNR이 높아질수록 정확도 상승폭이 작아졌다. w가 1일 때에는 -5 dB 이하의 SNR에서의 정확도가 상승했지만 w가 10일 때에는 SNR이 10 dB 이하일 때부터 정확도가 상승하여 입사각 특징의 영향이 강할수록 더 큰 성능 상승을 보였다. 또한 전체적으로 w가 1일 때보다 10일 때의 정확도 상승폭이 더 컸고 전체적인 성능 또한 좋았다. ResNet-18의 경우 간단 모델과 달리 낮은 SNR에서의 성능 향상이 두드러졌다. CNN 모델의 정확도는 주로 5 dB 이하의 SNR에서 상승했다. w가 10일 때 -10 dB SNR에서 1% 이상의 정확도가 상승했고 w가 1일 때에는 Dwell time이 1 초일 때를 제외하고 1% 이상의 정확도 상승을 보였다. 특히 Dwell time이 2 초일 때에는 w가 1일 때에 비해 10일 때 정확도가 하락하였으나 –5 dB 이하 SNR에서의 정확도 상승폭이 더 높아, 제안하는 방법을 적용함으로써 SNR이 낮은 데이터에 대한 분류 성능을 향상시킬 수 있음을 보여주었다.

그림 8. Dwell time과 SNR별 정확도: (a) Dwell time이 1 초인 간단 모델, (b) Dwell time이 1 초인 ResNet-18, (c) Dwell time이 2 초인 간단 모델, (d) Dwell time이 2 초인 ResNet-18, (e) Dwell time이 4 초인 간단 모델, (f) Dwell time이 4 초인 ResNet-18

Fig. 8. Accuracy by dwell time and SNR: (a) Simple model with dwell time of 1 s, (b) ResNet-18 with dwell time of 1 s, (c) Simple model with dwell time of 2 s, (d) ResNet-18 with dwell time of 2 s, (e) Simple model with dwell time of 4 s, (f) ResNet-18 with dwell time of 4 s

../../Resources/kiee/KIEE.2024.73.9.1551/fig8.png

5. 결 론

레이다를 이용한 우주표적 관측에서 얻을 수 있는 정보는 우주표적에게서 반사된 전자기파뿐만이 아니다. 우주표적에 대한 레이다 전자기파의 입사각은 스펙트로그램으로 변환된 우주표적의 미세도플러 특징을 다르게 하며, 본 논문에서는 이를 이용해 스펙트로그램을 이용한 우주표적 분류에서 입사각 정보를 포함하는 것으로 분류기의 성능을 향상시켰다. 간단한 구조의 CNN인 간단 모델과 이와 비교하여 훨씬 깊은 ResNet-18에 각각 적용한 결과, 본 논문에서 제안하는 방법의 가중치를 10으로 하는 것이 레이다의 Dwell time을 2 배로 하는 것에 비해 F1-Score의 상승폭이 더 높았다. 또한 낮은 SNR 환경, 즉 잡음이 많은 환경에서의 더 좋은 분류 성능을 보였다. 따라서 단시간에 높은 정확도의 의사 결정이 필요한 우주표적 분류기에 효율적으로 적용될 수 있을 것이다.

Acknowledgements

This work was supported in part by Basic Science Research Program through the National Research Foundation of Korea (NFR) funded by the Ministry of Education (2021R1I1A3044405).

References

1 
Y. -P. Zhang, Q. Zhang, L. Kang, Y. Luo and L. Zhang, "End-to-End Recognition of Similar Space Cone–Cylinder Targets Based on Complex-Valued Coordinate Attention Networks," IEEE Trans. Geosci. Remote Sensing, vol. 60, no. 5106214, pp. 1-14, Oct. 2022.DOI
2 
J. -I. Lee, N. Kim, S. Min, J. Kim, D. -K. Jeong, and D. -W. Seo, "Space Target Classification Improvement by Generating Micro-Doppler Signatures Considering Incident Angle," Sensors, vol. 22, no. 4, pp. 1653, Feb. 2022.DOI
3 
K. Jung, J. -I. Lee, N. Kim, S. Oh, and D. -W. Seo, "Classification of Space Objects by Using Deep Learning with Micro-Doppler Signature Images," Sensors, vol. 21, no. 13, pp. 4365, June 2021.DOI
4 
Ye Ma, Moufa Hu, Huanzhang Lu, and Qing Chang, "Recurrent neural networks for discrimination of exo-atmospheric targets based on infrared radiation signature," Infrared Phys. Technol., vol. 96, pp. 123-132, Jan. 2019.DOI
5 
D. Wu, H. Lu, M. Hu, and B. Zhao, "Independent Random Recurrent Neural Networks for Infrared Spatial Point Targets Classification,". Appl. Sci., vol. 9, no. 21, pp. 4622, Oct. 2019.DOI
6 
X. Chen, H. Zhang, S. Zhang, J. Feng, H. Xia, P. Rao, and J. Ai, "A Space Infrared Dim Target Recognition Algorithm Based on Improved DS Theory and Multi-Dimensional Feature Decision Level Fusion Ensemble Classifier," Remote Sens., vol. 16, no. 3, pp. 510, Jan. 2024.DOI
7 
J. Chen, S. Xu, and Z. Chen, "Convolutional neural network for classifying space target of the same shape by using RCS time series," IET Radar Sonar Navig., vol. 12, no. 11, pp. 1268-1275, Nov. 2018.DOI
8 
A. R. Kim, H. S. Kim, C. H. Kang, and S. Y. Kim, "The Design of the 1D CNN–GRU Network Based on the RCS for Classification of Multiclass Missiles," Remote Sens., vol. 15, no. 3, pp. 577, Jan. 2023.DOI
9 
X. Xu, C. Feng, and L. Han, "Classification of Radar Targets with Micro-Motion Based on RCS Sequences Encoding and Convolutional Neural Network," Remote Sens., vol. 14, no. 22, pp. 5863, Nov. 2022.DOI
10 
Y. Zhang, J. Guan, H. Wang, K. Li, Y. Luo, and Q. Zhang, "Generalized Zero-Shot Space Target Recognition Based on Global-Local Visual Feature Embedding Network," Remote Sens., vo. 15, no. 21, pp. 5156, Oct. 2023.DOI
11 
Y. Zhang, Y. Xie, L. Kang, K. Li, Y. Luo and Q. Zhang, "Feature-Level Fusion Recognition of Space Targets With Composite Micromotion," IEEE Trans. Aerosp. Electron. Syst., vol. 60, no. 1, pp. 934-951, Feb. 2024.DOI
12 
X. Tian, X. Bai, R. Xue, R. Qin and F. Zhou, "Fusion Recognition of Space Targets With Micromotion," IEEE Trans. Aerosp. Electron. Syst., vol. 58, no. 4, pp. 3116-3125, Aug. 2022.DOI
13 
J. Dong, Q. She and F. Hou, "HRPnet: High-Dimensional Feature Mapping for Radar Space Target Recognition," IEEE Sens. J., vol. 24, no. 7, pp. 11743-11758, Apr. 2024.DOI
14 
X. Tian, X. Bai and F. Zhou, "Recognition of Micro-Motion Space Targets Based on Attention-Augmented Cross-Modal Feature Fusion Recognition Network," IEEE Trans. Geosci. Remote Sensing, vol. 61, no. 5104909, pp. 1-9, May 2023.DOI
15 
Y. Zhang, Y. Zhang, Z. Ding, and Z. Wang, "Classification and Recognition Method of Non-Cooperative Object Based on Transfer Learning," Opt. Laser Technol., vol. 169, pp. 110005, Feb. 2024.DOI
16 
S. Wang, M. Li, T. Yang, X. Ai, J. Liu, F. P. Andriulli, and D. Ding, "Cone-Shaped Space Target Inertia Characteristics Identification by Deep Learning With Compressed Dataset," IEEE Trans. Antennas Propag., vol. 70, no. 7, pp. 5217-5226, July 2022.DOI
17 
L. Han and C. Feng, "Micro-Doppler-Based Space Target Recognition with a One-Dimensional Parallel Network," Int. J. Antennas Propag., vol. 2020, Article ID 8013802, Oct. 2020.DOI
18 
I. -O. Choi, S. -H. Park, M. Kim, K. -B. Kang and K. -T. Kim, "Efficient Discrimination of Ballistic Targets With Micromotions," IEEE Trans. Aerosp. Electron. Syst., vol. 56, no. 2, pp. 1243-1261, Apr. 2020.DOI
19 
Y. Wang, C. Feng, X. Hu and Y. Zhang, "Classification of Space Micromotion Targets With Similar Shapes at Low SNR," IEEE Geosci. Remote Sens. Lett., vol. 19, no. 3504305, pp. 1-5, Mar. 2022.DOI
20 
L. Yang, W. Zhang, and W. Jiang, "Recognition of Ballistic Targets by Fusing Micro-Motion Features with Networks," Remote Sens., vo. 14, no. 22, pp. 5678, Nov. 2022.DOI
21 
L. Han, C. Feng, and X. Hu, "Space Targets with Micro-Motion Classification Using Complex-Valued GAN and Kinematically Sifted Methods," Remote Sens., vol. 15, no. 21, pp. 5085, Oct. 2023.DOI
22 
C. Zhao, L. Wang and Y. Liu, "Ballistic Target Recognition Based on 4-D Point Cloud Using Randomized Stepped Frequency Radar," IEEE Trans. Aerosp. Electron. Syst., vol. 58, no. 6, pp. 5711-5729, Dec. 2022.DOI
23 
J. Kim, Y. S. Kwon, and K. H. Lee, "Analysis of Considerations of the BMD System Construction Depending on the Characteristics of Ballistic Missiles Threat," KJMAS, vol. 72, no. 1, pp. 1-29, Feb. 2016.URL
24 
J. Boutelle, S. P. Kau and C. J. Marino, "ICBM reentry vehicle navigation system development at Honeywell," Proc. IEEE Position Location Navig. Symp., pp. 294-302, 1998.DOI
25 
L. Liu, D. McLernon, M. Ghogho, W. Hu, and J. Huang, "Ballistic missile detection via micro-Doppler frequency estimation from radar return," Digit. Signal Process., volume 22, no. 1, pp. 87-95, Jan. 2012.DOI
26 
K. He, X. Zhang, S. Ren, and J. Sun, "Deep Residual Learning for Image Recognition," Proc. IEEE Conf. Comput. Vis. Pattern Recognit. (CVPR), pp. 770-778, 2016.URL

저자소개

김준선 (Jun-Seon Kim)
../../Resources/kiee/KIEE.2024.73.9.1551/au1.png

He received his B.S. and M.S. degree in radio engineering from National Korea Maritime & Ocean University (KMOU), Busan, South Korea in 2022 and 2024, respectively. He is currently working toward his Ph.D. degree at the same university. His research interests include numerical techniques in the areas of electromagnetics and radar cross-section analysis.

서동욱 (Dong-Wook Seo)
../../Resources/kiee/KIEE.2024.73.9.1551/au2.png

He received the B.S. degree in electrical engineering from Kyungpook National University (KNU), Daegu, South Korea, in 2003, and the M.S. and Ph.D. degrees in electrical engineering from the Korea Advanced Institute of Science and Technology (KAIST), Daejeon, South Korea, in 2005 and 2011, respectively.

He is currently a Professor with the Division of Electronics and Electrical Information Engineering at National Korea Maritime and Ocean University (KMOU), Busan, South Korea.