The Journal of Korean Institute of Electromagnetic Engineering and Science
The Korean Institute of Electromagnetic Engineering and Science
논문/REGULAR PAPER

다중 영역 기반 딥러닝 SAR 표적 식별 연구

채승병https://orcid.org/0009-0007-8340-077X, 강민석https://orcid.org/0000-0002-7021-6873
Seung-Byung Chaehttps://orcid.org/0009-0007-8340-077X, Min-Seok Kanghttps://orcid.org/0000-0002-7021-6873
국립공주대학교 전기전자제어공학부
Division of Electrical, Electronic & Control Engineering, Kongju National University
Corresponding Author: Min-Seok Kang (e-mail: mskang@kongju.ac.kr)

© Copyright 2025 The Korean Institute of Electromagnetic Engineering and Science. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Jun 23, 2025; Revised: Jun 29, 2025; Accepted: Jul 02, 2025

Published Online: Jul 31, 2025

요 약

합성개구레이다(SAR, synthetic aperture radar) 영상에 대한 학습 데이터의 구축은 SAR 시스템의 비용, 보안 등으로 인해 대규모 확보가 어렵다. 본 연구는 이러한 한계를 극복하기 위해 원본 공간 영역 SAR 영상을 주파수 영역 및 고유공간 영역으로 변환하여 세 가지 상이한 영역을 생성하고, 이를 동시에 입력으로 활용하는 데이터 증강 기법을 제안한다. MSTAR(moving and stationary target acquisition and recognition) 데이터셋을 대상으로 실험하여 학습 데이터 수를 축소한 환경에서 다중 영역 영상은 단일 영역 영상으로 학습한 경우보다 높은 식별 정확도를 보였다. 또한, 다양한 신호 대 잡음비(signal-to-noise ratio) 조건에서 학습 데이터 수를 조절하여 다중 영역 영상의 식별 정확도를 확인하였다.

Abstract

Synthetic aperture radar (SAR) imagery suffers from chronic data scarcity because of the high operational costs of SAR systems and the associated security constraints that limit large-scale data collection. To address this limitation, we introduce a data-augmentation strategy that converts raw spatial-domain SAR images into frequency- and eigenspace-domain representations, thereby creating three complementary views that are fed concurrently into a convolutional neural network. Experiments on moving and stationary target acquisition and recognition benchmarks revealed that under reduced-data conditions, the proposed multidomain input scheme consistently surpassed models that were trained on a single domain. Further evaluations across a wide range of signal-to-noise ratios with systematic adjustments to the amount of training data, confirmed the robustness of the proposed multidomain approach under both noisy and data-scarce conditions.

Keywords: Deep Learning; Eigenspace; Frequency Domain; Multi Domain; SAR Target Classification

Ⅰ. 서 론

레이다 영상은 전자기파를 송‧수신하여 표적이나 관심영역의 산란 특성을 영상 형태로 재구성한 결과물이다. 대부분의 레이다 영상 기법은 센서가 직접 전자기파를 송신하여 표적에서 반사된 신호를 수신하는 능동 센서 방식이며, 다양한 기법이 존재한다[1]~[10]. 이 중 대표적인 레이다 영상 형성 기법으로 합성 개구면 레이다(SAR, synthetic aperture radar)가 있다. SAR는 항공기나 위성과 같은 플랫폼의 이동을 통해 실제보다 긴 가상의 안테나를 합성하여 고해상도 레이다 영상을 만드는 기술이다. SAR는 야간이나 악천후에도 영상을 획득할 수 있어 지형 정보 구축, 재해 감시 등 다양한 분야에 폭넓게 활용된다. 이러한 고해상도 SAR 영상을 활용하여 목표물을 자동으로 탐지 및 식별하는 기술이 각광받고 있다.

그러나 SAR 영상을 대규모로 확보하기가 쉽지 않다. SAR 영상을 얻기 위해서는 고가의 레이다 송수신기와 안테나 시스템이 필요하고, 이를 탑재한 항공기나 위성 플랫폼의 운용 비용이 막대하다. 또한, 군사 및 보안상의 이유로 원시 데이터의 공개는 제한적이다. 따라서 SAR 표적 식별 연구는 데이터 부족이라는 구조적 한계를 가지고 있으며, 이를 극복하기 위해 데이터 증강, 생성적 적대 신경망(generative adversarial networks)을 이용한 기법, 전이 학습(transfer learning) 등 다양한 접근법이 제안되고 있다[11].

본 논문에서는 데이터 부족 문제를 완화하기 위해 공간 영역(domain)의 SAR 영상으로부터 주파수 영역 및 고유공간 영역에 대한 두 종류의 영상을 생성하는 영역 변환 기반 데이터 증강 전략을 제안한다. 이러한 변환들은 선형변환이므로 공간 영역에서 표현되는 고유한 특성이 변환된 각 영역에서도 유일한 표현을 갖게 되어 표적 식별이 가능하다. 그리고 동일 표적에 대해 서로 다른 두 가지 이상의 영역 영상들을 채널 차원으로 결합(concatenate)하여 다중 채널 영상으로 재구성하면 학습 데이터의 다양성을 확보할 수 있다. 이를 합성곱 신경망(CNN, convolutional neural network)의 입력으로 사용한다. 실험에서는 MSTAR(moving and stationary target acquisition and recognition) 데이터셋을 활용하여 제안된 기법의 성능을 검증하였다. 먼저 학습 데이터의 규모를 단계적으로 축소하면서 다중 영역 입력 모델과 1채널 단일 영역 입력 모델의 표적 식별 정확도를 비교하였다. 또한 가우시안 잡음을 삽입하여 다양한 신호 대 잡음비(SNR, signal-to-noise-ratio)를 조성한 실험을 통해 다중 영역 영상의 SAR 표적 식별 성능이 잡음에 강인함을 확인하였다.

Ⅱ. 본 론

제안된 기법에서는 다중 영역의 영상을 구성하기 위해, 공간 영역의 SAR 영상을 주파수 및 고유공간 영역으로 변환하여 각 영역별 영상을 생성한다. 주파수 영역의 영상은 푸리에 변환(Fourier transform)을 적용하여 획득하고, 고유공간 영역의 영상은 고윳값 분해(eigen value decomposition)를 통해 얻는다. 공간 영역에서 주파수 및 고유공간 영역으로의 변환은 선형변환으로 해석할 수 있으며, 이를 통해 공간 영역의 표적 정보는 각 영역과 일대일 대응을 이룬다. 따라서 공간 영역으로부터 주파수 및 고유공간 영역에서 파생된 정보는 서로 보완된 특징을 제공하여 표적 식별 성능을 향상시킨다.

2-1 공간 영역의 SAR 영상

공간 영역의 SAR 영상은 SAR 플랫폼이 이동하면서 수집한 원시 데이터를 SAR 영상 생성 기법으로 처리하여 획득한다[12]. 이를 수식으로 표현하면 식 (1)과 같다.

s ( x , y ) = g ( x , y ) h ( x , y )
(1)

식 (1)에서 x,y는 SAR 영상의 공간 좌표이다. g(x,y)는 표적으로부터 수집된 레이다 원시 신호를 의미하며, h(x,y)는 SAR 영상 생성 필터를 표현한다. s(x,y)는 SAR 영상 생성 알고리즘으로 획득한 공간 영역의 SAR 영상이다. ⨂는 합성곱(convolution) 연산자이다. 레이다 원시 신호 g(x,y)와 SAR 영상 생성 필터 h(x,y)의 합성곱 연산을 통해 SAR 영상 s(x,y)을 획득한다.

2-2 주파수 영역의 SAR 영상[13]

주파수 영역의 SAR 영상은 공간 영역의 SAR 영상에서 2차원 이산 푸리에 변환을 통해 획득한다. 2차원 이산 푸리에 변환은 선형변환이므로, 공간 영역의 SAR 영상의 표적 정보는 주파수 영역의 SAR 영상에서 유일한 표현으로 일대일로 대응된다. 2차원 이산 푸리에 변환은 식 (2)와 같다.

F ( u , v ) = x = 0 M 1 y = 0 N 1 s ( x , y ) exp j 2 π u x M + v y N
(2)

식 (2)에서 MN은 영상의 행(row) 및 열(column)의 개수를 각각 의미한다. x,y는 SAR 영상의 공간 좌표이다. u,v는 주파수 영역의 좌표이며 u=0,1,…,M−1 및 v=0,1,…,N−1의 범위를 갖는다. s(x,y)는 SAR 영상의 세기 값(magnitude), F(u,v)는 SAR 영상의 주파수 성분 값을 각각 나타낸다. 주파수 영역 영상은 크기와 위상 성분으로 구성되며, 크기 성분은 다음의 식 (3)으로 나타낸다.

| F ( u , v ) | = Re ( F ( u , v ) ) 2 + I m ( F ( u , v ) ) 2
(3)

Re(F(u,v))는 2차원 이산 푸리에 변환을 수행한 영상의 실수(real) 성분이며 Im(F(u,v))는 허수(imaginary) 성분이다. |F(u,v)|는 주파수 영역에서의 세기를 나타낸다. 식 (3)을 통해, 일반적인 SAR 영상 s(x,y)로부터 주파수 영역의 영상 |F(u,v)|를 획득한다. 그림 1(a)[14]는 일반적인 SAR 영상의 예시이며, 그림 1(b)그림 1(a)로부터 주파수 영역으로 변환한 결과를 도시한다.

jkiees-36-7-708-g1
그림 1. | Fig. 1. 공간 영역, 주파수 영역 및 고유공간 영역 SAR 영상 | Spatial-domain, frequency-domain, and eigenspacedomain SAR images.
Download Original Figure
2-3 고유공간 영역의 SAR 영상[15]

고유공간 영역의 SAR 영상은 공간 영역 SAR 영상을 고윳값 분해에 기반한 과정을 통해 획득한다. 고윳값 분해 역시 푸리에 변환과 마찬가지로 선형변환으로 해석되며, 공간 영역과 고유공간 영역 간에 일대일 대응 관계를 유지한다.

고유공간 영역의 SAR 영상은 다음의 과정을 통해 획득이 가능하다. 일반적인 SAR 영상은 M×N 차원의 비정방행렬 S로 표현할 수 있으며, 식 (4)를 통해 고유공간 영상을 획득한다.

S S T = U Σ V T U Σ V T T = U Σ V T V Σ T U T = U Σ V T V Σ T U T = U ΣΣ T U T = U ( Λ ) U T
(4)

비정방행렬 S는 특이값 분해(singular value decomposition)를 통해UVT로 표현할 수 있다[16]. U는 좌측 특이벡터들로 이루어진 M×M 행렬이고, V는 우측 특이벡터들로 이루어진 N×N 행렬이며, { · }T는 행과 열의 위치를 바꾸는 전치 연산자이다. ∑는 S의 특이값으로 이루어진 M×N 대각행렬이다. SSTM×M 정방행렬이며 고유공간 영상을 얻기 위한 행렬로써 고윳값 분해 적용이 가능하다. ΛSST의 고윳값 λi (i=1,…,M)으로 구성된 M×M 대각행렬로, 대각 성분에는 고윳값이 가장 큰 값부터 내림차순으로 위치한다. USST의 고유벡터들로 이루어진 행렬이며, 각 열벡터 ui (i=1,…M)는 Λ의 대각 성분에 대응하는 고유벡터를 나타낸다. 본 연구에서는 이 U 행렬을 고유공간 영상으로 정의하며, 식 (4)를 통해 일반적인 SAR 영상 S로부터 고유공간 영상 U를 획득할 수 있다. 그림 1(c)그림 1(a)에 제시된 일반적인 SAR 영상을 식 (4)를 통해 획득한 고유공간 영상이다.

한편, 고유공간 영역의 영상에서 표적의 주요 정보는 큰 고윳값에 대응하는 상위 고유벡터에 집중된다. 상위 고유벡터는 고유공간 영상 행렬의 좌측 열에 배열되며, 본 논문에서는 전체 고유벡터의 상위 5 %만을 추출하여 고유공간 영상을 재구성한 뒤 이를 표적 식별에 활용하였다.

2-4 CNN 기반 다중 영역 입력

CNN은 합성곱(convolutional)과 풀링(pooling) 연산을 반복하여 영상의 특징을 효과적으로 추출하는 대표적인 신경망 모델이다. CNN은 계층적 구조를 통해 저수준 시각 특징에서 고수준 정보까지 단계적인 특징을 학습한다. 이러한 구조 덕분에 영상 분류나 인식 등에서 탁월한 성능을 보이며, SAR 표적 식별에서도 광범위하게 활용된다. 본 연구에서는 CNN 구조에 공간, 주파수 및 고유공간의 세 영역을 서로 다른 조합으로 결합한 2채널 및 3채널 다중 입력 방식을 제시한다. 2-2절 및 2-3절로부터 획득한 주파수 및 고유공간 영역의 영상과 공간 영역의 영상을 동일한 크기로 조정(resize)하고 채널 차원으로 결합하여 영상을 구성한다. 실험에는 대표적인 CNN 구조로 ResNet[17], EfficientNetV2[18] 계열의 모델을 적용하여 제안 기법을 검증하였다. 본 연구에서 제안한 다중 영역 SAR 영상은 표적의 공간 영역 정보 뿐만 아니라 주파수 및 고유공간 영역에서 제공하는 표적의 정보를 통합함으로써, CNN이 다양한 특징을 동시에 학습할 수 있도록 한다.

Ⅲ. 실험 및 평가

본 실험에서는 Python 및 PyTorch 환경에서 수행되었으며, MSTAR 데이터셋을 활용하여 두 가지 실험을 진행하였다. 먼저 학습 데이터셋의 비율을 축소하면서 다중 영역 입력 모델과 단일 영역 입력 모델의 표적 식별 성능을 비교하였다. 또한 다양한 SNR 실험환경에서 다중 영역의 SAR 표적 식별 성능의 잡음 강건성을 확인하였다.

3-1 MSTAR 데이터셋

MSTAR 데이터셋은 SAR 기반 표적 식별을 평가하기 위한 대표적인 데이터셋으로 군사적 목적으로 수집되었다. 해당 데이터셋에는 10가지 표적 영상이 포함되어 있으며, 각 표적은 서로 다른 경사각(depression angle) 조건을 제공한다. 표 1은 MSTAR 데이터셋에 포함된 데이터 중, 본 논문에서 표적 식별의 학습과 평가에 활용한 데이터를 정리한 것이다. 실험에서 17° 경사각의 SAR 영상을 2,747장, 15° 경사각의 SAR 영상 2,425장을 활용하였다.

표 1. | Table 1. MSTAR 데이터셋의 15° 및 17° 경사각에 따른 영상 개수 | Number of images in the MSTAR dataset at depression angles of 15° and 17°.
Target Depression angle (17°) Depression angle (15°)
Train images Test images
BMP-2 233 195
T-72 232 196
BTR-60 256 195
BTR-70 233 196
BRDM-2 298 274
ZSU-23/4 299 274
2S1 299 274
T-62 299 273
D7 299 274
ZIL-131 299 274
Total 2,747 2,425
Download Excel Table

그림 2는 MSTAR 데이터셋 중 T-72 및 BTR-70 표적에 대한 표본 영상을 세 가지 영역으로 시각화한 것이다. 그림 2(a)그림 2(d)는 MSTAR 데이터셋에서 제공하는 공간 영역 SAR 영상이며, 그림 2(b)그림 2(e)는 각각 그림 2(a)그림 2(d)로부터 획득한 주파수 영역의 영상이다. 주파수 영역에서는 주요 정보가 저주파 대역에 밀집되어 나타나는 것을 확인할 수 있다. 마찬가지로 그림 2(c)그림 2(f)는 동일한 공간 영역의 표본인 그림 2(a)그림 2(d)로부터 각각 획득한 고유공간 영역의 영상이다. 고유공간의 영상은 각 고유벡터를 열 방향으로 배열한 행렬 형태로 표현된다. 이러한 고유벡터들은 대응 고윳값의 크기를 기준으로 내림차순으로 정렬되며, 최대 고윳값에 대응하는 고유벡터가 행렬의 첫 번째 좌측 열에 배치된다. 좌측의 고유벡터들에는 표적의 주요 정보를 담고 있다.

jkiees-36-7-708-g2
그림 2. | Fig. 2. MSTAR 표적 영상의 영역별 시각화 | Domain-specific visualization of MSTAR target images.
Download Original Figure
3-2 단일 및 다중 영역 기반 표적 식별 실험 성능 비교

본 실험에서는 학습 데이터 수를 변경하여 단일 영역 입력 모델과 2채널 및 3채널의 다중 영역 입력 모델에 대한 분류 성능을 평가하였다. 해당 실험의 분류기는 PyTorch에서 제공하는 ResNet-34와 EfficientNetV2-S 모델을 사용하였으며, 사전학습 가중치 없이 초기화하여 학습을 진행하였다. 공간 영역 및 주파수 영역 SAR 영상은 최소-최대 정규화를 적용하여 화소값을 0~1 범위로 변경하였다. 고유공간 영역의 SAR 영상은 주요 정보가 포함된 상위 고유벡터 5 %만을 추출한 영상으로 재구성하고, 화소값을 전처리 없이 입력하였다. 고유공간 영상의 크기가 128×128인 경우 상위 고유벡터로 구성한 고유공간 영상은 5 %인 128×6의 영상으로 재구성한다. CNN 기반 모델에 입력되는 모든 영상의 크기는 보간(interpolation)을 통해 128×128로 통일하였다. 학습 데이터는 17° 경사각 SAR 영상을 활용하였으며, 학습 및 검증 데이터 비율을 8:2의 비율로 분할하였다. 학습의 배치 크기는 32, Epoch 수는 100으로 설정하고, 최적화 알고리즘은 Adam(adaptive moment estimation)을 적용하였다. 학습률은 10−3, 손실 함수는 교차 엔트로피(cross entropy)를 사용하였다. 모델 가중치는 31번째 Epoch부터 검증 손실 값(validation loss)를 확인하여 최저 검증 손실 값을 기준으로 저장하였다. 평가 데이터는 15° 경사각 SAR 영상을 활용하여 분류 정확도를 측정하여 모델 성능을 산출하였다.

표 2표 3은 각각 CNN 기반 ResNet-34 모델과 EfficientNetV2-S 모델을 활용하여, 학습 데이터수의 변화에 따른 단일 영역 및 다중 영역 입력 모델의 표적 식별 정확도를 나타낸 것이다. 100 %의 학습데이터를 사용한 실험에서 다중 영역 입력 모델의 표적 식별 정확도 약 97 %로 단일 영역 입력 모델과 동등하거나 근소하게 우수한 정확도를 나타내었다. 반면 학습 데이터가 30 % 수준으로 축소한 경우 ResNet-34에서 3채널 다중 영역 입력 모델의 표적 식별 정확도는 91.59 %로 단일 공간 영역 입력 모델의 표적 식별 정확도인 90.60 %보다 성능이 뛰어났다. 또한, EfficientNetV2-S를 사용한 경우의 학습 데이터를 30 %로 사용한 경우에는 다중 영역 입력 모델 표적 식별 정확도가 약 88 %로 단일 영역 입력 모델보다 뛰어난 성능을 나타냈다. 한편, 2채널 및 3채널 다중 영역 입력 모델의 표적 식별 정확도는 근소한 차이를 보였다. 본 실험 결과, 학습 데이터를 30 %만 사용한 실험 환경에서 다중 영역 입력 모델의 표적 식별 정확도는 단일 영역 입력 모델을 사용하는 경우에 비하여 모든 시나리오에서 우수한 성능을 보였다.

표 2. | Table 2. 학습 데이터 사용 비율에 따른 공간 영역 및 다중 영역의 표적 식별 정확도(ResNet-34) | Target classification accuracy of spatial- and multi-domain according to training data usage (ResNet-34). (Unit: %)
Train dataset usage 2,747 (100 %) 1,373 (50 %) 824 (30 %)
Spatial domain (1-channel) 97.57 93.65 90.60
Frequency domain (1-channel) 95.30 92.21 89.81
Eigenspace domain (1-channel) 93.61 90.52 85.20
Spatial & frequency domain (2-channel) 97.94 94.02 91.22
Spatial & frequency & eigenspace domain (3-channel) 97.44 94.39 91.59
Download Excel Table
표 3. | Table 3. 학습 데이터 사용 비율에 따른 공간 영역 및 다중 영역의 표적 식별 정확도(EfficientNetV2-S) | Target classification accuracy of spatial- and multidomain according to training data usage (EfficientNetV2-S). (Unit: %)
Train dataset usage 2,747 (100 %) 1,373 (50 %) 824 (30%)
Spatial domain (1-channel) 96.08 93.44 82.97
Frequency domain (1-channel) 93.65 89.90 86.43
Eigenspace domain (1-channel) 92.87 87.51 81.65
Spatial & frequency domain (2-channel) 97.11 94.14 88.95
Spatial & frequency & eigenspace domain (3-channel) 97.94 93.11 88.91
Download Excel Table
3-3 다양한 SNR 환경에서 표적 식별 성능 비교

본 실험에서는 다양한 SNR 실험 환경에서 CNN 기반 ResNet-34 모델을 통해 단일 공간 영역 입력 모델과 3채널 다중 영역 입력 모델에 대한 표적 식별 성능을 검증하였다. 구체적으로, SNR이 −10 dB, 0 dB, 10 dB인 가우시안 잡음을 공간 영역 SAR 영상에 각각 삽입하였으며, 3채널 다중 영역 영상에 입력되는 주파수 및 고유공간 영역의 영상은 잡음이 포함된 영상을 변환하여 생성하였다. 실험 환경 구축 및 딥러닝의 하이퍼파리미터는 3-2 절과 동일하며, 식별 성능 결과는 표 4에 정리하였다. 표 4를 통해 각 SNR 조건에서 다중 영역 입력 모델의 분류 성능이 단일 공간 영역 입력 모델보다 일관되게 우수한 성능을 보임을 확인하였다. 또한, 학습 데이터 수가 감소할수록 3채널 다중 영역 입력 모델과 단일 공간 영역 입력 모델의 표적 식별 성능 정확도 격차는 더욱 확연하게 증가하였다. 특히, SNR이 −10dB의 고잡음 환경에서 학습데이터 수를 30 %까지 축소한 경우, 3채널 다중 영역 입력 모델과 단일 공간 영역 입력 모델의 표적 식별 정확도는 17 % 이상 차이가 관측되었다. 이를 통해 3채널 다중 영역 입력 모델의 SAR 표적 식별기는 잡음에 강인함을 확인하였다.

표 4. | Table 4. 다양한 SNR 조건에서 3채널 다중 영역 입력 및 공간 영역 단일 입력의 표적 식별 정확도(ResNet-34) | Target classification accuracy for three-channel multi-domain and single spatial-domain inputs under varying SNR conditions (ResNet-34). (Unit: %)
Train dataset usage 2,747 (100 %) 1,373 (50 %) 824 (30 %)
SNR 10 dB Spatial domain 96.91 92.95 85.98
Multi domain 97.24 94.02 88.16
SNR 0 dB Spatial domain 95.59 89.77 80.58
Multi domain 95.79 91.75 89.32
SNR −10 dB Spatial domain 83.26 77.40 63.01
Multi domain 86.23 85.03 80.33
Download Excel Table

Ⅳ. 결 론

SAR 영상은 고비용 관측 장비 및 보안상의 문제로 대규모 학습 데이터를 확보하기 어렵다. 이러한 한계를 극복하기 위해 본 연구에서는 공간 영역 SAR 영상에 2차원 이산 푸리에 변환과 고유공간 변환의 두 가지 선형변환을 적용함으로써, 각각 주파수 영역 영상과 고유공간 영역 영상을 생성하는 데이터 증강 전략을 제안하였다. 그리고 공간, 주파수 및 고유공간 영역의 영상을 서로 다른 조합으로 결합한 2채널 및 3채널 다중 영역 입력 모델을 구성함으로써 표적 식별 성능을 향상시켰다.

제안된 다중 영역 입력 모델의 유효성을 검증하기 위해 두 가지 실험을 수행하였다. 먼저, 학습 데이터 수를 변경하여 다양한 CNN 기반 모델에 대한 단일 영상 입력, 2채널 영상 입력, 3채널 영상 입력 모델을 비교하였다. 실험 결과 다중 영역 입력 모델은 학습 데이터의 수 30 %로 축소한 상황에서도 단일 영상 입력 모델보다 우월한 성능을 발휘하였다. 이는 SAR 영상으로부터 공간, 주파수, 고유공간 3개의 영역에서 얻은 상호보완적인 정보를 CNN이 동시에 학습하도록 하여 단일 영역보다 더 풍부한 영상을 학습하기 때문이다. 다음으로 다양한 SNR 조건에서 단일 채널 입력 모델과 3채널 다중 영역 입력 모델의 표적 식별 정확도를 비교하였다. 학습 데이터 개수가 감소하거나 잡음이 증가할수록 단일 채널 입력 대비 3채널 다중 영역 입력에 대한 표적 식별 성능이 보다 우수함을 확인하였다. 이러한 결과는 제안된 다중 영역 입력 모델이 데이터 부족과 고잡음이라는 제약에서도 안정적인 SAR 표적 식별 성능 제공함을 나타낸다.

Acknowledgements

이 논문은 2025년도 정부(교육부)의 재원으로 한국연구재단의 지원을 받아 수행된 기초연구사업임(No. 2021R1I1A3043152).

References

[1].

M. S. Kang, J. M. Baek, “Compressive sensing-based Omega-K algorithm for SAR focusing,” IEEE Geoscience and Remote Sensing Letters, vol. 22, p. 4003405, Jan. 2025.

[2].

M. S. Kang, J. M. Baek, “SAR image reconstruction via incremental imaging with compressive sensing,” IEEE Transactions on Aerospace and Electronic Systems, vol. 59, no. 4, pp. 4450-4463, Aug. 2023.

[3].

M. S. Kang, J. M. Baek, “Efficient SAR imaging integrated with autofocus via compressive sensing,” IEEE Geoscience and Remote Sensing Letters, vol. 19, p. 4514905, Oct. 2022.

[4].

M. S. Kang, K. T. Kim, “Automatic SAR image registration via tsallis entropy and iterative search process,” IEEE Sensors Journal, vol. 20, no. 14, pp. 7711-7720, Jul. 2020.

[5].

M. S. Kang, K. T. Kim, “Ground moving target imaging based on compressive sensing framework with single-channel SAR,” IEEE Sensors Journal, vol. 20, no. 3, pp. 1238-1250, Feb. 2020.

[6].

M. S. Kang, K. T. Kim, “Compressive sensing based SAR imaging and autofocus using improved Tikhonov regularization,” IEEE Sensors Journal, vol. 19, no. 14, pp. 5529-5540, Jul. 2019.

[7].

M. S. Kang, J. H. Bae, B. S. Kang, and K. T. Kim, “ISAR cross-range scaling using iterative processing via principal component analysis and bisection algorithm,” IEEE Transactions on Signal Processing, vol. 64, no. 15, pp. 3909-3918, Aug. 2016.

[8].

M. S. Kang, J. H. Bae, S. H. Lee, and K. T. Kim, “Efficient ISAR autofocus via minimization of Tsallis entropy,” IEEE Transactions on Aerospace and Electronic Systems, vol. 52, no. 6, pp. 2950-2960, Dec. 2016.

[9].

M. S. Kang, S. J. Lee, S. H. Lee, and K. T. Kim, “ISAR imaging of high-speed maneuvering target using gapped stepped-frequency waveform and compressive sensing,” IEEE Transactions on Image Processing, vol. 26, no. 10, pp. 5043-5056, Oct. 2017.

[10].

M. S. Kang, J. M. Baek, “Effective denoising of InSAR phase images via compressive sensing,” IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 17, pp. 17772-17779, May. 2024.

[11].

J. Li, Z. Yu, L. Yu, P. Cheng, J. Chen, and C. Chi, “A comprehensive survey on SAR ATR in deep-learning era,” Remote Sensing, vol. 15, no. 5, p. 1454, Mar. 2023.

[12].

I. G. Cumming, F. H. Wong, Digital Processing of Synthetic Aperture Radar Data, Boston, MA, Artech house, 2005.

[13].

S. B. Chae, M. S. Kang, “Comparison of spatial- and frequency-domain-based SAR target classification performance,” The Journal of Korean Institute of Electromagnetic Engineering and Science, vol. 36, no. 5, pp. 528-534, May 2025.

[14].

Y. Sun, W. Jiang, J. Yang, and W. Li, “SAR target recognition using cGAN-based SAR-to-optical image translation,” Remote Sensing, vol. 14, no. 8, p. 1793, Apr. 2022.

[15].

S. B. Chae, M. S. Kang, “Comparison of spatial- and eigenspace-domain-based deep learning SAR target classification performances,” The Journal of Korean Institute of Electromagnetic Engineering and Science, vol. 36, no. 6, pp. 585-593, Jun. 2025.

[16].

G. H. Golub, C. F. van Loan, Matrix Computations, 4th ed. Baltimore, MD, Johns Hopkins University Press, pp. 76-80, 2013.

[17].

K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR), Las Vegas, NV, Jun. 2016, pp. 770-778.

[18].

M. Tan, Q. V. Le, “Efficientnetv2: Smaller models and faster training,” in 2021 International Conference on Machine Learning(ICML), Vienna, Jul. 2021, pp. 10096-10106.

Author Information

채 승 병 [국립공주대학교/석사과정]

jkiees-36-7-708-i1

  • https://orcid.org/0009-0007-8340-077X

  • 2015년 2월: 아주대학교 전자공학과 (공학사)

  • 2024년 3월~현재: 국립공주대학교 전기전자제어공학부 석사과정

  • [주 관심분야] 레이다 신호처리, 레이다 영상 활용, 딥러닝

강 민 석 [국립공주대학교/부교수]

jkiees-36-7-708-i2

  • https://orcid.org/0000-0002-7021-6873

  • 2013년 2월: 아주대학교 전자공학과 (공학사)

  • 2015년 2월: 포항공과대학교 전자전기공학과 (공학석사)

  • 2019년 2월: 포항공과대학교 전자전기공학과 (공학박사)

  • 2019년 3월~2020년 8월: 국방과학연구소 선임연구원

  • 2020년 9월~2024년 8월: 국립공주대학교 전기전자제어공학부 조교수

  • 2024년 9월~현재: 국립공주대학교 전기전자제어공학부 부교수

  • [주 관심분야] 레이다 신호 및 영상처리, 레이다 영상 활용, 배열 안테나 합성 및 빔 패턴 최적화, 최적화 이론 및 압축센싱 응용, 딥러닝