논문/REGULAR PAPERS
공간 영역 및 주파수 영역 기반 SAR 표적 식별 성능 비교
채승병

, 강민석
†
Comparison of Spatial- and Frequency-Domain-Based SAR Target Classification Performance
Seung-Byung Chae

, Min-Seok Kang
†
Division of Electrical, Electronic & Control Engineering, Kongju National University
© Copyright 2025 The Korean Institute of Electromagnetic Engineering and Science. This is an Open-Access article distributed under the terms of the
Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits
unrestricted non-commercial use, distribution, and reproduction in any
medium, provided the original work is properly cited.
Received: Feb 27, 2025; Revised: Mar 09, 2025; Accepted: Apr 08, 2025
Published Online: May 31, 2025
요 약
본 연구는 합성개구레이다(SAR, synthetic aperture radar) 표적 식별에서 공간 영역과 주파수 영역의 SAR 영상에 대한 분류 성능을 비교한다. 주파수 영역의 영상은 공간 영역의 영상과 푸리에 변환을 통해 일대일로 대응하며, 표적의 고유한 형상 정보가 주파수 성분에도 보존되므로 이를 활용한 분류가 가능하다. SAR 표적 식별에는 합성곱 신경망 모델을 사용하였으며, MSTAR(moving and stationary target acquisition and recognition) 데이터셋을 활용하였다. 실험에서는 충분한 수량의 학습 데이터를 사용할 경우 공간 영역과 주파수 영역에서의 성능 차이는 미미하였다. 반면, 제한된 양의 학습 데이터를 사용할 경우 주파수 영역의 데이터셋을 활용할 때의 분류 정확도가 높게 나타났다. 이를 통해 SAR 표적 식별에 있어서 공간 영역뿐만 아니라 주파수 영역에 대해서도 효과적인 분류 성능을 보임을 확인하였다.
Abstract
This study compares the classification performance of spatial- and frequency-domain-based synthetic aperture radar (SAR) images for target classification. In general, the image in the frequency domain corresponds one-to-one to the image in the spatial domain through Fourier transform; thus, it can be utilized for target classification because the unique information of the target is preserved in the frequency component. A convolutional neural network model was used for SAR target classification, and the moving and stationary target acquisition and Recognition dataset was utilized. In the experiments using a sufficient amount of training data, there was no significant difference in the performance of SAR target classification based on the spatial and frequency domains. However, when a limited amount of training data was used, the classification accuracy of the frequency dataset was higher than that of the spatial-domain dataset. Thus, effective classification performance was shown not only in the spatial domain but also in the frequency domain for SAR target classification.
Keywords: Deep Learning; Frequency Domain; SAR Target Classification; Two-Dimensional Fourier Transform
I. 서 론
합성 개구면 레이다(SAR, synthetic aperture radar)는 전자기파 신호를 사용하여 지표면이나 목표물의 영상을 생성한다. SAR는 가시광선이나 적외선을 사용하는 광학 센서와 달리, 악천후나 야간 환경에서도 안정적인 영상 획득이 가능하다는 장점을 지닌다[1]~[8]. 이러한 특성 덕분에 SAR는 군사 감시, 지형 정보 구축, 원격 탐사 및 재난 모니터링과 같은 다양한 응용 분야에서 활용되고 있다[9],[10]. 특히 SAR를 활용한 자동 표적 인식(ATR, automatic target recognition)을 통해 적 탐지 및 식별, 구조 대상 파악, 해안 경비 등에 광범위하게 적용되고 있다. 일반적으로 SAR ATR은 영상 전체에서 표적을 탐지(detection)한 후, 탐지된 표적을 자동으로 분류(classification)하는 탐지 및 분류 단계를 통합하여 수행된다[11].
최근 딥러닝 기반 기법이 발전하면서, 표적 식별에서도 대량의 레이다 영상 데이터를 이용해 높은 분류 정확도를 달성하는 연구들이 진행되고 있다[12]~[14]. 그러나 대규모 학습 데이터 확보가 어려운 환경이나 잡음이 많은 SAR 영상 특성을 고려하면, 기존 방식으로는 여전히 강인한 분류 성능을 확보하기 쉽지 않다. 특히 표적 식별 연구는 대체로 공간 영역의 영상을 활용한다. 이러한 접근은 데이터가 충분하지 않을 경우 과적합이 발생하거나, 표적의 세부 특징이 분명하지 않으면 성능이 낮아질 우려가 있다.
이를 보완하기 위한 대안으로, SAR 영상의 주파수 영역 정보를 활용하는 방식이 제안되고 있다[15],[16]. 주파수 영역 영상은 공간 영역 영상에 대해 푸리에 변환(Fourier transform)을 적용함으로써 획득할 수 있다. 두 영역 간 일대일 대응 관계가 성립하므로, 주파수 영역에서 표적 식별이 가능하다. 푸리에 변환은 신호를 시간 또는 공간 영역에서 주파수 영역으로 변환하는 기법이며 신호의 주파수 성분을 분석하는 데 유용하다. 특히, 2차원 푸리에 변환은 공간 영역의 데이터가 지니는 패턴이 포함된 주파수 성분을 계산하여 주파수 영역에서 도시한다.
본 논문에서는 MSTAR(moving and stationary target acquisition and recognition) 데이터셋을 활용하여 SAR 영상에서 공간 및 주파수 영역의 표적 식별 성능을 비교한다. 이를 위해 딥러닝 기법 중 합성곱 신경망(CNN, convolutional neural network) 기반 분류 모델을 적용하여 공간 및 주파수 영역의 표적 분류 성능을 비교한다.
II. 이 론
2-1 공간 영역 및 주파수 영역의 SAR 영상
SAR 영상에서 표적을 분류하기 위해서는 공간적인 형상을 분석하는 것이 일반적이며, 딥러닝의 CNN 기반 기법이 공간 영역의 패턴을 학습하는 데 널리 사용된다. 공간 영역에서의 SAR 영상은 표적의 형상을 직접적으로 표현하는 장점이 있으나, 배경 잡음 등으로 인해 표적의 형태가 왜곡될 수 있다. 본 논문에서는 SAR 영상을 공간 영역에서 주파수 영역으로 변환하여 표적의 분류 성능을 분석한다.
일반적으로 두 벡터 공간 사이에는 적절한 선형변환 행렬을 통해 일대일 대응 관계를 설정할 수 있다. 이를 수식으로 표현하면 다음 식 (1)과 같다.
식 (1)에서 x와 y는 각각 서로 다른 벡터공간의 데이터를 의미한다. A는 x와 y사이의 선형변환을 나타내는 행렬이다. 여기서 x를 공간 영역의 데이터, y를 주파수 영역의 데이터로 설정하면, 행렬 A는 푸리에 변환으로 표현될 수 있다. 식 (1)의 A는 선형변환이므로 공간 영역의 데이터는 주파수 영역에서 유일한 표현을 지니며, 두 영역 간에는 일대일 대응 관계가 성립한다. 그림 1을 통해 영상의 공간 영역과 주파수 영역의 관계를 도시하였다. 각 표적이 공간 영역에서 지닌 고유한 특성은 주파수 영역에서도 유일하게 존재하므로, 주파수 영역 기반의 SAR 표적 식별이 가능하다.
공간 영역의 SAR 영상을 주파수 영역으로 변환하는 2차원 이산 푸리에 변환은 다음 식 (2)와 같다.
식 (2)에서 M 및 N 은 각각 영상의 행(row) 및 열(column)의 개수를 의미한다. m,n은 SAR 영상의 공간 좌표, 는 주파수 좌표, f(m,n)은 SAR 영상의 세기 값(magnitude), F(u,v)는 변환된 영상의 주파수 성분 값을 각각 나타낸다. 푸리에 변환 SAR 영상은 크기와 위상 성분으로 구성되며, 크기 성분은 다음의 식 (3)으로 나타낸다.
Re(F(u,v))는 2차원 푸리에 변환된 영상의 실수(real) 성분이며 Im(F(u,v))는 허수(imaginary) 성분이다. |F(u,v)|는 주파수 영역에서의 세기를 나타낸다.
본 절에서는 SAR 영상의 공간 영역 F(m,n)및 주파수 영역 표현에 대해 살펴보았다. 이를 바탕으로 본 논문에서는 공간 영역 영상 과 주파수 영역 영상 |F(u,v)|에 대한 각 영역의 데이터셋을 구축하고 성능을 비교한다.
2-2 딥러닝 기반 CNN 모델 알고리즘
최근 딥러닝은 영상 분류, 물체 인식 등 다양한 분야에서 뛰어난 성능을 보이며, 영상 처리 분야에서는 CNN 기반 알고리즘이 주목받고 있다. CNN은 영상 데이터의 특징을 추출하여 분류하는 데 효과적인 신경망 구조이다. 합성곱 계층과 풀링(pooling) 과정을 거치면서 입력 데이터의 다양한 특징을 단계적으로 학습한다. 초기 계층에서는 경계선과 모서리와 같은 간단한 특징을 추출하며, 깊은 계층으로 갈수록 복잡한 패턴을 인식한다. 본 논문에서는 ResNet[17], DenseNet[18], EfficientNetV2[19] 기반의 다양한 CNN 모델을 활용하여 공간 및 주파수 영역 데이터에 대한 학습 및 분류 성능을 분석하였다.
2-2-1 ResNet
딥러닝에서 신경망의 깊이가 과도하게 증가하면 성능이 정체되거나 하락하는 문제가 발생하였다. ResNet은 잔차(residual) 개념을 도입하여 깊은 네트워크에서도 효과적인 학습이 가능하도록 함으로써, 컴퓨터 비전 분야의 발전에 크게 기여하였다. ResNet은 원하는 출력을 직접 학습하는 대신, 입력과 출력 간의 차이인 잔차를 학습하는 구조이다. 따라서 입력을 기준으로 필요한 변화만을 잔차로 학습하도록 한다.
2-2-2 DenseNet
DenseNet은 이전 모든 계층의 출력을 다음 계층의 입력으로 직접 연결하여, 효율적인 특징 재사용(feature reuse)을 가능하게 한다. DenseNet은 여러 개의 밀집한 블록(dense block)으로 구성되며, 특징 맵(feature map)을 단순한 합이 아닌 연결(concatenation) 방식으로 결합한다. 네트워크가 깊어질수록 합성곱 층은 기존 특징을 단순히 누적하는 대신, 새롭게 추가된 특징과 결합하여 더욱 다양한 패턴을 학습할 수 있다.
2-2-3 EfficientNetV2
EfficientNetV2는 기존 EfficientNet 대비 학습 속도와 파라미터 효율성을 모두 향상하기 위해 제안되었다. 기존의 EfficientNet에서 사용된 MBConv(mobile inverted bottleneck convolution) 블록은 깊이별 합성곱(depthwise convolution)을 통해 파라미터와 연산량을 효과적으로 줄일 수 있지만, 신경망 구조의 초반 단계(stage)처럼 채널 수가 적을 때는 연산 효율이 낮다. EfficientNetV2에서는 초반 단계에서 1 × 1 합성곱 연산 및 깊이별 합성곱을 3 × 3 일반 합성곱으로 대체하는 Fused-MBConv를 도입하여 연산의 병목 현상을 줄였다. 이후 후반 단계에서 MBConv를 활용하여 파라미터 및 연산량을 효율화하였다. 이를 통해 EfficientNetV2는 학습 속도를 높이면서도 성능 향상과 모델 경량화를 달성하였다.
III. 실험 및 평가
3-1 MSTAR 데이터셋
MSTAR 데이터셋은 군사 표적의 탐지 및 인식을 목적으로 수집된 다양한 조건의 SAR 영상을 포함하며, 장갑차와 전차 등 10종류의 표적을 제공한다. 또한, 각 표적은 서로 다른 경사각(depression angle)에서 촬영되어, 다양한 관측 상황에서의 분류 성능을 평가할 수 있도록 구성되어 있다.
그림 2는 MSTAR 데이터셋에서 제공된 각기 다른 4가지 표적의 SAR 영상을 dB 척도(동적 범위 50 dB)로 시각화한 것이다. 그림 3은 그림 2의 각 표적 SAR 영상으로부터 2차원 푸리에 변환을 적용하여 획득한 주파수 영역의 SAR 영상이며, 동일한 dB 척도로 나타내었다. 다양한 표적을 주파수 영역에서 관찰한 결과, 저주파 대역에 정보가 집중되는 경향이 일관되게 나타났다. 이는 표적의 전체적인 형태를 결정하는 주요 정보가 주파수 공간의 저주파 성분에 반영됨을 시사한다. 이러한 특성으로 인해, 합성곱 연산을 통해 지역적인 특징을 추출하는 CNN 모델은 주파수 영역에서도 표적의 핵심 특징을 명확하게 인식하고 효과적으로 학습할 수 있다.
3-2 공간 및 주파수 영역에서 표적 식별 실험
실험에 사용한 데이터 개수 및 영상 크기는 표 1에 요약되어 있다. 본 실험의 모든 입력 영상은 128 × 128로 크기 조정(resize)을 하였다. 또한, 각각의 SAR 영상에 대해 최소-최대 정규화를 적용하여 픽셀 값을 [0,1] 범위로 변환하였으며, 식 (4)와 같다.
표 1. | Table 1.
MSTAR 데이터셋의 15° 및 17° 경사각별 영상 개수 및 영상 크기 | Number of images and image sizes for 15° and 17° depression angles in the MSTAR dataset.
Target |
Images at 17° depression angle |
Images at 15° depression angle |
Image size |
T-62 |
299 |
273 |
173×172 |
T-72 |
232 |
196 |
128×128 |
ZIL-131 |
299 |
274 |
193×192 |
ZSU-23/4 |
299 |
274 |
158×158 |
2S1 |
299 |
274 |
158×158 |
BMP-2 |
233 |
195 |
128×128 |
BRDM-2 |
298 |
274 |
129×128 |
BTR-60 |
256 |
195 |
128×128 |
BTR-70 |
233 |
196 |
128×128 |
D7 |
299 |
274 |
178×177 |
Download Excel Table
m과 n은 각각 SAR 영상에서 행과 열 방향의 이산 좌표를 나타내며, 과 은 각 영상의 최소, 최댓값이다. D(m,n)은 공간 혹은 주파수 영역의 SAR 영상이고, 은 D(m,n)에 대하여 정규화를 적용한 영상을 각각 나타낸다.
본 실험에서는 MSTAR 기반의 공간 영역 영상과 주파수 영역 영상을 구분하여 동일한 학습 환경에서 두 영역의 분류 성능을 비교하였다. 실험 환경은 Python 3.9.12 및 PyTorch 2.1.0(CUDA 12.1)에서 수행되었다. 다양한 CNN 모델(ResNet-34, DenseNet-121, EfficientNetV2-S)을 적용하였으며, 학습은 배치 크기는 32, Epoch 수는 100으로 설정하였다. 최적화 알고리즘은 경사하강법 중 momentum과 RMSprop을 결합한 Adam(adaptive moment estimation)[20]을 채택하였고, 학습률은 10−4, 손실 함수는 교차 엔트로피(cross entropy)를 사용하였다. 학습에는 17° 경사각 영상을 사용하고, 분류 성능 평가는 15° 경사각 영상을 이용하여 수행하였다. 또한, 학습 데이터의 수량이 분류 성능에 미치는 영향을 분석하기 위해, 17° 경사각 데이터셋에서 30, 50, 70, 100 %의 비율로 데이터를 무작위 추출하여 실험을 진행하였다. 각 비율로 구성된 데이터셋은 학습 및 검증 데이터 비율을 8:2로 분할하였다. 분류 정확도의 통계적 신뢰도를 확보하기 위해 각 실험을 10회 반복 수행하고 평균 정확도를 계산하였다.
그림 4~그림 6은 각각 ResNet-34, DenseNet-121, EfficientNetV2-S 모델을 사용하여, 학습 데이터의 수에 따른 SAR 영상의 공간 영역 및 주파수 영역 데이터의 분류 성능을 비교한 것이다. 실험에서 확인한 모든 CNN 모델에 대해, 학습 데이터가 충분한 경우에는 공간 영역과 주파수 영역 데이터 간의 분류 성능은 확연한 차이를 보이지 않았다. 그러나 학습 데이터의 수량이 감소할수록 공간 영역 데이터의 분류 성능은 급격히 저하됐지만, 주파수 영역 데이터의 분류 성능 감소는 비교적 완만하였다. 이는 일반적인 표적의 SAR 영상이 저주파 성분을 다량 포함하고 있으며, 주파수 영역에서 저주파 대역에 에너지가 밀집되기 때문이다. 이로 인해 주파수 영역은 주요 정보가 분산되지 않고 특정 영역에 집중되므로, 지역적인 특징을 추출하는 CNN 모델은 충분하지 않은 데이터로도 공간 영역보다 효과적인 특징 추출이 가능하다. 따라서, 데이터가 제한적인 환경에서는 주파수 영역 변환을 활용하는 것이 공간 영역보다 안정적인 분류 성능을 제공할 수 있음을 시사한다.
그림 4. | Fig. 4.
ResNet-34 모델 학습 데이터셋(17°) 사용 비율에 대한 공간 영역 및 주파수 영역 분류 정확도 | Classification accuracy of spatial and frequency domain models according to the usage ratio of the ResNet-34 model training dataset (17°).
Download Original Figure
그림 5. | Fig. 5.
DenseNet-121 모델 학습 데이터셋(17°) 사용 비율에 대한 공간 영역 및 주파수 영역 분류 정확도 | Classification accuracy of spatial and frequency domain models according to the usage ratio of the DenseNet-121 model training dataset (17°).
Download Original Figure
그림 6. | Fig. 6.
EfficientNetV2-S 모델 학습 데이터셋(17°) 사용 비율에 대한 공간 영역 및 주파수 영역 분류 정 확도 | Classification accuracy of spatial and frequency domain models according to the usage ratio of the EfficientNetV2-S model training dataset (17°).
Download Original Figure
IV. 결 론
본 연구에서는 SAR 영상의 표적 식별에서 공간 영역과 주파수 영역 데이터의 분류 성능을 비교하였다. 실험에는 딥러닝 기반 CNN 모델을 활용하였으며, MSTAR 데이터셋을 통해 학습 데이터의 수량에 따른 성능을 평가하였다.
실험 결과 충분한 학습 데이터를 이용하는 경우 공간 영역과 주파수 영역에서의 분류 성능 차이는 크지 않았지만, 데이터가 제한적인 환경에서는 주파수 영역 데이터가 공간 영역 데이터보다 높은 분류 정확도를 보였다. 이는 표적에 대한 SAR 영상의 주요 정보가 저주파 성분에 집중되어 있으며, 주파수 영역 변환을 통해 CNN 모델이 효과적으로 특징을 학습할 수 있기 때문이다. 특히, 학습 데이터가 충분하지 않은 경우 주파수 영역의 정보가 상대적으로 안정적인 성능을 제공함을 확인하였다.
본 연구의 결과는 SAR 표적 식별에서 SAR 영상의 주파수 데이터 상에서도 효과적일 수 있음을 시사하며, 향후 다양한 데이터셋을 활용한 추가 연구를 통해 주파수 변환 기반 접근법의 범용성을 검증할 필요가 있다.
Acknowledgements
이 논문은 2025년도 정부(교육부)의 재원으로 한국연구재단의 지원을 받아 수행된 기초연구사업임(No. 2021R1I1A3043152).
References
M. S. Kang, K. T. Kim, “Compressive sensing based SAR imaging and autofocus using improved Tikhonov regularization,”
IEEE Sensors Journal, vol. 19, no. 14, pp. 5529-5540, Jul. 2019.

M. S. Kang, K. T. Kim, “Ground moving target imaging based on compressive sensing framework with single-channel SAR,”
IEEE Sensors Journal, vol. 20, no. 3, pp. 1238-1250, Feb. 2020.

M. S. Kang, K. T. Kim, “Automatic SAR image registration via tsallis entropy and iterative search process,”
IEEE Sensors Journal, vol. 20, no. 14, pp. 7711-7720, Jul. 2020.

H. Zhong, R. Zhao, H. Song, M. Yang, J. Liu, and Z. Ye, et al., “An improved imaging algorithm for high-resolution and highly squinted one-stationary bistatic SAR using extended nonlinear chirp scaling based on equi-sum of bistatic ranges,”
IEEE Geoscience and Remote Sensing Letters, vol. 18, no. 7, pp. 1244-1248, Jul. 2021.

M. S. Kang, J. M. Baek, “Efficient SAR imaging integrated with autofocus via compressive sensing,”
IEEE Geoscience and Remote Sensing Letters, vol. 19, p. 4514905, Oct. 2022.

M. S. Kang, J. M. Baek, “SAR image reconstruction via incremental imaging with compressive sensing,”
IEEE Transactions on Aerospace and Electronic Systems, vol. 59, no. 4, pp. 4450-4463, Aug. 2023.

D. L. N. Hettiarachchi, E. J. Balster, “Fixed-point processing of the SAR back-projection algorithm on FPGA,”
IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 14, pp. 10889-10902, Oct. 2021.

M. S. Kang, J. M. Baek, “Compressive sensing-based Omega-K algorithm for SAR focusing,”
IEEE Geoscience and Remote Sensing Letters, vol. 22, p. 4003405, Jan. 2025.

R. Pelich, M. Chini, R. Hostache, P. Matgen, L. Pulvirenti, and N. Pierdicca, “Mapping floods in urban areas from dual-polarization InSAR coherence data,”
IEEE Geoscience and Remote Sensing Letters, vol. 19, p. 4018405, Sep. 2021.

M. S. Kang, J. M. Baek, “Effective denoising of InSAR phase images via compressive sensing,”
IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 17, pp. 17772-17779, May. 2024.

K. El-Darymli, E. W. Gill, P. Mcguire, D. Power, and C. Moloney, “Automatic target recognition in synthetic aperture radar imagery: A state-of-the-art review,”
IEEE Access, vol. 4, pp. 6014-6058, Sep. 2016.

S. Chen, H. Wang, F. Xu, and Y. Q. Jin, “Target classification using the deep convolutional networks for SAR images,”
IEEE Transactions on Geoscience and Remote Sensing, vol. 54, no. 8, pp. 4806-4817, Aug. 2016.

J. Deng, H. Bi, J. Zhang, Z. Liu, and L. Yu, “Amplitude-phase CNN-based SAR target classification via complex-valued sparse image,”
IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 15, pp. 5214-5221, Jun. 2022.

C. Coman, R. Thaens, “A deep learning SAR target classification experiment on MSTAR dataset,” in
2018 19th International Radar Symposium(IRS), Bonn, Jun. 2018, pp. 1-6.


Z. Huang, M. Datcu, Z. Pan, and B. Lei, “Deep SAR-Net: Learning objects from signals,”
ISPRS Journal of Photogrammetry and Remote Sensing, vol. 161, pp. 179-193, Mar. 2020.

G. Dong, H. Liu, G. Kuang, and J. Chanussot, “Target recognition in SAR images via sparse representation in the frequency domain,”
Pattern Recognition, vol. 96, p. 106972, Dec. 2019.

K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in
Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR), Las Vegas, NV, Jun. 2016, pp. 770-778.


G. Huang, Z. Liu, L. van der Maaten, and K. Q. Weinberger, “Densely connected convolutional networks,” in
2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, Jul. 2017, pp. 4700-4708.


M. Tan, Q. V. Le, “Efficientnetv2: Smaller models and faster training,” in
2021 International Conference on Machine Learning(ICML), Vienna, Jul. 2021, pp. 10096-10106.
D. P. Kingma, J. Ba, “Adam: A method for stochastic optimization,” in
2015 3rd International Conference on Learning Representations(ICLR), San Diego, CA, May 2015.