논문/REGULAR PAPERS

이동 표적 탐지 및 추적을 위한 단일 채널 기반 고해상도 위성 SAR 영상 모드 구현

반인모1,https://orcid.org/0000-0001-9459-7511, 조휘정1https://orcid.org/0000-0002-2468-983X, 이석원1https://orcid.org/0000-0002-1319-0857, 이명진1https://orcid.org/0000-0002-3136-2819, 이우경1https://orcid.org/0000-0003-2092-2048, 여광구*https://orcid.org/0009-0002-5590-9492
In-Mo Ban1,https://orcid.org/0000-0001-9459-7511, Hwi-jeong Jo1https://orcid.org/0000-0002-2468-983X, Seok-Won Lee1https://orcid.org/0000-0002-1319-0857, Myeong-jin Lee1https://orcid.org/0000-0002-3136-2819, Woo-Kyung Lee1https://orcid.org/0000-0003-2092-2048, Yeo Kwanggoo*https://orcid.org/0009-0002-5590-9492
Author Information & Copyright
1한국항공대학교 항공전자정보공학과
*한화시스템 위성시스템 1팀
1Department of Electronic and Information Engineering, Korea Aerospace University
*Satellite System Team 1, Hanwha Systems
Corresponding Author: Woo-Kyung Lee (e-mail: wklee@kau.ac.kr)

© Copyright 2023 The Korean Institute of Electromagnetic Engineering and Science. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Oct 24, 2022; Revised: Nov 22, 2022; Accepted: Jan 02, 2023

Published Online: Mar 31, 2023

요약

합성 개구 레이다(synthetic aperture radar)는 높은 해상도의 영상을 형성하기 위해 비교적 긴 시간 동안 신호를 수집한다. 이동 표적의 경우, 합성 개구 레이다에서 신호를 수집하는 동안 지속적으로 이동하기 때문에, 합성 개구 레이다 영상의 초점이 흐려지며, 방위 방향의 이동 및 퍼짐 현상이 발생한다. 이에 따라, 해외에서는 이동 표적 탐지를 수행하는 연구가 수행되고 있으며, 단일 안테나를 활용하여 이동 표적을 탐지하는 대표적인 방안으로는 이동 표적의 그림자를 추적하거나 부분 조리개(sub-aperture)를 활용하는 기법이 제시된다. 부분 조리개 활용 기법은 이동 표적의 에너지가 방위 방향으로 퍼져 흐려지는 현상을 줄일 수 있어 이동 표적을 식별하는 데 용이하다. 또한 부분 조리개의 다중 프레임 구조를 활용하여 이동 표적의 이동 방향 및 속도에 대한 정보를 획득할 수 있다. 따라서 본 논문에서는 부분 조리개 기반 이동 표적 탐지를 위한 시뮬레이터를 설계하고, 시뮬레이터를 기반으로 다중 프레임 구조 영상을 연속적으로 제시하여 이동 표적 추적을 수행한다.

Abstract

Synthetic aperture radar (SAR) collects signals for extended durations to generate high-resolution images. In general, SAR processing assumes stationary targets, and when moving targets are located in the scene, the processed images are defocused through blurring effects, or their locations are shifted from the true positions. Accordingly, the detection and tracking of moving targets have long been an active research topic in the SAR community. In this study, we propose a method for detecting and tracking a moving target using a single-channel spacebprem SAR system by adopting sub-aperture processing based on the spotlight mode. We show that the blurring effect of the smearing target energy is suppressed by dividing the sub-aperture intervals, thus helping identify the moving target. Accordingly, the direction and velocity of the moving target were obtained by analyzing the multi-frame target scenes. For verification, a spaceborne SAR simulator was designed for moving target tracking. The range and azimuth velocities are extracted from the multi-frame target images to compensate for the position shift and recover the true trajectory of the moving target.

Keywords: Sub-Aperture; Single Channel; GMTI; Moving Target; Spaceborne SAR

Ⅰ. 서 론

합성 개구 레이다(synthetic aperture radar)는 주․야간, 날씨 등과 관계없이 관심 지역 및 표적에 대한 고해상도 레이다 영상을 획득할 수 있어 민수 및 국방 감시 목적으로 널리 활용된다[1],[2]. 대부분의 합성 개구 레이다 영상 신호처리 알고리즘은 정지 표적을 가정하고 있으며, 이동 표적에 대해서는 거리 및 방위 방향 속도에 따른 도플러 편이에 의해 방위 방향의 위치 천이 및 에너지 퍼짐 현상을 일으킨다[3]. 따라서 합성 개구 레이다 영상에 존재하는 이동 표적을 탐지하고, 영상정보를 획득하기 위해서는 지상 이동 표적 탐지 기법(ground moving target indication) 방식의 추가적인 알고리즘이 요구된다. 대표적인 지상 이동 표적 탐지 기법으로는 클러터 억제 기반의 STAP (space-time adaptive processing), DPCA(displaced phase centre antenna), ATI(along-track interferometry) 기법이 있다[4]~[15]. 그러나 대부분의 지상 이동 표적 탐지 기법들은 높은 연산량을 요구하는 문제점이 있으며, 주로 다중 채널 기반으로 수행된다. 단일 채널 합성 개구 레이다 시스템에서는 긴 합성 개구 시간 및 움직임 보상 오류로 인하여 이동 표적 탐지 성능이 감소한다. 이에 따라, 단일 채널 합성 개구 레이다에서는 2차 키스톤 형성(second-order keystone transfomatting)과 허프 변환(hough transform)을 활용하는 방안[16]과 압축 센싱을 활용한 방식[17],[18]이 제안된다. 또한 최근에 낮은 연산량을 통해 이동 표적을 탐지하는 방안으로 이동 표적의 그림자를 추적하는 방안[19]과 부분 조리개(sub-aperture)를 활용하는 방안이 제시된다[20],[21].

부분 조리개 기반 이동 표적을 탐지하는 경우, 관측 시간을 짧게 하여 이동 표적의 퍼짐 현상을 감소시켜 포커싱 능력이 향상된다. 또한 원형 운용(circular) 및 스폿(spotlight) 모드로 신호를 수집하여 관심 지역 및 표적의 지속적인 관측을 수행하는 경우, 부분 조리개를 연속적으로 나열한 다중 프레임을 통해 직관적인 이동 표적 식별이 가능하며, 이를 통해 이동 표적의 속도, 경로 등의 정보를 얻을 수 있다.

부분 조리개의 다중 프레임을 활용하여 이동 표적을 탐지한 대표적인 사례로 ICEYE가 있다. ICEYE는 참고문헌 [21]에서 긴 관측 시간과 선박의 이동 속도로 인해 영상의 초점이 안 맞는 현상이 발생하였고, 부분 조리개의 다중 프레임을 통해 이동 표적의 초점을 맞춘다.

따라서, 본 논문에서는 단일 채널 SAR 시스템 기반 이동 표적 탐지를 수행하기 위한 시뮬레이터를 구현한다. 또한 제작된 시뮬레이터를 기반으로 이동 표적 영상을 형성하고, 부분 조리개 기반 다중 프레임을 연속적으로 나타내어 이동 표적 탐지 사례를 모사한다.

II. 모의실험 설계

2-1 신호 모델링

본 모의실험에서 합성 개구 레이다는 관심 장면에 대한 지속적인 관측을 수행하고, 높은 해상도의 영상 획득을 위해 그림 1과 같이 스폿 모드를 통한 신호 수집을 수행한다. 스폿 모드는 빔 조향을 통해 비교적 긴 시간 동안 장면을 관측한다. 이에 따라, 스트립맵 모드와 다르게 안테나 빔 폭이 방위 해상도를 제한하지 않으며, 긴 관측 시간을 통한 높은 방위 해상도를 구현할 수 있다.

jkiees-34-3-176-g1
그림 1. | Fig. 1. 스폿 모드 SAR | Spotlight mode SAR.
Download Original Figure

스폿 모드에서 송신 신호가 식 (1)과 같을 때 정지 표적의 수신 신호는 식 (2)와 같이 나타낼 수 있다.

s t ( n , t ) = A 0 exp ( j 2 π f c t + j π γ ( t n T ) 2 )
(1)
s r ( n , t ) = a t r e c t ( t ^ t d T p ) exp ( j 2 π f c ( t t d ) + j π γ ( t ^ t d ) 2 )
(2)

식 (2)에서 td는 2Rt/c로 지연 시간을 나타내며, Rt는 플랫폼에서 표적까지의 거리를 나타낸다.

표적이 거리 방향으로 vr의 속도와 ar의 가속도를 갖고 방위 방향으로 va 속도로 이동할 때, 표적의 위치는 식 (3)과 같이 나타낼 수 있다. 이때, 는 방위 시간을 나타낸다.

( x , y ) = ( x 0 + v r η + 1 2 a r η 2 , v 0 + v a η )
(3)

이동 표적으로 발생하는 위상 변화는 식 (4)식 (5)와 같이 나타낼 수 있다. νρ는 플랫폼의 속도, R0는 장면 중심까지의 거리, f′은 순시 주파수와 중심 주파수의 차를 나타낸다.

Φ ( f , η ) = 4 π λ ( r ( η ) R 0 2 + ( v p η ) 2 )
(4)
r ( η ) = ( R 0 + x 0 + v r + 1 2 a r η 2 ) 2 + ( y 0 + v a η + v p η ) 2
(5)

식 (4)는 테일러 급수 전개에 의해 식 (6)과 같이 나타낼 수 있으며, f0는 중심 주파수를 나타낸다.

Φ ( f , η ) = 4 π λ [ x 0 + x 0 f f 0 y 0 v p η R 0 + v r η + 1 2 a r η 2 v a v p ( v p η ) 2 R 0 + ]
(6)

식 (6)에서 2, 3번째 항은 표적의 거리 및 방위 위치 정보를 생성하며, 4번째 항은 표적의 거리 방향 속도로 인한 방위 방향 천이를 일으킨다. 그리고 5, 6번째 항은 표적 에너지의 방위 방향 퍼짐 현상을 야기한다[22].

식 (7)~식 (11)은 ΔRshift를 산출하는 과정을 나타내며, Nα는 방위 샘플 수, PRF는 펄스 반복 주파수, Tα는 관측 시간, ΔN 은 방위 천이 샘플 수, fdc는 도플러 중심 주파수, La는 방위 개구 크기, da는 방위 샘플 간격을 나타낸다.

N a = P R F T a = P R F λ R 0 L a v p
(7)
Δ N = f d c P R F N a = 2 v r N a λ P R F
(8)
Δ N = 2 V t R 0 L a V p
(9)
d a = L a 2
(10)
Δ R shift  = Δ N d a = v r R 0 v p
(11)

따라서 거리 방향 속도로 인한 방위 방향 천이(ΔRshift)는 vrR0vp만큼 발생하는 것을 식 (11)를 통해 알 수 있다.

방위 위상 오차가 A일 때, 방위 중심에서 끝지점까지 2πA 라디안의 진폭 주기를 갖는 신호에서 위상 오차(ϕ(t)) 및 미분값(ϕ(t))은 식 (12)식 (13)과 같이 나타낼 수 있다.

ϕ ( t ) = 2 π A η 2 ( T a / 2 ) 2 = 8 π A η 2 T a 2
(12)
ϕ ˙ ( t ) = 4 π A η ( T d / 2 ) 2
(13)

이때 관측 시간(T) 동안 선형 위상은 ±8 π 라디안의 편차를 가지며, 주파수 영역에서 2 π 라디안은 영상에서 방위 해상도(ρa)만큼 이동하기 때문에 퍼짐 현상은 -4a에서 4a까지 8a만큼 발생한다.

따라서 방위 속도로 인한 방위 위상 오차(A)와 방위 해상도(ρa) 식 (14)를 통해 방위 속도로 인한 블러링(ΔRsmear)은 2vaη만큼 발생하는 것을 알 수 있다[22],[23].

ρ a = λ R 0 2 v p η
(14)
A = v a v p η 2 2 λ R 0 = v a η 4 ρ a
(15)
Δ R smear  = 8 A ρ a = 2 v a η
(16)
2-2 다중 프레임 구조 기반 이동 표적 속도 추정

본 논문에서는 이동 표적의 블러링을 감소시켜 이동 표적을 탐지 및 추적하기 위해 그림 2의 구조를 제안한다. 이동 표적의 블러링은 관측 시간에 비례하므로, 제안 방식은 부분 조리개를 기반으로 관측 시간 및 블러링을 감소시켜 이동 표적 탐지를 수행한다. 이후 연속되는 다중 프레임 간의 변화를 통해 이동 표적을 시각적으로 추적 가능하며, 이동 표적의 이동 거리 및 프레임 산출 시간을 활용하여 이동 속도를 추정할 수 있다. 제안 방식은 다중 채널에서 수행되는 영상 정합 과정을 포함하지 않아 간단한 과정을 통해 이동 표적 탐지 및 추적이 가능하다.

jkiees-34-3-176-g2
그림 2. | Fig. 2. 부분 조리개를 활용한 이동 표적 탐지 및 추적 순서도 | Flowchart of moving target indication & tracking based on sub-aperture processing.
Download Original Figure

부분 조리개를 활용하여 다중 합성 개구 레이다 영상 프레임을 형성할 경우, 이동 표적은 프레임에 따라 서로 다른 위치에서 생성된다. p0,rg, p0,azi가 표적의 초기 위치라고 할 때, 위치 천이가 발생한 이동 표적의 n번째 프레임에서의 거리 방향 및 방위 방향 위치, pfalse, rgn,pfalse ,avin는 각각 식 (17)~식 (20)과 같이 나타낼 수 있다. Δθa는 합성 개구 면적 각도를 나타낸다.

p fallse,rg  n = p 0 , r g + v r T f n + Δ θ a 4
(17)
p false,avi  n = p 0 , a v i + v a T f n + v r R 0 v p
(18)
p fallse,rg  n 1 = p 0 , r g + v r T f ( n 1 ) + Δ θ a 4
(19)
p false,asi  n 1 = p 0 , a v i + v a T f ( n 1 ) + v r R 0 v p
(20)

Tf 프레임이 생성되는 시간 간격을 나타내며, 각 프레임 간의 표적 속도는 일정하게 유지된다고 가정한다. n번째 프레임과 (n−1)번째 프레임에서의 생성된 표적의 위치 편차는 식 (21)식 (22)와 같다.

p false,rg  n p f a l s e , r g n 1 = v r T f
(21)
p false,avi  n p false,avi  n 1 = v a T f
(22)

이 정보는 실제 표적의 위치와는 다르며 (n−1), n번째 프레임에서의 표적의 실제 거리 위치 ptrue,rg n 와 방위 위치 ptrue,avi n식 (23)~식 (26)과 같이 표현된다.

p true,rg  n = p 0 , r g + v r T f n
(23)
p ture,avi  n = p 0 , a v i + v a T f n
(24)
p true,rg  n 1 = p 0 , r g + v r T f ( n 1 )
(25)
p true,axi  n 1 = p 0 , a x i + v a T f ( n 1 )
(26)

따라서 n번째 프레임과 (n−1)번쨰 프레임에서의 표적의 실제 이동 거리는 식(27)식 (28)과 같다.

p true,rg  n p true,rg  n 1 = v r T f
(27)
p true,asi  n p true,asi  n 1 = v a T f
(28)

관측 시간 동안 표적의 속도가 일정하다고 가정하면, 다중 프레임에서 위치 편이가 발생한 표적 이동 거리는 실제 표적의 이동 거리와 같다고 할 수 있다. 따라서 각 프레임에서 단위 시간당 표적의 이동 거리를 측정하여 속도를 추정할 수 있다. ur,est, ua,est 는 거리 방향 추정 속도, 방위 방향 추정 속도를 나타낸다.

v r , e s t = ( p f  false,rg  n p false,rg  n 1 ) / T f
(29)
v a,est  = ( p false  , a s i n p falles,asi  n 1 ) / T f
(30)

부분 조리개의 관측 시간을 줄일 경우, 방위 방향 퍼짐 현상을 줄이는 효과가 있으나, 방위 해상도의 저하가 발생한다. 이러한 해상도 저하에 의해 관찰 가능한 이동 표적의 최저 속도는 올라간다. 일반적으로 거리 및 방위 방향 속도로 인한 위치 변위는 블러링을 포함한 합성 개구 레이다 영상의 해상도보다 커야 한다. 각 부분 조리개에서의 표적의 거리 방향 이동 편차는 거리 해상도보다 커야 하며, 식 (31)식 (32)와 같은 조건을 만족해야 한다. c는 빛의 속도, B는 대역폭을 의미한다.

v r T f c 2 B
(31)
c 2 B T f v r
(32)

반면 표적의 방위 방향 이동 편차는 방위 방향 블러링보다 커야 하며, 식 (33)식 (34)와 같은 조건을 만족해야 한다.

2 v a T f λ 2 Δ θ a
(33)
λ 4 T f Δ θ a v a
(34)

Tf는 프레임 중첩이 적용되지 않았을 때의 관측 시간으로 Np와 같으며, 식 (35)와 같이 표현된다. 이때 는 방위 샘플 수, f는 중심 주파수, PRF는 펄스 반복 주파수, Rc는 경사 거리, ρa는 방위 해상도를 나타낸다.

T a = N p P R F = R c c 2 ρ a v p f c
(35)

탐지할 수 있는 거리 방향의 최저 속도(vr,min) 및 방위 방향의 최저 속도(va,min)는 식 (36)식 (37)과 같이 나타낼 수 있다.

v r , min = c 2 B T f
(36)
v a , min = λ 4 T f Δ θ a
(37)

ATI와 같은 지상 이동 표적 탐지 기법을 활용할 때는 더 미세한 표적의 변화도 탐지가 가능하지만, 주파수 영역에서 분할 후 영상 정합 및 위상 간섭 정보 분석을 수행하는 복잡한 과정을 거쳐야 한다. 따라서 빠른 표적의 변화는 다중 프레임 구조의 간단한 구조를 통해 탐지할 수 있으며 낮은 속도의 이동 표적 탐지를 위해서는 높은 해상도의 다중 프레임을 나열하는 비디오 SAR 모드의 구현이 필요하다.

부분 조리개 영상을 연속적으로 나열하여 이동 표적을 나타낼 때, 각 프레임 사이의 중첩을 활용하여 다중 프레임 사이의 연속성을 증가시킬 수 있다. 또한 부분 조리개 간의 중첩을 통해 활용하는 신호를 늘려 영상의 해상도를 향상시킬 수 있다. 그림 3은 부분 조리개의 다중 프레임 사이의 중첩을 적용했을 때를 나타내는 그림이다.

jkiees-34-3-176-g3
그림 3. | Fig. 3. 데이터 중첩에 따른 다중 프레임 구조 | Multi-frame structure based on data overlapping.
Download Original Figure

그림 3과 같이 다중 프레임 간의 중첩을 적용했을 때 산출되는 프레임률은 관측 시간 식 (35)의 역수와 중첩률(a)을 통해 표현할 수 있으며 식 (38)과 같이 나타낼 수 있다. 프레임률은 중첩되는 신호의 비율(a), 운용 거리(R0), 플랫폼의 속도(vp), 방위 해상도(ρa), 중심 주파수(fc)의 영향을 받는다.

F = 1 T a ( 1 α ) = 2 ρ a V p f R c ( 1 α )
(38)

식 (38)을 통해 프레임 간 중첩 적용을 했을 때, 프레임이 생성되는 시간 간격(Tf, ov1)은 Ta(1 − a)으로 나타낼 수 있다.

III. 모의실험

본 연구에서는 제작된 시뮬레이터를 활용하여 부분 조리개의 다중 프레임 구조로 이동 표적의 탐지 및 추적을 할 수 있음을 검증한다. 모의실험에서 플랫폼은 위성을 가정하여 입력 변수를 설정하였으며, 그림 1과 같은 기하 구조를 갖는다. 합성 개구 레이다 영상 처리 알고리즘으로는 PFA(polar format algorithm)을 활용하였다. 모의실험은 참고문헌 [21]에서의 ICEYE 실제 사례를 모사하여 단일 및 다중 표적 시나리오 2가지를 수행한다. 단일 이동 표적 모의실험은 다수의 점 표적으로 생성한 3 m×5 m 차량을 표적으로 가정하였으며, 총 관측 시간이 3.2 s이고, 부분 조리개 관측 시간은 0.4 s이다. 다중 이동 표적 모의실험은 다수의 점 표적으로 생성한 3 m×5 m 차량과 3 m×10 m 차량을 표적으로 가정하였으며, 총 관측 시간은 8 s이고 부분 조리개 관측 시간은 1 s이다. 그림 4를 통해 초기 모의 표적의 위치 및 형태를 볼 수 있다. 합성 개구 레이다 시스템 및 이동 표적의 변수는 표 1과 같다.

jkiees-34-3-176-g4
그림 4. | Fig. 4. 모의 실험 표적 초기 위치 및 형태 | Initial target configurations for simulation scenarios.
Download Original Figure
표 1. | Table 1. SAR 모의실험 시스템 및 이동 표적 변수 | SAR simulator system & moving target parameter.
Parameter Value
Carrier frequency 9.65 GHz
Bandwidth 380 MHz
PRF 5,000 Hz
Platform altitude 550 km
Look angle 45°
Observation time Scenario 1 3.2 s
Scenario 2 8 s
Across-track true velocity Scenario 1 10 m/s
Scenario 2 10 m/s, 8 m/s
Along-track true velocity Scenario 1 30 m/s
Scenario 2 30 m/s, 8 m/s
Download Excel Table

합성 개구 레이다는 스퀸트 각도에 따라 영상의 품질에 차이가 발생할 수 있다. 그러나 모의실험에서는 스퀸트 각도가 크지 않으며, 그림 5를 통해 스퀸트 각도에 따른 부분 조리개 사이의 도플러 밴드 폭의 차이가 작은 것을 확인할 수 있다. 또한 주파수 영역에서 합성 개구 레이다 영상처리를 수행하여 추가적인 스퀸트 각도에 대한 보상을 수행하지 않는다. 그러나 스퀸트 각도가 커졌을 경우, 추가적인 영상처리가 필요하다.

jkiees-34-3-176-g5
그림 5. | Fig. 5. 스퀸트 각도에 따른 최소 도플러 밴드 폭 | Minimum Doppler bandwidth with squint angle.
Download Original Figure

설계된 시뮬레이터의 성능을 확인하기 위해 거리 및 방위 방향 속도를 각각 입력하여 이동 표적의 방위 방향 천이 및 퍼짐 현상이 2-2절에서 제시한 방식으로 발생하는지 검증한다.

표적은 차량을 가정한 이동 표적과 참고를 위한 점 표적으로 설정하였다. 표 1의 시스템 변수를 통한 탐지 가능한 거리 및 방위 방향 최저 속도는 1.46 m/s, 2.92 m/s이다. 그림 6(a)는 이동 표적과 점 표적이 정지했을 때 영상을 나타낸다. 그림 6(b)는 거리 방향으로 −10 m/s의 속도만 설정했을 때 영상을 나타내며, 거리 방향 속도로 인하여 이동 표적의 방위 방향 이동이 발생한 것을 볼 수 있다. 이때, 방위 이동 거리는 약 1.07 km이다. 그림 6(c)는 방위 방향으로 30 m/s의 속도만 설정했을 때 영상으로 거리 방향 이동 없이 방위 방향의 퍼짐 현상이 발생한 것을 볼 수 있다. 위의 검증을 통해 시뮬레이터 성능을 확인했으며, 이를 바탕으로 단일 및 다중 이동 표적 탐지 모의실험을 수행한다.

jkiees-34-3-176-g6
그림 6. | Fig. 6. 거리 및 방위 단일 방향 속도에 따른 이동 표적 | Moving target images based on distance or azimuth each velocity.
Download Original Figure

그림 7은 단일 이동 표적의 거리 및 방위 방향 속도를 각각 10 m/s, 30 m/s로 설정했을 때 모의실험 결과를 나타낸 것으로 이동 표적의 방위 방향 위치 천이 및 에너지 퍼짐 현상이 발생한 것을 볼 수 있다. 일반적으로는 이동 표적을 탐지하고 속도 추정을 수행하기 위해 STAP 및 ATI와 같은 지상 이동 표적 탐지 기법을 사용한다. 이와 달리, 본 논문에서는 부분 조리개의 멀티 프레임 구조를 통해 복잡성을 줄이고 이동 표적의 속도를 추정하는 과정을 보인다. 그림 8그림 7의 영상을 8개의 서브 프레임으로 나타낸 영상이다.

jkiees-34-3-176-g7
그림 7. | Fig. 7. 거리, 방위 방향 속도에 따른 단일 이동 표적 | Single moving target images based on both distance and azimuth velocity.
Download Original Figure
jkiees-34-3-176-g8
그림 8. | Fig. 8. 관측 표적물에 대한 연속 서브 프레임 영상 | Sub-frame image sequences of the target scene.
Download Original Figure

그림 8에서 정지 표적인 점 표적은 서브 프레임에서도 (100,0) m 위치에 정지해 있는 것을 볼 수 있으며 이동 표적이 연속적인 형상에서 벗어난 것을 확인할 수 있다. 또한 이전 프레임과 비교했을 때 상대적으로 표적이 이동한 것을 확인할 수 있으나, 영상의 크기가 이동 거리에 비해 상대적으로 크기 때문에 이동 표적을 확대하여 그림 9로 나타낸다. 본 논문에서는 이동 표적의 속도 추정을 목표로 하여 추가적인 처리를 통하여 표적의 초점을 맞추는 과정은 수행하지 않는다.

jkiees-34-3-176-g9
그림 9. | Fig. 9. 다중 서브 프레임 영상을 통한 이동 표적의 궤적 | Moving target trajectory analysis with multiple sub-frame images.
Download Original Figure

그림 9에서 1번째 서브 프레임에서 이동 표적의 위치는 대략 (0.79, 1,078.97) m이며 8번째 서브 프레임에서는 (29.22, 1159.86) m이다. 전체 관측 시간이 3.2 s이므로 방위 속도는 약 28.89 m/s이며 거리 방향 속도는 약 10.15 m/s로 설정한 속도와 비교하여 약 1 m/s 정도의 오차를 보인다.

각 프레임에 따른 이동 표적의 위치 및 속도는 표 2를 통해 확인할 수 있다. 표 2의 각 프레임에서 이동 표적의 위치는 표적의 중심을 기준으로 산출된 결과이며 속도는 각 프레임 시간 간격(Tf) 동안 표적의 이동 거리를 통해 나타낼 수 있다. 모의 실험에서는 각 프레임의 중첩을 적용하지 않아 프레임이 생성되는 시간 간격은 0.4 s이다. 표 2의 각 프레임 사이의 위치를 비교하여 산출한 속도에서 약간의 큰 오차가 발생한 구간이 있지만 전반적인 프레임에서는 약 1~2 m/s 거리 방향 속도 오차와 약 2~3 m/s 방위 방향 속도 오차를 보인다.

표 2. | Table 2. 각 프레임에서의 이동 표적 위치 및 속도 | Moving target’s location & velocity of each frame.
Frame Location (range, azimuth) Range velocity Azimuth velocity
1 (0.79, 1,078.97)m - -
2 (5.53, 1,088.68)m 11.85 m/s 24.28 m/s
3 (8.69, 1,101.62)m 7.90 m/s 32.35 m/s
4 (13.42, 1,111.33)m 11.85 m/s 24.28 m/s
5 (16.58, 1,124.27)m 7.90 m/s 32.35 m/s
6 (19.74, 1,137.21)m 7.90 m/s 32.35 m/s
7 (24.48, 1,146.91)m 11.85 m/s 24.25 m/s
8 (29.22, 1,159.86)m 11.85 m/s 32.38 m/s
AVG - 10.15 m/s 28.89 m/s
Download Excel Table

표 2를 실제 입력 속도와 비교하여 그래프로 나타내면 그림 10과 같이 나타낼 수 있으며 그림 11그림 9의 홀수번째 서브 프레임 4개를 활용하여 방위 방향으로 천이가 발생한 이동 표적의 경로를 보여준다.

jkiees-34-3-176-g10
그림 10. | Fig. 10. 단일 이동 표적의 거리, 방위 실제 및 추정 속도 비교 그래프 | Comparison of the estimated and true target velocities.
Download Original Figure
jkiees-34-3-176-g11
그림 11. | Fig. 11. 이동 표적의 실제 궤적과 추정 궤적 결과 비교 | Comparison of the estimated and true trajectories of the moving target.
Download Original Figure

그림 11에서 나타낸 이동 표적의 경로는 각각 천이가 발생한 이동 표적의 경로(shifted), 실제 이동 표적의 경로(Truth), 보상 수행을 가정한 경로(Estimated path)를 나타낸다. 방위 방향 천이 보상은 표 2에서 산출된 거리 방향 평균 추정 속도(vr,est)인 10.15 m/s를 기반으로 상기한 2절의 수식을 활용한 결과이다. 0.15 m/s의 속도 추정 오차가 발생하였으나, 평균적으로는 실제 표적의 경로와 근접한 결과를 보이는 것을 확인할 수 있다.

2번째 모의실험으로 다중 표적 시나리오를 가정하여 2개의 이동 표적을 추적하고 속도를 추정한다. 제안한 방식은 표적의 이동 위치를 추적하여 속도를 추정하는 방식으로 다수의 이동 표적도 각 표적에 대한 개별적 속도 추정이 가능하다. 그림 12는 2개의 이동 표적을 8초 동안 관측한 영상으로 빨간 원은 거리 방향 10 m/s, 방위 방향 30 m/s로 이동하는 3 m×5 m 차량 표적, 노란 원은 거리, 방위 방향으로 8 m/s로 이동하는 3 m×10 m 차량 표적을 보여주며, 초록 원은 정지한 점 표적을 보여준다.

jkiees-34-3-176-g12
그림 12. | Fig. 12. 서로 다른 속도를 갖는 다중 표적 관측 모의 실험 영상 | Simulated SAR image on multiple targets having different velocities.
Download Original Figure

그림 13은 전체 관측 데이터를 1초 동안 관측한 부분 조리개 영상 8개로 나눈 후 그림 11과 같이 4개의 프레임을 활용하여 나타낸 결과이다. 그림 13을 통해 다중 이동 표적의 블러링 감소한 것을 볼 수 있고, 이동 표적을 추적할 수 있음을 확인할 수 있다.

jkiees-34-3-176-g13
그림 13. | Fig. 13. 다중 이동 표적에 대한 궤적 분석 결과 | Trajectories estimation of multiple moving targets.
Download Original Figure

표 3표 4는 각 부분 조리개 영상에서의 이동 표적 위치 및 추정 속도를 나타내며, 그림 14는 실제 속도와 추정 속도를 그래프로 나타낸 결과이다. 1번 표적의 추정 속도의 평균은 각각 거리 방향 10.38 m/s, 방위 방향 29.96 m/s로 설정 속도인 10 m/s와 30 m/s에 근접한 것을 확인할 수 있다. 2번 표적의 추정 속도의 평균은 각각 7.45 m/s, 7.13 m/s로 설정 속도인 8 m/s, 8 m/s와 근접하게 추정된다. 또한 다중 이동 표적 모의실험에서 단일 이동 표적 실험과 같은 속도를 갖는 빨간 원의 1번 표적을 확인했을 때, 부분 조리개의 관측 시간을 증가에 따라 방위 방향의 추정 속도 정확도가 향상된 것을 확인할 수 있다[24]. 그러나 과도한 관측 시간 증가는 블러링 현상의 증가를 통한 영상 품질 저하를 일으킬 수 있어 교환(trade-off) 관계로 볼 수 있어 적절한 관측 시간 설정이 필요하다.

표 3. | Table 3. 각 프레임에서의 이동 표적 1 위치 및 속도 | Moving target 1’s location & velocity of each frame.
Frame Location (range, azimuth) Range velocity Azimuth velocity
1 (5.53, 1,114.9)m - -
2 (16.58, 1,144.4)m 11.06 m/s 29.57 m/s
3 (26.06, 1,173.1)m 9.48 m/s 28.64 m/s
4 (37.11, 1,203.6)m 11.06 m/s 30.49 m/s
5 (48.17, 1,234.1)m 11.06 m/s 30.5 m/s
6 (57.65, 1,263.6)m 9.48 m/s 29.57 m/s
7 (68.70, 1,295)m 11.06 m/s 31.41 m/s
8 (78.17, 1,324.6)m 9.48 m/s 29.57 m/s
AVG - 10.38 m/s 29.96 m/s
Download Excel Table
표 4. | Table 4. 각 프레임에서의 이동 표적 2 위치 및 속도 | Moving target 2’s location & velocity of each frame.
Frame Location (range,azimuth) Range velocity Azimuth velocity
1 (202.94,760.02)m - -
2 (210.84,767.42)m 7.90m/s 7.39m/s
3 (215.58,771.11)m 4.74m/s 3.70m/s
4 (223.48,778.51)m 7.90m/s 7.39m/s
5 (231.37,785.90)m 7.90m/s 7.39m/s
6 (239.27,794.21)m 7.90m/s 8.32m/s
7 (247.17,801.61)m 7.90m/s 7.39m/s
8 (255.06,809.92)m 7.90m/s 8.32m/s
AVG - 7.45m/s 7.13m/s
Download Excel Table
jkiees-34-3-176-g14
그림 14. | Fig. 14. 다중 이동 표적의 거리, 방위 실제 및 추정 속도 비교 그래프 | Comparison of the estimated and true velocities of the multiple moving targets.
Download Original Figure

IV. 결 론

일반적으로 합성 개구 레이다에서 이동 표적을 탐지하고 속도를 추정하기 위해서 지상 이동 표적 탐지 기법을 활용한다. 대표적인 지상 이동 표적 탐지 기법으로는 클러터 억제 기반의 DPCA, ATI, STAP과 그림자 추적 방식이 있다. 그러나 ATI, STAP은 높은 연산량과 다중 채널 시스템을 요구하며 그림자 추적 기법은 고사양, 고해상도의 SAR 시스템을 요구한다. 이에 반해, 최근 ICEYE에서는 부분 조리개 기반의 비교적 낮은 연산량으로 이동 표적을 탐지한 사례가 있다. 따라서 본 논문에서는 상기한 사례를 모의실험으로 수행하였으며 부분 조리개를 활용한 다중 프레임을 통해 단일 채널 합성 개구 레이다 시스템에서 비교적 단순한 구조를 통해 단일 이동 표적뿐만 아니라 다중 이동 표적의 추적 및 속도 추정이 가능함을 보였다. 본 연구는 최근 다중 프레임을 활용한 비디오 합성 개구 레이다에서 이동 표적을 탐지하는 목적으로 활용될 수 있으며 기존의 단일 채널 합성 개구 레이다 시스템에서 하드웨어의 구조 변화 없이 이동 표적 탐지가 가능하다. 또한 단일 채널 SAR 시스템에서 낮은 연산량의 이동 표적 속도 추정을 통해 이동 표적 영상화(GMTIm)를 수행하는데 활용될 수 있을 것이다. 단, 본 연구는 이동 표적이 서로 떨어져 있는 상황이 가정되었으며, 다수의 이동 표적이 근접한 경우 표적 분별이 어려워 오차가 발생할 수 있다. 따라서 이에 따른 향후 연구가 필요할 것으로 보여진다.

References

[1].

C. A. Wiley, "Synthetic aperture radars," IEEE Transactions on Aerospace and Electronic Systems, vol. AES-21, no. 3, pp. 440-443, May 1985.

[2].

A. Moreira, P. Prats-Iraola, M. Younis, G. Krieger, I. Hajnsek, and K. P. Papathanassiou, "A tutorial on synthetic aperture radar," IEEE Geoscience and Remote Sensing Magazine, vol. 1, no. 1, pp. 6-43, Mar. 2013.

[3].

R. K. Raney, "Synthetic aperture imaging radar and moving targets," IEEE Transactions on Aerospace and Electronic Systems, vol. AES-7, no. 3, pp. 499-505, May 1971.

[4].

J. H. G. Ender, "Space-time processing for multichannel synthetic aperture radar," Electronics & Communication Engineering Journal, vol. 11, no. 1, pp. 29-38, Feb. 1999.

[5].

T. H. Kim, J. S. Yoon, J. H. Jung, and S. H. Ryu, "Application design and performance analysis simulation of sigma-delta STAP for GMTI mode of airborne radar," The Journal of Korean Institute of Electromagnetic Engineering and Science, vol. 28, no. 4, pp. 336-346, Apr. 2017.

[6].

C. W. Chen, "Performance assessment of along-track interferometry for detecting ground moving targets," in Proceedings of the 2004 IEEE Radar Conference, Philadelphia, PA, Apr. 2004, pp. 99-104.

[7].

I. Sikaneta, C. Gierull, "Ground moving target detection for along-track interferometric SAR data," in 2004 IEEE Aerospace Conference Proceedings, Big Sky, MT, Mar. 2004, pp. 2227-2235.

[8].

M. C. Wicks, M. Rangaswamy, R. Adve, and T. B. Hale, "Space-time adaptive processing: A knowledge-based perspective for airborne radar," IEEE Signal Processing Magazine, vol. 23, no. 1, pp. 51-65, Feb. 2006.

[9].

E. Chapin, C. W. Chen, "Along-track interferometry for ground moving target indication," IEEE Aerospace and Electronic Systems Magazine, vol. 23, no. 6, pp. 19-24, Jul. 2008.

[10].

M. J. Lee, S. J. Lee, B. G. Lim, T. B. Oh, and K. T. Kim, "Study of improvement of GMTI performance using DPCA and ATI," The Journal of Korean Institute of Electromagnetic Engineering and Science, vol. 29, no. 2, pp. 83-92, Feb. 2018.

[11].

B. Dawidowicz, K. S. Kulpa, M. Malanowski, J. Misiurewicz, P. Samczynski, and M. Smolarczyk, "DPCA detection of moving targets in airborne passive radar," IEEE Transactions on Aerospace and Electronic Systems, vol. 48, no. 2, pp. 1347-1357, Apr. 2012.

[12].

D. Cerutti-Maori, I. Sikaneta, "A generalization of DPCA processing for multichannel SAR/GMTI radars," IEEE Transactions on Geoscience and Remote Sensing, vol. 51, no. 1, pp. 560-572, Jan. 2012.

[13].

Y. Hou, J. Wang, X. Liu, K. Wang, and Y. Gao, "An automatic SAR-GMTI algorithm based on DPCA," in 2014 IEEE Geoscience and Remote Sensing Symposium, Quebec, QC, Jul. 2014, pp. 592-595.

[14].

C. S. Bae, H. M. Jeon, D. H. Yang, and H. G. Yang, "Ground moving target’s velocity estimation in SAR-GMTI," The Journal of Korean Institute of Electromagnetic Engineering and Science, vol. 28, no. 2, pp. 139-146, Feb. 2017.

[15].

J. H. Jung, J. S. Jung, C. H. Jung, and Y. K. Kwag, "Ground moving target displacement compensation and performance analysis in the DPCA based SAR-GMTI system," The Journal of Korean Institute of Electromagnetic Engineering and Science, vol. 20, no. 11, pp. 1138-1144, Dec. 2009.

[16].

J. Li, D. An, W. Wang, Z. Zhou, and M. Chen, "A novel method for single-channel CSAR ground moving target imaging," IEEE Sensors Journal, vol. 19, no. 19, pp. 8642-8649, Oct. 2019.

[17].

M. S. Kang, K. T. Kim, "Ground moving target imaging based on compressive sensing framework with single-channel SAR," IEEE Sensors Journal, vol. 20, no. 3, pp. 1238-1250, Feb. 2019.

[18].

I. M. Ban, M. J. Moon, H. I. Chun, H. Jo, S. W. Lee, and M. Lee, et al., "Compressive sensing-based ground moving target detection technique for near-field moving target video SAR," The Journal of Korean Institute of Electromagnetic Engineering and Science, vol. 32, no. 12, pp. 1108-1118, Dec. 2021.

[19].

C. Zhong, J. Ding, and Y. Zhang, "Joint tracking of moving target in single-channel video SAR," IEEE Transactions on Geoscience and Remote Sensing, vol. 60, pp. 1-18, Oct. 2021.

[20].

Z. Yun, "An approach to high-resolution SAR-GMTI processing and performance analysis," in EUSAR 2012; 9th European Conference on Synthetic Aperture Radar, Nuremberg, Apr. 2012, pp. 52-55.

[21].

D. Muff, V. Ignatenko, O. Dogan, L. Lamentowski, P. Leprovost, and M. Nottingham, et al., "The ICEYE constellation-some new achievements," in 2022 IEEE Radar Conference(RadarConf22), New York, NY, Mar. 2022, pp. 1-4.

[22].

J. R. Fienup, "Detecting moving targets in SAR imagery by focusing," IEEE Transactions on Aerospace and Electronic Systems, vol. 37, no. 3, pp. 794-809, Jul. 2001.

[23].

J. Yang, Study on Ground Moving Target Indication and Imaging Technique of Airborne SAR, Singapore, Springer, pp. 16-22, 2017.

[24].

M. I. Pettersson, T. K. Sjogren, and V. T. Vu, "Performance of moving target parameter estimation using SAR," IEEE Transactions on Aerospace and Electronic Systems, vol. 51, no. 2, pp. 1191-1202, Apr. 2015.

Author Information

반 인 모 [한국항공대학교/석사과정]

jkiees-34-3-176-i1

  • https://orcid.org/0000-0001-9459-7511

  • 2020년 2월: 한국항공대학교 항공전자정보공학과 (공학사)

  • 2021년 3월~현재: 한국항공대학교 항공전자정보공학과 석사과정

  • [주 관심분야] SAR 신호처리, 비디오 SAR

조 휘 정 [한국항공대학교/석사과정]

jkiees-34-3-176-i2

  • https://orcid.org/0000-0002-2468-983X

  • 2020년 2월: 경상대학교 기계항공정보융합공학부 (공학사)

  • 2020년 3월~현재: 한국항공대학교 항공전자정보공학과 석사과정

  • [주 관심분야] SAR 영상처리

이 석 원 [한국항공대학교/석사과정]

jkiees-34-3-176-i3

  • https://orcid.org/0000-0002-1319-0857

  • 2021년 8월: 한국항공대학교 항공전자정보공학과 (공학사)

  • 2021년 9월~현재: 한국항공대학교 스마트항공모빌리티학과 석사과정

  • [주 관심분야] 영상레이더 신호처리, 비디오 SAR

이 명 진 [한국항공대학교/교수]

jkiees-34-3-176-i4

  • https://orcid.org/0000-0002-3136-2819

  • 1994년 2월: 한국과학기술원 전기 및 전자공학과 (공학사)

  • 1996년 2월: 한국과학기술원 전기 및 전자공학과 (공학석사)

  • 2001년 8월: 한국과학기술원 전자전산학부(공학박사)

  • 2001년 3월~2004년 2월: 삼성전자 System LSI Biz 책임연구원

  • 2004년 3월~2007년 2월: 경성대학교 조교수

  • 2007년 3월~현재: 한국항공대학교 항공전자정보공학과 교수

  • 2020년 9월~현재: 한국항공대학교 스마트항공모빌리티학과 겸임교수

  • [주 관심분야] 영상통신, 임베디드시스템, 영상레이더 신호처리

이 우 경 [한국항공대학교/교수]

jkiees-34-3-176-i5

  • https://orcid.org/0000-0003-2092-2048

  • 1994년 2월: 한국과학기술원 전기 및 전자공학과 (공학사)

  • 1996년 2월: 한국과학기술원 전기 및 전자공학과 (공학석사)

  • 1999년 12월: 런던대학교(UCL) 전기전자공학과 (공학박사)

  • 1999년 10월: 한국과학기술원 인공위성센터 연구교수

  • 2003년 1월: 삼성종합기술원 책임연구원

  • 2004년 9월~현재: 한국항공대학교 항공전자정보공학과 교수

  • [주 관심분야] 위성탑재체, SAR 영상, 레이다 시스템 및 신호처리

여 광 구 [한화시스템(주)/전문연구원]

jkiees-34-3-176-i6

  • https://orcid.org/0009-0002-5590-9492

  • 2012년 2월: 고려대학교 컴퓨터통신공학부 (공학사)

  • 2019년 2월: 고려대학교 컴퓨터전파통신공학과 (공학박사)

  • 2019년 2월~현재: 한화시스템(주) 위성시스템1팀 전문연구원

  • [주 관심분야] Spaceborne SAR System Design, SAR Image Processing, Array Processing MIMO Radar