단편논문/SHORT PAPER

밀리미터파(W 밴드) 탐색기용 FMCW SAR 영상의 2차원 엔트로피 최소 자동 초점 기법

박재현1,, 전주환*, 이혁중*, 송성찬**
Jaehyun Park1,, Joohwan Chun*, Hyukjung Lee*, Sungchan Song**
Author Information & Copyright
1부경대학교 전자공학과
*카이스트 전자공학과
**한화시스템
1Department of Electronic Engineering, Pukyong National University
*Department of Electronic Engineering, KAIST
**Hanhwa Systems
Corresponding Author: Jaehyun Park (e-mail: jaehyun@pknu.ac.kr)

© Copyright 2019 The Korean Institute of Electromagnetic Engineering and Science. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.

Received: Jan 11, 2018; Revised: Feb 23, 2018; Accepted: Apr 04, 2018

Published Online: Apr 30, 2018

요약

전방 이동지상 표적 탐지를 위해 미사일은 FMCW 레이다를 통해 획득한 SAR 영상을 활용할 수 있다. 하지만 미사일 이동 과정에서 난기류 또는 비행경로 상태에 따른 요동 오차로 인해 SAR 영상의 품질이 떨어지게 된다. 본 논문에서는 이러한 전방을 바라보는 SAR 영상의 요동 오차를 보상하기 위한 엔트로피 최소 자동초점기법을 제안한다. 특히, 전방을 바라보는 레이다 특성 상, 요동 오차는 2차원의 형태(방위각 및 시간 축)로 SAR 영상에 영향을 미치며, 이를 보상하기 위해 2차원 자동초점기법을 제시한다.

Abstract

To detect the ground moving target, forward-looking SAR images obtained from the FMCW radar can be exploited. However, the quality of the SAR image is deteriorated due to the turbulence or fluctuation because of the flight path condition during the missile movement. We herein propose an entropy-minimizing autofocus method to compensate the motion error of forward-looking SAR. In particular, owing to the geometry of the forward-looking SAR, the motion error affects the SAR image in the two-dimensional (2D) form (azimuth and time axis). Therefore, we suggest a 2D autofocus method for the motion compensation.

Keywords: Forward Looking SAR; Autofocusing; Entropy Minimization; Motion Compensation

Ⅰ. 서 론

유도미사일은 밀리미터파 FMCW 레이다를 통해 획득한 SAR 영상을 활용하여 정밀하게 전방 이동지상 표적을 탐지할 수 있다[1]. 하지만 미사일 이동 과정에서 난기류 또는 비행경로 상태에 따른 요동 오차로 인해 SAR 영상의 품질이 떨어지게 된다. 특히, 이러한 요동 오차는 FMCW SAR 영상 획득 과정에서 위상 오차를 발생시킨다. 본 논문에서는 이러한 전방을 바라보는 SAR 영상의 요동 오차를 보상하기 위한 엔트로피 최소 자동초점기법을 제안한다. 요동오차로 인한 영상의 불확정성 증가는 정보이론 관점에서 엔트로피 증가로 표현되며, 이를 최소화하는 엔트로피 최소자동초점기법은 낮은 SNR에서도 타 기법에 비해 성능이 우수해 요동오차보상에 많이 활용되었다[2]. 이때, 전방을 바라보는 레이다 특성 상, 요동 오차는 2차원의 형태(방위각 및 시간 축)로 SAR 영상에 영향을 미치며 이를 보상하기 위해 2차원 자동초점기법을 제시한다. 이를 위해 matched filtering(MF)기법 기반의 SAR 영상획득과정을 행렬 벡터 기반의 신호 모델링을 제시하고, 이로부터 2차원 위상 오차 보정 알고리즘 문제를 정의하였다. 또한 엔트로피 최소화 기준을 만족시키는 보정 위상을 수치해석 기반으로 찾아가는 알고리즘을 통해 SAR 영상의 품질이 개선됨을 모의실험을 통해 검증하였다.

Ⅱ. 요동 오차 환경에서의 전방 FMCW SAR 시스템 모델

본 논문에서는 그림 1과 같이 전방의 지상 이동표적의 위치를 정밀하게 추정하는데 있어 FMCW SAR를 운용하는 시나리오를 고려한다[3]. 즉, 그림에서 미사일은 일정한 속도 V와 일정한 고도 h를 유지한 채 A지점에서 B지점의 방향으로 일직선으로 나아간다는 가정에서 지면을 탐색한다. 이때 미사일의 레이다와 바라보는 지면의 풋프린트의 중심점 사이의 각도는 방위각 ϕs 및 고각(elevation angle) θs을 가진다고 가정한다. 또한 좌에서 우로 빔을 순차적으로 조향하며 탐색하는 형태로 운용된다고 가정한다.

jkiees-29-4-316-g1
그림 1. | Fig. 1. 전방 탐색 SAR 구조 | Forward looking SAR geometry.
Download Original Figure

본 논문에서 사용되는 FMCW 펄스의 파형은 주파수가 시간에 따라 증가하는 Up-chirp 형태의 신호를 TS초 주기마다 반복되는 형태로 가정하여, 송신신호는 다음과 같이 주어진다.

s t = exp j 2 π f c t + π K t 2 , 0 t T S ,
(1)

여기서, fc는 반송파 주파수, K는 주파수 증가 기울기를 나타낸다. 따라서 표적을 맞고 τ의 지연을 가지고 들어온 신호와 송신신호와의 매칭을 위한 믹서 출력은 다음과 같이 주어진다.

s t s * t τ = exp j 2 π τ t + 2 π f c τ π K τ 2 , τ t T S 0 , 0 t τ

이때 미사일과 표적과의 거리를 R(t,θs, ϕs)라 두면 지연 시간은 τ=2Rt,θs,ϕsc와 같이 주어지며, R(t,θs, ϕs)는 다음과 같이 주어진다.

R t , θ s , ϕ s = R 0 2 + V t 2 cos θ s cos ϕ s
(2)

여기서 R0t=0일 때 표적과의 거리를 나타낸다. 그림 1에서 좌에서 우로 순차적으로 빔을 조향하므로 시간 t를 fast-time(tf)과 slow-time(ts)으로 나누어서 하나의 빔이 조향되는 시간 내에 샘플링되는 시간을 tf, s번째 빔 조향이 시작되는 시간을 ts (=TS (s-1))로 표현하자. 그러면, 시간 tt=tf+ts=tf+TS(s-1)로 표현 가능하다. 또한 range 방향으로 압축되어 측정된 신호 z(tf,ts)는 다음과 같이 표현할 수 있다.

z t f , t s = p = 1 P r = 1 R x r r , ϕ p A t f , t s , R r , ϕ p + n t f , t s
(3)

여기서, Atf,ts,Rr,ϕp=α2tsϕpωϕexpjπKτtf+ts+2πfcτπKτ2이고 n(tf,ts)는 t=tf+ts에서 더해진 잡음이다. 여기서 (Rr, ϕp)는 빔을 좌에서 우로 스캔하는 동안 바라보는 2차원 지면을 총 range 방향으로 R개, cross-range 방향으로 P개의 빈(bin)으로 나누었을 때, 각각 (r, p)번째 빈을 나타낸다. 그리고 x(Rr, ϕp)는 (r, p)번째 빈에 표적 또는 산란점이 가지는 반사 계수(reflectivity)를 나타낸다. 그리고 α2tsϕpωϕ는 안테나 빔 패턴 이득을 나타낸다. 즉, 지표면의 SAR 영상 정보는 다음과 벡터로 표현 가능하다.

x = x R 1 , ϕ 1 , x R 1 , ϕ p , x R 2 , ϕ 1 , , x R R , ϕ P T

그러면 수신 신호 식 (3)을 다음과 같은 행렬 벡터 곱으로 표현할 수 있다.

z = A x + n , A F S × R P
(4)

여기서 z=[z(t1,t1,…,z(tF,t1),z(t1,t2),…,z(tF,tS)]T이며, 이에 따른 A의 원소도 쉽게 식 (3)으로부터 알 수 있다. SAR 영상을 획득하기 위해 본 논문에서는 MF 기법을 고려하고 있으며[3], 이는 수식적으로 다음과 같이 주어진다.

x ^ = A H z
(5)

하지만, 그림 2와 같이 미사일은 난기류 및 항법 오차 등으로 원래 계획한 경로에 벗어나는 요동 오차가 발생한다. 즉, 시간 ts에서의 이상적인 위치는 3차원 좌표계에서 Pnominal(ts)=(0,Vts,h)이나, 실제 미사일의 좌표는 Pactual(ts)=(0+δx(ts),Vts+δy(ts),h+δz(ts))로 주어진다. 따라서 fast-time동안 요동오차는 고정되어 있다고 한다면, 요동오차로 인한 표적과의 거리는 다음과 같으며,

R ¯ t s , θ s , ϕ s = R t s , θ s , ϕ s + Δ R t s , θ s , ϕ s ,
(6)
jkiees-29-4-316-g2
그림 2. | Fig. 2. 빔 스캔 과정 | Beam scanning process.
Download Original Figure

이로 인해 지연시간의 오차가 생기게 되어 실제 측정된 z¯A와 매칭시켰을 때, 흐림(blur)현상이 발생하게 된다. 그림 3은 2개의 점 표적과 1개의 클러터를 두었을 때, 요동 오차가 없을 때 SAR 영상을 나타내고 있으며, 그림 4는 다음과 같이 주어지는 요동 오차가 있을 때 SAR 영상을 비교하였다. 편의상 요동 오차((δx(ts), δy(ts), δz(ts))는 각각 평균이 0이고 가우시안 분포를 따르며 이때 표준 편차는 σp=0.447 m로 설정하였다. 하지만 일반적인 오차 모델에 대해서도 확장가능하다.

jkiees-29-4-316-g3
그림 3. | Fig. 3. 요동 오차 없을 때, MF 기반 SAR 영상 | MF based SAR image under no motion errors.
Download Original Figure
jkiees-29-4-316-g4
그림 4. | Fig. 4. 요동 오차 있을 때, MF 기반 SAR 영상 | MF based SAR image under motion errors.
Download Original Figure

Ⅲ. 엔트로피 최소 자동초점 알고리즘 및 모의 실험 결과

앞 절에서 요동 오차로 인해 SAR 영상에 원하지 않는 흐림현상이 발생하게 됨을 확인하였다. 이는 요동 오차로 인해, 실제 측정된 z¯A가 정확히 매칭되지 않아 생기는 현상이며, 이 효과를 보다 자세히 살펴보기 위해 식 (4)를 바탕으로 z¯를 다음과 같이 다시 표현할 수 있다.

z ¯ = z 1 f ¯ T , , z S f ¯ T T
(7)

여기서 zsf¯tf+TS(s-1),0<tf<TS 동안 측정된 range 방향의 압축신호를 나타낸다. 즉, s번째 빔이 조향되는 동안 수신되어 압축된 신호를 fast-time 샘플링된 신호를 벡터로 나타낸 것이다.

이때 zsf¯s번째 빔이 조향될 때, 미사일의 요동 오차로 인해 위상 오차가 반영되어 다음과 같은 행렬식으로 모델링될 수 있다.

z s f ¯ = A F s 1 + 1 : F s 1 + F D ϕ 1 t s , , ϕ P t s x + n s f
(8)

여기서 [A]i:j는 행렬 Ai번째 열에서 j번째 열로 이루어진 부행렬(submatrix)을 나타내며, D(ϕ1(ts),…,ϕP(ts))는 다음과 같은 블록 대각행렬이다.

D ϕ 1 t s , , ϕ p t s = d i a g D m o t s , D m o t s , , D m o t s

여기서 Dmo(ts)는 다음과 같이 주어지는 대각행렬이다.

D m o t s = d i a g e ψ mo t s , ϕ 1 , e ψ mo t s , ϕ p
(9)

즉, Dmo(ts)는 식 (6)에서 ΔR(ts, θs, ϕs)로 인해 생기는 위상 변이를 나타내는 행렬이다. 참고로, ΔR(ts, θs, ϕs)는 (ts, θs, ϕs)에 의존하는 값이다. 이때 시간 ts에 바라보는 방위각이 ϕs=ϕp이라 두면, (Rr, ϕp)에 해당하는 빈은 빔의 조향 각도 (θs, ϕs)와 일대일 대응되며, Rr=htanθs로 주어지게 된다. 따라서 ΔR(ts,θs,ϕs)=ΔR(ts,Rr,ϕp)로 표현할 수 있다. 하지만 그림 2에서 서로 다른 range 빈에 대해 (즉, RrRr′에 대해) ΔR(ts,Rr,ϕp)≈ΔR(ts,Rr′,ϕp)로 주어짐을 알 수 있다. 따라서 식 (9)ψmo(ts, ϕp)는 Rr에 무관한 함수로 표현할 수 있다. 따라서 요동 오차를 보상하기 위한 MF 기법은 다음과 같이 표현할 수 있다.

x ^ = s = 1 S D H ϕ ^ 1 t s , , ϕ ^ p t s A F s 1 + 1 : F s 1 + F H z s f ¯
(10)

즉, 전방을 바라보는 SAR 영상의 경우 요동 오차로 인해서 생기는 위상 보정은 식 (8)식 (10)에서 알 수 있듯이, 2차원의 위상보정이 필요함을 알 수 있다. 본 논문에서는 이러한 위상 오차를 보상하기 위해 2차원 엔트로피 최소 자동 초점 기법을 제안한다. 즉, 식 (10)으로부터 엔트로피는 다음과 같이 정의된다[2].

E ϕ 1 t s , , ϕ p t s , t s = 1 , , S = 1 C n = 1 R P x ^ n 2 ln x ^ n 2 + ln C
(11)

여기서 C=n=1RPx^n2로 주어진다. 참고로, 식 (11)x^n식(10)으로부터 Dmo(t1),…,Dmo(tS)에 대한 함수임을 알 수 있으며, 엔트로피 최소화 자동초점문제는 다음과 같이 세울 수 있다.

P 1 min D m o t 1 , , D m o t s 1 C n = 1 R P x ^ n 2 ln x ^ n 2 + ln C

또한 (P1)을 풀기 위해 각 위상에 대해 엔트로피가 최소화되는 기울기를 수치해석적으로 계산하여 위상을 반복적으로 갱신하여 SAR 영상의 품질을 개선시킬 수 있다. 그림 5는 앞서 살펴본 그림 4의 영상을 바탕으로 제안하는 2차원 자동초점 기법을 바탕으로 영상을 보정하였다. 즉, 표적 위치에 흐림현상이 사라진 표적 영상이 깨끗하게 맺히는 것을 확인할 수 있다.

jkiees-29-4-316-g5
그림 5. | Fig. 5. 요동 오차 있을 때, MF 기반 SAR 영상 | MF based SAR image under motion errors.
Download Original Figure

Ⅳ. 결 론

전방을 바라보는 SAR 영상의 요동 오차를 보상하기 위해 MF기법 기반의 SAR 영상획득과정을 행렬 벡터 기반의 신호 모델링 제시였다. 이로부터 2차원 위상 오차 보정 알고리즘 문제를 정의하고, 엔트로피 최소화 기준을 만족시키는 보정 위상을 수치해석 기반으로 찾아가는 알고리즘을 통해 SAR 영상의 품질이 개선됨을 모의실험을 통해 검증하였다.

Acknowledgements

이 연구의 일부는 2017학년도 한화 시스템즈 연구비의 지원으로 연구되었음. 또한 일부는 한국연구재단의 지원을 받아 수행된 연구임(No. 2015R1C1A1A01051490)

References

[1].

이혁중, 전주환, 송성찬, “밀리미터파(W 밴드) FMCW SAR 기반 전방의 이동지상표적 탐지 및 위치와 속도 추정,” 한국전자파학회논문지, 28(6), pp. 459-469, 2017년 6월.

[2].

T. Zeng, R. Wang, and F. Li, “SAR image autofocus utilizing minimum-entropy criterion,” IEEE Geoscience and Remote Sensing Letters, vol. 10, no. 6, pp. 1552-1556, 2013.

[3].

G. Brooker, Introduction to Sensors for Ranging and Imaging, The Institution of Engineering and Technology, 2009.