논문/REGULAR PAPERS
주파수 변조 연속파형 레이다 탐지 결과에 기반한 자체 위치 추정
신지원*,
이성욱1,†
Estimation of Ego-Position Using Frequency-Modulated Continuous Wave Radar Sensor Data
Jiwon Shin*,
Seongwook Lee1,†
Author Information & Copyright ▼
1School of Electronics and Information Engineering, Korea Aerospace University
*Korea Radioactive Waste Agency
© Copyright 2022 The Korean Institute of Electromagnetic Engineering and Science. This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/4.0/) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
Received: Jan 25, 2022; Revised: Mar 02, 2022; Accepted: Mar 10, 2022
Published Online: May 31, 2022
요약
실내에서 레이다 센서를 사용하여 주변 환경에 대한 지도를 작성하기 위해서는 레이다 탐지 결과와 로봇의 움직임 정보가 동시에 필요하다. 일반적으로 로봇의 움직임 정보를 취득하기 위해서는 추가적인 관성 센서가 필요한데, 이 논문에서는 레이다 탐지 결과만으로 로봇 자체의 위치를 추정하는 방법에 대해 제안한다. 우선 연속된 두 프레임에서의 물체 탐지 결과를 비교하여, 감지된 물체들의 절대적인 위치를 파악한다. 그리고서 파악된 물체들의 위치를 기준으로 새 프레임에서의 로봇의 위치를 추정한다. 실제 로봇의 관성 센서로부터 취득된 로봇의 위치와 제안한 방법으로 추정된 위치를 비교해 보았을 때, 평균 0.33 m 이내의 위치 추정 오차를 보여주었다.
Abstract
To map the surrounding environment using a radar sensor, both radar detection results and robot’s motion information are required. In general, an additional inertial sensor is required to acquire motion information of the robot. In this study, a method for estimating a robot’s ego position from radar detection results without the aid of other sensors is developed. First, the absolute positions of the detected targets are determined by comparing the radar detection results in two consecutive frames. Next, the position of the robot in the new frame is estimated based on the positions of the identified targets. Finally, the position of the robot obtained from the inertial sensor is compared with the position estimated by the proposed method, and the average position estimation error is found to be less than 0.33 m.
Keywords: Ego-Position; Frequency-Modulated Continuous Wave (FMCW) Radar; Localization; Mapping
Ⅰ. 도 입
최근 소형 로봇의 자율 주행에 대한 관심이 커지고 있다. 자율 주행을 위해 필수적인 기술 중 하나는 로봇 스스로의 위치를 파악하며 주행 환경에 대한 지도를 그리는 동시적 위치 추정 및 매핑(SLAM: simultaneous localization and mapping)이다. SLAM 기술의 구현을 위해서 카메라, 라이더, 그리고 레이다와 같은 센서들이 필요하며, 감지 결과를 효과적으로 누적하여 지도를 작성하기 위해서는 로봇 자체의 위치 정보(ego-position)가 요구된다. 일반적으로 로봇의 위치 추정을 위해서는 관성 센서가 사용되는데, 이 논문에서는 레이다 센서의 물체 감지 결과만을 사용하여 로봇의 Ego-position을 추정하는 방법에 대해 제안한다.
제안하는 방법은 다음과 같다. 우선 첫 번째 프레임에서는 송신된 레이다 신호를 강하게 반사하는 정지 물체들의 위치를 기준으로 절대적인 좌표계를 설정한다. 그 후, 로봇이 이동한 다음 프레임에서는 앞서 감지한 물체들의 위치를 다시 파악하고, 그 물체들까지의 상대적인 거리를 이용하여 로봇의 새 위치를 업데이트한다. 최종적으로는 실제 로봇에 장착된 관성 센서로부터 계산된 로봇의 위치와 제안한 방법을 통해 추정된 위치를 비교한다.
Ⅱ. FMCW 레이다 시스템에서의 물체 감지
2-1 물체의 거리, 속도, 각도 정보 추정
우리는 물체의 거리 및 속도 추정을 위하여 시간에 따라 주파수가 선형적으로 증가하는 주파수 변조 연속 파형(FMCW: frequency-modulated continuous wave)을 송신하는 레이다[1]를 이용한다. 이 레이다 센서는 다수의 안테나 소자들로 구성된 배열 안테나를 수신 안테나로 사용하며, 각 안테나 소자에서 수신된 신호를 모아 Bartlett 각도 추정 알고리즘[2]을 적용함으로써 물체를 맞고 반사되어 수신된 신호들의 입사 각도를 추정할 수 있다. 실험에 사용된 레이다 센서의 사양을 표 1에 정리해 두었다.
표 1. | Table 1.
실험에 사용한 FMCW 레이다 센서의 사양 | Specifications of the FMCW radar sensor.
System parameter |
Value |
Center frequency |
62 GHz |
Bandwidth |
3 GHz |
Chirp duration |
150 μs |
Total number of chirps |
128 |
The number of time samples per chirp |
256 |
The number of receiving antenna elements |
4 |
Transmission cycle |
50 ms |
Transmission power |
10 dBm |
Download Excel Table
2-2 실험 환경 및 물체 감지 결과
우리는 그림 1(a)와 같은 실내 환경에서 레이다 신호 측정을 진행하였다. 레이다가 장착된 로봇은 이동 방향 및 속도를 조금씩 바꿔가며 앞쪽으로 이동한다. 그림 1(b)는 로봇의 관성 센서로부터 취득된 Ego-position 정보를 바탕으로 30번의 탐지 결과를 누적하여 복도 환경에 대해 작성된 지도이다. 만약 관성 센서가 없는 경우에는 로봇의 위치가 계속 좌표계의 원점이 되기 때문에 올바른 지도를 작성할 수 없다. 본 논문에서는 관성 센서 없이 레이다 센서만을 사용하여 로봇의 Ego-position을 추정하고 그것을 바탕으로 그림 1(b)와 같은 지도를 작성하는 방법에 대해 제안한다.
Ⅲ. 레이다 탐지 결과 기반 Ego-Position 추정 방법
3-1 거리 정보를 사용하여 로봇의 위치 업데이트
우리는 우선 로봇의 초기 위치를 원점으로 설정하고 물체 탐지 결과를 30회(1.5초) 누적한다. 이렇게 누적된 30개의 탐지 결과를 첫 번째 프레임, 그다음 30개의 탐지 결과를 두 번째 프레임이라고 하자. 그림 2는 연속된 두 프레임에서의 물체 탐지 결과를 보여준다. 그림에서 보이듯이 로봇의 위치는 계속해서 원점으로 표시되며, 송신된 레이다 신호를 강하게 반사하는 물체들은 계속해서 다수의 점으로 감지가 되는 것을 볼 수 있다. 따라서 첫 프레임에서 이러한 물체들을 위치를 절대적인 기준으로 설정함으로써, 우리는 연속된 다음 프레임에서의 로봇의 위치 변화량을 파악할 수 있다.
우리는 같은 물체로부터 파생된 다수의 점을 하나의 좌표로 설정하기 위하여 클러스터링 알고리즘을 적용하였다. 여러 클러스터링 알고리즘 중에서도 클러스터의 개수를 모를 때 적용이 쉬운 DBSCAN 알고리즘[3]을 사용하였다. 그림 3은 그림 2의 결과에 DBSCAN 알고리즘을 적용하여 감지된 점들을 클러스터링한 결과를 보여주며, 각 클러스터의 중심을 표시하였다. 이때, 클러스터를 구성하기 위한 최소 점의 개수는 5개, 반지름의 길이는 0.5 m로 설정하였다.
그림 3. | Fig. 3.
각 프레임에서의 물체 탐지 결과에 클러스터링 알고리즘을 적용한 결과 | Results of applying the DBSCAN algorithm to the object detection results in each frame.
Download Original Figure
그림 3의 클러스터링 결과를 이용하면 로봇의 Ego-position 파악이 가능하다. 우선 i번째 프레임에서 레이다 신호를 강하게 반사하는 물체에 대한 클러스터를 i+1번째 프레임에서의 동일 클러스터와 연결해야 한다. i번째 프레임에서 p (p =1, 2, …, Np) 번째 클러스터의 중심 좌표를 , i+1번째 프레임에서 q (q=1, 2, …, Nq)번째 클러스터의 중심 좌표를 라고 했을 때, 모든 p와 q에 대해 아래 식을 만족하는 순서쌍 (p*, q*)를 찾는다.
즉, 연속된 두 프레임에서 클러스터 중심끼리의 거리를 계산하여, 그 값이 ϵ 이하가 될 때 같은 클러스터로 판단한다.
두 연속된 프레임에서 같은 클러스터로 판단된 것들은 정지해 있으며 레이다 신호를 강하게 반사하는 물체라고 생각하여 이를 기준점으로 사용한다. 연결된 클러스터들 중 i+1번째 프레임에서 임의로 3개를 선택하여 레이다 센서가 위치한 원점과의 거리 를 각각 계산한다. 그렇게 계산된 거리를 바탕으로 i번째 프레임의 같은 클러스터들의 중심 에 대하여 삼각측량법[4]을 적용하여 로봇의 새 위치를 계산한다.
3-2 제안한 방법의 성능 평가
그림 4(a) 240번의 탐지 결과에 대하여, 우리가 제안한 방법을 통해 추정된 로봇의 Ego-position과 그 정보를 사용하여 주변 환경에 대한 지도를 작성한 것이다. 비교를 위해 로봇에 장착된 관성 센서를 사용하여 작성된 지도도 함께 나타내었다. 관성 센서에 의해 추정된 로봇 위치 (xj, yj) (j=1, 2, …, Nj)와 제안한 방법으로 추정된 위치 ()와의 평균 거리 오차를 식 (2)와 같이 계산한 결과, 약 0.5 m의 오차를 보여주었다.
그림 4. | Fig. 4.
제안한 방법으로 추정된 로봇의 ego-position과 지도 작성 결과 | Estimation of robot’s ego-position and the mapping result.
Download Original Figure
이는 우리가 한 프레임을 구성하는 데 30개의 물체 탐지 결과를 누적하였는데, 거기서 발생하는 시간 지연에 의한 오차로 생각된다. 따라서 우리는 한 프레임을 구성하는 데 있어, 물체 탐지 결과를 겹치는 방식을 이용하여 위치 추정을 다시 해보았다. 즉, 서로 연속된 프레임에서 N_o개의 물체 탐지 결과가 겹치도록 각 프레임을 구성해 주었다. 그림 4(b)는 겹치는 물체 탐지 결과의 개수가 15개일 때의 추정된 로봇의 위치와 지도 작성 결과를 보인다. 그림 4에서 확인할 수 있듯이, No에 따라 위치 추정 오차가 변화하며, No=15일 때 평균 거리 오차는 0.33 m로 물체 탐지 결과를 겹치기 전보다 오차가 줄어들었음을 확인하였다. 또한, 관성 센서를 기반으로 작성된 지도와 레이다 센서만을 사용하여 작성된 지도가 서로 유사한 형태를 보인다. 최종적으로 표 2에 서로 다른 3개의 N_o에 따른 평균 거리 오차를 정리해 두었다.
표 2. | Table 2.
No에 따른 평균 거리 오차 | Average position estimation error according to No.
No
|
Average position estimation error (m) |
0 |
0.5 |
10 |
0.41 |
15 |
0.33 |
Download Excel Table
Ⅳ. 결 론
본 논문에서는 레이다 센서 데이터만을 사용하여 로봇의 위치를 추정하는 방법에 대해 제안하였다. 제안한 방법을 통해 추정된 위치 정보와 실제 로봇의 관성 센서에서 취득된 로봇의 위치 정보를 비교했을 경우, 0.33 m의 평균 위치 추정 오차를 보이는 것을 확인할 수 있다. 제안한 방식은 소형 로봇이 실내 환경에서 지도를 작성하는데 기여할 수 있을 것으로 판단된다.
Acknowledgements
This work was supported by the National Research Foundation of Korea (NRF) grant funded by the Korea government (MSIT) (No. 2021R1G1A1007836).
References
S. Lee, S. Y. Kwon, B. J. Kim, H. S. Lim, and J. E. Lee, "Dual-mode radar sensor for indoor environment mapping,"
Sensors, vol. 21, no. 7, pp. 1-16, Apr. 2021.
,
,
F. B. Gross,
Smart Antennas for Wireless Communications, New York, NY, McGraw-Hill, pp. 178-179, 2005.
E. Schubert, J. Sander, M. Ester, H. P. Kriegel, and X. Xu, "DBSCAN revisited, revisited: Why and how you should (still) use DBSCAN,"
ACM Transactions on Database Systems, vol. 42, no. 3, pp. 1-21, Sep. 2017.
J. H. Jang, D. Y. Lee, J. L. Zhang, Y. C. Jho, and C. H. Lee, "A study on error reduction of indoor location determination using triangulation method and least square method,"
Journal of Korea Safety Management & Science, vol. 14, no. 1, pp. 217-224, Mar. 2012.