Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1229-3431(Print)
ISSN : 2287-3341(Online)
Journal of the Korean Society of Marine Environment and Safety Vol.28 No.6 pp.1036-1043
DOI : https://doi.org/10.7837/kosomes.2022.28.6.1036

A LiDAR-based Visual Sensor System for Automatic Mooring of a Ship

Jin-Man Kim*, Taek-Kun Nam**, Heon-Hui Kim**
*Head Principal Rearcher/PhD, Ship Repair Supporting Center, Mokpo National Maritime University, Mokpo 58628, Korea
**Professor, Division of Marine Engineering System, Mokpo National Maritime University, Mokpo 58628, Korea

* First Author : papa713@mmu.ac.kr, 061-240-7543


Corresponding Author : heonhuikim@mmu.ac.kr, 061-240-7256
October 4, 2022 October 26, 2022 October 28, 2022

Abstract


This paper discusses about the development of a visual sensor that can be installed in an automatic mooring device to detect the berthing condition of a vessel. Despite controlling the ship’s speed and confirming its location to prevent accidents while berthing a vessel, ship collision occurs at the pier every year, causing great economic and environmental damage. Therefore, it is important to develop a visual system that can quickly obtain the information on the speed and location of the vessel to ensure safety of the berthing vessel. In this study, a visual sensor was developed to observe a ship through an image while berthing, and to properly check the ship’s status according to the surrounding environment. To obtain the adequacy of the visual sensor to be developed, the sensor characteristics were analyzed in terms of information provided from the existing sensors, that is, detection range, real-timeness, accuracy, and precision. Based on these analysis data, we developed a 3D visual module that can acquire information on objects in real time by conducting conceptual designs of LiDAR (Light Detection And Ranging) type 3D visual system, driving mechanism, and position and force controller for motion tilting system. Finally, performance evaluation of the control system and scan speed test were executed, and the effectiveness of the developed system was confirmed through experiments.



선박 자동계류를 위한 LiDAR기반 시각센서 시스템 개발

김 진만*, 남 택근**, 김 헌희**
*목포해양대학교 선박수리지원센터 책임연구원
**목포해양대학교 기관시스템공학부 교수

초록


본 논문은 자동계류 장치에 설치하여 선박의 접안 상황을 검출할 수 있는 시각 센서의 개발에 대하여 논하고 있다. 선박의 접 안 시 사고방지를 위해 선박의 속도를 통제하고 위치를 확인하고 있음에도 불구하고 부두에서의 선박 충돌사고는 매년 발생하고 있으며, 이로 인한 경제적, 환경적 피해가 매우 크다. 따라서 부두에 접안하는 선박에 대한 안전성 확보를 위해 선박의 위치 및 속도 정보를 신속 하게 확보할 수 있는 시각 시스템의 개발은 중요하다. 이에 본 연구에서는 선박의 접안 시 사람과 유사하게 영상을 통해 접안하는 선박을 관찰하고, 주변 환경에 따른 선박의 접안 상태를 적절하게 확인할 수 있는 시각센서를 개발하였다. 먼저, 개발하고자 하는 시각 센서의 적 정성을 확보하기 위해 기존 센서로부터 제공되는 정보, 감지 범위, 실시간성, 정확도 및 정밀도 측면에서 센서 특성을 분석하였다. 이러한 분석 자료를 바탕으로 LiDAR형태의 3D시각 시스템의 개념 설계, 구동메커니즘 설계 및 모션 구동부의 힘과 위치 제어기 설계 등을 수행 하여 대상물의 정보를 실시간으로 획득할 수 있는 3D 시각 모듈을 개발하였다. 최종적으로 시스템 구동을 위한 제어 시스템의 성능평가 와 스캔 속도에 대한 성능을 분석하였고, 실험을 통해 개발된 시스템의 유용성을 확인할 수 있었다.



    1. 서 론

    선박이 부두에 접안 시 환경 및 선박의 속도 등의 영향으 로 인한 접안에너지가 발생 된다. 접안에너지를 발생시키는 요소 중 접안하는 선박의 속도의 영향이 매우 크다 (Jun et al., 2008). 접안 중 발생하는 다양한 요소 중 선박의 속도는 통제 가 가장 쉬운 요소로서 선박의 안전한 접안을 위하여 적정 속 도를 지킬 수 있도록 해야한다. 선박의 규모별 5개의 항해 조 건에 대하여 적정 접안속도를 분석한 Brolsma’s curve와 같은 분 석이 이루어졌다(Beckett Rankine, 2010;Cho et al., 2018). 부두에 접안하는 선박이 적정 접안속도를 지키지 않게 되면 부두의 계 류시설 및 선체의 심한 손상이 발생한다(Lee et al., 2019).

    2012년 9월 부산 신항에서는 접안하는 선박이 과도하게 빠른 속도로 부두에 접안 중 선박의 제어 능력을 상실하고 다른 접안 중인 선박이 충돌하는 사고가 있었다. 최근인 2022년 4월에도 부두에 접안 중인 선박이 규정보다 빠른 속 도로 접안 하면서 화물하역 장비와 선박 계류시설을 손상하 는 사고가 있었다. 이와 같은 선박이 부두에 접안하는 과정 에서 크고 작은 사고가 계속해서 발생하고 있다. 대부분인 사고 요인이 사람의 견시 부주의, 항내 규정 위반으로 발생 하였다. 이를 보조하기 위하여 선박의 AIS, 레이더와 관제센 터의 안내에 따라 부두에 접안을 유도하고 있다. 하지만 기 존의 시스템은 직접적인 대상의 견시가 아닌 선박의 위치만 을 간접적으로 보는 것으로 그 한계가 있다. 또한 최근 쟁점 이 되는 자율운항 선박이 완성되면 선박에 승선하는 인원이 현저하게 줄어들게 될 것이다. 이와 같은 다양한 환경에서 선박의 부두 접안 시 발생하는 사고를 방지하기 위하여 새 롭고 직관적으로 선박의 접안 상태를 모니터링할 수 있는 시스템이 필요하다.

    이에 본 연구에서는 선박의 접·이안 시 사람과 유사한 견 시를 할 수 있도록 영상을 통해 접안하는 선박을 관찰하고, 접안하는 상태를 주변 환경에 따라 적절하게 관찰할 수 있 는 시각센서를 개발하고자 한다. 개발하는 시각센서의 적정 한 방식을 선정하기 위해 센서로부터 제공되는 정보, 감지 범위, 실시간성, 정확도 및 정밀도의 측면에서 대표적인 센 서들을 조사하고 그 특징을 분석하였다. 센서의 종류별 특 성에 따른 분석 결과 LiDAR 형태의 3D 시각 시스템이 가장 적합한 것으로 판단되며, 본 논문에서는 기존 LiDAR에서의 부족한 성능을 개선하기 위한 시각 시스템의 설계 방법을 제안한다.

    보다 구체적으로 기존의 LiDAR 시스템은 응용 특성상 수 평 방위각의 각도 분해능이 높도록 설계되었으나, 수직 방 향에 대해서는 각도 분해능이 그다지 높게 설계되어 있지는 않다. 실례로 상용화 된 LiDAR인 VLP-16 모델의 경우 수직 방향 각도 분해능이 2°로 설계되어 있다. 본 연구는 접안하 는 선박의 선체 형상 계측을 목적으로 시각 시스템을 개발 하고자 하며, 이를 위해서는 기존 LiDAR의 한계인 수직 방 향의 각도 분해능을 효과적으로 높일 수 있는 메커니즘 설 계 및 제어 시스템의 구성 방법을 제안한다.

    본 논문의 구성은 다음과 같다. 제2장에서는 제안된 3D 시각 시스템의 개념, 구동 메커니즘 및 제어 시스템 설계 방 법에 관해 기술한다. 제3장에서는 제안된 시스템의 유용성 을 평가하기 위한 실험 방법 및 결과에 관해 기술하고 제4 장에서 결론을 맺는다.

    2. 3D 시각 시스템

    2.1 3D 시각 시스템 개념 및 구성

    Fig. 1은 대표적인 시각센서의 종류별 특징을 나타낸 것으 로 3D 정보를 제공하는 시각센서는 RGB-D camera, 3D scanner, LiDAR로 분류하였다. RGB-D 카메라의 경우 컬러영상 정보 (RGB)와 Depth 정보(D)를 동시에 제공하는 카메라를 의미하 며, 이 범주에 해당하는 시각센서의 종류는 다양하게 존재 한다.

    이 센서들은 주로 로봇 응용 분야에 활용되고 있으며, 저 렴한 가격 및 높은 실시간성(30 FPS 이상)의 장점이 있으나 감지 범위가 10 m 이내로 한정되며 실외에서는 태양광 및 다양한 외란에 의한 노이즈를 포함하는 단점이 있어 해상환 경에서의 응용에서는 적합하지 않다.

    3D 스캐너의 경우 감지 거리가 멀고(Leica 사의 RTC 360 의 경우 최대 1.5 km) 높은 정확도 및 정밀도를 보장하며, 색 채 정보가 포함된 RGB-D 포인트 클라우드(point cloud) 정보 를 제공하는 장점이 있지만, 높은 가격과 빠른 측정이 어려 워 실시간성 측면에서 적합하지 않다.

    LiDAR는 자율주행차량에 적용할 수 있도록 개발이 이루 어졌으므로 실외용에 적합하고, 초당 5 ~ 20 Hz의 속도로 스 캔할 수 있다. 감지 범위 또한 180 ~ 360°의 수평 감지 범위를 가지며 몇몇 제품은 수 개의 채널을 별도로 분리하여 수직 감지 해상도를 높인 사례가 있다(Spinello and Siegwart, 2008;Premebida et al., 2009;Choe, 2017). 하지만, LiDAR의 경우 높 은 수평 감지 해상도와 달리 수직 감지해상도가 너무 낮고 (Velodyne사의 VLP-16의 경우 수직감지해상도는 2°임) RGB 데이터를 제공하지 않으므로 이러한 단점을 개선할 필요가 있다.

    본 논문에서 개발하고자 하는 시각 시스템의 하드웨어 구 성은 3D-시각 모듈과 2D-시각 모듈의 2가지로 구분된다(Fig. 2 참조). 3D-시각 모듈은 LiDAR 센서를 기반으로 구성되며 목표로 설정한 범위 내에 있는 선박의 Depth 정보를 얻을 수 있다. 2D-시각 모듈은 RGB카메라를 기반으로 하여 Depth 정 보에 대응하는 영상을 획득할 수 있도록 하였다. 일반적인 LiDAR 센서의 경우 수직 방향의 각도 분해능이 수평 방향의 각도 분해능보다 현저히 낮은 한계가 있다. 이에 본 논문에 서는 2D-시각 모듈에 관한 내용은 다루지 않고, 3D-시각 모 듈에 있어 수평 방향의 각도 분해능을 높일 수 있는 메커니 즘 구조와 제어 시스템의 설계 기법에 관해 집중한다.

    본 연구에서 3D-시각 모듈에 사용되는 LiDAR는 상용화된 제품을 적용하고, 상용화된 제품에서 보완이 필요한 기능 즉, LiDAR의 수직 감지 범위 및 해상도를 높일 수 있는 시각 센서 시스템을 제안한다. 제안된 시스템은 Fig. 3과 같이 각 각 LiDAR, 틸트모션 구동기, ROS(robot operating system) 연동 을 위한 인터페이스 모듈로 구성된다. ROS 인터페이스 모듈 은 향후 수 개의 시각센서 시스템을 효과적/효율적으로 연 동시키기 위한 모듈로서 ROS 2 네트워크상의 하나의 노드 의 역할을 수행한다.

    2.2 3D 시각 시스템 구동 메커니즘의 설계

    본 연구에서 선정한 LiDAR 센서는 Velodyne사의 VLP-16 모델로서 360°의 수평 감지 범위와 30°의 수직 감지 범위를 가지도록 설계되어 있으며 VLP-16 모델의 사양은 Table 1과 같다. LiDAR의 수평감지해상도는 최대 0.1°의 높은 해상도 를 가지지만 수직감지에 대한 해상도는 2°로서 선체 형상의 계측을 위해서는 해상도가 충분하지 않다. Table 1의 수직해 상도는 16개의 채널에서 2〫간격으로 측정됨으로 전방 선박 에 대한 충분한 수직해상도를 보장할 수 없다. 따라서 부족 한 수직 방향 해상도를 높이기 위해 틸트모션을 적용하여 라이다를 구동할 수 있도록 구동 메커니즘을 설계한다.

    Fig. 4는 LiDAR 센서의 틸트모션 구동 메커니즘의 설계도 를 나타내고 있다. 설계된 시각 시스템은 부두 측에 설치되 어 바다를 향하도록 하며, 주요 대상이 해상의 선박이므로 라이다의 후면부에서 생성된 데이터는 활용하지 않는다는 전제로 틸트 구동을 위한 구동축 및 액추에이터의 설치 위 치를 결정하였다. 틸트 구동 각도 범위는 50°가 되도록 설계 하였는데, 이는 구동부의 역할이 감지 범위를 넓히는 것보 다 해상도를 높이는 방향으로 설계되었기 때문이다.

    시각 시스템의 해상도는 회전축에 장착되는 회전각 센서 에 의해 결정될 수 있는데, 본 연구에서는 회전각 센서를 내 장한 독립적인 액추에이터를 활용하였으며 이를 통해 구현 할 수 있는 회전 각도 분해능은 0.044°이다.

    Table 2는 틸트모션 구동을 위하여 선정한 HT-03 액추에 이터 모델의 사양을 나타내고 있다. 선정한 모델은 제어기 가 내장된 형태이며 CAN통신 인터페이스를 통해 위치제어, 속도제어, 토크제어가 가능한 액추에이터로서 비교적 저렴 한 비용으로 안정적인 제어 및 높은 출력을 가지는 특징이 있다. 본 연구에서는 안정적인 틸트 동작을 위해 LiDAR의 수직방향 성분의 중간지점에 액추에이터 축과 베어링 축이 일치하도록 설계하였고, 내부 전자모듈의 배선이 이 축을 통해 관통되도록 중공형으로 설계하여 제어 및 전원선이 틸 트 동작에 방해되지 않도록 하였다. 또한 구동부의 하단에 는 LiDAR 인터페이스 보드가 내장될 수 있는 구조로 설계하 였으며, 틸트 구동부의 하부에는 2D-카메라 모듈이 결합될 수 있는 구조로 설계하였다.

    2.3 틸트모션 구동부의 제어기 설계

    틸트모션 구동부에 이용되는 액추에이터는 자체적인 제 어기가 프로그램된 모델로서 본 연구에서는 Fig. 3과 Fig. 4 와 같이 제안된 시스템의 틸트모션을 구현하기 위해 제어기 를 설계하였다. 내장된 제어기는 간단한 피드백제어시스템 으로 구성되어 있으며, 설계된 제어입력은 식(1)과 같다.

    u = K p ( x r e f x ) + K υ ( x ˙ r e f x ˙ ) + τ i n
    (1)

    여기서 xref , x ˙ r e f 는 각도 및 각속도 참조값을, x , x ˙ 는 각 각 현재 각도와 각속도를 나타내며, Kp, Kυ는 스프링 게인과 댐퍼 게인을 나타낸다. 또 τin를 통해 직접 원하는 토크 값 을 입력할 수 있다.

    식(1)의 제어입력으로부터 대상 액추에이터는 힘 제어 (force control)를 겨냥한 것을 알 수 있다. 아울러, 적절한 Kp, Kυ의 설정을 통해 위치제어나 속도제어 또한 가능하므 로 본 연구에서는 제어기의 입력단에 프로파일 발생기 (Profile generator)를 별도로 구성하여 위치제어기를 구현하였 다. 프로파일 발생기는 원하는 주파수와 진폭에 따라 램프 함수 형태의 위치 참조 값을 발생하도록 구현되어 있으며, 이때 주파수는 라이다의 초당 스캔 회수와 관계되며 진폭은 틸트모션의 동작범위로 대응될 수 있다.

    Fig. 5는 본 연구를 통해 구현된 틸트모션 구동 제어시스 템의 구성도를 나타내고 있다. 본 논문에서는 f를 틸트 주파 수(tilt frequency)라 하고 a를 틸트 범위(tilt range)라 표기한다. 제어시스템은 { a, f }의 참조 값을 입력받아 [- a/2, a/2 ]의 틸트 구동 범위 및 2f의 초당 스캔 횟수를 구현할 수 있다.

    Fig. 5의 제어기를 통해 구현될 수 있는 시각시스템의 성 능 사양은 Table. 3과 같다. Table 3은 제안된 시스템의 스캔 모드와 분해능과의 관계를 나타낸 것으로, LiDAR 스캔축의 회전속도와 구동기의 틸트모션이 동기화되었다고 가정하면, {a, f, LiDAR RPM}의 설정값에 따라 초당 스캔 횟수, 수평 및 수직 각도 분해능이 결정될 수 있다. 예를 들어 {2 deg, 0.5 Hz, 300 rpm}의 설정으로 구현될 수 있는 성능은 초당 1회 의 스캔 횟수로 비교적 실시간성은 낮아지지만 0.1°의 수평 각도 분해능과 수직 각도 분해능을 동시에 달성할 수 있다. 만일 수평/수직 각도 분해능을 0.4°로 설정하여 실시간성을 보다 높이고자 하는 경우 {2 deg, 2 Hz, 1200 rpm}과 같이 설 정하면 초당 4회의 스캔 횟수를 달성할 수 있다(Table 3 참 조). 따라서 3개의 제어 파라미터 {a, f, LiDAR RPM}를 적절 히 설정해주면 원하는 스캔성능을 자유롭게 조정할 수 있도 록 제어시스템을 설계하였다.

    참고로 비교적 원거리에서 접안을 시도하는 선박의 경우 상대적으로 선속이 빠르므로 분해능을 낮추고 스캔 속도를 높 이는 전략으로, 부두 근방에 접안하는 경우는 선속이 느리므 로 스캔 속도를 낮추며 분해능을 높이는 전략으로 선체의 형 상 실측 시나리오를 구성할 수 있도록 하였다. Table 3은 제안 된 시스템의 스캔 모드와 분해능과의 관계를 나타내고 있다.

    Fig. 6은 제안된 3D-시각 모듈의 동작 흐름을 나타내고 있 다. 초기에 전원이 투입되면 속도제어를 통해 기계적 한계 지점까지 이동하고, 이때 토크 측정값을 피드백 받게 되는 데 LiDAR가 한계점에 도달하게 되면 토크 피드백 값이 증가 하므로 이 지점을 한계점으로 식별하도록 하였다. 이후 영 점 위치로 이동한 후 입력된 제어 파라미터를 참조하여 틸 트모션을 구현하도록 하였다.

    2.4 틸트 각도 피드백을 통한 LiDAR 데이터 처리

    틸트모션 구동부의 HT-03 액추에이터는 현재의 각도, 각 속도, 토크 정보를 제공한다. 이 중 각도 정보는 LiDAR의 틸 트 각도로 직접 대응될 수 있으므로 이 정보를 이용하면 LiDAR로부터 제공되는 포인트클라우드 정보를 현재 틸트 각도에 따른 포인트클라우드로 정보로 변환할 수 있다. 현재 의 틸트 각도를 θt라 하고, LiDAR로부터 획득한 TOF 거리를 rt , 이때의 방위각을 αt , LiDAR의 채널 번호에 대응되는 피 치각도를 ωt라 할 때, 하나의 LiDAR 데이터는 수식(2) ~ (4)를 적용하여 LiDAR의 물체좌표계 xyz -축 상의 한 점(xt, yt, zt) 으로 변환된다.

    x t = r t cos ( θ t + ω t ) sin ( α t )
    (2)

    y t = r t cos ( θ t + ω t ) cos ( α t )
    (3)

    z t = r t sin ( θ t + ω t )
    (4)

    3. 시각 센서 시스템의 개발 및 실험

    3.1 시각 센서 시스템 개발

    LiDAR의 성능을 개선하여 Fig. 3 ~ Fig. 4의 설계를 기반으 로 3D-시각 모듈을 위한 틸트 시스템을 Fig. 8과 같이 개발하 였다. 개발된 틸트 시스템은 틸트 구동 시 모터의 토크 부담 을 줄이기 위하여 알루미늄 소재를 이용하여 기구를 경량화 하였고, 틸트 회전부의 무게 중심이 모터의 회전축 중심에 오도록 위치시켰다.

    개발된 3D 시각 모듈은 ROS(Robot Operating System) 네트 워크와 연동될 수 있도록 설계되었고 ROS 노드(node) 형태로 모듈화되었다. 또한 노드 간의 메시지 통신을 수행할 수 있도 록 연동되는 데이터들을 토픽(topic) 형태로 구현하였다. Fig. 7(b)는 두 개의 말단 노드들의 토픽을 이용한 메시지 전송 사 례를 나타내고 있다. 3D 시각 모듈이 topic으로 칭하는 메시지 를 발행(publish)하면 이를 사용하는 노드가 구독(subscribe)하는 형태의 통신이 이루어지도록 하였다. Fig. 7(b)에서는 ROS에 서 제공하는 rviz(ros-visualization)라는 도구에서 LiDAR data의 topic메시지를 구독하여 이를 화면에 출력되는 것을 볼 수 있 다(Koubaa, 2017;Quigley et al., 2009).

    본 연구에서 개발된 3D 시각센서 시스템은 전원이 투입 되는 경우 영점 조정을 위해 초기화 작업을 수행하고 틸트 모션에 따라 데이터를 획득하게 된다. Fig. 8은 초기 상태(a) 로부터 초기화작업(b), 영점조정(c), 틸트모션 구현(d)의 4가 지 단계에서의 동작을 보여주고 있다.

    3.2 시각 센서 시스템의 성능평가 실험

    본 연구를 통해 개발된 시스템의 성능평가는 2가지 관점 에서 수행하였다. 먼저 틸트 구동 시 제어기에 입력되는 참 조 값(틸트 주파수 및 범위)에 따라 제안된 시스템이 이를 적절히 구현하는지를 평가하였다. 다음으로 틸트 동작을 통 해 획득된 포인트 클라우드들이 원하는 분해능에 따라 적절 히 획득될 수 있는지를 평가하였다.

    제안된 시스템을 통해 틸트 주파수의 구현이 원활히 이루 어지는지를 평가하기 위하여, 틸트 범위를 2°로 고정하고 틸 트 주파수를 각각 0.5 Hz, 1.0 Hz, 2.0 Hz로 참조 값을 구성하 여 시스템에 입력하였다. Fig. 9는 각 틸트 주파수 입력에 있 어 시간에 따른 틸트 각도의 상태를 나타낸다. 각각의 경우 엑추에이터 센서 자체의 각도 분해능의 한계(0.044°)로 인해 계단현상이 목격되지만 틸트범위 및 주파수가 잘 구현되고 있음을 확인할 수 있다.

    다음으로, 제안된 시스템이 참조된 주파수에 따라 틸트 동작을 통하여 얻은 포인트 클라우드 데이터의 품질을 평가 하기 위한 실험을 수행하였다. 이에 포인트 클라우드 데이 터를 얻을 수 있는 실험환경을 Fig. 10과 같이 구성하였다.

    우선 기성품 LiDAR의 성능 대비 제안된 시스템의 성능을 확인하기 위해 Table 3에 분류된 A모드 (틸트모션이 없는 LiDAR 자체 데이터)로 전환하고 600 rpm의 속도로 설정하여 포인트 클라우드 데이터를 획득하였다. Fig. 11은 그 결과를 나타낸 것으로서 라이다의 채널 수인 16개의 라인이 z축 방 향으로 2〫씩 차이를 두고 포인트 클라우드 데이터가 출력된 것을 확인할 수 있다.

    다음으로 틸트 범위는 2°로 고정하고 틸트 주파수와 RPM 을 각각 {0.5 Hz, 300 rpm}, {1.0 Hz, 600 rpm}, {2 Hz, 1200 rpm} 으로 설정하여 동일 공간에서 포인트 클라우드 데이터를 획 득하였다. Table 4는 각각의 실험 조건에 대하여 생성된 포인 트 클라우드 정보를 나타내고 있으며, Fig. 12는 생성된 포인 트클라우드 데이터를 3차원 공간 상에 출력한 것이다. 여기 서 측정범위를 벗어난 포인트 데이터는 사전에 제거되었다. Table 4에 따르면 각각의 틸트 주파수에 따라 생성된 포인트 클라우드의 수는 틸트 주파수의 변화에 반비례적으로 생성되 고 있음을 확인할 수 있다. 즉 틸트 주파수가 낮을수록 획득 되는 포인트 개수가 증가하고 이에 따라 포인트간 밀집도는 증가하며, 상대적으로 실시간성은 낮아진다는 것을 의미한다.

    Table 4에서 ZLimits는 공간상에 매핑된 포인트 클라우드 의 z값을 나타낸 것으로 현재의 공간에서 대략 -1 m ~ 2.3 m 까지 측정되고 있음을 확인할 수 있다.

    틸트 동작을 통해 전면에 검출되는 포인트 클라우드 데이 터는 가장 느리게 움직이는 0.5 Hz의 틸트 주파수에서 가장 많은 포인트 클라우드 데이터를 얻을 수 있었고 포인트 간 밀집도가 높은 것으로 확인되었다(Fig. 12 (a)). 반면 2.0 Hz의 틸트 주파수에서는 가장 빠른 틸트모션이 구현됨에 따라 포 인트 클라우드 데이터의 총 개수가 가장 적고 포인트 간의 밀집도가 낮은 결과를 보이고 있다(Fig. 12 (c)). 여기서 포인 트 간의 밀집도는 수평 및 수직 방향에 대한 각도 분해능과 관련되어 있는데 1 Hz의 틸트 주파수는 포인트 클라우드의 품질과 실시간성 사이의 타협점(trade-off)이라 할 수 있다.

    성능 실험을 통해 제안된 시스템은 기존 LiDAR (Fig. 11)에 비해 수직 방향의 각도 분해능을 높일 수 있으며 틸트 주파 수 및 LiDAR RPM의 적절한 설정을 통해 수평 및 수직 방향 모두에 대해 균일한 포인트 클라우드 데이터를 획득할 수 있음을 확인할 수 있었다(Fig. 12).

    4. 결 론

    본 논문은 자동 계류 장치를 효과적으로 운용하기 위해 접안하는 선박의 선체 형상을 실시간으로 계측하는 방법에 관해 기술하였다. 기존의 LiDAR 센서는 수평 방향보다 수직 방향의 각도 분해능이 상대적으로 낮은 단점이 있었다. 이 에 본 논문에서는 이를 개선하기 위한 하나의 방법으로, 기 계적인 틸트 구동 메커니즘 및 제어시스템을 적용한 시각센 서 시스템을 제안하였다. 제안된 시스템의 유효성을 평가하 기 위하여 2가지 관점에서 성능 평가실험을 수행하였다. 우 선 틸트 구동 시 제어기로부터 전송되는 틸트 각에 대한 데 이터의 출력 결과를 통해 제어시스템의 성능을 평가하였다. 다음으로, 매시간 피드백되는 틸트 각도 정보를 LiDAR의 데 이터에 반영하여 포인트 클라우드를 생성하고, 이를 각각 0.5 Hz, 1.0 Hz, 2.0 Hz의 3가지 틸트 주파수에 대한 성능을 분 석하였다. 그 결과 다음과 같은 결론을 도출할 수 있었다.

    첫째, 제안된 시스템은 기존의 LiDAR에 비해 수직 방향의 각도 분해능을 0.1 ~ 0.4°로 높일 수 있었다.

    둘째, 수평 및 수직 방향 모두 동일한 각도 분해능을 가지 도록 설정함으로써 보다 균일한 포인트 클라우드 정보를 획 득할 수 있었다.

    제안된 시스템은 3가지 선택 모드를 제공할 수 있다. 실시 간성이 우선되는 경우는 2.0 Hz의 틸트 주파수로 설정하여 빠른 포인트 클라우드 데이터를 획득하고, 전방의 상황에 대 한 고품질의 포인트 클라우드 획득이 우선되는 경우는 0.5 Hz 의 틸트 주파수로 설정할 수 있다. 마지막으로 일반적인 상 황에서는 1.0 Hz의 틸트 주파수로 설정함으로써 외부환경의 변화에 대응한 다양한 활용이 기대된다.

    Acknowledgement

    이 논문은 2022년 해양수산부 재원으로 해양수산과학기 술진흥원의 지원을 받아 수행된 연구임(스마트항만-자율운 항선박 연계기술 개발).

    Figure

    KOSOMES-28-6-1036_F1.gif

    Characteristic analysis of visual sensors.

    KOSOMES-28-6-1036_F2.gif

    The concept of 3D visual sensor system.

    KOSOMES-28-6-1036_F3.gif

    Overall configuration of proposed 3D visual sensor system.

    KOSOMES-28-6-1036_F4.gif

    Mechanism design for implementing tilt motion.

    KOSOMES-28-6-1036_F5.gif

    Control system for implementation of desired tilt motion.

    KOSOMES-28-6-1036_F6.gif

    3D-Visual module operation flow.

    KOSOMES-28-6-1036_F7.gif

    Implementation of 3D visual sensor system.

    KOSOMES-28-6-1036_F8.gif

    Operating procedure of 3D visual sensor system.

    KOSOMES-28-6-1036_F9.gif

    Tilt angle states for reference input which composed of tilt frequency and range.

    KOSOMES-28-6-1036_F10.gif

    Experiment environment.

    KOSOMES-28-6-1036_F11.gif

    LiDAR point cloud data.

    KOSOMES-28-6-1036_F12.gif

    Point cloud data image according to tilt frequency.

    Table

    The specification of VLP-16 LiDAR sensor

    The specification of HT-03 actuator

    The arithmetic scan performance of the proposed system

    Point cloud data (PCD) measured according to angular velocity

    Reference

    1. Beckett, T (2010), Berthing Velocities and Brolsma’s Curves. Beckett Rankine Marine Consulting Engineers. Retrieved from https://superfloats.com/
    2. Cho, I. S. , J. W. Cho, and S. W. Lee (2018), A Basic Study on the Measured Data Analysis of Berthing Velocity of Ships, Journal of Coastal Disaster Prevention, Vol. 5, No. 2, pp. 61-71.
    3. Choe, H. -Y. (2017), LiDAR Sensor Technology and Industry Trends, Electric world, Vol. 66, No. 9, pp. 12-17.
    4. Jun, S. Y. , Y. M. Kim, B. G. Woo, and H. Chung (2008), A Systematic Approach to Decide Maximum Berthing Ship Size Coupled with Berth Design Criteria, Journal of the Korean Society of Marine Environment & Safety, Vol. 14, No. 1, pp. 45-54.
    5. Koubaa, Anis, (2017), Robot Operating System (ROS): The Complete Reference, Springer.
    6. Lee, S. W. , J. W. Cho, and I. S. Cho (2019), Estimation of Berthing Velocity Using Probability Distribution Characteristics in Tanker Terminal, Journal of Navigation and Port Research, Vol. 43, No. 3, pp. 186-196.
    7. Premebida, C. , O. Ludwig, and U. Nunes (2009), LiDAR and vision-based pedestrian detection system, Journal of Field Robotics, Vol. 26, No. 9, pp. 696-711.
    8. Quigley, Morgan, Ken Conley, Brian Gerkey, Josh Faust, Tully Foote, Jeremy Leibs, and AY Ng (2009), ROS: an open-source Robot Operating System, ICRA Workshop on Open Source Software, Vol. 3, pp. 5-10.
    9. Spinello, L. and Siegwart, R. (2008), Human detection using multimodal and multidimensional features. 2008 IEEE International Conference on Robotics and Automation, pp. 3264-3269.