Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1229-3431(Print)
ISSN : 2287-3341(Online)
Journal of the Korean Society of Marine Environment and Safety Vol.32 No.1 pp.106-113
DOI : https://doi.org/10.7837/kosomes.2026.32.1.106

A Study on the Development of a GPS Positioning Assistance System for Ships Using the YOLO Network

Jun-Mo PARK*
*Professor, Division of Navigation Science, Mokpo National Maritime University, Mokpo 58628, Korea
Corresponding Author : jmpark@mmu.ac.kr, 061-240-7180

February 9, 2026 February 25, 2026 February 26, 2026

Abstract


The reliability of Global Positioning System(GPS) information is essential for safe ship navigation. However, with the increasing frequency of GPS signal disruptions such as jamming and spoofing, the need for alternative positioning systems has become apparent. In this study, an auxiliary positioning system for ships was developed using the YOLO v2 network, a deep learning-based object detection technology, to analyze visual images captured by onboard cameras and estimate ship positions. In videos from the Gwangyang Port approach, the isolation danger mark on the port side and the Gwangyang Steel silo on the starboard side were selected as detection objects. Lines of Position(LOP) were generated by connecting the bounding box centers of the detected objects to the camera position, and bearings relative to the baseline were measured to plot positions on a 2D chart. The training results showed object detection accuracy exceeding 94%, and comparisons with GPS positions yielded a minimum error of 3m, a maximum error of 33m, and an average RMSE of 18.51m. This validates the system's utility as an alternative during GPS disruptions and in environments requiring precise positioning, such as narrow channels or ports. Future integration with autonomous ship systems could be improved using redundant Global Navigation Satelite System device.



YOLO 네트워크를 활용한 선박의 GPS 위치 보조 시스템 개발 연구

박준모*
*국립목포해양대학교 항해학부 교수

초록


선박 운항에서 GPS 위치 정보의 신뢰성은 안전 항해의 핵심 요소이다. 그러나 GPS 신호 교란(재밍, 스푸핑 등)이 증가함에 따 라 대체 위치 결정 시스템의 필요성이 대두되고 있다. 본 연구는 딥러닝 기반 객체 인식 기술인 YOLO v2 네트워크를 활용하여 선박에 설 치된 카메라 영상을 분석하고, 이를 기반으로 선박 위치를 추정하는 보조 시스템을 개발하였다. 구체적으로 광양항 입항 영상에서 좌현의 멧돌초 고립장애표지와 우현의 광양제철 사일로를 객체로 선정하여 인식하였으며, 바운딩 박스 중심점과 카메라 위치를 연결한 위치선 (Line of Position)을 생성하고 기준선과의 교각을 측정하여 2D 해도 상에 위치를 작도하였다. 학습 결과 객체 인식 정확도는 94% 이상으로 나타났으며, GPS 위치와 비교 시 최소 오차 3m, 최대 오차 33m, 평균 RMSE 18.51m를 기록하였다. 이는 GPS 신호 교란 시 대안으로 활용 가능하며, 협수로나 항만 등 정밀 위치가 요구되는 환경에서 유용함을 검증하였다. 향후 자율운항선박 시스템과의 연계를 통해 GNSS 이 중화 장비로 발전할 수 있을 것으로 기대된다.



    1. 서 론

    선박의 위치 결정은 안전한 항해를 위한 필수 요소이다. 이를 위해 과거에는 천문항법과 지문항법 중심으로 선박 위 치를 확인하였으나, 최근에는 GPS 위성으로부터 수신된 정 보를 이용해서 선박의 실시간 위치를 수학적으로 계산함으 로써 거의 실시간 선박의 위치를 확인하는 방법을 대부분 사용하고 있다.

    이러한 선박의 실시간 위치 정보는 ECDIS(전자해도 표시 및 정보시스템), 레이더, 각종 통신장비 등에 연결시켜 안전 항해를 도모하는데 사용하고 있다. 특히, ECDIS는 전자해도 에 자기 선박의 실시간 위치를 기반으로 주변 선박의 실시 간 움직임과 항해 수역 인근의 장애물 등을 표시해 주고 항 해사는 이를 근거로 좌초, 충돌 등의 가능성을 판단할 수 있 도록 해주는 장비인데, 이 장비를 운용할 때 핵심적인 것은 자기 선박의 실시간 GPS 위치 정보이다. 이처럼 GPS를 통해 수신한 실시간 위치 정보는 선박의 안전 운항을 위해 매우 중요한 데이터임을 알 수 있다. 그러나 GPS 위성으로부터 발사된 신호가 지구에까지 도달하게 되면 신호 세기가 매우 약해지기 때문에 강력한 잡음 신호를 통해 GPS 수신을 차단 하는 재밍(Jamming)과 허위 신호를 보내 위치/시간 정보를 조작(기만)하는 스푸핑(Spoofing) 등의 전파 교란에 취약하며 이로 인한 보안 사고의 발생 가능성을 내포하고 있다. 이러 한 공격은 협수로나 항만과 같은 정밀한 위치 정보가 요구 되는 수역에서 치명적인 사고를 초래할 수 있으며, 실제로 국제 해양 안전 문제로 부각되고 있다.

    GPS 전파 교란으로 인한 선박 사고를 살펴보면 2025년 5 월 홍해에서 발생한 MSC ANTONIA 좌초사고(Cichocki and Wojcik, 2025), 2025년 6월 발생한 FRONT EAGLE과 ADALYNN 유조선 충돌사고(Renaudin et al., 2025), 그리고 2019년 7월에 발생한 STENA IMPERO 유조선 억류사고(Westbrook, 2023) 등 이 있다. 물론 기존 GPS 위치에 대한 보조 시스템으로 레이 더를 이용한 위치 확인 방법이 있으나, 이는 항해사의 수동 개입이 필요하고, 장비를 다루는 항해사의 능력에 따라서 선박 위치 결정의 정확도가 차이가 나며, 전파의 특성상 정 확한 선박 위치 측정 또한 불가능하다는 점 등으로 인해 GPS 위치를 실시간으로 보조해 주는 시스템으로는 한계가 있다.

    이처럼 선박의 GPS 위치는 안전 운항 측면에서 매우 중요 한 정보이므로 측위 시스템의 안정성과 신뢰성을 높이기 위 해서라도 GPS 위치 정보를 보조할 수 있도록 장비의 이중화 (Redundancy) 설계가 필요하다고 판단된다.

    선박의 GPS 위치를 보조하기 위한 시스템을 개발하고자 한 선행 연구는 다수 존재한다.

    GNSS 시스템 없이 레이더 영상과 해상 디지털 지형 모델 (DEM)을 활용하여 GPS 위치를 추정하기 위한 연구(Olofsson et al., 2020), 실내에 설치한 스마트폰으로 촬영한 깊이 이미지 를 활용해 3D 참조점을 추출함으로써 스마트폰의 실내 위치 를 결정할 수 있는 연구(Li et al., 2021), 선박에 설치된 Radar 영상과 사전에 입력해 놓은 위성 이미지를 활용해 해안선의 특징을 매칭하여 선박의 위치를 추정하는 연구(Ma et al., 2018), 그리고 웹캠 이미지와 AIS 정보를 융합하여 AIS의 신 뢰성을 보완하기 위한 연구(Gulsoylu et al., 2023) 등이 있다. 최근에는 국내에서 E-LORAN 시스템 구축을 통한 측위 시스 템에 대한 개발이 진행되고 있다(Son et al., 2023). 그러나 대 부분의 선행 연구는 선박의 운영 환경에 크게 영향을 받는 레이더, AIS, 전파, 그리고 위성 사진 등에 의존하여 선박의 위치를 추정했다는 점에서 그 한계점이 있고, 카메라 영상 을 이용해서 측위를 추정하는 연구는 육상에서만 사용할 수 있다는 점에서 한계가 있다.

    이에 본 연구에서는 기존 연구와 달리 육상 또는 해상의 뚜렷한 위치에 설치되어 있는 물표를 YOLO 네트워크를 활 용하여 육상 또는 해상의 객체를 자동으로 인식하고, 이 객 체와 기준점과의 각도를 측정하여 위치선을 생성함으로써 위치를 결정하는 모델을 개발하였으며 최종적으로 GPS와 비교하여 모델의 적정성을 검증하였다.

    다만, 본 연구는 선박이 일정한 침로로 항해하고, 종동요 및 횡동요 등의 선박 움직임이 없으며, 물표가 확인되는 주 간 환경 만을 연구의 범위로 한정하여 수행하였다.

    이 연구는 GPS가 사용 불가능한 상황에서의 카메라 영상 을 활용한 측위 보조 시스템을 구현할 수 있다는 가능성을 보여준 연구이며, 향후에는 자율운항 선박용 시스템에 탑재 를 통해 GNSS 장비의 이중화 장비로서 충분히 활용할 수 있 는 시스템이라고 판단된다.

    2. 연구 방법

    본 연구에서는 선박에서 촬영한 동영상을 수집하고, 수집 한 영상을 학습 데이터로 활용하여 객체 탐지 모델을 생성 하였다. 그리고 인식된 객체와 기준점과의 위치선을 도출하 여 기준점과 위치선과의 각도를 검출함으로써 선박의 위치 를 추정하는 단계로 설계하였다. 마지막으로 GPS 위치와 연 구를 통해 도출한 선박의 위치를 비교하여 연구 결과의 정 확도를 검증하였다. 연구의 흐름은 Fig. 1과 같다.

    2.1 객체 인식 설계

    1) 연구 지역 선정

    본 연구는 항만 인근을 연구 실험 수역으로 선정하였는 데, 이 중 육상 및 해상의 물표가 뚜렷하고 해상에서의 영상 을 취득할 수 있는 광양항 입항 항로로 결정하였다. 해당 수 역의 선박 영상은 국립목포해양대학교 실습선이 광양항 입 항 시 촬영한 2022년도 영상을 활용하였으며, 구체적인 범위 는 Fig. 2(KHOA, 2026)와 같다.

    본 동영상은 2022년 11월, FHD 해상도(Resolution)와 60 FPS인 카메라로 촬영하였다.

    2) 물표 선정 및 데이터 전처리

    본 연구에서는 항해 중인 선박 부근에 존재하는 물표를 인식하고 이를 통해 선박의 위치를 추정하고자 하는 것이 다. 따라서 촬영한 영상에서 어떤 물표를, 그리고 어디에 있 는 물표를 선정할 것인지 중요하다. 왜냐하면 고정되어 있 고 정확히 식별할 수 있는 물표를 선정해야 위치의 정확도 가 향상될 수 있으며, 좌현 또는 우현 중 한쪽에 있는 물표 들만을 선정할 경우 이를 통해 획득한 위치의 정확도가 낮 아지기 때문이다. 또한 선택하고자 하는 물표는 전자해도 상에 표시되어 있어야 하는데, 이는 기준점과 물표 사이의 각도를 기반으로 선박의 위치를 전자해도에 표시할 수 있게 하기 위함이다.

    이러한 요구조건 등을 고려했을 때, 광양항 항만 입항 영 상을 기반으로 좌현과 우현에 각각 한 개의 물표를 선정하 고, 각 물표는 육상 또는 해상에 고정된 것을 우선순위로 하 였으며, 그 결과는 Fig. 3과 같다. 즉, 촬영 영상에서 좌현측 은 멧돌초 고립장애표지(mark), 그리고 우현측의 광양제철 사일로(factory)를 선정하였다.

    촬영한 영상에 있는 선택 물표를 자동으로 인식하기 위해서 는 해당 물표에 대한 전처리가 필요하다. 이를 위해 MATLAB 소프트웨어에서 제공하는 Video Labeler Toolbox를 사용하였 고 이 중에서 라벨링을 자동으로 처리해 주는 자동화 알고 리즘 중 Point Tracker algorithm을 사용하여 좌현과 우현에 각 각 선정한 물표를 분류하고 위치를 라벨링하는데 사용하였 고, 일부 데이터셋은 삭제 또는 수정하는 전처리 과정을 거 쳤다. Fig. 4는 라벨링된 이미지이며, Fig. 5는 자동화 알고리 즘으로 처리한 객체 탐지 훈련 데이터셋의 일부를 나타낸다.

    3) 객체 인식 네트워크 모델

    객체 인식 네트워크 모델은 MATLAB Deep learning Network Toolbox에서 제공하는 YOLO v2로 구축하였다.

    YOLO의 네트워크 구조는 Fig. 6(Joseph et al., 2016)과 같으 며 총 24개의 컨볼루션 레이어와 2개의 완전히 연결된 레이 어로 이루어져 있다. 그리고 이미지 분류를 위하여 설계된 GoogLeNet 구조를 기반으로 설계되었으며 GoogLeNet에서 사 용된 인셉션 모듈을 대신하여 1×1 컨볼루션 레이어 다음에 3×3 컨볼루션 레이어를 사용하여 계산량을 줄여 빠른 물체 탐지가 가능하도록 설계되었다(Najibi et al., 2016).

    YOLO는 네트워크 최종 출력단에서 바운딩 박스 위치와 클래스 분류가 동시에 이루어진다. 단 하나의 네트워크가 한 번에 특징을 추출하고, 바운딩 박스도 만들고 클래스를 같이 분류하므로 그 구조가 간단하고 다른 알고리즘에 비해 매우 빠른 성능을 가지고 있다(Hou et al., 2021). 특히 YOLO V2는 네트워크 크기를 조절하여 FPS(Frame per Second)와 mAP(Mean Average Precision)를 균형 있게 조절할 수 있는 특 징이 있다. 다만, YOLO 네트워크는 현재 YOLO V26 버전까 지 개발되어 그 성능의 향상이 개선되고 있다(Sapkota and Karkee, 2025). 다만, 본 연구에서는 MATLAB 소프트웨어 (R2021a version) 기반 연구 환경에서 쉽게 설계 및 검증할 수 있고, 효율적이고 안정적인 구현을 위해 MATLAB 소프트웨 어 기반으로 한 YOLO V2 네트워크를 활용해 Fig. 7과 같이 객체 인식 네트워크를 구현하였다.

    4) 영상 데이터 학습

    광양항 입항 동영상에서 선택한 2개의 물표 학습은 설계 한 객체 인식 YOLO V2 네트워크를 사용하여 라벨링 처리 된 데이터셋으로 진행하였다. 학습 옵션은 여러 상황에 대 한 시뮬레이션을 통해 최적의 객체 인식 결과를 나타낸 값 (최적화 함수(Optimizer) SGDM, Mini-batch size 16, Maximum epoch 30, Learning rate 0.001)으로 입력하였다.

    학습을 완료한 후 물표 데이터셋 중 무작위 이미지 24개 에 대한 탐지 정확도를 얻고 탐지 정확도 곡선을 도출하였 으며, 그 결과는 Fig. 8과 같다.

    그 결과 물표 데이터셋의 각 이미지에 대한 인식 정확도 가 94% 이상으로 우수한 인식 효과와 함께 높은 인식 정확 도를 보이는 것으로 나타났다.

    2.2 위치선(Line of Position, LOP) 생성

    위치선은 Fig. 9와 같이 YOLO V2 네트워크를 이용한 객체 인식 알고리즘을 통해 영상 프레임 내에서 식별된 객체를 바운딩 박스로 처리한 후, 해당 박스의 중심점과 카메라 위 치(Camera Position)를 연결하여 생성하였다. 이 위치선은 좌 현측의 멧돌초 표지와 우현측의 사일로에 대해 각각 적용하 였다.

    먼저 위치선 생성의 준비 단계로 카메라의 위치를 지정해 야 한다. 본 연구에서는 광양항 입항 영상을 선교에서 촬영 할 당시 선교 중심선 상에 설치하여 선수 방향을 촬영하였 기 때문에 추가적인 위치 조정을 거치지 않고 영상 프레임 의 하단 중앙점을 카메라 위치로 정의하였다.

    카메라 위치의 좌표는 영상 프레임의 크기를 기반으로 초 기화하여 아래 식(1)과 같이 프레임 너비(width)의 중간 지점 과 하단 경계로 표시하였다.

    x p = w i d t h / 2 y p = h e i g h t
    (1)

    물표 인식 단계에서 YOLO V2 네트워크는 detect 함수를 통해 입력 영상을 처리하여 각 물표에 대한 바운딩 박스를 생성하였는데, 이 중심점 좌표(x_ c, y_ c)는 박스 좌측 상단 (x_min, y_min)과 우측 하단(x_max, y_max ) 좌표로부 터 아래 식(2)와 같이 계산하였다.

    x c = x min + x max / 2 y c = y min + y max / 2
    (2)

    위치선 생성은 카메라 위치 좌표(x_ p, y_ p)와 객체 중심 점 좌표(x_ c, y_ c)를 연결하는 직선으로 이루어지며, 이 직 선은 MATLAB line 함수와 plot 함수를 이용하여 Fig. 10과 같 이 시각화하였다.

    시각화 결과, 좌현측의 표지와 우현측의 사일로와 카메라 지점까지의 위치선이 각각 잘 표시됨을 확인하였다.

    2.3 위치선의 각도 검출

    위치선의 각도 검출은 본 연구에서 제안한 선박 위치 결 정 모델의 핵심 프로세스로 객체 인식 결과를 활용하여 실 시간으로 선박의 상대적 방위를 추정하는데 사용된다. 이를 위해 2.2절에서 도출한 위치선과 선수 마스트를 기준으로 한 기준선(Base line)과의 교각을 검출하게 된다.

    각도 검출을 위해서는 먼저 위치선의 기울기(m) 계산이 필요한데, 그 방법은 식(3)과 같다.

    m = y c y p / x c x p
    (3)

    이는 선박에 대한 물표의 상대적 위치를 반영하여 선박이 이동하면서 실시간 업데이트된다. 그리고 위치선과 기준선 간의 교각(θ) 검출은 식(4)의 수식으로 도출하였다.

    θ = r a d 2 deg atan 2 ( y c y p ,   x c   x ρ )
    (4)

    위의 식과 같이 기준선을 중심으로 좌현 물표에 대한 교 각은 음수(-)로, 우현 물표에 대한 교각은 양수(+)로 표시될 수 있도록 하여 선박에 대한 물표의 위치를 나타낼 수 있도 록 하였다.

    3. 연구 결과

    본 연구에서는 YOLO V2 네트워크를 활용하여 광양항 입 항 시나리오에서 선박 위치를 결정하는 모델을 실험적으로 검증하였다. 검증 방법은 물표 인식 기반으로 결정된 위치 와 GPS 위치를 전자해도에 각각 표시한 후 그 차이를 검토 하여 연구 결과를 검증하였으며, 그 구체적인 방법 및 결과 는 다음과 같다.

    3.1 물표 교각 도출 결과

    Table 1은 광양항 입항 영상 중 고립장애표지와 사일로 물 표를 인식할 수 있는 420초 가량의 영상에서 30초 간격으로 추출된 교각 결과를 나타낸 것이다.

    여기에서, 영상이 진행됨에 따라 연속 프레임별로 교각이 계산되어 도출됨에도 불구하고 30초 간격으로 교각을 도출 한 이유는 향후 GPS 위치와의 비교를 위해서는 특정 시점에 서의 물표의 위치선 교각과 그 때의 GPS 위치가 필요하기 때문이다.

    초기 시간(0초)에서 표지와의 교각은 -8.09°, 사일로와의 교각은 +16.30°로 도출되었으며, 선박 이동에 따라 점차 증 가하는 경향을 보였다. 이는 선박이 항로를 따라 전진함에 따라 물표의 상대적 위치가 실시간으로 변화하는 것을 나타 내며, 물표 인식과 그 상대적 교각이 잘 계산되고 있음을 나 타낸다.

    MATLAB 프로그램을 통해 실시간으로 계산된 이 데이터 는 데이터베이스에 저장하였으며, 향후 물표 인식 기반으로 결정된 위치를 전자해도에 표시할 때 사용하였다.

    3.2 실시간 도출한 선박 위치와 GPS 위치 상호 비교

    Table 1에서 도출된 물표와의 교각 데이터를 기반으로 이 를 전자해도에 표시하여 시간별 선박의 위치를 결정하였다. 먼저 Fig. 11은 0초, 180초, 390초에서 물표의 교각 데이터를 기반으로 전자해도에 표시한 선박의 위치를 나타낸 결과이 다.

    본 연구에서 개발한 시스템의 신뢰성 검증은 동일한 시간 에 측정한 물표별 교각을 기반으로 한 선박 위치와 GPS 위 치 데이터를 전자해도에 수기로 표시하고 이를 비교, 분석 하여 오차가 어느 정도 발생하는지를 검토하였다. 검증 방 법으로는 모델이 추정한 값과 실제 값과의 차이를 다룰 때 사용하는 척도인 RMSE(Root Mean Square Error)로 평가하였 다. 또한 기존 레이더 기반 위치 추정 방법에 대한 선행 연 구와 비교하여 그 정확성을 검증하였다.

    물표 인식 기반의 선박 위치와 GPS 위치를 전자해도에 시 간별로 표시한 후 각각에 두 위치 간의 오차를 도출하였으 며, 그 결과는 Fig. 12와 Table 2와 같다.

    분석 결과, GPS 위치와 물표 인식 기반의 위치와 비교했 을 때 가장 큰 오차는 210초에 33m, 가장 작은 오차는 290초 지점에서 3m인 것으로 나타났다. 이를 기반으로 통계 분석 을 실시하면 Table 3과 같다.

    통계 분석 결과, 전체 420초 영상에서 평균 RMSE는 18.51m로 도출되었다. 또한 평균 오차는 16.6m이고, 오차에 대한 95%의 신뢰구간은 11.95m~21.25m로 도출되었다.

    IMO에서 요구하는 GPS 및 DGPS의 위치 정확도(IMO, 2003)는 동적, 정적 환경에서 각각 100m와 10m 이내이다. 다 만 본 연구를 통해 개발한 시스템은 항만 접근 수역에서 사 용하므로 항만 내에서 수신할 수 있는 DGPS 장치의 성능기 준인 10m를 적용해야 하며, 이를 적용했을 때 RMSE 18.51m 는 IMO에서 요구하는 항만 내 위치 정확도를 만족하지 못하 는 것으로 나타났다.

    결론적으로 본 연구를 통해 개발한 선박 위치 결정 시스 템은 위치 정확도에 대한 국제기준에는 미달되지만 GPS 보 조 시스템으로 활용될 수 있는 가능성은 확인하였다.

    4. 결 론

    본 연구는 딥러닝 기반 객체 인식 기술(YOLO V2)을 활 용하여 GPS 신호 교란 환경에서 선박 위치를 결정하는 모 델을 제안하고 실험적으로 검증하였다. 연구 결과는 광양항 입항 시나리오를 기반으로 한 실증 분석을 통해 도출되었 으며, 본 연구의 요약, 시사점, 및 향후 연구 과제 등은 다음 과 같다.

    본 연구에서는 선박의 선교에 설치한 카메라 영상을 입력 으로 하여 물표의 바운딩 박스 중심점과 카메라 위치를 연 결하는 위치선을 생성하고, 기준선과의 교각을 계산하여 선 박 위치를 추정하는 모델을 개발하였다. 실험은 420초 분량 의 실제 항해 영상을 30초 간격으로 분석하였으며, 교각 도 출 결과 좌현측의 표지는 –8.09°에서 –45.78°로, 우현측의 사일로는 +16.30°에서 +47.51°로 점차 증가하는 변화를 보였 다. 이 교각 데이터를 이용한 위치 결정에서 두 위치선의 교 차점을 전자해도 상에 작도하였고 이를 GPS 위치와 비교한 결과, 최소 오차 3m, 최대 오차 33m, 평균 RMSE 18.51m로 나 타났다. 이는 레이더 기반의 위치 결정 시스템의 한계를 극 복할 수 있는 가능성을 보여줬으며, 협수로나 항만 입출항 시 실시간 위치 보조 시스템으로서의 활용 가능성을 입증하 였다.

    본 연구의 결과는 해양 환경 안전 분야에 여러 시사점을 제공한다. 첫째, GPS 의존성을 줄이고 시각적 객체 인식을 통합한 모델은 신호 재밍(Jamming)이나 스푸핑(Spoofing) 같 은 위협 환경에서 항해 안전성을 강화할 수 있음을 보여준 다. 특히, RMSE 18.51m 수준의 정확도는 국제해사기구(IMO) 기준(항만 내 위치 정확도 10m 이내)에 미달하나 GPS 보조 시스템으로 활용될 수 있는 가능성을 보여준다. 그리고 무 엇보다도 해양 안전 정책 측면에서 본 모델은 저비용 카메 라 기반 솔루션으로 중소형 선박의 안전 장비 보급을 촉진 할 수 있으며, 국내 항만(광양항 등)에서의 실증 사례를 통 해 표준화된 GPS 보조 시스템 개발의 기반을 마련할 수 있 을 것이라고 판단된다.

    다만 본 연구는 한계점이 존재한다. 먼저 선박을 정침시 킨 상태에서 실험하였기 때문에 선회나 동적 움직임이 있는 환경에서도 작동할 수 있는지 확인되지 않았다는 점, 항해 하는 수역의 모든 물표를 이용할 수 없고 카메라의 좁은 화 각 내에 물표가 있어야 한다는 점, 그리고 다양한 해상 환경 (안개, 야간)에서는 적용할 수 없다는 점이 있다. 또한 본 연 구에서는 선박의 위치를 전자해도 상에 수기로 표시하였는 데, GPS 보조 장비로 활용하기 위해서는 물표 인식 기반 선 박의 위치를 자동으로 전자해도에 표시해야 함에도 불구하 고 이를 구현하지 못하였다는 점이다.

    따라서 향후에는 이러한 본 연구의 한계점을 고려하여 정확도 및 성능을 향상시키고, 국제 표준(IMO e-Navigation) 준수를 위한 상용화 연구를 진행할 계획이다. 이러한 과제 를 통해 본 모델은 해양 안전 기술의 지속적 발전에 기여할 것으로 기대된다.

    후 기

    이 연구는 2023년도 한국연구재단의 지원(개인기초연구 (과기정통부(R&D)))을 받아 수행된 연구임을 밝힙니다 (RS-2023-00213738).

    Figure

    KOSOMES-32-1-106_F1.jpg

    Research flowchart.

    KOSOMES-32-1-106_F2.jpg

    Research, experimental sea area.

    KOSOMES-32-1-106_F3.jpg

    Selection of objects.

    KOSOMES-32-1-106_F4.jpg

    Labeling objects with a video labeler.

    KOSOMES-32-1-106_F5.jpg

    Labeling datasets processed by automation algorithms.

    KOSOMES-32-1-106_F6.jpg

    Concept of YOLO network.

    KOSOMES-32-1-106_F7.jpg

    Architecture of objects detection network using YOLO V2.

    KOSOMES-32-1-106_F8.jpg

    Plotted as a curve of detection accuracy.

    KOSOMES-32-1-106_F9.jpg

    Concept of LOP.

    KOSOMES-32-1-106_F10.jpg

    Plotted of LOP.

    KOSOMES-32-1-106_F11.jpg

    Vessel position result based on objects angle.

    KOSOMES-32-1-106_F12.jpg

    Display GPS position and position estimated by the study.

    Table

    Results of deriving the angle of objects (30s interval, °)

    Results of position error

    Statistics data

    Reference

    1. Cichocki, R. and P. Wojcik ( 2025), Cybersecurity in Maritime Transport Systems: Threats, Trends, and Countermeasures in the Last Decade, The International Journal on Marine Navigation and Safety of Sea Transportation, Vol. 19, No. 3, pp. 715-722.
    2. Gulsoylu, E., P. Koch, M. Yildiz, and M. Constapel ( 2023), Image and AIS Data Fusion Technique for Maritime Computer Vision Applications, The 2nd Workshop on Maritime Computer Vision at WACV.
    3. Hou, X., Y. Zhang, and J. Hou ( 2021), Application of YOLO V2 in Construction Vehicle Detection, Springer Nature Switzerland AG 2021, pp. 1249-1256.
    4. IMO ( 2003), Performance Standards for Shipborne Global Positioning System (GPS) Receiver Equipment, MSC.112(73).
    5. Joseph, R., D. Santosh, G. Ross, and F. Ali ( 2016), You Only Look Once: Unified, Real-Time Object Detection, The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 779-788.
    6. KHOA ( 2026), List of Lights and Fog Signals, https://www.khoa.go.kr/nwb/buoy.do.
    7. Li, S., B. Yu, Y. Jin, L. Huang, H. Zhang, and X. Liang ( 2021), Image-Based Indoor Localization Using Smartphone Camera, Wireless Communications and Mobile Computing, Vol. 2021, pp. 1-9.
    8. Ma, H., E. Smart, A. Ahmed, and D. Brown ( 2018), Radar Image-Based Positioning for USV Under GPS Denial Environment, IEEE Transactions on Intelligent Transportation Systems, Vol. 19, No. 1, pp. 72-80.
    9. Najibi, M., M. Rastegari, and L. S. Davis ( 2016), G-CNN: An Iterative Grid Based Object Detector, The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 2,369-2,377.
    10. Olofsson, J., G. Hendeby, F. Gustanfsson, D. Maas, and S. Marano ( 2020), GNSS-Free Maritime Navigation using Radar and Digital Elevation Models, Proceeding 2020 IEEE 23rd International Conference on Information Fusion (FUSION).
    11. Renaudin, V., M. I. Sayyaf, F. L. Bourhis, and M. Oritiz ( 2025), GNSS Positioning Under Threat: The Rising Risk to Existing Systems and the Role of Alternative Indoor and Seamless Navigation Technologies, IEEE Journal of Indoor and Seamless Positioning and Navigation, Vol. 3, pp. 246-259.
    12. Sapkota, R. and M. Karkee ( 2025), Ultralytics YOLO Evolution: An Overview of YOLO26, YOLO11, YOLOv8 and YOLOv5 Object Detectors for Computer Vision and Pattern Recognition, Arxiv (ArXiv:2510.09653), Vol. 2, pp. 1-16.
    13. Son, P. W., S. G. Park, Y. Han, K. Seo, and H. Fang ( 2023), Demonstration of the Feasibility of the Korean eLoran System as a Resilient PNT in a Tested, MDPI Communication, pp. 1-12.
    14. Westbrook, T. ( 2023), Radio-frequency Interference Strategies Targeting Marine Navigation Systems: Political Motives and Consequences, Journal on Baltic Security, Vol. 9, No. 1, pp. 69-97.