Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1229-3431(Print)
ISSN : 2287-3341(Online)
Journal of the Korean Society of Marine Environment and Safety Vol.20 No.5 pp.564-570
DOI : https://doi.org/10.7837/kosomes.2014.20.5.564

A Detection System of Drowsy Driving based on Depth Information for Ship Safety Navigation

Jun Ha*, Won-Jae Yang**, Hyun-Jun Choi*
*Department of Electronic Engineering, Mokpo National Maritime University, Mokpo 530-729, Korea
**Division of Maritime Transportation System, Mokpo National Maritime University, Mokpo 530-729, Korea

* First Author: junha@mmu.ac.kr, 061-240-7273

Corresponding Author: hjchoi@mmu.ac.kr, 061-240-7273
September 19, 2014 October 17, 2014 October 28, 2014

Abstract

This paper propose a method to detect and track a human face using depth information as well as color images for detection of drowsy driving. It consists of a face detection procedure and a face tracking procedure. The face detection procedure basically uses the Adaboost method which shows the best performance so far. But it restricts the area to be searched as the region where the face is highly possible to exist. The face detected in the detection procedure is used as the template to start the face tracking procedure. The experimental results showed that the proposed detection method takes only about 23 % of the execution time of the existing method. In all the cases except a special one, the tracking error ratio is as low as about 1 %.


선박의 안전운항을 위한 깊이정보 기반의 졸음 감지 시스템

하 준*, 양 원재**, 최 현준*
*목포해양대학교 전자공학과
**목포해양대학교 해상운송시스템학부

초록

본 논문에서는 컬러정보와 깊이정보를 사용하여 얼굴을 검출하고 추적한 후 항해사의 졸음을 탐지하는 방법을 제안한다. 이 방법은 얼굴검출 과정과 얼굴추적 과정으로 구성된다. 얼굴검출 과정에서는 기존의 방법 중 가장 좋은 성능을 보이는 Adaboost 알 고리즘을 사용하며, Adaboost로 입력되는 영상의 영역을 사람이 존재하는 영역으로만 제한하여 얼굴을 검출한다. 얼굴검출 과정에서 얼굴이 검출되면 그것을 템플릿으로 하여 얼굴추적 과정이 수행된다. 제안한 방법의 성능을 평가하기 위하여 실험영상을 이용하여 실 험을 수행하였다. 실험결과 제안한 졸음탐지 방법은 기존의 방법에 비해 약 23 %의 수행시간을 보였으며, 또한 졸음탐지 방법은 추적 시간과 추적 정확도에 있어서 상보적인 관계를 가지며, 특별한 경우를 제외한 모든 경우에서 약 1 %의 낮은 추적오차율을 보였다.


    National Research Foundation of Korea
    NRF-2010-0022080

    1.서 론

    장기 운항 중인 항해사의 피로도(Fatigue)는 일반적으로 승 선중인 선종, 항로, 항해기간, 입출항 횟수, 정박기간의 불규 칙성 등과 같이 다양한 피로유발 요인에 의해서 발생한다. 또한, 승선 중 직면하게 되는 장시간에 걸친 정신적, 육체적 노동으로 인하여 발생하는 수면부족과 스트레스, 정신적․ 육체적인 작업부하 등의 원인에 의해서 증가 또는 누적된다 (Yang, 2009; Yang, 2012).

    이러한 이유에서 누적된 항해사의 피로도는 당직근무 중 안전운항에 필요한 업무수행능력을 저하시키고 상대선박과 긴박한 상황에서 저지르는 실수, 판단착오, 간과 등과 같은 인간과실(Human error)을 유발하여 선박의 충돌과 좌초 등과 같은 매우 위험한 해양사고를 수반할 가능성을 높게 하는 것이다(Yang, 2009; Yang, 2012).

    우리나라 전체 해양사고(2002~2011년)의 82.2 %가 총톤수 500톤 미만의 소형 선박에서 발생하고, 69.7 %가 우리나라 개 항의 항계 안 및 영해 등 연안 수역에서 발생하고 있다. 또한 운항과실이 80.7 %를 차지하고 있고, 충돌, 접촉 및 좌초사고 의 경우 선교 항해당직자의 운항과실 발생빈도가 94.1 %로 나 타났다. 따라서, 항해사는 항상 상당한 피로가 누적되어 졸 음운항 상황이 빈번하게 발생될 수 있는 여지가 많다.

    이와 같은 항해사들의 졸음운항에 따른 문제를 해결하기 위해 선교항해당직경보장치(Bridge Navigational Watch Alarm System, BNWAS)의 설치가 의무화 되어있지만, “선박직원법” 상 총톤수 200톤 미만의 선박은 의무탑재 사항이 아니다. 따 라서 소형선박의 경우 선장 혼자서 선교 항해당직을 수행하 는 경우가 대부분이다(Hong et al., 2014).

    인간의 동작이나 얼굴 등을 검출하는 방법은 오래전부터 영 상처리를 비롯한 다양한 분야에서 연구되어 왔으며, 최근에는 로봇 비젼, 스마트 홈 시스템 등에 널리 사용되고 있다. 그 동 안 연구된 얼굴추적 방법은 지식-기반 방법(Knowledge-based methods), 특징-기반 방법(Feature-based methods), 템플릿 매칭 방 법(template matching methods), 외형-기반 방법(appearance-based methods)으로 분류할 수 있다(Bae et al., 2012). 본 논문에서는 컬러정보와 깊이정보를 사용하여 빠르고 정확하게 항해사 의 얼굴을 검출한 후, 깊이정보를 이용하여 항해사의 졸음 을 탐지하는 방법을 제안한다.

    본 논문의 구성은 다음과 같다. 2장에서는 항해사의 얼굴 추적을 위해 Adaboost(Viola and Jones, 2004)기반의 항해사 얼 굴 추적 알고리즘을 설명한다. 3장에서는 깊이정보와 컬러 정보를 이용하여 항해사의 졸음상황을 탐지할 수 있는 알고 리즘과 구동 시스템에 대하여 소개하고, 4장에서는 제작한 시스템을 선교에 설치하여 실험한 결과를 보인다. 마지막으 로 5장에서 결론을 맺는다.

    2.항해사의 얼굴 추적 알고리즘

    2.1.Adaboost 알고리즘을 이용한 얼굴 검출

    본 논문에서는 얼굴검출 분야에서 많이 사용되는 외형 기 반 방법 중 속도와 정확도면에서 매우 훌륭한 성능을 보이 는 Viola와 Jones가 제안한 Adaboost 알고리즘을 사용한다. Viola와 Jones가 제안한 Adaboost 알고리즘은 유사-Harr 특성 (Haar-like feature)을 적분 영상(Integral image)을 이용하여 빠 르게 계산하여 얼굴을 검출한다(Papageorgiou et al., 1998; Lienhart and Maydt, 2002). 훈련 과정에서 얼굴 영상과 배경 영 상으로 구성된 학습 영상 집합을 입력받아 이 둘의 차이를 잘 구분 할 수 있는 특징을 선택하여 약한 분류기(Weak classifier) 를 구성한다. 그리고 약한 분류기들을 결합하여(Cascading) 최 종적으로 얼굴과 비 얼굴을 분류할 수 있는 강한 분류기 (Strong classifier)를 생성한다.

    Adaboost는 특징을 이용하기 때문에 적은 양의 훈련 데이 터로도 학습이 가능하며, 적분 영상을 사용하게 되면 한번 계산한 이후에는 위치와 크기에 상관없이 상수 시간에 계산 이 가능하므로 픽셀 기반 방법보다 속도가 빠르다는 장점이 있다. 하지만 특징의 모양이 복잡해지거나 그 수가 증가하 게 되면 계산량이 많아져서 속도가 떨어질 수 있다. 따라서 단계적으로 분류기를 배열하여 배경에 해당하는 영역을 초 기에 걸러내어 얼굴의 주요 특징을 빠른 속도록 검출 할 수 있게 한다.

    Haar 웨이블릿(Wavelet)은 영상에서 수평, 수직, 대각 방향의 에지를 각 스케일로 분해하기 위한 기저함수이며, Papageorgiou 는 이를 이용하여 강인하면서도 연산이 빠른 Haar 웨이블릿 을 객체 검출을 위한 특징 집합으로 사용하여 객체를 검출 하는 알고리즘을 제안하였다(Papageorgiou et al., 1998). Viola 와 Jones는 기존의 Haar 특징를 확장한 유사-Haar 특징을 이 용하였는데, 유사-Haar 특징은 인접한 검은색과 흰색의 직사 각형 형태로 이루어져 있으며, 각 영역 내의 픽셀값을 더하 여 영역의 합을 구한 다음 두 합의 차를 구하여 특징 값을 계산한다(Bae et al., 2012).

    유사-Haar 특징들은 직사각형 형태로 이루어져 있기 때문 에 적분 영상(Integral image)을 이용하여 빠르게 계산할 수 있다. 적분 영상 안의 한 점 (x, y)의 값은 Fig. 1에서 나타낸 것과 같이 원점에서부터 점 (x, y)까지의 픽셀값들의 합과 같다.

    적분 영상 ii(x, y)는 식(1)에 의하여 구해질 수 있다.

    ii x , y = x x , y y i x , y
    (1)

    여기서ii(x, y)는 적분 영상이고, i(x, y)는 원본 영상이다. 식(1)의 적분 영상은 식(2)와 (3)의 반복적인 계산에 의해서 간단히 얻어 질 수 있다.

    s x , y = s x , y 1 + i x , y
    (2)
    ii x , y = ii x 1 , y + s x , y
    (3)

    s(x, y)는 행의 누적 값이며, s(x, -1)=0 이고 ii(-1,y)=0 이다.

    적분영상은 영상이 입력될 경우 화소 값을 누적하여 한 번의 계산으로 SAT(Summed Area Table)을 생성하며, 이를 이 용하여 중복 연산을 최소화하여 연산 속도를 빠르게 할 수 있다. 또한 적분 영상을 이용하면 유사-Haar 특징의 특징 값 을 빠르게 계산 할 수 있다.

    Adaboost 알고리즘은 t개의 낮은 분류 성능을 보이는 간단 한 형태의 약한 분류기들을 선형적으로 결합하여 최종적으로 강한 분류기를 만들어 내는 기법이다. Freund와 Schapire는 선 형적으로 결합된 약한 분류기의 수가 증가할수록 에러율이 0에 근접한다는 것을 증명하였다. Adaboost 알고리즘은 간단 하면서도 효율적인 장점을 가지고 있으며, 얼굴과 비 얼굴 로 구성된 훈련 영상 집합에서 추출된 사각형 특징 집합을 이용하여 학습한다.

    약한 분류기hj(x,f,p,θ)는 식(4)와 같다.

    h x , f , p , θ = 1 if pf x < p θ 0 otherwise
    (4)

    여기서 fj는 특징값, θj는 문턱치(Threshold), p는 극성 (Polarity)을 각각 나타낸다. 이 훈련과정을 Fig. 2에 나타내 었다.

    템플릿 매칭(Template matching)은 템플릿 영상(Template image)과 소스 영상(Source image)을 비교하여 템플릿 영상과 같거나 비슷한 물체를 찾고 인식하는 것이다. 이 방법은 템 플릿의 특징 성분 검출이 용이하도록 존재할 필요가 없기 때문에 조명 변화나 배경의 영향을 덜 받게 되고 복잡한 배 경에서도 템플릿 검출이 가능하다는 장점이 있다. 하지만, 거리에 따른 크기변화에 민감하다는 단점이 있다.

    템플릿 매칭의 매칭 방법을 Fig. 3에 나타내었다. 찾고자 하는 대상의 특징을 가진 템플릿을 생성한 다음, 이 템플릿 을 회선 마스크(Convolution Mask)로 사용하여 소스 영상의 모든 영역을 탐색하면서 템플릿 영상과 소스 영상의 픽셀의 매칭 정도를 파악하여 가장 높은 값을 갖는 부분을 찾는 것 이다.

    템플릿 영상과 소스 영상 간의 매칭 정도를 파악하는 방 법은 상관도를 이용하는 방법과, 차이를 이용하는 방법이 있 다. 상관도를 이용하는 방법은 상관계수를 계산하여 생성된 상관계수 영상에서 가장 높은 상관도를 가지는 영역을 찾아 내는 방법이고, 차이를 이용하는 방법은 MAD(Mean Absolute Difference)와 MSE(Mean Square Error), SAD(Sum of Absolute Difference)를 계산하여 템플릿 영상과 소스 영상 사이의 최 소 차이를 갖는 영역을 찾는 방법이다.

    본 논문에서는 계산을 속도를 높이기 위하여 상관계수를 구하는 것이 아니라 SAD를 사용하여 템플릿의 움직임을 추 정한다. 또한 거리에 따른 크기변화에 민감하다는 기존의 템플릿 매칭의 단점은 깊이 정보를 이용하여 템플릿을 확대 혹은 축소하여 템플릿 매칭을 수행하여 극복하도록 하였다.

    SAD 수식은 식 (5)와 같으며 여기서 T(xi,yj)는 템플릿 영 상의 화소 값이며, I(xi,yj)는 입력영상에서의 화소 값이다.

    SAD = i = 0 M 1 j = 0 N 1 T x i , y j , I x i , y j
    (5)

    3.깊이정보를 이용한 졸음탐지 시스템

    3.1.졸음탐지 알고리즘

    얼굴 검출부에서는 기본적으로 Viola와 Jones가 제안한 Adaboost 기반의 얼굴 검출 방법을 사용한다. Viola와 Jones가 제안한 알고리즘은 적분 영상과 케스케이드 구조를 이용. 하여 빠른 얼굴 검출이 가능하다. 하지만 고해상도 영상과 제한된 하드웨어를 사용하는 시스템의 경우에는 실시간으 로 얼굴을 검출하는데 어려움이 있다. 제안하는 알고리즘은 이러한 문제점을 개선하기 위하여 전체영상에서 깊이정보 와 컬러정보를 이용하여 불필요한 배경영역을 제거하고 얼 굴 후보 영역을 검출하여 Adaboost에 입력으로 들어가는 영 상영역을 제한하여 연산시간을 줄이도록 하였다. 얼굴 검출 과정은 Fig. 4에 나타내었으며 각 과정에 대하여 아래에 설 명한다.

    제안하는 방법은 얼굴 검출 과정과 졸음 탐지 과정의 두 과정으로 구성되어 있으며, 얼굴 검출 과정은 기본적으로 하나의 상황 혹은 장면(scene)의 초기에 한 번만 수행한다. 검출 과정에서 검출된 얼굴 부분은 졸음 탐지 과정에서 템 플릿(template)으로 사용되며, 얼굴이 검출된 다음 프레임부 터는 졸음 탐지 과정만을 수행된다. 그러나 상황 혹은 장면 이 바뀌거나 추적과정에서 템플릿 매칭이 이루어지지 않은 경우 다시 검출과정을 수행한다.

    Fig. 5에서는 다중 이미지 센서 카메라를 이용하여 항해사 의 졸음상황을 실시간으로 탐지하기 위한 세부 알고리즘 순 서도를 보이고 있다. 입력받은 RGB 영상을 이용해 실시간으 로 차영상을 생성하고, 이 차영상을 이용해 Fig. 6에서 보이 는 방법과 같이 x-축과, y-축에 대해 화소값들의 누적 값을 각각 구한다. 만약 항해사가 한 명인 경우에는 각 축에서 누 적된 값과 깊이정보의 누적된 값으로 이전의 물체를 추적하 지만, 항해사가 두 명 이상인 경우에는 깊이정보를 이용하 여 카메라와 가까이 위치한 항해사에게 우선순위를 부여하 여 정확한 좌표를 산출한다. 항해사의 졸음탐지는 깊이정보 프레임들의 변화량을 분석하여 변화량이 특정 값을 넘어설 경우 졸음상황이라고 판단을 한다.

    3.2.졸음탐지 시스템 제작

    본 논문에서는 최근 출시된 마이크로소프트사의 Kinect 카메라를 이용해 항해사의 정확한 움직임을 추적하는 기술 을 개발하였다. 이 Kinect 카메라는 RGB 카메라와 IR 신호를 사용하는 깊이 센서의 다중 이미지 센서로 구성되어 있다. 본 논문에서는 이와 같은 다중 이미지 센서로부터 획득된 RGB영상과, 깊이정보를 이용해 화면 내에서 실시간으로 항 해사의 위치와 졸음 상황을 탐지하는 기술을 개발하였다. Fig. 7(a)에서는 다중 이미지 센서로 구성된 Kinect 카메라를 보이고 있고, Fig. 7(b)에서는 Kinect를 포함하여 디스플레이 장치를 제어하는 시스템을 보이고 있다.

    이 카메라는 초당 30 프레임으로 동일한 해상도(640×480) 의 RGB영상과 깊이정보를 출력한다. 이 중 깊이정보는 화질 의 열화가 매우 심하다. 또한 이 카메라의 촬영 유효 거리는 약 0.8~3.5 m이며, 1.2~1.8 m 정도에서 가장 정확한 값을 얻을 수 있다고 명시하고 있다.

    4.실험결과

    다중 이미지 센서로 획득한 RGB 색차정보와 깊이정보의 화면 내에서 움직임을 추적하는 기술을 이용하여 움직임이 발생하는 위치를 좌표값으로 산출할 수 있으므로, 획득 화 면을 20개의 구역으로 분할한 후 좌표값이 위치하는 구역을 찾음으로써 움직임에 대해 에러 없이 정확한 거리정보와 공 간좌표를 측정할 수 있다.

    또한 다중 이미지 센서는 RGB 색차정보와 깊이정보를 30 fps (0.03초)의 속도 차영상 및 누적덧셈을 수행하며, 움직임 추 적은 매 4 프레임마다 수행한다. 즉, 매 프레임 차영상을 생 성, 이를 x, y축으로 누적하고, 그 결과를 4 프레임 누적하여 화면 내에서 발생하는 움직임을 추적한다. 따라서 이 시스 템은 7.5 프레임/sec(0.13초/위치추적)의 추적 속도 움직임을 추적할 수 있다.

    4.1.실험방법

    구현한 시스템의 실제 동작여부와 성능을 시험하기 위해 선교의 환경과 유사하게 만들어진 목포해양대학교 Marine Simulation Center에서 실험을 수행하였다. Fig. 8과 같이 다중 이미지 센서 Kinect 카메라와 제어시스템을 조타석 상단에 설치 하여 항해사의 졸음상황을 탐지하였다. 실험은 20대 후반, 신장 173 cm, 안경 미착용의 성인 남성을 대상으로 수행하였다.

    • - 측정거리: 항해사의 움직임을 정확히 추적하는 지를 실 험하기 위해서 측정 거리를 3 m로 잡았다. 이것은 가능하면 측정거리를 크게 하는 것이 감지 실패 확률이 높으므로, 측 정 유효의 유효성을 감안하여 선택하였다.

    • - 항해사의 움직임: 본 시스템의 특성 상 움직임 속도가 클수록 감지확률이 높다. 움직임 속도는 특정 거리를 점점 빠른 속도로 움직이면서 측정하였으며, 움직이는 시간은 카 메라의 초점거리와 실제 움직이는 거리를 대비하여 프레임 간 거리를 측정하여 산정하였다.

    • - 탐지 가능한 최소의 움직임: 4 프레임마다 움직임을 감 지하므로 4 프레임간 움직임을 1 cm로 하였을 때 감지 가능 한 최대 거리를 측정하였다.

    • - 실험의 조명환경: 본 시스템이 RGB영상을 사용하므로 조명상태에 따라 감지능력이 달라질 수 있다 따라서 본 실 험에서는 다음의 4가지 경우를 각각 실험하였다.

    • ① 주간에 선교 조명 ON

    • ② 주간에 선교 조명 OFF

    • ③ 야간에 선교 조명 ON

    • ④ 야간에 선교 조명 OFF

    4.2.실험결과

    이상의 실험을 수행한 데이터를 정리하면 다음과 같다.

    • - 졸음상황 탐색은 매 4프레임마다 수행하므로 속도는 0.133 fps 0로 측정됨.

    • - 측정거리 3 m에서 4 cm/sec(4 프레임 당 0.53 cm) 이상의 움 직임은 100 % 검출하였음.

    • - 측정거리 3m에서 4cm/sec(4 프레임 당 0.53cm) 이상의 움직 0임은 위치정보의 오차가 1 % 미만으로 측정되었음.

    • - 1 cm의 움직임에 대한 탐색 가능한 최대의 거리는 2.4 m로 측정되었으며, 따라서 물체의 거리 대비 움직임 양의 비율 은 약 0.00417(0.417 %)로 측정됨.

    • - 조명조건에 따른 실험결과 ① 주간에 형광등 조명 ON, ② 주간에 형광등 조명 OFF, ③ 야간에 형광등 조명 ON의 경 우 모두 거의 동일한 실험결과를 보였으나, ④ 야간에 형 광등 조명 OFF의 경우에는 RGB 영상의 식별 가능한 거리 인 50 cm 이내에서만 감지가 가능함. 이 거리는 Kinect 카메 라 자체의 신뢰성을 답보할 수 없는 위치이므로 이 조명환 경에서는 이 시스템의 사용이 불가능함.

    Fig. 9에서 야간항해와 주간항해 시 항해사의 졸음을 탐지 한 결과를 보이고 있다. Fig. 9의 좌측영상은 야간상황, 우측 은 주간상황을 가정하여 진행한 것으로, 각 영상의 좌측에 있는 그림은 깊이 정보, 중앙영상은 항해사의 얼굴위치를 추적한 후 졸음상황을 탐지한 경우, 우측영상은 항해사의 얼굴부위만을 따로 탐색한 영상이다. 이때, 아간항해 상황을 연출하기 위해 모든 조명기구를 점등한 후에 진행하였다. 주간상황과 야간에 조명을 켠 경우에는 모두 항해사의 졸음 상황을 1 %의 오차범위 내에서 정상적으로 탐지하였다. 하 지만, 야간에 조명을 끈 경우에는 항해사의 얼굴추적가능 범위가 50 cm 이내로 매우 짧아졌다(Ha and Choi, 2014).

    Table 1에서는 제안한 졸음탐지 기법의 객관적인 성능을 보이고 있다. 표에서 D는 깊이정보 카메라와 항해사 사이의 거리값을 의미한다. 앞서 기술한 바와 같이 야간에 조명을 차단한 상태에서는 50 cm 이내에서도 오차율 1 % 미만의 탐 지 성능을 보이지만, 거리가 더 멀어지는 경우 탐지가 안 되 는 것으로 확인되었다.

    5.결 론

    본 논문에서는 연안항해시 졸음운전으로 인해 발생하는 해양 추돌사고를 방지하기 위한 항해사의 졸음탐지 시스템 을 제안하였다. 이 시스템은 깊이정보와 RGB 컬러정보를 이 용하여 항해사의 졸음을 탐지하는 기술을 기반으로 한다. 실험은 선교와 동일한 환경이 갖춰진 시뮬레이션 센터에서 수행하였고, 그 결과 주/야간 항해시에도 정상적으로 항해사 의 졸음상황을 탐지해 내는 것을 확인하였다. 다만, 외부 조 명이 없는 경우에는 50 cm 이내에 있는 항해사의 얼굴만을 추적하여 졸음을 탐지할 수 있었다. 이 부분은 추후 알고리 즘 보완을 통해 해결해야 할 과제로 보인다.

    본 시스템이 연안과 같이 복잡한 항로를 항해하는 선박의 해양 추돌사고를 방지하는데 도움이 되기를 기대해 본다.

    Figure

    KOSOMES-20-564_F1.gif

    Integral image

    KOSOMES-20-564_F2.gif

    Adaboost training process.

    KOSOMES-20-564_F3.gif

    An example of template matching method

    KOSOMES-20-564_F4.gif

    The global block diagram of proposed algorithm

    KOSOMES-20-564_F5.gif

    The proposed drowsiness detection algorithm.

    KOSOMES-20-564_F6.gif

    Accumulation of effective values from residual image

    KOSOMES-20-564_F7.gif

    (a) Kinect image sensor, (b) Control and display units.

    KOSOMES-20-564_F8.gif

    System setting for experiment

    KOSOMES-20-564_F9.gif

    Example of drowsiness detection

    Table

    Detection error ratio of the proposed method

    Reference

    1. Bae YJ , Choi HJ , Seo YH , Kim DW (2012) A Fast and Accurate Face Detection and Tracking Method by using Depth Information , The Journal of Korea Information and Communications Society, Vol.37A (7) ; pp.586-599
    2. Ha J , Choi HJ (2014) Robust Real-Time Face Detection , Workshop on Image Processing and Image Understanding, Vol.1; pp.-28
    3. Hong SH , Yang SY , Lee SR (2014) The Implementation of BNWAS Based on TLC Using USN , The Journal of Korea navigation institute, Vol.18 (2) ; pp.128-133
    4. Lienhart R , Maydt J (2002) An Extended Set of Haar-like Features for Rapid Object Detection , IEEE International Conference of Image Processing, Vol.1; pp.22-25
    5. Papageorgiou CP , Oren M , Poggio T (1998) A General Framework for Object Detection , IEEE International Conference of Computer Vision, pp.555-562
    6. Yang WJ (2009) A Basic Study on the Fatigue Analysis Model for Marine Officers , Journal of the Korean Society of Marine Environment & Safety, Vol.15 (3) ; pp.217-222
    7. Yang WJ (2012) Analysis on the Results of Fatigue Survey for Marine Officerss , Journal of the Korean Society of Marine Environment & Safety, Vol.18 (6) ; pp.551-556
    8. Viola P , Jones MJ (2004) Robust Real-Time Face Detection , Computer Vision, Vol.52 (2) ; pp.137-154