1. 서 론
해수면 온도(Sea Surface Temperature, SST) 예측은 해양생태계 및 수자원 관리 분야와 이상고수온, 태풍, 홍수 및 가뭄 등 자연재해 대응 분야에서 필수적으로 요구되고 있다 (Chen et al., 2011;Saunders and Lea, 2008;Cassola et al., 2016;Shabbar and Skinner, 2004). 특히, 한반도에서는 여름철 적조 발생과 동해안 냉수대 출현 및 소멸과 같이 〮환경․경제적으로 막대한 손실을 입히는 해양 현상이 SST의 변동과 밀접하 게 연관되어 있다(Lee et al., 2001;Cho and Kim, 1996). 따라서 SST의 변동을 정확히 예측하고 이상 변동 현상을 조기에 파악하는 기술을 확보하는 것이 필요하다.
시계열 예측의 정확도는 모델 피팅에 크게 의존한다. 예측 정확도의 개선을 위해 수십 년간 많은 시계열 모델이 개발되어 왔다. Autoregressive Integrated Moving Average(ARIMA) 는 가장 보편적인 확률론적 시계열 예측 모형이며, 장기 추세와 계절성을 동시에 가지는 SST 시계열 예측에 효과적으로 적용되었다(Breaker, 2006). 이후로 다양한 SST 예측의 연구 진행됨에 따라 데이터셋의 통계적 분포를 가정하지 않는 인공신경망 기법이 활용 빈도가 증가하였다(Thomson et al., 2006). 특히, 시계열 예측에 특화된 Long-Short Term Memory (LSTM), Gated Recurrent Unit(GRU), Attention 기법은 다양한 해역의 SST 예측에 성공적으로 적용되었으며, 해역에 따라 적합한 알고리즘과 모델 변수가 변화할 수 있음을 시사하였다(Verdin et al., 2005;Zhang et al., 2020;Xie et al., 2019). 시계 열 모형은 공간 인자를 포함하지 않고 시계열 데이터에 의존하여 모델 피팅이 이루어지므로, 알고리즘과 모델 변수의 선택이 최종 예측 성능을 크게 좌우하며, 예측 시 모형 선별 과 변수 최적화가 필수적으로 선행되어야 한다.
SST 시계열을 대상으로 여러 모형 간 비교를 연구한 사례는 아래와 같다. Xie et al.(2019)과 Sarkar et al.(2020)은 ARIMA 및 LSTM, GRU, Attention 등의 모형의 SST 예측 성능을 비교 하였으며, 예측 기간의 증가에 따른 성능 감소 정도는 알고리즘 간 유의한 차이가 나타내는 것으로 보고하였다. Kartal (2023)은 통계모형 및 인공신경망에서 일부 모델 변수를 대상으로 실험하여 성능 변화를 추적하였다. 인공신경망은 많은 모델 변수로 구성되나, 이를 고려한 체계적인 모델 실험을 수행한 연구 자료는 매우 부족하다. 따라서 본 논문에서는, SST 시계열 예측의 최적 기법을 도출하기 위한 기초자료로서 선형 통계 및 비선형 인공지능 모델의 예측 정확도를 비교하였으며, 추가적으로 인공지능 모델의 하이퍼파라 미터에 따른 예측 정확도 변화를 비교하였다.
2. 시계열 예측 모델 비교
본 연구에서는 시계열 데이터 분석 기법 중 자주 사용되는 알고리즘인 ARIMA와 인공지능 모델 LSTM, GRU, Attention LSTM을 사용하여 학습 및 예측을 진행하였다. 본 연구 내용과 같이 이전에 비트코인 가격을 통한 ARIMA와 LSTM, GRU에 대하여 정확도 비교 검증 연구가 진행된 사례가 있었다(Yamak et al., 2019). 현재 LSTM에서 고도화된 알고 리즘이 다수 등장하였으며, 이러한 알고리즘을 활용한 다양한 분야의 시계열 예측에 활용되어 기존 통계적 방법과 비교하여 인공지능을 활용한 알고리즘에서 시계열 예측의 성능이 향상되었다. 또한 시계열 데이터의 데이터 특성에 따라 같은 인공지능 알고리즘이라도 성능이 다르게 나타난다. 본 연구는 기존 기계학습(ARIMA)과 인공지능 알고리즘을 활용하여 수온 시계열 예측성능을 평가하고 시계열 예측에 적합한 알고리즘을 제시하고자 한다. 다음은 각 알고리즘에 대한 설명이다.
2.1 ARIMA(Autoregressive Integrated Moving Average)
ARIMA 모델은 자기회귀(Autoregressive) 모형과 이동평균 (Moving Average) 모형을 결합하여 만들어진 모델이다. 먼저 자기회귀 기법은 시계열 데이터가 가지고 있는 데이터가 시 간 순서에 따라 이전 데이터값이 다음 데이터값에 영향을 준다는 것을 기반으로 제작된 모델이다. 자기회귀 기법은 식(1)과 같이 표현할 수 있다.
이동평균 모델은 자기회귀 모델과 다르게 과거의 데이터 원본을 이용하는 것이 아닌 과거 데이터의 연속적인 오차를 이용하여 미래 데이터를 예측하는 것이다. 이동평균 모델은 식(2)와 같이 나타낼 수 있다
위와 같은 자기회귀 모형과 이동평균 모형을 단순 결합하여 식(3)과 같이 ARMA 모델을 구축할 수 있다.
하지만 자기회귀 모델, 이동평균 모델, ARMA 모델을 사 용하기 위해서는 데이터가 정상성(stationary)을 지닌 데이터를 이용해야 한다. 하지만 대부분의 시계열 데이터는 비정상성(non-stationary)의 특징을 지닌 데이터이기에 해당 모델들을 적용하기에는 어려움이 있다. 이러한 문제를 해결하기 위하여 비정상성을 지닌 데이터를 정상성의 데이터로 변환하기 위한 차분을 사용한 모델이 ARIMA 모델이다. 차분을 통하여 비정상성의 데이터를 정상성 데이터로 변환 후에 ARIMA 모델을 적용하여 시계열 미래 예측을 진행하는 모델 이다.
2.2 LSTM(Long-short term memory)
기존 시계열 미래 예측을 위한 인공지능 모델로 RNN (Recurrent Neural Network) 모델을 주로 이용하였다. RNN은 Fig. 1과 같은 모델 구조를 지니고 있으며, RNN 모델의 경우 학습이 데이터의 길이가 길어짐에 따라 예측 기간과 먼 이전 학습 결과의 영향력이 작아지는 기울기 소실 문제(vanishing gradient problem)가 발생한다.
LSTM은 이러한 RNN의 기울기 소실 문제를 해결하기 위해 고안된 모델이며, LSTM의 구조는 Fig. 2와 같다. 해당 알고리즘은 input gate, output gate, forget gate를 이용하여 해당 gate를 지나는 학습 정보에 대한 필요· 불필요 여부를 판단하여 Cell-state에 정보를 전달한다.
gate에 따라 input gate는 식(4)와 식(7)과 같은 계산 과정을 통해 현재 입력 정보를 Cell-state에 얼마나 반영하는지를 판단하는 역할을 수행하며, forget gate는 식(5)와 같은 계산과정을 통해 이전에 학습된 정보에서 불필요한 정보를 판단하여 제거하는 역할을 수행한다. output gate는 식(6)과 같은 계산 과정을 통해 현재 Cell에서 학습된 정보에 각각 다른 가중치를 곱하여 하나는 Cell-state에 반영, 다른 하나는 다음 학습에 사용될 hidden state 값을 얻을 수 있다.
Cell-state는 각 정보를 식(8)을 이용하여 처리하여 다음 Cell에 전달된다.
이러한 Cell-state를 이용하여 장기적으로 학습 정보를 저장하며, hidden state를 통하여 식(9)와 같이 계산된 단기적 학습 정보를 다음 학습에 반영하여 학습을 진행하게 된다.
2.3 GRU(Gated Recurrent Unit)
GRU는 기존 LSTM의 경우 장·단기 학습 메모리를 모두 사용하기에 학습 시간이 길어짐에 따라 학습 과정을 단순화하여 학습 시간 단축을 목적으로 제작된 모델이다. Fig. 3과 같이 기존 gate가 3개로 구성된 LSTM에서 gate의 수가 2개로 줄어들었으며, Cell-state와 hidden state가 결합된 형태로 구성되어 있다.
GRU의 2개의 gate는 reset gate와 update gate로 구성된다. reset gate는 LSTM의 Forget gate와 같이 이전에 학습된 정보에서 필요한 정보를 판단하여 불필요한 정보를 제거하는 역할을 수행하며, 식(10)과 같이 나타낼 수 있다. update gate는 현재 학습에 입력되는 입력 자료와 이전 학습 결과를 이용하여 새로운 학습 정보를 생성, hidden state에 반영하는 역할을 수행하며, 식(11)과 같이 표현된다. 생성된 데이터를 이용하여 식(12)와 식(13)을 이용하여 다음 Cell로 이동될 학습 정 보를 계산하게 된다.
2.4 Attention LSTM(Attention Long-short term memory)
기존 시계열 예측 모델의 경우 학습이 순차적으로 진행됨에 따라 이전에 생성된 학습 정보를 새로운 학습 정보를 활용하여 변경하는 과정을 반복하며 학습이 진행되었다. 이러한 경우 현재 학습되는 학습 데이터와 다른 학습 데이터와 의 관계성이 고려되지 않는다. Attention은 각 Cell 별로 학습 된 학습 정보들을 종합하여 벡터데이터 형식으로 학습 정보를 처리하게 된다. 이러한 벡터 형식의 학습 정보는 현재 학습 데이터와 다른 학습 데이터와 관계성을 고려하여 예측을 진행하게 해준다.
Self Attention Layer를 구성하는 함수는 Fig. 4와 같이 크게 Query, Key, Value 3가지로 분류할 수 있다. 먼저 Query는 입력데이터에 대한 정보를 나타내는 벡터이며, Key는 입력데이터 외의 다른 학습 데이터의 정보를 나타내는 벡터이며, Value는 학습 데이터의 각 위치정보를 나타내는 벡터이다. Query와 Key 두 벡터는 내적을 통하여 Query와 Key와의 유사도를 측정하여 score로 계산되며, 계산된 score와 Value 벡터를 이용하여 학습 데이터의 각 위치에 해당하는 데이터와 입력 데이터 사이의 상대적 중요도를 계산하게 된다. 위와 같은 Self Attention Layer를 이용하여 Fig. 5와 같은 구조의 Self Attention 알고리즘을 구축하였다.
3. 실험 데이터 및 학습 환경 설정
3.1 실험 데이터 설정
본 연구 사용된 국립해양조사원 조위관측소 흑산도 1시간 간격 수온 데이터는 학습에 사용하기 전 자료의 결측값을 liner를 통하여 제거한 후, 일 단위 데이터 자료로 변환하여 사용하였다. Fig. 6과 같이 데이터 수집 기간은 2018년 01월 01일부터 2022년 11월 29일까지 약 5년간의 데이터를 수집하였다. 수집된 데이터를 각 연 단위로 데이터를 분류하여 그래프로 표현하여 수온의 계절 경향성이 잘 나타나는지 검토를 진행하였으며, Fig. 6에 해당 결과를 도시하였다. 분석 결과 학습에 사용된 모든 연도에서 계절별 수온의 변화가 잘 나타내는 것을 확인하였다. 인공지능 학습 시 학습 데이터 에 편향된 학습이 진행되는 과적합을 방지하기 위해 데이터를 학습(Train), 검증(Validation), 시험(Test) 3가지로 분류하여 진행하게 된다. 학습 데이터는 학습에 직접적으로 사용되는 데이터이며, 검증 데이터는 학습 과정에서 학습된 네트워크를 평가하여 학습 정확도 향상을 위해 사용된다. 마지막으로 시험 데이터는 학습이 완료된 네트워크를 평가하기 위한 데이터이며, 검증 데이터를 이용하여 학습 데이터에 편향된 학습을 방지하며, 학습에 관여하지 않는 시험 데이터를 이용하여 학습 모델의 정확도 평가를 진행한다.
본 시계열 예측 연구는 국립해양조사원 흑산도 조위관측소 2018-2020년까지의 수온데이터를 학습자료로 사용하고 2021년, 2022년 자료는 각각 데이터검증, 테스트에 사용하였다. 따라서 시계열 예측에 사용된 학습 : 검증 : 테스트의 비율은 6 : 2 : 2 설정하였으며, 수온의 계절 주기성을 반영하기 위해 최소한의 데이터 자료를 1년으로 구성하였다. 예측에 사용된 학습 데이터는 과거 수온자료 7일을 입력하여 미래 수온자료 T+1의 데이터를 예측하는 형태로 구성하여 실험을 진행하였다.
3.2 학습 환경 설정
ARIMA 알고리즘의 경우 AR과 MA의 계수와 차수(I)에 따라 정확도가 달라진다. 그에 따라 적합한 학습 parameter를 설정하는 것이 매우 중요하다. 본 연구에서 사용된 데이터를 이용하여 p-value 분석을 진행하였다. p-value 분석 결과 Table 1과 같은 결과를 확인 할 수 있었다. 해당 데이터를 통하여 본 연구에 사용된 데이터의 경우 d = 1로 설정하였을 때, p-value < 0.05이기에 정상성을 보이는 데이터로 변환이 된 것으로 판단하였다. 따라서 d = 1로 설정하였으며, Fig. 7 과 같은 ACF 그래프와 Fig. 8과 같은 PACF그래프를 이용하여 AR과 MA의 계수는 (1,0)으로 설정하였다.
인공지능 정확도 검증을 위해 동일한 Hyper parameter를 적용하여 학습 네트워크를 구성하였다. 학습 네트워크의 Hyper parameter는 Table 2와 같이 설정하였으며, Epoch = 500, Learning rate = 0.001, Dropout = 0.2 (20%), batch size = 16으로 설정하였다. 네트워크별 Cell의 개수는 16과 32로 설정하여 총 8개의 학습 결과에 대하여 비교 분석을 진행하였다.
인공지능 예측 결과 비교를 위하여 MAE(Mean absolute error) 지표로 평가하였으며, MAE는 식(14)와 같이 예측 결과와 관측값에 대한 차를 구한 후, 절댓값의 평균을 이용하여 오차를 계산하는 기법으로 인공지능 네트워크 정확도 평가에 대중적으로 이용되는 평가 기법이다.
4. 학습 진행 및 정확도 평가
ARIMA는 앞선 학습 설정 단계에서 설정된 p, d, q의 값을 (1, 1, 0)로 예측을 진행하였다. 예측을 진행한 결과 Fig. 9와 같은 예측 성능을 보여주었으며, MAE 계산 결과 0.396의 결과를 확인 할 수 있었다.
인공지능 학습은 앞서 설정한 학습 설정 및 정확도 검증 방법을 이용하여 학습 및 예측을 진행하여 Fig. 10 ~ Fig. 15와 같은 결과를 얻을 수 있었다. 이를 앞서 설정한 오차 검증 기법인 MAE를 이용하여 정확도 검증을 진행한 결과 모델별 성능은 Table 3과 같다. 결과를 통해 알 수 있듯이 Cell의 수 가 16일 경우 Attention LSTM, LSTM, GRU 순서로 정확도가 높음을 확인할 수 있었다. 하지만 Cell의 수가 32로 증가할 경우 다른 알고리즘의 정확도가 향상되어 GRU, Attention LSTM, LSTM 순서로 정확도가 높은 결과를 보여주었다.
추가적으로 학습 기간에 따른 정확도 평가를 위해, T+1 ~ T+6에 대한 예측을 진행하여 정확도 검증을 진행하였다. 해당 기법은 T+1 예측을 진행한 후 예측된 데이터를 학습 데이터에 결합하며, 이렇게 생성된 새로운 학습 데이터로 입력하여 T+2를 예측 진행하게 된다. 이와 같은 입력과 예측을 반복하여 T+6까지 예측을 진행하였다.
예측 결과를 Table 4에 제시하였으며, Cell 16의 경우 기존 T+1 예측 결과와 같이 예측 기간이 증가하여도 Attention LSTM의 성능이 높은 것으로 확인되었다. Cell의 수가 32인 경우 T+1 예측 결과에서는 Attention LSTM, LSTM, GRU가 비슷한 성능을 보이는 것과 다르게 Attention LSTM의 예측 기간이 길어짐에 따라 성능이 낮아짐을 확인할 수 있었다. 최종적으로 Attention LSTM(Cell 16)의 정확도가 가장 높은 것을 확인할 수 있었다.
5. Attention LSTM 고도화
앞선 인공지능 알고리즘별 성능평가를 통해 Cell의 변경으로 Attention LSTM의 정확도가 달라지는 것을 보여주었으며, 이를 통하여 Hyper parameter의 설정에 따라서 정확도의 변화가 생기는 것을 확인할 수 있었다. 본 연구에서는 Hyper parameter의 설정에 따른 각기 다른 Attention LSTM 모델의 정확도를 비교하여 수온 예측 모델에 최적화된 Hyper parameter 의 값을 제시하고자 한다.
학습 데이터의 Train, validation, test의 비율은 이전에 알고리즘별 정확도 검증에서 사용된 것과 동일한 비율로 진행하 였으며, 알고리즘 고도화를 위해 변경된 Hyper parameter는 Cell 수, Dropout, Learning rate로 Table 5에 제시된 실험안에 대해 시계열 예측성능 고도화 평가를 수행하였다.
각 모델별 학습 및 예측 평가 결과를 Table 6에 제시하였으며, 평가 결과 Hyper parameter의 Cell 수 = 16, Dropout = 0.2 로 설정 시 시계열 예측에 가장 높은 정확도를 보여줌을 알 수 있었으며, Learning rate 설정에 따른 예측성능은 결과에 미미한 영향을 주는 것을 확인할 수 있었다.
6. 결론 및 향후 연구 방향
본 통계적 방법과 인공지능을 활용한 수온 시계열 데이터 예측 실험 결과 통계적인 방법보다 인공지능을 활용한 결과에서 예측성능이 다소 우수한 것으로 나타났으며, 인공 지능 학습 시 Cell 수가 16일 경우 Attention LSTM이 가장 높은 정확도를 나타냈으며, 32일 경우 GRU가 가장 높은 정확도를 보여주었다. 장기 예측의 경우 Cell 수를 16으로 설정 한 Attention LSTM이 타 알고리즘과 비교하여 높은 정확도를 보여주었으며, 이는 LSTM과 GRU와 다르게 Attention LSTM 알고리즘은 긴 시계열 데이터의 관계성을 학습하고 특징을 추출할 수 있기 때문인 것으로 판단된다(Sarkar et al., 2020). 따라서 시계열 예측성능이 우수한 Attention LSTM을 활용하여 예측성능 고도화를 수행하였으며, 해당 알고리즘의 Hyper parameter Cell 수 = 16, Dropout = 0.2로 설정 시 가장 높은 정확도를 나타내었다. 다만 성능 평가에 사용된 Learning rate에 따른 학습 정확도에 미치는 영향은 미미한 것으로 나타났다.
향후 Attention LSTM을 활용한 시계열자료 예측 시 추가적인 기상 및 다른 관측소의 수온자료를 함께 활용한다면 예측 성능 개선뿐만 아니라 고수온, 저수온과 같은 이상 해양 현상 탐지 활용에 가능할 것으로 기대된다.