Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1229-3431(Print)
ISSN : 2287-3341(Online)
Journal of the Korean Society of Marine Environment and Safety Vol.31 No.1 pp.164-171
DOI : https://doi.org/10.7837/kosomes.2025.31.1.164

Classification Algorithm Based on Image Learning for Predicting Various Process Environments of Methyl Formate Blowing Agent

Sung-Dong Kim*
*Team Leader, Division of Substantiation Platform Technology, Korea Marine Equipment Research Institute, Busan 49043, Korea
sdkim@komeri.re.kr, 051-417-7091
December 27, 2024 February 20, 2025 February 25, 2025

Abstract


Foaming agents are applied to ships for insulation purposes. Conventional foaming agents contain considerable amounts of hydrofluorocarbons (HFCs), which form greenhouse gases. Following the adoption of the Kigali Amendment to the Montreal Protocol, South Korea has committed to reducing HFC quantities by 80% from baseline levels between 2024 and 2045. In this context, methyl formate, with its global warming potential of zero (compared to 960–1,430 for HFCs), holds significant promise as an environmentally friendly foaming agent for the future. However, the performance of methyl formate-based foaming agents is highly dependent on the purity of their raw materials and environmental conditions, which necessitates the accurate classification of each process environment. In this paper, we present four distinct cases based on environmental temperature and methyl formate purity. For each case, 10,010 images were used for training and were classified using the GoogLeNet algorithm. The classification results demonstrated accuracy of 96.8% and an F1-score of 0.969.



메틸포메이트 발포제의 다양한 공정환경 예측을 위한 이미지 학습기반의 분류알고리즘 연구

김성동*
*(재)한국조선해양기자재연구원 팀장

초록


선박에는 단열을 위한 발포제가 적용된다. 기존의 발포제에는 지구온난화물질인 수소불화탄소(HFC)를 다량 포함하고 있는 문제점이 있으며, 우리나라는 몬트리올 의정서의 ‘키칼리 개정서’를 채택함에 따라 HFC를 ‘24년부터 ’45년까지 기준 수량의 80% 감축하기로 결정되었다. 이에, 메틸포메이트 원료는 지구온난화지수가 0(HFC는 960~1,430)으로 향후 친환경발포제로 높은 기대를 갖고 있다. 하지만, 메틸포메이트 발포제의 성능은 원료의 순도 및 주변환경에 높은 영향을 받음으로 각 공정환경에 대한 정확한 분류가 필요하다. 이에, 본 논문에서는 주변환경(온도)과 메틸포메이트 순도에 따라, 총 4개의 케이스를 만들었다. 각 케이스에 대해서 10,010 장의 이미지를 학습하고, 이를 구글넷(GoogLeNet)알고리즘을 이용하여 분류하였다. 분류결과 정확도는 96.8%를 갖고, F1-Score는 0.969를 갖는 것으로 계산하였다.



    1. 서 론

    국제해사기구(IMO, International maritime organization)의 규제는 점차적으로 강화되고 있으며, 2023년 영국에서 개최된 IMO의 해양환경보호위원회(MPEC, Marine environment protectioon committee) 80차 회의에서 기존 초기전략의 목표를 상향 개정한 “2023 IMO 온실가스 감축전략”을 채택하였다. 이는 2050년 해운 분야 탄소배출 감축목표를 기준 50%에서 100%로 상향 조정하는 개정안이다(IMO, 2023a;IMO, 2023b;UMAS, 2023). 이에, 해운사 및 조선소는 이를 만족하기 위한 친환경 기술에 관심을 가지고 있다.

    또한, 육상에서는 오존층보호법 개정안을 통해 몬트리올 의정서의 ‘키칼리 개정서’의 국내시행을 도입하였다. 이에 따라 2045년까지 수소불화탄소(HFC)를 80%감축해야 한다 (Kim and Kim, 2020). HFC는 선박의 단열을 위해 사용되는 발포제에 사용되는 원료로, 국내 HFC 사용량 51%가 발포제로 사용되고 있으며, 이를 대체하기 위한 대체물질 개발이 시급한 실정이다(Kang, 2022).

    메틸포메이트 원료는 지구온난화지수가 0으로 HFC(지구 온난화 지수 150~11,700)를 대체할 수 있는 원료로 관심이 높아지고 있다(Lee, 2014;Kim and Ahn, 2008). 그러나 메틸포메이트 원료는 원료 자체의 순도와 주변의 온도변화에 따라 매우 상이한 단열성능을 갖는다. 발포제를 생산하는 공장은 여건상 온도를 일정하게 유지하는 항온설비가 없고, 원료를 믹싱하는 설비 또한 릴레이 형태로 되어 있기 때문에 정량의 원료를 주입하는데 어려움이 있다. 이러한 이유로 생산된 발포제를 육안으로는 구분할 수 없으나, 단열성능이 상이한 경우가 발생된다.

    최근 인공지능 기술의 급속한 발전과 함께 컴퓨터 비전 분야에서 딥러닝을 활용한 이미지 분류 기술이 큰 주목을 받고 있다. 특히 합성곱 신경망(Convolutional Neural Network, CNN)의 등장으로 이미지 인식 및 분류 성능이 비약적으로 향상되었으며, 다양한 산업 분야에서 활발하게 응용되고 있다. 이미지 분류는 컴퓨터 비전의 기본적인 작업 중 하나로, 주어진 이미지를 사전에 정의된 범주로 분류하는 것을 목표로 한다. 전통적인 이미지 처리 방식에서는 수작업으로 특징을 추출하고 이를 기반으로 분류를 수행했으나, 딥러닝의 도입으로 특징 추출부터 분류까지의 전 과정을 신경망이 자동으로 학습할 수 있게 되었다. 2012년 AlexNet이 ImageNet 대회에서 획기적인 성과를 거둔 이후, VGGNet, GoogLeNet, ResNet 등 다양한 심층 신경망 구조가 제안되었으며, 이들은 이미지 분류 성능을 지속적으로 향상시켜왔다. 현재 딥러닝 기반 이미지 분류 기술은 의료 영상 진단, 자율주행 차량의 객체 인식, 제조업에서의 품질 검사, 보안 시스템 등 다양한 분야에서 활용되고 있다.

    이에 본 연구에서는 메틸포메이트의 단면 이미지를 이용하여, 메틸포메이트의 순도와 온도를 분류할 수 있는 알고리즘을 연구하였다. 다음 Fig. 1은 메틸포메이트 발포제 분류 알고리즘 연구에 대한 전체 구성도이다. 본 논문에서는 우선 10,010장의 이미지를 수집하고, 이를 훈련, 검증, 테스트 이미지로 분류하였다. 분류된 이미지에서 훈련과 검증 이미지를 활용하여, 심층신경망알고리즘을 훈련하여 분류 알고리즘을 도출하였다. 여기에서 도출된 분류알고리즘은 테스트 이미지를 활용하여 정확도 및 실험결과를 도출하였다.

    본 논문은 2장에서는 메틸포메이트 발포제의 분류기준과 단면의 데이터 수집과 방법, 3장에서는 본 연구의 분류 모델 구성과 사용된 기술들, 4장에서는 정확도 및 실험결과, 5장에서는 결론을 기술한다.

    2. 메틸포메이트 발포제 데이터 수집 및 전처리

    2.1 분류기준

    본 논문에서 메틸포메이트 발포제의 분류기준으로 발포제의 순도와 주변온도변화를 기준으로 총 4가지 케이스로 분류하였다. 다음 Table 1은 메틸포메이트 발포제의 분류 기준이다.

    케이스 1은 메틸포메이트 순도 94%, 온도 25℃, 케이스 2는 메틸포메이트 순도 99%, 온도 25℃, 케이스 3은 메틸포메이트 순도 99%, 온도 40℃, 케이스 4는 메틸포메이트 순도 94%, 온도 40℃로 선정하였다. 여기에서 메틸포메이트 순도는 해외에서 수입되는 제품의 순도인 94%, 메틸포메이트 발포제를 제작하는 회사에서 새롭게 개발한 순도인 99%를 적용하였다. 또한, 온도는 여름에 발포제를 생산하는 기준으로 45℃와 정상 온도 범위인 25℃를 기준으로 선정하였다.

    2.2 메틸포메이트 발포제 데이터 수집 및 전처리

    각 조건에 따라 총 500개의 시편을 가지고 데이터 수집을 진행하였다. 시편의 이미지 확보를 위해 디지털 현미경을 이용하여 총 10,010장 이미지를 촬영하였다. 다음 Fig. 2, 3은 전체 시험장치 구성과 500개 시편 이미지이다. 시편 1개에 20 장의 이미지를 촬영하여, 10,010장 이미지를 확보하였다.

    다음 Table 2는 데이터 수집에 사용한 디지털 현미경의 주요 사양이다.

    디지털 현미경은 10-280배줌 기능을 갖고, 이미지 센서는 5메가픽셀, 비디오 캡쳐 해상도는 1,600 × 1,200, 640 × 480, 컬러는 24BIT RGB, 셔터스피드는 1/1000초를 갖는 현미경을 사용하였다. 다음 Fig. 4는 디지털 현미경으로 촬영한 케이스 시편의 이미지이다.

    수집된 이미지는 데이터 학습을 위해 Matlab의 ‘ImageDatasotre’함수를 사용하여, 이미지가 저장된 하부폴더의 이름을 라벨이름으로 가져오도록 하였다. 또한, 데이터 세트의 분류를 위해 ‘splitEachLabel’함수를 사용하여, 학습데이터 70%, 검증 데이터 15%, 테스트 데이터 15%로 분류하였다. 여기에서 학습데이터는 딥러닝 네트워크에서 학습을 위한 훈련데이터로 7,008장의 이미지를 랜덤으로 선정하였다. 검증데이터는 딥러닝 네트워크에서 학습하는 동안 검증을 하는 데이터로 일정이상의 정확도를 달성하면 학습을 종료하기 위해 사용하는 데이터이며 1,500장 이미지를 랜덤으로 선정하였다. 마지막 테스트 데이터는 딥러닝 네트워크 알고리즘의 정확도를 확인하기 위해 훈련 또는 검증에는 활용하지 않고, 최종 정확도를 계산하는데 사용하는 데이터로 1,502장 이미지를 랜덤으로 선정하였다. Matlab의 심층신경망 디자이너에서는 이미지의 정규화를 별도의 함수 없이 자동으로 진행하지만, 테스트 데이터로 분류한 이미지는 별도의 정확도 계산에 사용되기 때문에 이미지의 정규화가 필요하다. 이를 위해, augmentedImageDatastroe 함수를 이용하여 이미지를 알고리즘 사이즈와 동일하게 정규화 하였다.

    다음 Fig. 5는 훈련 데이터 정보이다.

    막대바 그래프는 각 케이스 별 수량 분포를 나타내고 아래 이미지는 각 케이스에 대한 샘플 이미지이다. 훈련 데이터 이미지는 케이스 1이 1,750장, 케이스 2가 1,754장, 케이스 3이 1,754장 마지막으로 케이스 4는 1,750장으로 총 7,008장으로 구성하였다.

    다음 Fig. 6은 검증 데이터 정보이다. 검증 데이터 이미지는 케이스 1, 케이스 2, 케이스 3, 케이스 4 모두 375장으로 총 1,500장으로 구성하였다.

    3. 분류알고리즘

    3.1 구글넷 분류알고리즘

    본 연구에서는 구글넷(GoogLeNet) 분류알고리즘을 적용하였다. 구글넷은 2014년에 개최한 ILSVRC14(ImageNet Large-Scale Visual Recognition Challenge 2014)에서 1등한 심층신경망 알고리즘이다(Szegedy et al., 2015). 다음 Fig. 7은 구글넷의 구조이다. 논문에 따르면, 총 22개의 Layer를 가지며, 인셉션(Inception)이라는 병렬구조를 제안하였다. AlexNet보다 파라미터가 12배 더 적음에도 불구하고 훨씬 더 정확한 결과 값을 갖는다. 구글넷은 총 9개의 인셉션(inception)모델로 구성 되어 있으며, 이 모델은 입력 값에 대해서 4가지 종류의 Convolution, Pooling을 수행하고 다시 합쳐지는 절차를 반복해서 수행한다. 이는 이미지의 특징을 효과적으로 추출할 수 있다. 또한 1×1 Convolution Layer를 적용함으로 채널의 개 수를 줄임으로 빠른 연산이 가능하도록 구성되었다.

    다음 Fig. 8은 구글넷 입력단 레이어이다(LeCun et al., 1990). 입력데이터는 7×7 Convolution 레이어를 통과하고 relu 활성화 함수를 처리한다. 또한 과적합 방지를 위해 3×3 Max Pooling를 적용하였다. 교차채널 정규화를 위해 Cross channel normalization 레이어를 통과시켰다.

    다음 Fig. 9은 인셉션 모듈이다(Krizhevsky et al., 2012). 인셉션 모듈 첫 번째는 1×1 Convolution, 두 번째는 1×1 Convolution + 3×3 Convolution, 세 번째는 1×1 Convolution + 5×5 Convolution, 마지막 네 번째는 3×3 Max Pooling + 1×1 Convolution로 구성 하였다.

    마지막 출력 레이어는 다음 Fig. 10과 같다. 마지막 출력 레이어는 갭(GAP, global average pooling)을 사용하여, 특징을 채널형태로 만들어서 공간정보를 가지고 있도록 구현하였다. 또한, 활성화 함수로는 다중분류 모델이기 때문에 소프트맥스 함수를 사용하였다(LeCun et al., 1990;LeCun et al., 1998;Murphy, 2012;Glorot and Bengio, 2010;He et al., 2015).

    3.2 심층신경망 알고리즘 훈련

    본 연구에서는 심층신경망 알고리즘으로 앞서 설명한 구글넷의 분류알고리즘을 사용하였다. 공개된 알고리즘에서 본 연구에 적용할 수 있도록 출력 값을 수정하였다. 심층신경망 알고리즘 훈련을 위한 조건으로는 다음 Table 3과 같다.

    솔버는 모멘텀을 사용한 확률적 경사하강법(SGDM, stochastic gradient descent momentum) 사용하였고, 학습률은 0.001, 최대 에포크 횟수는 5회, 미니배치사이즈는 32, 검증 주기는 25회로 설정하였다. 모멘텀을 사용한 확률적 경사하 강법은 관성이라는 물리 법칙을 응용한 방법으로 기존의 경사하강법(SGD)에 관성을 더하는 방법이다. 경사하강법에서 계산된 접선의 기울기에 한 시점(step) 전의 접선의 기울기 값을 일정한 비율만큼 반영함으로 과적합을 방지하고 빠른 계산이 가능하다. 다음 식(1)은 모멘텀을 사용한 확률적 경사하강법이다.

    V t = β V t 1 + ( 1 β ) S t , β [ 0 , 1 ]
    (1)

    식에서 V는 새로운 시컨스, S는 기존의 시컨스를 정의한다. 베타는 0에서 1까지의 값을 갖는 하이퍼 매개변수이다. 다음 Fig. 1112는 훈련결과 정확도와 손실그래프이다. 훈련결과 에포크 횟수 2회에서 정확도를 달성하여 학습을 종료하였다.

    훈련결과는 다음 Table 4과 같다.

    수행한 반복 횟수는 350회를 실행하였고, 에포크 당 반복 횟수는 219회 수행하였다.

    4. 정확도 및 알고리즘 테스트 결과

    훈련결과의 정확도를 계산하기 위해, 앞선 2장에서 분류한 테스트 데이터 이미지 1,502장을 분류알고리즘의 입력값으로 계산하였다. 계산결과 전체 테스트 이미지 1,502장 중 분류성공 이미지 1,455장으로 정확도는 96.87%를 갖는 것으로 계산되었다. 분류알고리즘의 성능평가를 위해 컨퓨전 매트릭스(confusion matrix)를 이용하여, 정밀도(precision), 재현도(recall), F1-Score에 대해 계산하였다. 정밀도는 훈련 모델이 양성이라고 예측한 샘플 중에서 실제 양성인 샘플의 비율을 나타낸다. 이는 모델 예측의 정확성을 평가하는 지표로, 다음과 같이 계산된다.

    p r e c i s i o n = T P ( T P + F P )
    (2)

    여기에서 TP는 실제 양성을 양성으로 올바르게 예측한 값이고, FP는 실제 음성을 양성으로 잘못 예측한 값이다. 정밀도가 높다는 것은 양성으로 예측한 결과들 중 실제 양성인 비율이 높다는 것을 의미하며, 위양성(False Positive)을 최소화하는 것이 중요한 상황에서 특히 중요하다.

    재현도(recall)는 실제 양성 샘플 중에서 모델이 양성이라고 올바르게 예측한 비율을 나타낸다. 이는 모델의 검출 능력을 평가하는 지표로, 다음과 같이 계산된다.

    r e c a l l = T P ( T P + F N )
    (3)

    여기에서 FN은 실제 양성을 음성으로 잘못 예측한 값이다. 재현도가 높다는 것은 실제 양성인 케이스들을 얼마나 잘 찾아내는지를 보여주며, 위음성(False Negative)을 최소화하는 것이 중요한 상황에서 핵심적인 지표가 된다.

    마지막으로 F1-Score는 정밀도와 재현도를 이용하여 조화 평균을 계산한 식이다. 정밀도와 재현율 두 지표가 모두 높은 값을 가질 때 높은 값을 나타내며, 정밀도와 재현율 사이의 적절한 균형을 찾을 수 있다. 다음 식은 F1-Score의 계산 식을 나타낸다(Kang and Jung, 2022).

    F 1 S c o r e = 2 × p r e s i c i o n × r e c a l l p r e s i c i o n + r e c a l l
    (4)

    정밀도와 재현도를 곱한 값에 정밀도와 재현도의 합을 나눈 값이다. F1-Score는 정밀도와 재현율 중 어느 한쪽이 극단적으로 높거나 낮은 경우를 방지하고, 두 지표 간의 균형 잡힌 성능을 평가하는 데 유용하다. F1-Score의 값은 0에서 1 사이이며, 1에 가까울수록 더 좋은 성능을 의미한다. 다음 Fig. 13은 컨퓨전 매트릭스이다. 컨퓨전 매트릭스에서 정밀도는 열방향의 비율을 계산한 값이고 재현도는 행방향 비율을 계산한 값이다.

    정밀도, 재현도, F1-Score는 다음 Table 5와 같다.

    정밀도의 평균 값은 0.969, 재현도의 평균값은 0.97, F1-Score 값은 0.969를 갖는 것으로 계산되었다. 계산결과 우수한 성능을 갖는 것으로 확인할 수 있었다. 다음 Fig. 14에서는 랜덤으로 케이스별 이미지를 선정하여, 예측 값과 실제 값을 비교하였다. 비교결과 모두 동일한 값을 가지는 것을 확인할 수 있었다.

    다음 Fig. 15는 테스트 이미지에서 분류 알고리즘이 어떠한 부분을 중심으로 특징을 도출했는지 나타내었다. 붉은색이 분류알고리즘에서 특징을 도출하는데 가장 많이 활용된 부분이고, 파란색은 분류알고리즘에서 거의 사용되지 않은 부분을 나타내었다. 분석결과에 따르면, 중심부 발포제의 홀 부분이 많이 활용된 것을 확인할 수 있었다.

    5. 결 론

    국제해사기구의 환경규제로 전 세계는 이를 만족하기 위한 다양한 연구가 추진되고 있다. 또한, 선박의 단열을 위한 발포제도 오존층보호법 개정안에 따라 ‘키칼리 개정서’를 국내에 시행하는 것으로 도입되었다. 이에, 발포제에 대해서도 지구온난화물질을 감축하기 위한 연구가 활발히 진행되고 있다. 특히, 메틸포메이트 원료는 지구온난화지수가 0으로 높은 기대를 받고 있는 원료이다. 하지만, 본 원료는 주변 온도와 순도에 따라 상이한 단열성능을 갖는다.

    이에 본 논문에서는 생산되는 메틸포메이트의 표면 이미지를 이용하여 온도와 순도의 값을 분류하는 알고리즘을 연구하였다. 우선, 이미지 학습을 위해, 메틸포메이트 발포제를 순도(94%, 99%)와 온도(25℃, 40℃)에 따라 총 4가지 케이스로 분류하였다. 두 번째로는 디지털 현미경을 이용하여 발포제의 표면 촬영을 통해, 케이스 1 2,500장, 케이스 2 2,505장, 케이스 3 2,505장, 케이스 4 2,500장으로 총 10,010장의 이미지를 확보하였다. 세 번째로는 이미지 학습을 위해, 학습용 이미지 70%(7,008장), 검증용 이미지 15%(1,500장), 테스트용 이미지 15%(1,502장)를 랜덤으로 분류하였다. 네 번째로 이를 분류알고리즘(구글넷)에서 학습을 하였고, 마지막으로 알고리즘의 정확도와 테스트 결과를 분석하였다. 분류결과 정확도 96.87%를 갖고, F1-Score 0.969를 갖는 것으로 확인할 수 있었다. 또한, 랜덤으로 케이스별 이미지를 선정하여 확인한 결과 예측 값과 실제 값이 동일한 것을 확인할 수 있었다. 이에 본 연구를 통하여 4가지 케이스에 대해서 우수한 성능을 갖는 분류알고리즘을 확보할 수 있었다.

    사 사

    본 연구는 2023년도 중소벤처기업부의 기술개발사업 지원에 의한 연구임. [RS-2023-00218277]

    Figure

    KOSOMES-31-1-164_F1.gif

    Study process of a methyl formate foaming agent classification algorithm.

    KOSOMES-31-1-164_F2.gif

    Test device configuration and 500 specimens.

    KOSOMES-31-1-164_F3.gif

    500 images of specimens.

    KOSOMES-31-1-164_F4.gif

    Image taken with a digital microscope.

    KOSOMES-31-1-164_F5.gif

    Training data information.

    KOSOMES-31-1-164_F6.gif

    Validation data information.

    KOSOMES-31-1-164_F7.gif

    GoogLeNet network.

    KOSOMES-31-1-164_F8.gif

    Input layer.

    KOSOMES-31-1-164_F9.gif

    Inception module.

    KOSOMES-31-1-164_F10.gif

    Output layer.

    KOSOMES-31-1-164_F11.gif

    Accuracy graph.

    KOSOMES-31-1-164_F12.gif

    Loss graph.

    KOSOMES-31-1-164_F13.gif

    Confusion matrix.

    KOSOMES-31-1-164_F14.gif

    Comparison of result values by test image case.

    KOSOMES-31-1-164_F15.gif

    Classification algorithm feature extraction location.

    Table

    Classification criteria for methyl formate blowing agents

    Digital microscope main specifications

    Training conditions

    Training results

    Calculation of precision, recall, and F1-score

    Reference

    1. Glorot, X. and Y. Bengio ( 2010), Understanding the Difficulty of Training Deep Feedforward Neural Networks, In Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, pp. 249-356.
    2. He, K., X. Zhang, S. Ren, and J. Sun ( 2015), Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification, In 2015 IEEE International Conference on Computer Vision (ICCV), pp. 1026-1034.
    3. IMO ( 2023a), Draft Report of the Marine Environment Protection Committee on its Eightieth Session, MEPC 80/WP.1, Marine Environment Protection Committee.
    4. IMO ( 2023b), International Maritime Organization (IMO) adopts revised strategy to reduce greenhouse gas emissions from international shipping, https://www.imo.org/en/MediaCentre/PressBriefings/pages/Revised-GHG-reduction-strategy-for-global-shipping-adopted-.aspx.
    5. Kang, B. S. and C. H. Jung ( 2022), A Study on the Development of YOLO-Based Maritime Object Detection System through Geometric Interpretation of Camera Images, Journal of the Korean Society of Marine Environment & Safety, Vol. 28, No. 4, pp. 499-506.
    6. Kang, E. ( 2022), [Top 10 News of 2022] No Fluorinated Greenhouse Gas Reduction Policy, Fortunately the 'Ozone Layer Protection Act' Passed, Kharn, https://www.kharn.kr/news/article.html?no=21025.
    7. Kim, H. S. and T. S. Ahn ( 2008), Climate Change and Civil Engineering Construction with Sustainable Concrete Technical Development, Journal of the Korean Society of Civil Engineers, Vol. 56, No. 5, pp. 68-74.
    8. Kim, J. and S. Kim ( 2020), Trends in Transition to Low GWP Refrigerants and Condenser R&D, Magazine of the SAREK, Vol. 49, No. 2, pp. 40-48.
    9. Krizhevsky, A., I. Sutskever, and G. E. Hinton ( 2012), ImageNet Classification with Deep Convolutional Neural Networks, Advances in Neural Information Processing Systems, Vol. 25.
    10. LeCun, Y., B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, and L. D. Jackel. ( 1990), Handwritten Digit Recognition with a Back-Propagation Network, In Advances in Neural Information Processing Systems 2 (D. Touretzky, ed.). San Francisco: Morgan Kaufmann.
    11. LeCun, Y., L. Bottou, Y. Bengio, and P. Haffner ( 1998), Gradient-Based Learning Applied to Document Recognition, Proceedings of the IEEE. Vol. 86, No. 11, pp. 2278-2324.
    12. Lee, S. H. ( 2014), A high flame retarding polyurethane foam using a foaming agent of methylformate and a insulator comprising the same, Korea Patent No. KR20160023050A.
    13. Murphy, K. P. ( 2012), Machine Learning: A Probabilistic Perspective, Cambridge, MA: MIT Press.
    14. Szegedy C., W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhouchke, and A. Rabinovich ( 2015), Going deeper with convolutions, In Proceeding of the IEEE conference on computer vision and pattern recognition, pp. 1-9.
    15. UMAS ( 2023), An Overview of the Discussions from IMO MEPC 80 and Frequently Asked Questions.