Current Issue

Journal of the Society of Naval Architects of Korea - Vol. 58 , No. 3

[ Original Article ]
Journal of the Society of Naval Architects of Korea - Vol. 58, No. 2, pp.105-111
ISSN: 1225-1143 (Print) 2287-7355 (Online)
Print publication date 20 Apr 2021
Received 29 Feb 2020 Revised 15 Jan 2021 Accepted 22 Jan 2021
DOI: https://doi.org/10.3744/SNAK.2021.58.2.105

딥러닝 기술을 이용한 캐비테이션 자동인식에 대한 연구
지바한 ; 안병권
충남대학교 선박해양공학과

A Study on Autonomous Cavitation Image Recognition Using Deep Learning Technology
Bahan Ji ; Byoung-Kwon Ahn
Department of Naval Architecture and Ocean Engineering, Chungnam National University
Correspondence to : Byoung-Kwon Ahn, bkahn@cnu.ac.kr


This is an Open-Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License(http://creativecommons.org/licenses/by-nc/3.0) which permits unrestricted non-commercial use, distribution, and reproduction in any medium, provided the original work is properly cited.
Funding Information ▼

Abstract

The main source of underwater radiated noise of ships is cavitation generated by propeller blades. After the Cavitation Inception Speed (CIS), noise level at all frequencies increases severely. In determining the CIS, it is based on the results observed with the naked eye during the model test, however accuracy and consistency of CIS values are becoming practical issues. This study was carried out with the aim of developing a technology that can automatically recognize cavitation images using deep learning technique based on a Convolutional Neural Network (CNN). Model tests on a three-dimensional hydrofoil were conducted at a cavitation tunnel, and tip vortex cavitation was strictly observed using a high-speed camera to obtain analysis data. The results show that this technique can be used to quantitatively evaluate not only the CIS, but also the amount and rate of cavitation from recorded images.


Keywords: Tip Vortex Cavitation (TVC), Cavitation Inception Speed (CIS), Convolution Neural Network (CNN), Deep learning, Image recognition
키워드: 날개 끝 보텍스 캐비테이션, 캐비테이션 초생속력, 합성곱 신경망, 딥러닝, 영상인식

1. 서 론

프로펠러에서 발생하는 캐비테이션은 선박의 주된 소음원으로 함정의 경우 자함의 위치를 노출시키고 소나 탐지능력을 저하시키는 등 생존성에 위협을 초래한다. 특히 캐비테이션이 발생하는 시점을 기준으로 전체 주파수 영역의 소음수준이 증가하기 때문에, 신조되는 함정의 경우 캐비테이션 초생속력(CIS, Cavitation Inception Speed)에 대한 기준을 설정하고 실선 계측 시 발생하는 소음의 음향신호를 계측함과 동시에 관찰창을 통한 시각적 계측으로 기준 충족여부를 평가하고 있다. 그러나 CIS에 대한 음향학적 정의와 시각적 정의가 일치하지 않고, 모형시험 및 실선계측 기관별 CIS 판정법이 상이하여 충족여부에 대한 논란이 야기되어 왔다. 2020년 개정된 함정설계 및 건조 기준에 따르면 프로펠러에서 캐비테이션이 시각적으로 최초 발생하는 속력을 VCIS(Visual Cavitation Inception Speed)로 정의하고 모형시험과 실선시험 시 캐비테이션의 최초 발생 시점을 판정하는 측정 기준으로 정의하고 있다. 대형 캐비테이션터널에서의 모형시험은 실선 프로펠러의 성능요구조건에 대한 충족 여부를 사전에 판단할 수 있는 최선의 방법이며, 현재 우리나라는 삼성중공업 조선해양연구소 (SSMB, 1999), 선박해양플랜트연구소 (KRISO, 2009), 대우조선해양 R&D센터 (DSME, 2020)가 세계적 규모의 시설과 최고 수준의 모형시험 기술을 확보하고 있다. 프로펠러의 성능은 모형선이 설치된 대형 터널에서 다양한 종류의 캐비테이션 발생 유무 및 거동 특성을 관측하고 그 결과를 바탕으로 실선에서의 캐비테이션 초생속력을 추정하고 있다. 프로펠러에서 발생하는 캐비테이션의 종류는 크게 공기방울형(bubble), 얇은층(sheet), 구름형(cloud), 날개 끝 보텍스(tip vortex), 허브 보텍스(hub vortex) 캐비테이션으로 구분되며, 각각의 캐비테이션은 함형과 프로펠러 형상 및 운용조건에 따라 단독 또는 동시다발적으로 발생하며 소음을 유발한다(Song et al., 2000; Lee et al., 2011). 모형시험의 경우 일반적으로 날개 끝 보텍스 캐비테이션(TVC)이 가장 늦게 발생하지만, 실선의 경우 유체동력학적 상사 원리에 따라 TVC가 먼저 발생하기 때문에 SSTV(Suction Side Tip Vortex)와 PSTV(Pressure Side Tip Vortex)는 CIS를 결정짓는 중요한 역할을 한다. 그러나 모형시험 과정에서 실선과의 유체동력학적 상사를 완벽하게 구현하기 불가능하기 때문에 경험식 (McCormick, 1962)을 사용하여 실선으로 확장해서 예측하고 있다. 현재 국내·외 대형 캐비테이션터널을 보유한 기술 선진국에서는 표준절차에 따라 모형시험을 수행하고 있으나, VCIS를 평가함에 있어 관측자의 육안판정에 의존하고 있어 판정 결과에 대한 정확성과 일관성에 대한 문제가 제기되고 있으며, 모형선과 실선 상관관계의 정확한 비교를 위해서는 기계적 방법에 의한 VCIS를 정량적으로 평가할 수 있는 기술개발이 필요한 실정이다.

본 연구는 날개 끝 보텍스 캐비테이션 최초 발생 시점의 판단과 정량적 평가기술 개발을 목표로, 3차원 수중익을 대상으로 캐비테이션터널 모형시험을 통해 TVC의 발생 과정을 초고속 카메라를 사용하여 엄밀하게 관측하고, 합성곱 신경망(CNN, Convolution Neural Network)과 딥러닝 기술을 이용하여 캐비테이션의 발생량과 속도를 정량적으로 평가할 수 있는 기술을 개발하였다. VCIS의 정량적 평가 절차와 알고리즘은 3단계의 핵심적인 기술로 구성되어 있다. 1단계: 초고속 카메라로 촬영된 TVC 영상정보를 비색분석법(colorimetric analysis)을 사용하여 물-공동 상 경계면을 정확하게 구분한다. 2단계: CNN 기반 딥러닝(Deep learning) 기술을 적용하여 최소 5,000 fps 이상으로 촬영된 고속 영상자료로부터 TVC를 분류(classification)→탐지(detection)→분할(segmentation)하는 과정을 거친다. 3단계: 개별 이미지 분석결과를 통합하여 TVC를 정량적으로 축출하고 지정된 초생 기준을 적용하여 VCIS를 정량적으로 평가한다.


2. 실험 장치

모형시험은 충남대학교 캐비테이션터널에서 수행하였다. 터널 시험부의 크기는 100 mm x 100 mm x 1,400 mm (H x B x L)이며, 시험부에서의 최고 유속은 20 m/s이다. 본 캐비테이션 터널은 가압 및 감압 장치를 사용하여 터널 내부의 압력을 최소 10 kPa에서 최대 300 kPa까지 조절 가능하며, 자동 제어 시스템을 갖추고 있다. 시험 모형은 NACA16-020 단면을 갖는 3차원 수중익을 대상으로 수행하였다. 스펜(span) 길이는 60 mm이며, 코드(chord) 길이는 80 mm로 종횡비 1.5인 수중익을 대상으로 모형시험을 수행하였다. 시험 조건별 캐비테이션의 발생 특성은 초고속 카메라(FASTCAM-UX100 800,000fps)를 사용하여 기록 및 분석하였다(Fig. 1 참조).


Fig. 1 
Experimental test setup


3. 합성곱 신경망과 딥러닝
3.1 U-Net 기반 합성곱 신경망

합성곱 신경망(CNN)은 사람의 시신경과 인지방식을 모방하여 만든 알고리즘으로 딥러닝을 이용한 영상처리에 가장 많이 사용되고 있는 기술이다. CNN은 고양이가 보는 형상 마다 자극을 받는 뇌의 위치가 다른 것을 보고 아이디어를 얻어 발명된 기술로, 이는 물체 전체를 보는 것이 아니라 부분을 보며 학습하는 것이 핵심이다. CNN은 입력받는 이미지에 대한 부분특징(feature)을 추출하기 위한 필터가 존재하고, 이 필터를 가지고 합성곱(convolution) 단계와 풀링(Pooling) 단계를 반복해서 진행한다. 위의 단계들을 반복 후 fully connected 단계로 이어지게 되고 이는 일반적인 심층신경망(Deep Neural Network, DNN)과 이어진다. 이러한 딥러닝 과정을 모두 마치면 원하는 결과값이 도출되게 된다. 본 연구에서는 U-net(Ronneberger et al., 2015)을 기반으로 만들어진 CNN 모델을 사용하였다. U-net은 생물학 분야에서 이미지 분할(image segmentation)을 목적으로 만들어진 모델로 이미지 처리 성능이 우수하여 다양한 영상처리 분야에서 사용되고 있다 (Kwon et al., 2018; Choi and Ha, 2019; Kim et al., 2020). 본 기법은 kernel(filer)이 U자로 구성되어있어 U-net으로 명명되었으며, 정확한 위치추적(localization)을 위하여 네트워크가 대칭 형태로 구성되어 있는 것이 특징이다. U-net은 Fig. 2처럼 고차원의 이미지를 저차원으로 바꿔주는 contracting path와 반대로 저차원에서 고차원의 이미지로 바꿔주는 expanding path의 대칭 형태로 구성되어 있다. Contracting path에서는 3×3의 합성곱을 2번 수행하고, 활성화 함수는 ReLU 함수를 사용하며 2×2개의 max pooling과 Stride 2를 사용하였다. Down-sampling이 될 때마다 채널은 2배가 되며 expanding path에서는 3x3 합성곱을 두 차례씩 패딩(Padding) 없이 반복한다. 또한 up-convolution 단계에서는 up-sampling 마다 채널의 수를 반으로 줄여주는 특징을 가진다. 활성화 함수는 convolution과 마찬가지로 ReLU 함수를 사용했다. Up-Convolution된 특징 맵(feature map)은 Contracting path의 테두리가 Cropped 특징 맵과 결합되며, 마지막 레이어는 1x1 Convolution과 Sigmoid 함수를 사용하여 학습을 진행하였다. 위와 같은 구성으로 총 23-Layers Fully Convolutional Networks 구조를 만들었다. 학습에 필요한 트레이닝 데이터는 초고속 카메라를 영상자료를 통해 구축하였고, 캐비테이션이 나타날 수 있는 영역을 정해서 고정된 크기의 영상을 신경망의 입력으로 사용하였다. 트레이닝 데이터를 만들기 위해 캐비테이션이 생기는 관심 영역을 다듬어(croping)주고, 차영상 기법(image subtraction)을 사용하여 데이터를 구축하였다. 차영상 기법은 배경 프레임과 실시간 변하는 특정 물체의 프레임 픽셀의 RGB, 밝기, 수치 차이를 이용하여 원하는 이미지를 얻을 수 있어 다양한 영상처리 및 응용 분야에 이용되고 있다(Alamgir et al., 2020). 식 (1)을 보면, imgB는 배경 프레임 imgC는 캐비티가 있는 이미지 프레임을 의미한다. 식 (1)과 같이 배경 프레임에서 캐비티 프레임의 픽셀 값을 차연산 후 절대 값을 취해 imgCav를 얻는다. 이후 이진화 작업을 통하여 캐비티는 픽셀 값 255인 흰색, 나머지는 픽셀 값 0인 흑색으로 변환하여 준다(Fig. 3). 학습에 필요한 학습데이터는 1,000개 의 데이터셋(data set)으로 구성하였다. 이때의 Batch_size는 8로 8개의 데이터를 한 번에 학습시키고, Epoch은 200 즉, 1000개의 데이터를 200번 반복 학습시켰다. 또한 Learning Rate는 0.02로 설정하여 최적화를 하였다. Epoch 값이 200에 가까워짐에 따라 Fig. 4와 같이 학습에 필요한 트레이닝 이미지(ground truth)와 컴퓨터가 예측한 정답 값(predicted mask)의 차이(mask loss)(식 (2))가 점점 0에 수렴하며 학습이 진행되고 있는 것을 확인할 수 있다.


Fig. 2 
CNN model based on U-net (Ronneberger et al., 2015)


Fig. 3 
TVC image subtraction and binary image


Fig. 4 
Mask loss of training and validation process

imgcav= imgB - imgC(1) 
fLoss=1mi=1mHxi-yi2(2) 
3.2 딥러닝을 통한 캐비테이션 이미지 학습

도출된 결과의 정확성은 정밀도(precision)와 재현율(recall) 그리고 정확도(accuracy) 값으로 평가한다. 먼저 정밀도와 재현율을 도출하기 위해서는 Table 1과 같이 정의되는 TP, FP, FN, TN이 필요하다. 여기서 True Positive(TP)는 실제 True인 정답을 True라고 예측(정답), False Positive(FP)는 실제 False인 정답을 True라고 예측(오답), False Negative(FN)는 실제 True인 정답을 False라고 예측(오답), True Negative(TN)는 실제 False인 정답을 False라고 예측(정답)의 결과이다. 여기서, 정밀도(Pre), 재현율(Rec) 및 정확도(Acc)는 각각 식 (3), (4), (5)와 같이 정의하였으며, 이를 이용하여 적용 모델의 성능을 평가하였다.

Table 1 
Evaluation indicator of classification performance
Observation (Actual class) 
Condition Positive Condition Negative 
Test outcome positive TP (True Positive) FP (False Positive)
Test outcome negative FN (False Negative) TN (True Negative)

Pre=TPTP+FP(3) 
Rec=TPTP+FN(4) 
Acc=TP+TNTP+TN+FP+FN(5) 

Table 2는 차영상 기법을 통해 구축된 정답과 비교한 학습 결과로써 성능이 우수함을 확인하였다. Fig. 5는 특정 조건에서 최초로 발생하는 TVC에 대한 학습 후 컴퓨터가 제안한 정답(캐비테이션 인식결과) 이미지를 보여주고 있다. 이미지의 출력은 640×256 픽셀, 8bit 이미지로 출력된다.

Table 2 
Result of performance
Precision Recall Accuracy
94.25% 90.28% 99.88%


Fig. 5 
Cavitation recognition (top: original image, bottom: segmented image)


4. 캐비테이션의 자동인식과 VCIS 평가

앞서 설명한 딥러닝 과정을 적용하여 다양한 시험조건(받음각 및 캐비테이션수 변화)에서 발생하는 TVC를 5,000 fps의 초고속 영상으로 기록하였고, 이를 자동인식하도록 하였다. Fig. 6은 받음각 12°, σ = 2.45인 조건에서 0.0014초 동안 발생하는 7장의 연속된 원본 이미지(좌)를 이진화 과정을 거쳐 자동 인식한 결과(우)에 대한 예시이다. Fig. 7은 전체 계측 시간동안(0.4초) 발생한 캐비테이션을 자동인식하고 공동면적(cavity area)을 계산한 결과이다. 이진화된 영상 이미지는 0(물)과 1(공동)로 표시되며 공동이 차지하는 픽셀을 공동면적으로 계산한다. 여기서 공동의 실제 면적은 공동 이미지의 한 픽셀(pixel) 당 실제 크기에 대한 교정값, 즉 날개의 특성 길이인 코드 길이 당 차지하는 픽셀의 크기를 기준으로 계산하였다. σ = 2.45는 캐비테이션이 최초로 발생하는 조건으로 최초 발생하는 공동의 최소 크기는 4.6 mm2이며 최대 크기는 52.2 mm2로 0.4초 동안 캐비테이션이 3회 발생했다는 것을 알 수 있다.


Fig. 6 
Cavitation image recognition (AoA=12°, σ = 2.45)


Fig. 7 
Cavitation inception rate and estimated area (AoA=12°, σ = 2.45)

Fig. 8은 받음각 12°, σ = 2.12인 조건으로 TVC의 초고속 영상 이미지의 자동인식 결과이다. σ = 2.45 조건인 Fig. 7과 비교하여 공동의 발생량이 증가한 것을 확인할 수 있으며, 앞서 설명한 동일한 방법과 과정을 거쳐 계산된 공동의 발생 빈도와 면적을 Fig. 9에 나타내었다. 공동의 최대 면적은 76.1 mm2이며, 0.4초 동안 8회의 캐비테이션이 발생하였다.


Fig. 8 
Cavitation image recognition (AoA=12°, σ = 2.12)


Fig. 9 
Cavitation inception rate and estimated area (AoA=12°, σ = 2.12)

Fig. 1011은 상대적으로 낮은 받음각 조건인 10°에서 동일한 유속 조건인 σ = 2.12 조건에서 발생하는 공동의 자동인식 결과로 발생한 공동의 최대 면적은 55.2 mm2, 0.4초 동안 약 23회 발생하였다.


Fig. 10 
Cavitation image recognition (AoA=10°, σ = 2.12)


Fig. 11 
Cavitation inception rate and estimated area (AoA=10°, σ = 2.12)

Fig. 12는 받음각 15° 조건에서 발생하는 TVC의 발생 빈도, 면적 및 평균면적(검은색 점선)을 함께 도시하였다. 이를 통해 캐비테이션의 최초로 발생하는 속력과 발생 패턴 및 발생량을 정량적으로 평가할 수 있음을 알 수 있다.


Fig. 12 
Cavitation inception rate and estimated area (AoA=15°)

Fig. 13은 받음각 12°에서 σ = 2.45부터 σ = 1.60까지 서로 다른 4개의 속도 조건에서 0.4초 동안 발생하는 TVC와 자동인식 결과로 공동면적이 가장 크게 감지된 순간의 이미지를 보여준다. 캐비테이션수가 감소할수록 즉 유속이 빨라질수록 캐비테이션의 발생 양이 증가하는 것을 볼 수 있다. Fig. 14는 각각의 유속 조건에서 자동 인식하여 계산된 공동면적의 분포를 보여준다. 범례에 캐비테이션수에 해당하는 유속을 함께 표시하였으며, 이를 통해 19노트부터 22노트까지 발생하는 공동의 최소, 최대 면적과 발생 빈도를 정량적으로 평가할 수 있다.


Fig. 13 
Instantaneous maximum cavity at different flow conditions


Fig. 14 
Cavity area and inception rate at different flow conditions (AoA=12°)

위 결과를 기준으로 전체 계측 시간동안 발생한 총 캐비테이션의 면적을 기준면적(비공동 상태의 물의 면적)과의 비율인 공동 면적율 (CAF, cavity area fraction)을 다음 식 (6)과 같이 정의하여 평가하였다(Fig. 15). 이를 통해 캐비테이션이 시각적으로 최초 발생하는 속력(VCIS)은 19.2노트로 이때 공동 면적율은 0.017%임을 알 수 있으며, 속도가 증가함에 따라 발생하는 캐비테이션의 발생량 특성을 파악할 수 있다.


Fig. 15 
Cavity area fraction and VCIS

CAF=AveragedCavityAreaUnitArea×100(6) 

5. 결 론

함정 프로펠러에서는 캐비테이션이 발생하는 속력(CIS)을 기준으로 전체 주파수 영역의 소음수준이 증가하기 때문에 CIS를 기준으로 수중스텔스와 직결된 함정의 특수성능이 결정되며, 모든 신조 함정은 대형 캐비테이션터널에서의 모형시험을 통해 실선 성능을 예측하여 평가하고 있다. 본 연구는 VCIS를 평가함에 있어 기존 관측자의 육안판정 방법을 대체하여 기계적인 방법에 의한 정량적 평가기술 개발을 목표로 하였다. U-net 기반의 CNN 기술과 딥러닝 기술을 적용하여 캐비테이션을 자동인식하고 발생량을 정량적으로 계산할 수 있는 기술을 개발하였다. 3차원 수중익을 대상으로 캐비테이션터널 모형시험을 수행하였으며, 획득된 초고속 영상 이미지를 사용하여 다양한 운용 조건에서 발생하는 캐비테이션, 특히 날개 끝 보텍스 캐비테이션의 최초 발생 속력뿐만 아니라 발생 빈도와 발생량을 정량적으로 평가할 수 있음을 보였다. 본 기술은 VCIS의 성능 결정과 평가 기준이 되는 국내 대형 캐비테이션터널 모형시험에 직접 적용이 가능하도록 모형시험 시설과 관측 환경의 특수성을 고려하여 개발되었으며 이에 대한 실용화 연구와 함께 3차원 영상인식 기술로 확장할 계획이다.


Acknowledgments

이 성과는 해군본부 및 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원(No.2019R1A2C1084306)을 받아 수행된 연구임.


References
1. Choi, K.H. & Ha, J.E., 2019. Edge detection based-on U-Net using edge classification CNN. Journal of Institute of Control, Robotics and Systems, 25(8), pp.684-689.
2. Kim, S.M., Sohn, J.M. & Kim, D.S., 2020. A method for concrete crack detection using U-Net based image inpainting technique. Journal of the Korea Society of Computer and Information, 25(10), pp.35-42.
3. Kwon, S.Y., Kim, Y.J. & Kim, G.G., 2018. An automatic breast mass segmentation based on deep learning on mammogram. Journal of Korea Multimedia Society, 21(12), pp.1363-1369.
4. Lee, P.H., Ahn, B.K., Lee, C.S & Lee, J.H., 2011. An experimental study on noise characteristics of propeller cavitation inception. Journal of the Society of Naval Architects of Korea, 48(1) pp.1-7.
5. McCormick, B. W. Jr., 1962. On cavitation produced by a vortex trailing from a lifting surface. Journal of Basic Engineering, 84(3), pp.369-378.
6. Md. Alamgir Hossain. et al., 2020. Performance evaluation of background subtraction based moving object detection. KIISE Transactions on Computing Practices, 26(10), pp.442-450.
7. Ronneberger, O., Fischer, P., & Brox, T., 2015. U-net: Convolutional networks for biomedical image segmentation. International Conference on Medical Image Computing and Computer-Assisted Intervention, Germany, Springer, pp.234-241.
8. Song, I.H., Ahn, J.W., Kim, K.S & Moon, I.S., 2000. Characteristics of cavitation noise on high-speed propellers. Journal of the Society of Naval Architects of Korea, 37(2), pp.22-29.

지 바 한

안 병 권