Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers

  1. (Interdisciplinary Graduate Program for BIT Medical Convertgence, Kangwon National University, Korea)
  2. (Dept. of Electronic Engineering and Interdisciplinary Graduate Program for BIT Medical Convergence, Kangwon National University, Korea)



Dental caries, Caries detection, CADx, Machine learning

1. 서론

치아우식증(Dental caries)은 치주질환과 더불어 우리나라 국민이 가장 많이 경험하는 대표적인 구강질환이다. 그림. 1은 2015년 국민건강통계에 따른 영구치우식 경험률이다. 나이에 상관없이 영구치우식 경험률이 평균적으로 90% 이상이고, 남자보다 여자가 평균 4% 정도 더 높은 경향을 보인다.

그림. 1. 영구치우식 경험률(2015 국민건강통계)

Fig. 1. Experience rate of dental caries in permanent teeth(2015 National Health Statistics)

../../Resources/kiee/KIEE.2019.68.2.350/fig1.png

초기 단계의 치아우식은 간단한 처치만으로도 쉽게 회복될 수 있으나, 시간이 지나고 증상이 심해질수록 복잡한 처치가 필요하고 치료비용도 증가하게 된다. 따라서 전문의에 의한 치아우식증의 정확한 조기 진단은 향후 치료 예후를 결정하는 데 중요한 역할을 한다. 치과의사는 교육과정을 통해 충분한 훈련을 거친 후 환자를 진료하게 되지만 치아우식증의 진단 과정에서 명확한 병소가 존재하는 치아우식을 제외하고는 미세하게 보이는 초기 단계에서는 개인적인 경험과 시각에 따라 판단이 달라지거나 놓치게 된다. 이에 따라 미세한 변화를 초기에 발견하고 적절한 처치를 시행함으로써 치아의 큰 손실 없이 건전한 치면을 유지할 수 있는 방법이 중요하다. 일반적으로 역학 분야에서는 WHO 우식 진단기준을 사용해왔으나 실제 임상에서 치아우식증을 진단하기에는 다소 차이를 보인다. 환자의 구강건강상태를 효과적으로 관리하기 위해 치아우식증 탐지 및 평가에 대한 세부적인 진단 기준의 필요가 제기되었다. 이에 따라 2004년 연구자들은 기존의 역학적 평가 기준에 임상적 진단 기준까지 추가하여 치아우식증에 대한 국제적인 평가 기준인 ICDAS(International Caries Detection and Assessment System)를 제시하였다.

그림. 2는 치아의 단면도이다. 치아는 크게 치관(Crown)이라 불리는 치아머리와 치근(Root)이라 불리는 치아 뿌리로 나눌 수 있다. 치관의 표면은 우리 몸에서 가장 단단하고 석회화가 잘 되어있는 법랑질(Enamel)과 치아 대부분을 차지하고 영양분을 공급하며 치수를 둘러싸고 있는 상아질(Dentin)로 구성되어있다. 치아우식은 보통 구강 내 세균 등이 원인이며 주로 법랑질과 상아질에서 발생하는데 치아 표면의 부분적인 파괴를 보이는 특징이 있다.

그림. 2. 치아의 단면도

Fig. 2. Tooth Anatomy

../../Resources/kiee/KIEE.2019.68.2.350/fig2.png

ICDAS는 시각적인 분류시스템으로 연구 분야 또는 임상 분야의 구분 없이 표준화된 기준을 바탕으로 치아우식증의 진행 상태를 탐지하고 평가할 수 있도록 개발되었다. 증상이 심한 정도에 따라 0부터 6까지 7단계로 우식증을 구분한다. 그림. 3은 ICDAS 코드에 따른 병변의 사진이다. 코드 0은 건전한 치아를 가리킨다. 코드 2부터는 시각적으로 뚜렷한 색 변화를 감지할 수 있는 병소 상태를 나타낸다. 코드 2는 치아가 젖어있는 상태에서도 코드 1보다 더 쉽게 흰색 반점을 확인할 수 있다. 코드 3, 4는 법랑질의 손상 여부와는 상관없이 우식 병소가 상아질까지 진행되어 치면 아래로 치아 내부의 어두운 변색이 감지된다. 코드5, 6은 치아 표면의 절반 이하를 포함하며 상아질이 노출된 뚜렷한 병소를 나타낸다, 코드6은 코드 5보다 병소 범위가 좀 더 광범위하게 확장되어 치아 표면의 최소 절반을 포함한 상아질 병소를 나타낸다. 2014년 ICDAS에 기반하여 International Caries Classification and Management System(ICCMS)에서 실무자와 교육자들을 위해 국제표준 가이드를 배포하였다[1,2].

그림. 3. ICDAS 코드

Fig. 3. ICDAS code

../../Resources/kiee/KIEE.2019.68.2.350/fig3.png

일반적으로 치아우식증 진단은 정확도를 높이기 위해 여러 가지 기기들이 개발되어 왔다. 치아우식 탐지의 대부분 방법들은 시각적인 요소를 기반으로 한다. 치아 조직에 따른 전기적 저항 특성을 이용한 Electronic Caries Monitor(ECM), 가시광원을 광섬유를 통해 치아에 전달하고 구강용 디지털카메라로 영상을 획득하여 컴퓨터로 보내어 실시간으로 우식을 진단하는 Digital Imaging Fiber Optic Trans Illumination(DIFOTI)방법은 가시광선이 법랑질을 통과할 때 병변에서 불투과성을 원리를 이용한다. 가시광선 영역의 푸른 빛 파장의 빛을 치아에 조사하여 빛의 산란을 이용한 방법인 Qualitative Light-induced Florescence (QLF)는 초기우식증이 있는 법랑질에서 빛이 산란하면서 형광이 소실되어 어둡게 보이는 원리를 이용하여 우식을 진단한다. DIAGNOdent는 655mm 파장의 레이저가 광섬유를 통해 치아 표면의 특정 위치에 조사되면, 해당 부위로부터 반사되는 적외선 영역의 형광을 광섬유를 통해 다시 흡수하여 그 정도에 따라 0부터 99 사이의 숫자로 나타내는 방식의 진단 장비이다. 이외에도 초음파 진단기기를 이용한 Ultrasonic Caries Detector(UCD), X-선 흡수율을 이용한 X-선 영상법이 있다[3,4].

컴퓨터 성능과 네트워크 기술이 향상되어, 컴퓨터를 이용한 진단의 실용화가 가능해졌다. 컴퓨터 보조진단(Computer-aided diagnosis, CADx) 시스템은 컴퓨터가 정량적으로 분석한 결과를 토대로 병변 부위를 표시하거나 분석 결과를 제시하여 의사가 최종 진단을 내리게 하는 데 도움을 주는 진단 시스템을 일컫는다. CADx 시스템은 서울대병원, 국립암센터 등이 개발한 마모그램영상을 이용한 유방용 CADx, 국립암센터와 한양대학교가 공동으로 진행한 갑상선 초음파사진 CADx 기술연구, 사람 뇌에서 발생한 뇌종양을 확인하기 위한 뇌 영상 CADx 연구 등 여러 의료분야에서 연구가 진행되고 있다[5]. CADx의 장점은 의사에게 참고 의견(second opinion)을 제시한다는 점과 이중 판독(double reading)의 역할을 수행하여 판독 오차를 줄일 수 있다는 장점이 있다. 이와 같은 CADx 시스템이 개발되면, 현재 의사의 육안적 인식과 판별능력의 한계로 인해 피할 수 없었던 진단의 불확실성이 상당히 개선될 수 있다.

본론에서는 CADx를 이용하여 치아우식증을 진단한 연구들에 대해 살펴보고자 한다. 컴퓨터 보조진단을 이용한 시스템은 4단계로 구분할 수 있다. 그림. 4는 치아우식 탐지의 처리 과정을 나타낸다. 먼저 영상 판독을 수월하게 하기 위한 전처리과정으로 영상 향상(Image enhancement), 다른 구조물과의 구별을 위한 치아 검출(Tooth detection), 치아우식이 의심되는 병변을 찾는 우식 검출(Caries detection), 찾은 병변으로부터 특징을 추출한 뒤 정량적으로 분석하여 치아우식을 판별하는 분류(Classification) 단계가 있다.

그림. 4. 치아우식 탐지의 처리 과정

Fig. 4. Process of dental caries detection

../../Resources/kiee/KIEE.2019.68.2.350/fig4.png

2. 치아우식증 진단 방법

2.1 영상 향상(Image Enhancement)

치아우식 탐지 및 판별에 사용되는 영상은 크게 두 가지로 분류할 수 있다. 구강용 디지털카메라를 사용하여 치아의 외관을 촬영한 영상과 X-선으로 촬영한 방사선 영상이 있다. 부식된 치아의 병변은 매우 작고 그 모양 또한 매우 다양하다. 또한, 영상 획득방법이나 촬영된 장비 등 촬영환경에 따라 영상은 차이를 보인다. 영상 전처리과정은 잡음 제거 및 화질 개선을 통해 분석정확도를 높이고 우식탐지를 위한 최적의 조건을 만든다.

치아 영상에서 대비(Contrast)를 조절하여 진단 정확도를 높일 수 있다. 밝은 부분은 더 밝게, 어두운 부분은 더 어둡게 해줌으로써 대비를 조절하면, 흐릿한 영상을 선명한 영상으로 바꾸면서 물체의 모양이나 윤곽이 더 잘 보이도록 한다[6,7]. 단순히 대비를 조절할 경우 잡음이 발생하는 등 효과가 떨어진다. 히스토그램 평활화(Histogram Equalization)를 적용하여 이 한계를 극복할 수 있다. 히스토그램 평활화를 개선한 대비제한 적응 히스토그램 평활화(Contrast Limited Adaptive Histogram Equalization, CLAHE)는 지역적 명암대비 향상 기법으로, 영상을 여러 개의 블록으로 나누어 CLAHE를 수행한다. 최근 연구들은 그레이레벨 영상에 CLAHE를 적용함으로써 이후의 이어지는 검출 단계의 성능을 향상했다[8,9,10].

모폴로지 연산을 이용한 Top-hat 변환은 대조비를 향상하는 방법 중 하나이다. Top-hat 필터는 White Top-hat필터와 Black Top-hat 필터로 나뉘는데, White Top-hat 필터는 Top-hat 필터, Black Top-hat 필터는 Bottom-hat 필터라고 한다. Top-hat 필터는 추출하고자 하는 객체보다 주변이 밝을 때 사용되며, Bottom-hat 객체 주변이 추출하고자 하는 객체보다 어두울 경우 주로 사용된다. 이는 부식된 병변을 더 강조하는 역할을 하여 이후에 이어지는 다른 기법에 능력을 향상시킨다. Top-hat은 치아우식 병변인 흰 부분을 더 강조하고 낮은 대조비를 제거한다. Bottom-hat는 특히 배경을 강조함으로써 치아와 치아우식을 돋보이도록 하는 역할을 한다[10,11]

영상의 전처리 방법에 따라 진단 정확도가 달라진다. 전처리에 따라 비교한 연구로, DIGORA Optime의 자동영상보정기술과 Oslo 대학에서 제안한 Oslo 향상법을 비교하였다. DIGORA Optime는 SOREDEX사에서 개발한 의료용 영상출력기로 밝기와 대조비를 조절하는 영상보정기술이 탑재되어있다. Oslo향상법은 샤프닝(Sharpening), 명암대비 스트레칭, 감마 보정(Gamma correction), 수직영상 왜곡 등을 적용한 향상법이다. 그림. 5는 Oslo 향상법과 DIGORA Optime 를 적용한 예이다. (a)는 원본영상, (b)는 Oslo 향상법을 적용하였고, (c-f)는 DIGORA Optime을 이용하여 사용자가 직접 영상을 개선 시켰다. 7명의 치아 방사선 전문의가 DIGORA Optime와 Oslo 향상법을 120개의 치아에 적용하여 평가하였다. 영상에 대한 평가는 1부터 5까지 우식의 진행정도에 따라 5개의 단계로 평가 되었다. 그 결과 Oslo 향상법이 더 나음을 보였다[12].

그림. 5. 영상 향상의 예 (a) 원본 영상, (b) Oslo 향상법 (c-f) DIGORA Optime[12]

Fig. 5. Image enhancement example (a) Original Image, (b) Oslo enhancement (c-f) DIGORA Optime

../../Resources/kiee/KIEE.2019.68.2.350/fig5.png

다양한 질감(Texture) 특성화 기법을 사용하여 치아우식 분류가 가능하다. 공간적인 질감 특성을 분석하는데 GLCM(Gray Level Co-occurrence Matrix)이 가장 널리 이용되고 있다. GLCM은 현재 픽셀과 그 이웃하는 픽셀의 밝깃값의 관계를 대비(Contrast), 상관관계(Correlation), 에너지(Energy), 동질성(Homogeneity) 등과 같은 질감 특징을 결정하는 통계량으로 계산하여 표현하는 것으로, 밝기를 나타낸 영상에서 정의한 변위 벡터의 거리와 방향이 일치하는 픽셀 쌍의 빈도수를 표시하는 빈도수 행렬이다. 이 행렬로부터 영상의 질감을 대표할 수 있는 다양한 2차 통계치 들을 계산할 수 있다[13].

이외에도 영상의 품질을 개선하기 위하여 잡음을 제거하거나 경계를 강조하는 방법 필터를 사용하는 방법이 있다. 메디안(Median) 필터, 위너(Wiener) 필터, 평균(Average) 필터와 같은 스무딩(Smoothing) 필터를 사용하여 잡음을 제거할 수 있으며 치아우식 병변의 경계를 강조하기 위해 샤프닝(Sharpening) 필터를 사용하기도 한다[7,9,11,14].

2.2 치아 검출(Tooth Detection)

치아우식을 탐지하기 전 치아를 개별적으로 분리하는 것이 필요하다. 구강용 디지털카메라나 Bitewing X-선 촬영을 할 때 하나의 치아만 촬영하는 것이 아니라 잇몸과 치골 또는 다른 구강구조가 촬영될 수 있다. 또한, 여러 개의 치아가 동시에 촬영되기도 하는데 정확한 우식 진단을 위해서 이러한 불필요한 부분을 제거하고 하나의 치아를 구별해내는 것이 중요하다.

Watershed 알고리즘은 원본 영상에서 기울기를 구하면 가장 높은 기울기를 갖는 픽셀은 영상의 경계가 된다. 이와 같이 Watershed는 그레이레벨의 기울기를 지형적인 의미로 보고 영상을 분석하는 방법이다[14,16].

FCM(Fuzzy C-means) 알고리즘은 찾고자 하는 물체를 세분화하거나 클러스터링하는 대표적인 방법 중 하나이다. 이 방법은 각 데이터와 각 클러스터 중심과의 거리를 고려한 유사도 측정에 기초한 목적함수를 최소화할 수 있도록 데이터 집합을 분할하는 방법이다. 그림. 6과 같이 FCM의 결과로 나온 4개의 영역은 배경영역, 치아 법랑질과 상아질, 그리고 치수를 나타낸다[17]. FCM을 이용한 또 다른 연구에서는 각 인접한 픽셀 간의 유사도를 판별하여 부식된 병변과 정상적인 치아 픽셀들 사이의 차이를 비교하여 우식을 판별한다[18]. 지도 클러스터링(Supervised clustering)을 이용한 연구에서는 1차적으로 임계값을 주어 치아와 다른 배경을 분리하고, 클러스터링과 이진화를 기법을 조금씩 변화를 주어 치아와 잇몸과 혀, 입술과 같은 다른 구강구조물을 분리함으로써 치아 영역만을 추출하였다. 이후 치아를 하나씩 개별적으로 분리하여 우식병변을 검출하는 단계까지 연구를 진행하였다[19]. K-means 알고리즘은 실행속도가 빠르고 특정한 형태의 데이터에 대해서는 매우 좋은 성능을 보여주기 때문에 많이 이용되고 있다. 이러한 특성을 이용하여 배경과 치아 영역을 분리하였다[20]. 픽셀값 간의 유사도를 측정하여 영역을 확장하여 분할하는 영역 성장법(Region growing method)이 있다. 치아를 검출하는데 영역 성장법을 이용하여 하였다[9].

그림. 6. FCM을 적용하여 얻은 4가지 영상 (a) 원본 영상 (b) 배경 영상 (c) 법랑질 (d) 상아질 (e) 치수[17]

Fig. 6. The image of a tooth and its four segments after applying FCM algorithm (a) Original image (b) Background (c) Tooth enamel (d) Dentin (e) Dental pulp

../../Resources/kiee/KIEE.2019.68.2.350/fig6.png

또 다른 치아 경계 추출 방법으로는 동적 윤곽 모델(Active contour model)이 있다. 기존의 Kass 알고리즘에 성능을 향상하기 위해 모서리 검출 알고리즘을 더하여 검출 성능 높였다. X-선 영상에서 치아는 뿌리 부분에서 날카로운 모서리를 보이는데 이러한 부분은 경계 추출 작업을 어렵게 만든다. 이 문제는 Harris 코너 탐지기 알고리즘을 사용함으로써 해결할 수 있다. Harris 코너 탐지기는 포인트들을 재구성하여 Kass 알고리즘이 경계를 더 잘 검출할 수 있도록 하였다. 동적 윤곽에서 얻은 결과와 실제 경계 간의 표준거리오차(Standard distance error)를 구함으로써 Kass 알고리즘과 제안된 알고리즘의 성능을 평가하였다. 그림. 7과 같이 3가지 영상에 대해 평가되었다. 그림. 7(a)는 기존의 Kass 방법이며 그림. 7(b)는 Harris 알고리즘을 결합하여 모서리를 정확하게 찾은 결과 영상이다. 모든 영상에 대해서 제안된 알고리즘이 표준거리오차 값이 낮음을 보였다[21].

그림. 7. 동적 윤곽모델을 이용한 치아 검출[21]

Fig. 7. Tooth detection using active contour model

../../Resources/kiee/KIEE.2019.68.2.350/fig7.png

2.3 우식 검출 및 분류(Caries Detection & Classification)

다음은 개별적으로 분리된 치아 영상을 분석하여 부식된 병변을 찾고(Caries detection) 치아우식이 맞는지 분류(Classification)를 한다. 치아우식 병변을 검출하는 방법은 원본 영상과 영상처리 알고리즘을 적용한 영상 간에 차이를 이용하거나 알고리즘을 통해 병변이 의심되는 영역을 직접 검출하는 방법이 있다. 이후 병변이라 의심되는 영역으로부터 특징을 추출한 뒤 통계적으로 분석하여 그 결과를 토대로 우식 여부를 판별한다.

FCM(Fuzzy C-means)방법을 적용한 연구는 원본 영상으로부터 배경영역, 치아 법랑질, 상아질, 그리고 치수 등의 4가지 영상을 분리하였다. 이 영상들을 비교하면 병변과 병변의 깊이를 측정할 수 있다. 정상적인 치아의 테두리는 극단적이지 않고 변형이 있더라도 부드러운 곡선을 갖는 특징이 있다. 반면에 우식이 있는 치아는 경계선에 큰 변화를 주기 때문에 경계가 거칠다. 이러한 특성을 이용하여 시스템을 구성하였으며 128개의 데이터로 시스템을 평가하였다. 법랑질 우식에 대해서는 60%, 상아질 우식에 대해서는 97% 진단 정확도를 보였다[17]. 반전(Negative) 영상과 원본 영상을 비교한 연구에서는 원본영상에 대조비를 향상한영상과 반전 영상을 비교함으로써 치아우식, 낭종과 같은 질병들을 유추하였다[6]. 치아 X-선 영상에 침식(Erosion)과 팽창(Dilation) 연산을 적용한 두 영상을 비교하면 영상에 존재하는 우식병변이나 객체의 경계가 추출된다. 이러한 방법은 X-선 영상을 판독할 때 도움을 준다[22]. 부식된 치아만 분할된 X-선 영상에서 법랑질 부식과 인접면 부식병변을 찾을 수 있다. 먼저 법랑질 부식은 X-선 영상에서 흰색으로 보이는데 이를 이용해 에나멜 충치의 히스토그램 강도 범위를 결정한다. 두 개의 치아 사이에 발견된 충치는 인접면 부식이라 한다. 침식, 팽창과 같은 기법들은 부식된 영역이 돋보일 수 있게 한다. 25개의 방사선 영상으로 히스토그램 강도의 범위를 결정하고 10개의 다른 영상으로 평가하였다[23].

우식 의심 병변 검출 후, 우식임을 판별하기 위해 전처리와 이진화를 거친 영상의 부식된 영역으로부터 Entropy, Standard Derivation, Mean, Area 4가지 특징을 통해 통계적 매개 변수를 추출하였다. 특징들의 정량적 분석을 통해 우식 진행도에 따라 낮음(Low), 중간(Medium), 높음(High) 3개 등급으로 나누어 평가하였다[11]. 이렇게 특징값만을 이용하여 단순히 분류하는 것이 아니라 SVM(Support Vector Machine), 결정 트리(Decision tree), 랜덤 포레스트(Random forest), 신경망(Neural network)과 같은 머신러닝 기법을 통해 우식인지 아닌지 판별한 연구들이 있다. 먼저 결정 트리를 이용하여 판별한 연구에서는 조기 우식증 진단에 중요한 치아 탈회를 확인하기 위해 치과 전문의 진단의 기준이 되는 Cavitation, 질감(Texture), 거칠기(Roughness), 치아 표면의 변색 및 불투명도를 이용하였다. 분할된 치아 영역 내의 7x7 서브 영상 히스토그램에서 Average intensity level, Average contrast, Mean of smoothness, Third moment, Measure of uniformity, Entropy, Magnitude of gradient와 같은 7가지 특징을 추출한 뒤 C4.5 결정 트리로 분류하였다. C4.5는 ID3 결정 트리 알고리즘의 확장으로써 가장 높은 정규화된 정보 이득을 갖는 속성을 사용하여 데이터를 클래스들로 분할하는 결정 트리를 생성한다. 치아 표면에 있는 모든 부식된 영역은 연결되지 않을 수 있으므로, 다른 충치 영역을 식별하기 위해 색상 세분화를 적용한다. 이후 각 픽셀에 대해 7가지로 이루어진 특징 벡터를 C4.5 결정 트리로 분류하여 우식과 비우식을 구별하였다. 이때 6개의 영상으로부터 얻은 40,037개의 픽셀에 대해 훈련 및 테스트를 하였다. 전체 샘플 중 38,505개 샘플은 정상, 1,532개 우식영역으로 이루어져 있다. 많은 계산량을 줄이기 위해 몇 가지 주요 특징만으로 계산하는 PCA(Principal Component Analysis)를 적용하였다. PCA를 적용하기 전 96.86%의 정확도를 보이고 PCA를 적용하면 96.62%의 정확도를 보였다[15].

HOG(Histogram of Oriented Gradient)는 영상의 지역적인 기울기(Gradient)를 해당 영상의 특징으로 사용하는 방식으로 이 특징과 SVM을 이용하여 우식병변을 분류하였다. SVM의 최적화 기법으로는 개체 군집 최적화(Particle swarm optimization)를 적용하였다. 60개의 X-선 영상으로 훈련하고 15개로 검증(Validation)을 진행하였다. 25개의 영상으로 평가하였다. 테스트 결과 92.4%의 정밀도를 가졌다[24]. 다른 연구에서는 그레이레벨 영상에 대해 Watershed 알고리즘을 적용하여 분할한 영상들이 SVM의 입력이 된다. X-선 영상은 1000x800픽셀로 6~8개의 치아를 촬영한다. 이 연구에서는 원본 영상에서 관심 영역(Region of Interest, ROI)을 60x90 크기의 직사각형 형태로 구성하여 부식된 병변 이외에 불필요한 다른 치아들을 포함하는 문제를 해결하였다. Contrast, Relativity, Mean of sum, Sum entropy, Variance of sum, Difference entropy 등 6가지를 특징으로 하여 SVM으로 분류하였다. 총 170개의 X-선 영상은 부식된 치아와 정상 치아가 같은 비율로 구성되어있다. 총 170장의 영상 중 학습에는 100장, 70장은 테스트로 사용되었다. RBF(Radial Basis Function)커널을 적용하지 않은 SVM 분류기에 대해 65.71%의 정확도를 얻었다. RBF커널을 적용하면 서포터 벡터와 반복횟수를 조절할 수 있는데 74.29%의 더 높은 정확도를 얻었다. 이는 역전파 신경망일 때 정확도 68.57%, 15년 이상 경험이 있는 치과 전문의 정확도 73.4%, 5년 정도 경험이 있는 치과 전문의의 정확도는 62.3%로 제안한 알고리즘이 더 높은 정확도를 보였다[14]. 신경망을 적용한 연구는 64x64 픽셀의 X-선 영상을 사용하고 입력층과 3개의 은닉층, 그리고 소프트맥스 분류기로 구성하였다. 전체 데이터의 1/3은 각각 우식과 비우식의 학습데이터로 사용되었으며, 나머지는 테스트에 사용되었다. 그 결과 97%의 정확도를 보였다[25]. 지도학습 벡터 양자화(Learning vector quantization)를 이용한 연구는 구강 디지털 영상과 X-선 영상 두 종류의 영상에 대해 추출한 특징들을 이용하여 신경망을 구성하였다. 지도학습 벡터 양자화를 적용하기 전 정규화한 그레이레벨의 영상으로 특징 벡터를 구성하였다. 관심 영역을 통해 우식이 의심이 되는 영역에 선을 그어 얻은 라인 데이터를 벡터 형태로 신경망의 학습에 사용하였다. 구강 디지털 영상은 30개, 방사선 영상은 90개의 벡터 데이터가 신경망의 입력에 사용되었다. 26개의 구강 디지털 영상, 23개의 방사선 영상이 학습에 사용되었으며, 160개의 구강 디지털 영상과 162개의 방사선 영상으로 테스트하였다. 그 결과 구강 디지털 영상에 대해서는 0.77의 민감도를 보였고, 방사선 영상에서는 0.81의 민감도를 보였다[26]. 다른 신경망을 이용한 연구에서는 GLCM으로부터 변형된 각각의 입력 영상에 대하여 Energy, Entropy, Contrast, Correlation, Homogeneity, Angular Second Moment, Mean, Median, Variance, Standard deviation을 추출하고 LA-PSO(Linearly Adaptive Particle Swarm Optimization)방법으로 최적화된 신경망의 입력으로 사용되었다. 제안된 알고리즘의 정확도는 99%로 다른 알고리즘인 SVM 분류기보다 역전파 신경망이 더 높은 정확도를 보였다. 역전파 알고리즘보다 손실도 더 낮고, 소요시간 또한 덜 걸리는 장점을 보였다[13].

동일한 특징이지만 머신 러닝 기법에 따라 분류 결과가 다르다. 라돈변환과 이산 코사인 변환으로 주파수 영역에서 얻은 특징들로 여러 가지 분류기를 적용하여 비교한 연구가 있다. 라돈변환은 X-선 영상의 각도에 대해 저주파 영역을 좀 더 세부적으로 나타낸다. 라돈변환을 거친 영상에 대해 이산 코사인 변환을 하여 주파수 성분으로 변환한 영상에서 PCA를 적용하였다. 이후 영상을 구성하는 주요 특징을 나이브 베이즈 분류기, 결정 트리, 랜덤 포레스트, 신경망, RBF(Radial Basis Function)망, Adaboost, SMO(Sequential Minimal Optimization), Decision Stump와 같은 8가지의 분류기로 분류하였다. 그 중 랜덤 포레스트가 86%로 가장 높은 정확도를 보였고, 나이브 베이즈 분류기와 신경망이 80%로 비교적 낮은 정확도를 보였다[8]. 다른 연구에서는 분할한 치아 영역에 대해서 Entropy, Mean, Gradient를 이용하여 76개의 특징을 추출하였다. 추출한 76개의 중 상위 12개의 특징으로 ICDAS 0, ICDAS 1~2, ICDAS 3~6 세 가지 그룹으로 나누어 평가하였다. 분류기는 결정 트리, SVM, 랜덤 포레스트, 신경망으로 분류하였으며 86.3%로 랜덤 포레스트가 가장 높은 정확도를 보였다[9]. 다른 연구에서는 관심이 있는 조기 부식 병변(pre-cavitated lesions)과 부식된 교합 병변(cavitated occlusal lesions)으로부터 k-means 알고리즘으로 검출하여 Contrast, Correlation, Energy, Homogeneity, LBP(Local Binary Patterns), Entropy, Mean intensity 등의 특징으로 총 36개의 특징을 추출하였다. 추출한 특징으로 J48, 랜덤 트리, 랜덤 포레스트, SVM, 나이브 베이즈 분류기와 같은 분류기로 분류하였다. 103개의 치아 영상 중 425개의 병변에 대해 분류한 결과 랜덤 포레스트에서 86% 정밀도, 86% 재현율의 가장 좋은 결과를 보였다[20].

추론을 통한 치아우식을 예측하는 연구에서는 퍼지 추론을 적용하여 5가지의 질병으로 나누는데, 입력은 Entropy Edge-value Intensity(EEI), Local Binary Pattern(LBP), RGB, Gradient, Patch level과 같은 특징들을 포함한다. 이 특징들을 높음, 중간, 낮음 3단계로 나누었다. 각 영상의 특징값에 따라 Cracked, Hidden, Cavities, Missing, Periodontitis 5가지 질병으로 나누었다. MSE(Mean Squared Error), MAE(Mean Absolute Error), 정확도로 다른 알고리즘과 비교하였다. 제안된 알고리즘은 MSE가 0.087, MAE, 0.087, 정확도가 91.3%로 다른 알고리즘인 PST (Prim Spaning Tree), APC(Affinity Propagation Clustering), FIS(Fuzzy Inference System), FKNN(Fuzzy K-Nearest Neighbor) 보다 더 나은 성능을 보였다[18].

최근 치아우식 진단에도 딥러닝을 적용하는 연구가 진행되고 있다. CNN(Convolution Neural Network)은 기존의 신경망에 영상을 효과적으로 학습할 수 있도록 변형된 신경망 구조이다. 대표적으로 AlexNet, GoogLeNet, VGGNet 등의 CNN 분류기가 기존의 설계된 특징 벡터를 이용하는 분류기보다 훨씬 뛰어난 성능을 보여주며 분류 및 검출 능력을 검증하였다. 딥러닝을 이용한 [27][27]에서는 100개 이상의 Fully Convolutional Neural Network 층으로 이루어진 신경망으로 학습하였다. 이때 학습하는 X-선 영상 3000장 중 5%는 검증 집합(validation set)으로 사용되었다. 시스템 성능을 평가하는 방법으로 정밀도(Precision)와 재현율(Recall)이 있는데, 어느 지표가 더 중요하다고 할 수 없다. 그래서 모두 고려한 지표로 F-Score가 있다. 제안한 시스템은 F1- Score 0.7로 다른 의사들에 비해 0.14~0.2 정도 높은 것을 확인할 수가 있다[27]. 다른 연구에서는 모든 영상을 치아가 위를 향하도록 회전을 한 뒤 다양한 크기를 가진 총 493장의 영상 중 436장은 학습에 사용하고, 57장은 제안한 시스템을 검증하는 데 사용하였다. 부족한 데이터를 늘이기 위해 원본 영상을[–10, -5, 0, 5, 10]로 회전시킨 후 회전된 영상을 좌우 반전시켜 한 장의 원본 영상에서 열 장으로 증가시켰다. 네트워크는 컨볼루션 층 3개 풀링층 3개 소프트맥스 2개 층과 활성화 함수층으로 이루어져 총 9개의 층으로 구성되어있다. 소프트 맥스의 역할은 회귀 분석기로 각 패치의 중심 픽셀이 우식일 확률과 비우식일 확률을 계산한다. 연구에서는 소프트맥스 결과에 임계값을 할당하여 임계값에 따라 우식과 비우식을 구별하였다. 임계값이 0.80일 때 F1-Score는 0.76, 0.96일 땐 0.81의 성능을 보인다[28].

네트워크를 직접 구성할 수 있지만 GoogLeNet이나 VGGNet과 같이 이미 훈련이 잘되어 검증된 모델을 적용할 수 있다. VGGNet을 이용한 연구에서는 X-선 1740장 중 1044장은 학습에 348장은 검증에 348장은 테스트에 사용되었다. 학습을 위해 사용된 1044장은 회전, 이동, Shearing을 무작위로 변화를 주어 원본 영상을 100배 증가시켜 총 104400장으로 학습을 진행하였다. 모든 영상은 원본 영상을 224x224 픽셀 크기로 변환하여 신경망에 입력으로 사용되었다. 그림. 8은 논문에서 사용한 네트워크 구조를 나타낸다. 학습에 사용된 신경망 구조는 VGG-19 모델로 16개의 컨볼루션층과 3개의 Fully connected layer로 이루어져 있으며 마지막 단에 소프트 맥스를 적용함으로써 심한 정도에 따라 건강함(Healthy tooth), 약간 손상된 치아(Moderate Periodontally Compromised Teeth), 심하게 손상된 치아(Severe Periodontally Compromised Teeth) 3단계로 나누었다. 층이 깊어짐에 따라 과적합이 발생할 수 있으므로 Dropout을 적용하였다. 적용결과 전체적인 정확도는 81%, 심각한 병변에 대해서는 82.8%로 가장 높은 정확도를 보였고, 약간 손상된 병변에 대해서는 77.3%로 가장 낮았다[29]. GoogLeNet Inception V3을 적용한 연구는 법랑질, 상아질 손상을 포함한 치아 1500장, 정상치아 1500장으로 이루어진 총 3000장의 X-선 영상을 사용하였다. 학습데이터와 검증(validation) 데이터는 2400장, 테스트는 600장으로 진행되었다. 학습에 사용된 영상은 무작위로 회전, 이동, 확대, Shearing, 상하반전으로 10배로 증가시켰다. 모든 영상은 299x299 픽셀 크기로 변환하고 치아는 모두 치근이 아래로 향하도록 회전을 시켜 동일하게 하였다. 적용결과 전체적으로 82%가 정확도를 보였고, 소구치의 경우 89% 대구치는 88%의 정확도를 보였다[30].

그림. 8. 딥러닝을 이용한 치아우식 탐지 과정[29]

Fig. 8. Process of dental caries detection using deep learning[29]

../../Resources/kiee/KIEE.2019.68.2.350/fig8.png

표 1. 치아우식 탐지방법 비교

Table 1. Comparison of Dental Caries Detection

번호

데이터수 / 타입

방법, 특징

결과

[6][6]

10장/X-ray

원본 영상과 반전 영상을 비교한 뒤 4가지 특징 추출

정확도 70%

[8][8]

54장/X-ray

라돈변환과 이산 코사인 변환적용. 이후 결정 트리, 랜덤 포레스트, 신경망, 나이브 베이즈 등 여러 분류기를 이용하여 분류함

정확도 86%

(랜덤 포레스트)

[9][9]

88장/디지털 영상

분할한 치아 영역으로부터 76개의 특징 중 상위 12개 특징만 추출하여 결정 트리, 랜덤 포레스트, 신경망 등 여러 분류기를 이용하여 분류함

민감도 86%

특이도 86%

(랜덤포레스트)

[11][11]

5장/X-ray

전처리를 통해 얻은 이미지에 4가지 특징 추출 한 뒤 3가지 등급으로 나눔

$\cdot $

[13][13]

120장/X-ray

GLCM으로부터 영상의 특징들을 추출하여 신경망의 입력으로 사용. LA-PSO로 최적화함

정확도 99.16%

[14][14]

170장/X-ray

관심 영역으로부터 6가지 특징 추출하여 SVM으로 분류함. 이후 파라미터를 수정함.

정확도 74.29%

[15][15]

6장/디지털 영상

임계값으로 분할한 영상에 대해 7가지 특징 추출. 결정 트리로 분류함

정확도 96.86%

(PCA 적용 후 96.62%)

[17][17]

128장/X-ray

FCM으로 얻은 영상들을 서로 비교하여 병변획득

정확도

법랑질 60%

상아질 97%

[18][18]

56장/X-ray

FCM을 이용하여 이미지를 분할한 뒤 5가지 특징들을 추출함. 이후 퍼지추론을 이용하여 5가지 질병을 예측함

정확도 91.3%

[20][20]

103장/X-ray

k-means 알고리즘으로 분할한 영역에 대해 36개 특징을 추출하여 여러 분류기로 분류함

정확도 86.3%

(랜덤 포레스트)

[23][23

35장/X-ray

모폴로지 기법을 적용하여 얻은 영상에 대해 임계값을 결정하여 병변획득

$\cdot $

[24][24]

100장/X-ray

HOG을 특징으로 하여 모델 SVM으로 분류함. PSO를 적용하여 최적화함

정밀도 92.4%

[25][25]

6장/X-ray

신경망으로 학습하여 정상/비정상을 분류함

정확도 97%

[26][26]

26장/디지털 영상

지도학습 벡터 양자화를 통해 영상을 벡터 형태로 신경망의 입력으로 사용함

민감도 77%

특이도 85%

23장/X-ray

민감도 81%

특이도 93%

[27][27]

3000장/X-ray

100층 이상의 깊은 FCNN으로 이미지를 학습함. 사각형 형태로 병변을 표시함

F1-Score 0.7

[28][28]

493장/X-ray

8층의 FCNN으로 정상/비정상 이미지를 학습함

F1-Score 0.81

[29][29]

1740장/X-ray

VGGNet으로 학습함. 심한 정도에 따라 3단계로 등급을 나눔

정확도 81%

[30][30]

3000장/X-ray

GoogLeNet으로 학습함

정확도 82%

3. 결 론

컴퓨터 성능과 네트워크 기술이 향상됨에 따라 컴퓨터를 이용한 진단의 실용화가 가능해졌으며 피부암, 유방암, 폐암 등 다양한 의료분야에서 적용되고 있다. 치아우식 진단에서 사용하는 컴퓨터 보조진단은 영상 전처리, 치아검출, 우식검출 및 분류단계로 나눌 수 있다. 전처리 단계에서는 영상을 명암, 대조, 잡음 등을 제거하는 것을 목적으로 히스토그램 평활화 같은 기법들이 사용되었다. 탐지 단계에서 치아우식 병변이 의심되는 영역을 검출하기 위해 사용한 여러 가지 영상분할 기법을 통해 두 가지 효과를 가져왔다. 첫째 잇몸, 혀와 같은 다른 치아구조물과의 분리하였다. 둘째 2개 이상의 치아가 동시 촬영된 영상에 대해 치아를 개별적으로 분리하였다. 분류단계에서는 우식이 의심되는 영역으로부터 Entropy, Standard Deviation, Variance와 같은 특징을 추출하여 신경망, SVM, 결정 트리, 랜덤 포레스트와 같은 머신러닝 기법을 통해 시스템이 찾은 영역이 우식 병변인지 아닌지 판단하고 평가하였다.

최근에는 다양한 분야에서 딥러닝 기반 연구가 활발해지고 있다. 국내에서도 딥러닝에 주목하는 만큼 컴퓨터 보조진단에 관한 몇몇 연구 사례도 보인다. 현재 대부분의 딥러닝 기반 연구 사례는 데이터를 가공하지 않는다. 데이터 수도 중요하지만 질 좋은 데이터를 확보하는 것도 중요한 문제이다. 이러한 문제는 영상처리 기법을 결합하여 질 좋은 데이터로 가공한다면 더 좋은 성능을 보일 것이다.

감사의 글

This work was supported by the National Research Foundation of Korea(NRF) grant funded by the Korea government(MSIT) (No. 2017R1E1A1A03070297). This research was supported by the MSIT(Ministry of Science and ICT), Korea, under the ITRC(Information Technology Research Center) support program(IITP-2018-0-01433) supervised by the IITP(Institute for Information & communications Technology Promotion).

References

1 
Kim Hee Eun, 2014, Review Article : Review on International Caries Detection and Assessment System, Journal of Korean Society of Dental Hygiene, Vol. 14, pp. 609-615Google Search
2 
Pitts N. B., Izmail A. I., Martignon S., Ekstrand K., Douglas G., Longbottom C., 2014, ICCMS™ guide for practitioners and educators, London: King’s College LondonGoogle Search
3 
Price J. B., 2013, A review of dental caries detection technologies, Academy of General dentistry, Program Approval for Continuing EducationGoogle Search
4 
Pretty I. A., 2006, Caries detection and diagnosis: novel technologies, Journal of dentistry, Vol. 34, No. , pp. 727-739DOI
5 
Seo Jeong Gwon, Kim Yeong Jae, Kim Gwang Gi, 2017. 08, Computer-Aided Diagnosis technology and AI, The Korean Institute of Electrical Engineers, Vol. 66, pp. 26-32Google Search
6 
Jatti A., Joshi R., 2017, Characterization of dental pathologies using digital panoramic X-ray images based on texture analysis, in Engineering in Medicine and Biology Society (EMBC), 2017 39th Annual International Conference of the IEEE, pp. 592-595DOI
7 
Bhan A., Goyal A., Chauhan N., Wang C. W., 2016, Feature Line Profile Based Automatic Detection of Dental Caries in Bitewing Radiography, in Micro- Electronics and Telecommunication Engineering (ICMETE), 2016 International Conference on, pp. 635-640DOI
8 
Singh P., Sehgal P., 2017, Automated caries detection based on Radon transformation and DCT, in Computing, Communication and Networking Technologies (ICCCNT), 2017 8th International Conference on, pp. 1-6DOI
9 
Ghaedi L., Gottlieb R., Sarrett D. C., Ismail A., Belle A., Najarian K., et al. , 2014, An automated dental caries detection and scoring system for optical images of tooth occlusal surface, in Engineering in Medicine and Biology Society (EMBC), 2014 36th Annual International Conference of the IEEE, pp. 1925-1928DOI
10 
Georgieva V. M., Mihaylova A. D., Petrov P. P., 2017, An application of dental X-ray image enhancement, in Advanced Technologies, Systems and Services in Telecommunications (TELSIKS), 2017 13th International Conference on, pp. 447-450DOI
11 
Bhan A., Vyas G., Mishra S., Pandey P., 2016, Detection and Grading Severity of Caries in Dental X-ray Images, in Micro-Electronics and Telecommunication Engineering (ICMETE), 2016 International Conference on, pp. 375-378DOI
12 
Møystad A., Svanaes D., Van Der Stelt P., Grondahl H., Wenzel A., Van Ginkel F., et al. , 2003, Comparison of standard and task-specific enhancement of Digora® storage phosphor images for approximal caries diagnosis, Dentomaxillofacial Radiology, Vol. 32, pp. 390-396DOI
13 
Sornam M., Prabhakaran M., 2017, A new linear adaptive swarm intelligence approach using back propagation neural network for dental caries classification, in 2017 IEEE International Conference on Power, Control, Signals and Instrumentation Engineering (ICPCSI), pp. 2698-2703DOI
14 
Kuang W., Ye W., 2008, A kernel-modified SVM based computer-aided diagnosis system in initial caries, in Second International Symposium on Intelligent Information Technology Application, pp. 207-211DOI
15 
Olsen G. F., Brilliant S. S., Primeaux D., Najarian K., 2009, An image-processing enabled dental caries detection system, in Complex Medical Engineering, 2009. CME. ICME International Conference on, pp. 1-8DOI
16 
Bampis C. G., Koutsouri G. D., Berdouses E., Tripoliti E. E., Iliopoulou D., Koutsouris D., et al. , 2014, Occlusal caries detection using random walker algorithm: A graph approach, in Engineering in Medicine and Biology Society (EMBC), 2014 36th Annual International Conference of the IEEE, pp. 1929-1932DOI
17 
Valizadeh S., Goodini M., Ehsani S., Mohseni H., Azimi F., Bakhshandeh H., 2015, Designing of a computer software for detection of approximal caries in posterior teeth, Iranian Journal of Radiology, Vol. 12DOI
18 
Tran M. T., Nguyen H. M., Nguyen V. T., Tran T. N., To H. N., 2016, Medical diagnosis from dental X-ray images: A novel approach using Clustering combined with Fuzzy Rule-based systems, in Fuzzy Information Processing Society (NAFIPS), 2016 Annual Conference of the North American, pp. 1-6DOI
19 
Datta S., Chaki N., 2015, Detection of dental caries lesion at early stage based on image analysis technique, in Computer Graphics, Vision and Information Security (CGVIS), 2015 IEEE International Conference on, pp. 89-93DOI
20 
Berdouses E. D., Koutsouri G. D., Tripoliti E. E., Matsopoulos G. K., Oulis C. J., Fotiadis D. I., 2015, A computer- aided automated methodology for the detection and classification of occlusal caries from photographic color images, Computers in biology and medicine, Vol. 62, pp. 119-135DOI
21 
Niroshika U., Meegama R., Fernando T., 2013, Active contour model to extract boundaries of teeth in dental X-ray images, in Computer Science & Education (ICCSE), 2013 8th International Conference on, pp. 396-401DOI
22 
Naam J., Harlan J., Madenda S., Wibowo E. P., 2016, Identification of the Proximal Caries of Dental X-Ray Image with Multiple Morphology Gradient Method, International Journal on Advanced Science, Engineering and Information Technology, Vol. 6, No. , pp. 345-348DOI
23 
Tikhe S. V., Naik A. M., Bhide S. D., Saravanan T., Kaliyamurthie K., 2016, Algorithm to identify enamel caries and interproximal caries using dental digital radiographs, in Advanced Computing (IACC), 2016 IEEE 6th International Conference on, pp. 225-228DOI
24 
ALbahbah A. A., El-Bakry H. M., Abd-Elgahany S., 2016, A New Optimized Approach for Detection of Caries in Panoramic Images, International Journal of Computer Engineering and Information Technology, Vol. 8, pp. 166Google Search
25 
Ali R. B., Ejbali R., Zaied M., 2016, Detection and classification of dental caries in x-ray images using deep neural networks, in Int. Conf. on Software Engineering Advances (ICSEA), pp. 236Google Search
26 
Kositbowornchai S., Siriteptawee S., Plermkamon S., Bureerat S., Chetchotsak D., 2006, An artificial neural network for detection of simulated dental caries, International Journal of Computer Assisted Radiology and Surgery, Vol. 1, pp. 91-96DOI
27 
Srivastava M. M., Kumar P., Pradhan L., Varadarajan S., 2017, Detection of Tooth caries in Bitewing Radiographs using Deep Learning, arXiv preprint arXiv:1711.07312Google Search
28 
C. Joonhyang, E. Hyunjun, K. Changick, 2015, Proximal Dental Caries Detection Using Convolutional Neural Network, pp. 374-377Google Search
29 
Lee J. H., Kim D. h., Jeong S. N., Choi S. H., 2018, Diagnosis and prediction of periodontally compromised teeth using a deep learning-based convolutional neural network algorithm, Journal of periodontal & implant science, Vol. 48, No. , pp. 114-123DOI
30 
Lee J. H., Kim D. H., Jeong S. N., Choi S. H., 2018, Detection and diagnosis of dental caries using a deep learning-based convolutional neural network algorithm, Journal of dentistryDOI

저자소개

김 대 한 (Dae-han Kim)
../../Resources/kiee/KIEE.2019.68.2.350/au1.png

1992년 06월 26일생

2017년도 강원대학교 전자공학전공 졸업

2017년~현재 강원대학교 BIT 의료융합학 석사과정

E-mail : daehan@kangwon.ac.kr

조 현 종 (Hyun-chong Cho)
../../Resources/kiee/KIEE.2019.68.2.350/au2.png

2009년 미국 플로리다 대학교 전기컴퓨터공학과 졸업 (석사, 박사)

2013년~현재 강원대학교 IT대학 전자공학과 및 BIT 의료융합학 조교수