• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Applied Bioengineering, Graduate School of Convergence Science and Technology, Seoul National University, Seoul, Korea.)
  2. (Dept. of Oral and Maxillofacial Radiology, Seoul National University Dental Hospital, Seoul, Korea.)
  3. (Dept. of Oral and Maxillofacial Radiology, School of Dentistry and Dental Research Institute, Seoul National University, Seoul, Korea.)
  4. (School of Electrical and Electronic Engineering, Hongik University, Korea.)



Deep learning, Computer-aided diagnosis (CAD), Periodontitis, Radiographic bone loss, Dental panoramic radiograph, Multi-device study

1. 서 론

치주염은 인류가 앓고 있는 가장 흔한 질병 중 하나이며, 세계에서 6번째로 유병률이 높은 질병이다. 치조골의 소실은 치주염의 주요 증상 중 하나로 치아 상실, 무치악, 저작기능 장애를 유발한다(1). 1989년 치주염의 병인 및 치료에 관한 연구의 기준을 제공하기 위해 치주염에 대한 분류체계의 필요성으로 1993년에 간단한 분류 기준이 제정되었다(2). 이후 새롭게 규명된 과학적, 임상적 근거에 따라 치주염의 분류체계가 지속해서 개정되고 있다(3). 2017년에는 the World Workshop on the Classification of Periodontal and Peri-Implant Diseases and Conditions에서 치주염의 심각도, 복잡성 및 추가 요인에 따라 4단계로 구분되는 새로운 치주염 분류 기준이 제안되었다(4).

일반적으로 clinical attachment loss (CAL)은 치주 탐침을 이용하여 치주 건강을 평가한다. 그러나 이 방법은 신뢰성 측면에서 한계가 있어 방사선 영상에서 측정하는 radiographic bone loss(RBL)로 치주 건강을 평가할 수 있다(4). 기존의 Computer-Aided Diagnosis(CAD) 시스템은 다양한 환경에서 촬영된 의료영상에서 중요한 특징을 추출하여 임상의가 의사결정하는 과정에 도움을 줄 수 있다(5). 그러나 기존의 CAD 접근법은 질병 패턴의 다양성으로 인해 특징 추출이 쉽지 않고 많은 시간이 소요되는 등의 한계가 있다(6). 하지만, 머신 러닝의 하위 집합인 딥러닝을 기반으로 하는 최근 방법은 학습을 통해 영상에서 주요 특징을 자동으로 추출할 수 있다는 장점이 있다(7). 딥러닝 방법 중의 하나인 CNN(Convolutional Neural Network)은 의료영상에서 장기나 관련 질병을 분할(8), 분류(9) 및 탐지(10)하는데 가장 일반적으로 사용되는 방법이다.

구강악안면 분야에서 CNN과 통합된 CAD 접근법은 두부계측영상(cephalogram)의 랜드마크 검출(11), 치아 검출 및 분류(12,13), 충치 진단(14), 상악동염 검출(15). 등 다양하고 복잡한 임상 진단에 널리 사용되고 있다. 이러한 방법을 통해 얻은 결과에 치과 전문의가 2차 소견을 추가하여 더욱 정확하고 신속한 진단 결과를 제공할 수 있다. 최근들어, 치과 파노라마 영상에서 CNN을 이용해 RBL을 검출하는 연구들도 진행되었다(16,17).

우리는 이전 연구에서 치과 파노라마 방사선 영상에서 개별 치아의 치주염을 자동으로 분류하는 딥러닝 하이브리드 프레임워크를 개발했다(19). 그러나 기존의 방법은 상실 치아의 위치를 감지하고 정량화할 수 없었기 때문에 4단계 치주염을 진단할 수 없었다. 또한 이 방법은 단일 장비에서 획득한 영상만 사용하므로 다른 센터나 벤더에서 수집한 영상에 이 방법을 직접 적용하면 CNN의 검출 정확도가 저하될 수 있는 문제가 있다(18).

이러한 한계를 극복하기 위해 본 연구에서는 치과 파노라마 영상에서 Periodontal Bone Level(PBL), Cemento-Enamel Junction Level(CEJL) 및 치아를 검출하는 CNN을 개발하여, 검출된 치아의 장축과 PBL, CEJL의 교차점으로 RBL을 결정한다. 또한 상실 치아를 자동을 검출하는 CNN을 추가로 개발하여 상실 치아 수와 RBL에 따른 치주염 4단계 분류를 적용하였다. 임상의가 내린 진단 결과와 개발한 방법으로 얻은 결과 간의 차이를 비교하여 개발한 방법의 성능을 평가하였고, 추가적으로 개발된 프레임워크의 일반성 문제를 해결하기 위하여, 다양한 장치에서 획득한 치과 파노라마 영상에 대한 학습 및 성능평가를 수행했다.

2. 재료 및 방법

그림 1은 RBL을 측정하고 치주염 단계를 결정하기 위한 딥러닝 기반 CAD 방법의 전체 과정을 보여준다.

RBL은 PBL, CEJL 및 치아를 검출하고 치아의 장축과 PBL, CEJL의 교차점을 이용하여 RBL을 계산하고 치주염 단계를 결정한다. PBL은 치아를 지지해주는 치조골의 높이를 뜻하며, 치주염 진행에 따라 치조골 소실이 일어나 치아가 노출되는 정도가 커진다. CEJL은 치아의 enamel부분과 cementum 부분이 만나는 라인으로 cervical line이라고도 한다. 본 연구에 사용된 모든 파노라마 방사선 영상은 환자를 식별할 수 있는 모든 정보를 제거한 후 후행적으로 수집하였다. 본 연구는 서울대학교 치과병원(ERI18001) 의 IRB(Institutional Review Board)에서 승인되었다. 데이터 수집 및 모든 실험은 관련 지침 및 규정에 따라 수행했다.

2.1 데이터 전처리

그림. 1. 치과 파노라마 영상에서 딥러닝 기반 CAD를 이용한 방사선학적 골 손실 및 치주염 단계 진단 방법 개발의 전반적인 과정

Fig. 1. Overall process for a developed deep learning-based computer-aided diagnosis (CAD) method for radiographic bone loss and periodontitis stage on dental panoramic radiographs.

../../Resources/kiee/KIEE.2021.70.12.1891/fig1.png

각 환자의 파노라마 영상은 다중 장치 연구를 위해 3가지 치과용 파노라마 엑스레이 장치로 획득했다. Orthopantomograph OP 100(Instumentarium Corporation, Tuusula, Finland)을 사용하여 410장의 파노라마 영상을 획득했고, PaX-i3D Smart(Vatech, Seoul, Korea)와 Point3D Combi(PointNix, Seoul, Korea)를 사용하여 각각 60장의 파노라마 영상을 획득했다. 유치열 또는 혼합 치열 환자의 영상를 제외한 총 530장의 파노라마 영상이 CNN 학습과 테스트를 위한 데이터 셋으로 수집되었다. 자세한 설명은 표 1에 요약되어 있다.

전체 데이터 셋 중 500장은 CNN 모델 학습에 사용했으며, 테스트 셋 30장은 최종 학습된 모델을 평가하는 데 사용했다. Horizontally flip, rotation, translation and contrast-normalization data augmentation 방법을 사용하여 데이터 셋의 수를 원본에 비해 64배 늘렸다. 학습 효율성을 높이기 위해 영상의 해상도를 원래 크기에서 1024 × 1024 픽셀로 수정했다.

표 1. 환자 파노라마 영상 획득에 사용되는 X선 장비에 대한 설명

Table 1. The descriptions of the dental panoramic X-ray machines used for collecting the patient’s dental panoramic radiographs.

Vendors

Modalities

Number of images

Image size (pixels)

Field of view (cm)

Instumentarium Corp.

Orthopantomograph OP 100

410

1,976 x 976

30 x 15

Vatech

PaX-i3D Smart

60

2,752 x 1,372

20.20 x 10.5

PointNix

Point3D Combi

60

2,000 x 1,152

31.25 x 10

2.2 PBL, CEJL 구조 및 치아 검출

PBL과 CEJL 검출을 위해 이전 연구(19)와 같은 방법으로 파노라마 영상에서 labeling을 진행했다. PBL은 턱 전체 영역에서 하나의 간단한 구조물로 labeling 했으며, CEJL은 상악과 하악을 나눠서 치아/임플란트의 crown 영역이 포함되는 구조물로 labeling 했다. 또한, 치아 검출 학습을 위해 상악과 하악 전체영역에서 치아와 임플란트를 각각 하나의 구조물로 labeling 했다. 모든 labeling 과정은 오픈 소스 소프트웨어인 LabelBox (Labelbox Inc, CA)를 사용했다. 추가적으로 labeling의 정확성을 높이기 위해 영상치의학과 전문의가 CNN모델 학습전에 labeling된 영상을 검토하고 수정했다.

PBL, CEJL 및 치아/임플란트를 검출하기 위해 객체 탐지와 각각의 픽셀의 카테고리를 분류하는 semantic segmentation에 효과적인 딥러닝 모델인 Mask R-CNN(20)을 사용했고, 세가지 데이터 셋을 구성하여 다중 장치 연구를 수행했다. Mask R-CNN은 Keras 및 TensorFlow 라이브러리와 함께 Python을 사용하여 구현했다.

학습된 딥러닝 모델은 입력된 파노라마 영상으로부터 자동으로 해부학적 구조물의 분할 마스크를 생성하여 분할된 영역과 나머지 영역의 이진화 영상을 출력했다. 이진화 영상에서 가장자리를 추출하여 검출 결과를 파노라마 영상에 표시하였다.

PBL, CEJL 및 치아/임플란트의 검출 성능을 평가하기 위해 실제 정답(𝑆𝑔𝑡)과 검출된 영역(𝑆𝑑𝑒𝑡) 사이의 dice similarity coefficient (DSC) (2|𝑆𝑔𝑡∩𝑆𝑑𝑒𝑡|/(|𝑆𝑔𝑡|+|𝑆𝑑𝑒𝑡|)) (27,28)를 계산했다.

2.3 상실 치아 검출

파노라마 영상에서 상실 치아 영역을 검출하기 위해 YOLO Mark(22)라는 labeling 소프트웨어를 사용하여 상실 치아 위치 영역을 사각형 형태로 labling 했다. labeling의 정확성을 높이기 위해 영상치의학과 전문의의 검토 후 CNN 학습을 진행하였다.

상실 치아를 검출하기 위한 CNN은 YOLOv4 (22) 딥러닝 모델에서 수정된 CNNv4-tiny를 토대로 개발했다. 로지스틱 회귀를 통해 영역을 검출하고, 클래스 및 신뢰도를 예측했다(24). CNN은 320 × 320, 416 × 416, 608 × 608 픽셀로 구성된 서로 다른 스케일의 영상을 사용하여 학습함으로써, 더 작은 영역의 위치를 검출할 수 있었다. CNN은 64 배치 크기와 1-stride 또는 2-stride 크기로 총 2,000 epoch를 학습했고, 학습된 네트워크는 입력된 파노라마 영상에서 검출한 영역과 신뢰도(확률)를 출력했다.

상실 치아의 검출의 정확도를 평가하기 위해, precision (TP/(FP + TP)), recall (TP/(FN + TP)), F1-score (2 × precision × recall / (precision + recall)) 및 평균 average precision(AP) 값을 계산했다(29,30). AP 값은 모든 recall 값에 대한 precision의 평균값으로 계산했다.

2.4 치주염 단계 분류

자동으로 치주염 단계를 분류하는 방법은 이전 연구(19)에서 사용한 방법을 동일하게 사용했다. 치아/임플란트 영역 관성 모멘트의 principal axis을 계산하고, 최소 관성 모멘트에 대한 단축 방향으로 치아/임플란트의 장축 방향을 정의했다(24,25). 그런 다음 CNN에서 감지한 PBL, CEJL 및 치아/임플란트 장축에 대한 두 개의 교차점을 사용하여 치아의 PBL과 CEJL의 intersection 길이를 계산했다.

치아/임플란트에 대한 RBL의 백분율 비율은 PBL과 CEJL의 intersection 길이의 비율로 정의했다. 2017 World Workshop(26)의 기준에 따라 치아의 치주골 소실률을 자동으로 분류하여 치주염의 단계를 결정했다. 치아의 RBL에 따른 치주염의 단계 구분 기준은 다음과 같다. (1) RBL이 15% 미만이면 치주염 1기, (2) RBL이 15%~33%이면 2기, (3) RBL이 > 33%이면 3기, (4) 3기와 동일한 조건에서 손실 치아와 임플란트의 수의 합이 4개 이상이면 4단계로 분류하였다(26).

치주염 단계 구분의 성능을 평가하기 위해 개발된 방법으로 자동 결정된 결과와 영상치의학과 전문의 3인(경력 3년의 레지던트, 5년의 펠로우, 10년 경력의 교수)이 진단한 결과 사이의 Mean absolute difference (MAD) ($\sum_{i=1}^{n}| x -\ovl{x}| /n$; $x$: 측정값, $\ovl{x}$: 평균값, $n$: 데이터 수)를 평가했다. 이때, 치조골 소실은 단일 치아에서 독립적으로 발생하지 않기 때문에 각 영상의 모든 치아에 대한 치주염 단계 결과를 평균하여 평가하였다.

3. 결 과

그림 2는 Mask R-CNN을 이용하여 치과파노라마 영상에서 PBL, CEJL 및 치아/임플란트의 검출 결과이다. 그림 2a-c에서 빨간색 라인으로 검출된 부분이 PBL이며, 그림 2d-f에서 노란색 라인으로 검출된 부분이 CEJL이다. 그림 2g-i에서 초록색 라인으로 검출된 부분이 치아 및 임플란트이다. Mask R-CNN을 이용하여, 3가지 장치의 데이터 셋으로부터 획득한 PBL 검출의 DSC 값은 각각 0.95, 0.96 그리고 0.97이었다(표 2). CEJL 검출의 경우 각각 0.92, 0.91, 0.92이었고, 치아/임플란트 검출의 경우 각각 0.96, 0.95, 0.91이었다(표 2).

표 2. Mask-RCNN을 통해 다중 장치에서 얻은 치과 파노라마 영상에서 PBL, CEJL, 치아/임플란트 검출 DSC값

Table 2. Dice similarity coefficient (DSC) values for detection performance of the periodontal bone level (PBL), the cemento-enamel junction level (CEJL), and the teeth/implants by the Mask-RCNN for the multi-device images.

PBL

CEJL

Teeth/Implants

Device1

0.95±0.01

0.92±0.03

0.96±0.02

Device2

0.96±0.04

0.91±0.10

0.95±0.01

Device3

0.97±0.01

0.92±0.10

0.91±0.01

Total

0.96±0.01

0.92±0.08

0.94±0.03

그림. 2. Mask R-CNN을 이용하여 치과 파노라마 영상에서 PBL(a-c), CEJL(d-f), 치아/임플란트(g-i) 검출 결과. 첫 번째, 두 번째 및 세 번째 행은 각각 장치 1, 장치 2 및 장치 3으로 획득한 영상이다.

Fig. 2. Detection results for the periodontal bone level (PBL) (a-c), the cemento-enamel junction level (CEJL) (d-f), and the teeth/implants (g-i) by the Mask R-CNN. The first, second, and third rows are images from the device 1, device 2, and device 3, respectively.

../../Resources/kiee/KIEE.2021.70.12.1891/fig2.png

그림. 3. CNNv4-tiny을 통해 여러 장치에서 획득한 파노라마 영상에서 상실 치아 영역 검출 결과. 첫 번째, 두 번째 및 세 번째 행은 각각 장치 1, 장치 2 및 장치 3으로 획득한 영상이다.

Fig. 3. The detection results for the missing teeth by the CNNv4-tiny using dental panoramic radiographs acquired from multiple devices. The first, second, and third rows are the images from the device 1, device 2, and device 3, respectively.

../../Resources/kiee/KIEE.2021.70.12.1891/fig3.png

그림 3은 CNNv4-tiny 모델을 통해 여러 기기를 통해 획득한 치과 파노라마 영상에서 상실 치아를 검출한 결과이다. 분홍색 사각형으로 상실 치아 영역을 표시했다. (그림 3a,d), (그림 3b,e) 및 (그림 3c, f)는 각각장치 1, 장치 2 및 장치 3에서 획득한 영상이다. 상실 치아 검출의 precision 값은 0.88이었으며, recall 값은 0.85, F1-score는 0.87, 평균 AP 값은 0.86이었다.

그림 4는 파노라마 영상에서 치주염 단계 구분의 결과를 보여준다. 그림 4g, h, i는 상실된 치아와 임플란트의 수가 모두 5개 이상이기 때문에 4기 치주염으로 분류된 치아 영상을 보여준다. 10년, 5년, 3년 경력의 영상치의학과 전문의가 전체 치아에 대해서 진단한 결과와 자동 치주염 단계 구분 결과 사이의 MAD 값은 각각 0.26, 0.31, 0.35였다 (표 3). 본 연구에서 개발한 방법으로 자동 치주염 단계 구분 결과와 전문의 진단 결과 사이의 전체 MAD 값은 0.31이었다. 또한, 다중 장치 연구를 위한 3가지 장치의 데이터 셋으로 부터 획득한 MAD 값은 각각 0.25, 0.34, 0.35였다(표 3).

표 3. 본 연구에서 개발한 방법에 의한 치주염 단계 진단 결과와 방사선 전문의 (10년, 5년, 3년 경력)가 진단한 결과간의 MAD 값

Table 3. The mean absolute differences (MADs) between periodontitis stages obtained using the automatic method and those diagnosed by the radiologists (with ten-years, five-years, and three-years of experience) using the multi- device images.

Maxilla

Mandible

Whole jaw

Device1

Rad. - 10yrs

0.23±0.19

0.19±0.12

0.21±0.12

Rad. - 5yrs

0.26±0.17

0.25±0.13

0.25±0.11

Rad. - 3yrs

0.29±0.10

0.21±0.11

0.25±0.07

Mean

0.27±0.45

0.23±0.43

0.25±0.44

Device2

Rad. - 10yrs

0.26±0.13

0.31±0.16

0.30±0.13

Rad. - 5yrs

0.33±0.19

0.26±0.11

0.38±0.20

Rad. - 3yrs

0.39±0.15

0.49±0.24

0.37±0.14

Mean

0.33±0.13

0.35±0.13

0.34±0.10

Device3

Rad. - 10yrs

0.34±0.13

0.25±0.11

0.28±0.13

Rad. - 5yrs

0.44±0.21

0.31±0.19

0.29±0.15

Rad. - 3yrs

0.35±0.15

0.42±0.27

0.45±0.25

Mean

0.37±0.14

0.33±0.16

0.35±0.09

Overall

Rad. - 10yrs

0.27±0.16

0.25±0.14

0.26±0.14

Rad. - 5yrs

0.34±0.20

0.27±0.14

0.31±0.18

Rad. - 3yrs

0.34±0.14

0.37±0.24

0.35±0.19

Mean

0.32±0.17

0.30±0.19

0.31±0.18

4. 토 의

2017년, 미국 치주학회(American Academy of Periodontology)와 유럽 치주학회(European Federation of Periodontology)에서 치주염을 진단하고 분류하는 새로운 기준이 정립되었다(28). 치주염의 정도는 주로 CAL을 측정하여 결정하거나 CAL 측정이 불가할 경우 RBL을 측정하여 결정한다(28). 일반적으로 RBL 측정은 치과 파노라마 영상이나 intra-oral 영상에서 이루어지는데, 모든 치아의 RBL을 수동으로 측정하는 과정은 시간이 많이 소요되며 진단의 효율성을 떨어뜨린다. 따라서 파노라마 영상에서 더욱 빠르고 정확하게 RBL을 평가하는 자동적 방법은 치주염 단계 분류 진단에 필수적이다.

그림. 4. 본 연구에서 개발된 방법으로 여러 장치에서 획득한 파노라마 영상에서 치아/임플란트 치주염 단계 자동 진단 결과. 첫 번째, 두 번째 및 세 번째 행은 각각 장치 1, 장치 2 및 장치 3으로 획득한 영상이다.

Fig. 4. The stages of the periodontitis for each tooth and implant on the dental panoramic radiographs acquired from multiple devices. The automatic diagnosis results by the developed method on the images. The first, second, and third rows are the images from the device 1, device 2, and device 3, respectively

../../Resources/kiee/KIEE.2021.70.12.1891/fig4.png

본 연구에서는 2017 World Workshop(28)에서 제안한 기준에 맞춰, 치과 파노라마 영상에서 자동으로 치주염 단계를 분류하는 방법을 최초로 개발했다. 딥러닝을 이용해 파노라마 영상에서 PBL, CEJL 및 치아/임플란트를 자동으로 검출하고, 상실 치아를 정량화하여 치주염 단계를 4단계까지 분류하도록 했다. 딥러닝 아키텍쳐가 파노라마 영상에서 해부학적 구조물의 특징을 잘 학습하도록 구성하여, PBL, CEJL, 치아/임플란트의 정확도 높은 검출 결과를 얻었고, 이를 바탕으로 자동 치주염 단계 분류 역시, 치과 전문의 진단 결과와 높은 일치율을 보였다. 또한, 딥러닝 모델의 일반성 문제를 해결하기 위해 다중 장치에서 얻은 파노라마 영상을 추가로 학습시켜, 다양한 장치의 영상에도 적용할 수 있도록 추가 학습 연구를 진행했다. 그 결과, 추가 장치로 획득한 파노라마 영상에서도 PBL, CEJL 및 치아/임플란트 검출율이 높게 나왔으며, 치주염 단계 분류 역시 치과 전문의 진단과 일치율이 높게 나왔다.

치주염 단계를 분류하는 기준으로 치주염의 중증도와 복잡성을 평가한다(4). 여기서 치주염의 중증도는 주로 치근 길이와 치주골 손실의 정도를 기준으로 평가하고, 복잡성은 치은

의 포켓 깊이, 치주골 손실, 저작 기능 장애 등 다양한 요인으로 평가한다(4). 이번 연구에서는 치주염의 중증도 요인만을 고려하여 치주염 단계를 분류하였다. 향후 연구에서는 중증도와 복잡성 요인을 모두 고려하여 치주염의 단계를 진단할 수 있도록 개선해야 한다. 또한, 추가적인 다른 장치에서 획득한 영상을 이용한 후속 연구도 진행할 예정이다.

5. 결 론

우리는 이번 연구에서 딥러닝을 이용하여 자동으로 치과 파노라마 영상에서 치주염 단계를 분류하는 방법을 개발했고, 개발한 방법과 치과 전문의의 진단 결과 사이의 높은 일치율을 확인했다. 따라서, 이 방법은 치과 전문의가 파노라마 영상을 모니터링하고 진단할 때 더욱 빠르고 정확한 치주염 진단을 내릴 수 있도록 도움을 줄 수 있다.

Acknowledgements

This work was supported by the National Research Foundation of Korea (NRF) Grant funded by the Korea government (MSIT) (No. 2019R1A2C2008365), and by the Korea Medical Device Development Fund Grant funded by the Korea government (the Ministry of Science and ICT, the Ministry of Trade, Industry and Energy, the Ministry of Health & Welfare, the Ministry of Food and Drug Safety) (No. 1711138289,KMDF_PR_20200901_0147, 1711137883, KMDF_PR_20200901_0011).

References

1 
M.S. Tonetti, Impact of the global burden of periodontal diseases on health, nutrition and wellbeing of mankind: A call for global action, Journal of Clinical Periodontology, Vol. 44, No. 5, pp. 456-462Google Search
2 
G.C. Armitage, 1999, Development of a classification system for periodontal diseases and conditions. Annals Periodontology, Vol. 4, No. 1, pp. 1-6DOI
3 
J.G. Caton, 2018, A new classification scheme for periodontal and peri-implant diseases and conditions - Introduction and key changes from the 1999 classification, Journal of Periodontology, Vol. 89, pp. s1-S8DOI
4 
M.S. Tonetti, 2018, Kornman Staging and grading of periodontitis: Framework and proposal of a new classification and case definition, Journal of Clinical Periodontology, Vol. 45, No. 20, pp. s149-S161DOI
5 
H.P. Chan, 2020, Computer-aided diagnosis in the era of deep learning, Medical Physics, Vol. 47, No. 5, pp. E218-E227DOI
6 
O. Kwon, 2020, Automatic diagnosis for cysts and tumors of both jaws on panoramic radiographs using a deep convolution neural network, Dentomaxillofacial Radiology, 20200185, Vol. 49, No. 8DOI
7 
R. Yamashita, 2018, Convolutional neural networks: an overview and application in radiology, Insights Imaging, Vol. 9, No. 4, pp. 611-629DOI
8 
M. Kallenberg, 2016, Unsupervised Deep Learning Applied to Breast Density Segmentation and Mammographic Risk Scoring, IEEE Transactions on Medical Imaging, Vol. 35, No. 5, pp. 1322-1331DOI
9 
A. Esteva, 2017, Dermatologist-level classification of skin cancer with deep neural networks, Nature, Vol. 542, No. 7639, pp. 115-118DOI
10 
A.Y. Hannun, 2019, Cardiologist-level arrhythmia detection and classification in ambulatory electrocardiograms using a deep neural network, Nature Medicine, Vol. 25, No. 3, pp. 65-69DOI
11 
H. Lee, M. Park, J. Kim, 2017, Cephalometric landmark detection in dental x-ray images using convolutional neural networks, Proceedings of the Medical Imaging 2017: Computer-aided Diagnosis, 10134: 101341WDOI
12 
O.P. Ronneberger, 2015, Dental X-ray image segmentation using a U-shaped Deep Convolutional network, Proceedings of the International Symposium on Biomedical ImagingGoogle Search
13 
Y. Miki, 2017, Classification of teeth in cone-beam CT using deep convolutional neural network, Computers in Biology and Medicine, Vol. 80, pp. 24-29DOI
14 
T. Hiraiwa, 2019, A deep-learning artificial intelligence system for assessment of root morphology of the mandibular first molar on panoramic radiography, Dentomaxillofacial Radiology, 20180218, Vol. 48, No. 3DOI
15 
M. Murata, 2018, Deep-learning classification using convolutional neural network for evaluation of maxillary sinusitis on panoramic radiography, Oral Radiology, Vol. 35, pp. 301-307DOI
16 
J. Krois, 2019, Deep Learning for the Radiographic Detection of periodontal Bone Loss, Scientific Reports, Vol. 9, No. 1, pp. 8495DOI
17 
J. Kim, 2019, DeNTNet: Deep Neural Transfer Network for the detection of periodontal bone loss using panoramic dental radiographs, Scientific Reports, 17615, Vol. 9, No. 1DOI
18 
C. Chen, 2020, Improving the Generalizability of Convolutional Neural Network-Based Segmentation on CMR Images, Frontiers in Cardiovascular Medicine, Vol. 7, pp. 105DOI
19 
H.J. Chang, 2020, Deep Learning Hybrid Method to Automatically Diagnose Periodontal Bone Loss and Stage Periodontitis, Scientific Reports, Vol. 10, No. 1, pp. 7531DOI
20 
K.M. He, 2020, Mask R-CNN, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 42, No. 2, pp. 386-397Google Search
21 
J. Redmon, 2016, You only look once: Unified, real-time object detection, Proceedings of the IEEE Conference on Computer Vision and Pattern RecognitionGoogle Search
22 
A. Bochkovskiy, 2020, YOLOv4: Optimal Speed and Accuracy of Object Detection, arXiv preprint arXiv:.10934Google Search
23 
T.-Y. Lin, 2017, Feature pyramid networks for object detection, Proceedings of the IEEE Conference on Computer Vision and Pattern RecognitionGoogle Search
24 
W.J. Yi, 2007, Comparison of trabecular bone anisotropies based on fractal dimensions and mean intercept length determined by principal axes of inertia, Medical & Biological Engineering & Computing, Vol. 45, No. 4, pp. 357-364DOI
25 
W.J. Yi, Oral Medicine, Direct measurement of trabecular bone anisotropy using directional fractal dimension and principal axes of inertia, Oral Surgery, Oral Medicine, Oral Pathology and Oral Radiology, Vol. 104, No. 1, pp. 110-116DOI
26 
M.S. Tonetti, 2018, Staging and grading of periodontitis: Framework and proposal of a new classification and case definition, Journal of Periodontology, Vol. 89, pp. s159-S172DOI
27 
M. Polak, 2009, An evaluation metric for image segmentation of multiple objects, Image and Vision Computing, Vol. 27, No. 8, pp. 1223-1227DOI
28 
M. Seyedhosseini, 2016, Semantic Image Segmentation with Contextual Hierarchical Models, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 38, No. 5, pp. 951-964DOI
29 
C. Szegedy, 2013, Deep neural networks for object detection, Proceedings of the Advances in Neural Information Processing SystemsGoogle Search
30 
R. Girshick, 2014, Rich feature hierarchies for accurate object detection and semantic segmentation, Proceedings of the IEEE Conference on Computer Vision and Pattern RecognitionGoogle Search
31 
R.E. Persson, 2003, Comparison between panoramic and intraoral radiographs for the assessment of alveolar bone levels in a periodontal maintenance population, Journal of Clinical Periodontology, Vol. 30, No. 9, pp. 833-839DOI

저자소개

이상정(Sang-Jeong Lee)
../../Resources/kiee/KIEE.2021.70.12.1891/au1.png

He received B.S. degree in biomdeical engineering from Kyunghee University, Seoul, Korea, in 2013, and Ph.D. degree in department of biomedical radiation sciences, Seoul National University, Seoul, Korea, in 2021.

He has been working as an principal researcher in LG Electronics, Seoul, Korea.

강세룡(Se-Ryong Kang)
../../Resources/kiee/KIEE.2021.70.12.1891/au2.png

He received B.S. degree in biomedical engineering from Kyunghee University, Seoul, Korea, in 2012.

He has been studying as Ph.D student in department of biomnedical radiation sciences, graduate school of convergence science and technology, Seoul National University, Seoul, Korea.

양수(Su Yang)

Dept. of Applied Bioengineering, Graduate School of Convergence Science and Technology, Seoul National University, Seoul, Korea.

최민혁(Min-Hyuk Choi)

Dept. of Applied Bioengineering, Graduate School of Convergence Science and Technology, Seoul National University, Seoul, Korea.

김조은(Jo-Eun Kim)

Dept. of Oral and Maxillofacial Radiology, Seoul National University Dental Hospital, Seoul, Korea.

허경회(Kyung-Hoe Huh)

Dept. of Oral and Maxillofacial Radiology, School of Dentistry and Dental Research Institute, Seoul National University, Seoul, Korea.

이삼선(Sam-Sun Lee)

Dept. of Oral and Maxillofacial Radiology, School of Dentistry and Dental Research Institute, Seoul National University, Seoul, Korea.

허민석(Min-Suk Heo)

Dept. of Oral and Maxillofacial Radiology, School of Dentistry and Dental Research Institute, Seoul National University, Seoul, Korea.

이원진(Won-Jin Yi)
../../Resources/kiee/KIEE.2021.70.12.1891/au9.png

He received B.S., M.S., and Ph.D. degrees in electrical engineering from Seoul National University, Seoul, Korea, in 1994, 1997, and 2001, respectively.

He is currently a professor with the Department of Oral and Maxillofacial Radiology, School of Dentistry and Dental Research Institute, Seoul National University, Seoul, Korea.