• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Electronics Engineering, Seokyeong University, Korea)
  2. (Dept. of Electronics Engineering, Seokyeong University, Korea)



Surface defects detection, Data augmentation, Convolution neural network, Deep learning

1. 서론

머신 비전에 의한 산업용 부품의 결함 검사가 다양화되고 확장되면서(1), 전통적인 특징점 기반의 접근과 함께 기계학습 및 딥러닝 방법의 접근이 늘어나고 있다(2-4). 그러나 산업체의 특성상 결함 데이터 부족이 항상 문제가 되고 있으며, 이를 보완하는 측면에서 소량의 데이터를 가지고 인위적으로 학습 데이터를 재생성하여 확장하는 방법이 사용되고 있다.

데이터 확장(augmentation) 방법은 크게 기하적 변환과 태스크 기반(task-specific 또는 guided) 확장으로 나뉜다(5). 기하적 변환은 크기조절, 반전, 자르기, 회전, 이동, 윈도우 분할 등이 있다. 태스크 기반 확장은 데이터를 합성 시 분류에 대한 척도를 고려하여 학습을 수행한다. 물체 인식에 대해서 자르기(crop)와 반전(flip)만을 사용하여 다양한 CNN 네트워크에 대해서 성능 비교를 한 연구가 있다(6). 자르기와 색 조절은 학습 데이터 확장에, 크기 변환과 다각도관점 변환은 테스트 데이터 확장에 사용하여 성능 향상을 보인 논문도 있다(7). 이외에 기하적 변환 외에 GAN(8)을 이용한 태스크 기반의 데이터 확장도 시도되고 있다(9). 이들 모두가 물체 인식 분야에서의 데이터 확장 문제들로서, 물체와 특성이 다른 표면 결함에 대해서는 아직 분석이 미비한 편이다.

표면 결함의 종류는 스크래치(scratch), 찍힘(stamped), 짙은 얼룩(stain) 등이 존재한다. 이들 결함에 따라서 적용 가능한 데이터 확장 방법이 다를 수 있으며, 효과도 상이할 수 있다. 즉, 물체 인식과 결함 인식의 차이가 존재하므로, 대상 문제에 따른 데이터 확장 방법도 유효성이 다를 수 있다. 지금까지 이에 대한 분석이나 체계적인 접근이 시도되지 않고 있다.

본 연구에서는 다양한 표면 결함에 대해서 기하적 변환 외에 작은 결함의 특성에 영향을 끼치는 밝기조절을 추가하여 여러 CNN 네트워크 구조 변화에 대해서 실험한다. 이를 토대로 메탈 케이스의 표면 결함에 대해서 이미지 데이터 확장 방법에 따른 CNN 학습 및 분류 성능의 변화 실험을 수행하고 분석한다.

2. 딥러닝 기반 결함 검출 기법

2.1 결함 검출과 딥러닝

산업용 부품 등에서 표면 결함의 종류는 찍힘, 스크래치, 짙은 얼룩 등을 포함한다. 표면이 균일하지 않거나 매끄럽지 않은 경우, 표면 배경과 결함의 구별이 매우 어렵다. 그림. 1은 관련 산업용 부품의 표면 예이다. 아래 사진은 비교적 결함이 뚜렷한 경우만을 모아 놓은 것이지만, 조명의 불균일로 인해 주변의 배경 영상이 결함과 잘 구별되지 않는 경우가 많다. 재질 특성과 가공 과정에서 포함되는 배경 무늬들과 조명의 결합은 결함의 검출을 더욱 어렵게 한다.

그림. 1. 표면 결함의 예

Fig. 1. Exmaples of surface defects

../../Resources/kiee/KIEE.2018.67.5.669/fig1.png

딥러닝은 기존의 필터나 새로운 필터를 설계해서 접근하는 방법이 한계를 보이는 경우에 적용을 하는 것이 타당하나, 성능 개선의 기대 또는 비교를 위해서도 적용이 확대되고 있다. 그럼에도 방대한 연산량과 대규모의 학습 데이터가 필요한 경우가 일반적이라, 이를 만족시키지 못하는 응용문제에는 적용이 제한적이다. 한편 딥러닝 학습 기법의 발달에 따라 적은 데이터로서 학습을 수행하는 시도가 이루어지고 있으며, 이와 더불어 데이터의 확장이 중요한 보완 역할을 할 수 있다.

2.2 CNN(Convoltional Neural Network)

딥러닝의 한 종류로 영상인식에 주로 사용되는 CNN은 1989년 LeCun이 발표하였으며, CNN은 특징점을 사전에 추출하지 않고, 입력 층에 영상 데이터를 직접 입력하여 컨볼루션 층을 통해 특징이 자동 추출되는 특징을 가지고 있다(10). CNN의 구조는 다음과 같이 구성된다. 그림. 2와 같이 층 사이의 노드 쌍들 중 일부만 연결하는 컨볼루션 층(convolution layer)과 다운 샘플링 층(pooling layer)이 교대로 반복되며 특징 추출에 관여하고, 후반부에 분류 목적에 사용되는 층 사이의 노드를 모두 연결하는 완전연결 층(fully connected layer)이 위치한다.

그림. 2. CNN 모델 구조

Fig. 2. CNN model structure

../../Resources/kiee/KIEE.2018.67.5.669/fig2.png

3. 결함 데이터 확장

3.1 이미지 확장 방법

결함 데이터를 확장하기 위해 사용한 이미지 확장 방법은 회전(rotation), 윈도우 이동(sliding window), 밝기 조절(brightness variation), 크기 조절(resize) 4가지 방법을 사용한다. 이러한 확장 방법들을 선택한 이유는 결함의 방향, 길이, 결함의 픽셀값 변화 또는 주변 배경과 결함 픽셀값 차이에 변화를 주기 위함이다. 추가로 이미지의 좌우 반전이나 상하 반전 등이 있는데, 이는 회전과 유사하여 사용하지 않는다.

회전은 원본 이미지의 중심에 중심점을 고정 시킨 후 정방형 윈도우를 회전시켜 잘라내는 방법으로 이미지 데이터를 확장했다. 윈도우 이동은 원본 이미지 내에서 작은 크기의 윈도우를 일정 간격으로 이동시켜 윈도우를 잘라내었다. 밝기 조절은 이미지 각 픽셀에 실수배하여 수행하였다. 크기 조절은 회전, 윈도우 이동 등을 수행하였을 때 이미지의 크기가 변하므로 확장 후의 이미지를 CNN의 입력 크기에 맞춰주기 위해서 사용했다. 그림. 3은 결함 이미지의 확장 예시이다.

그림. 3. 결함 이미지에 대한 확장의 예

Fig. 3. Augmenting examples of defect images

../../Resources/kiee/KIEE.2018.67.5.669/fig3.png

3.2 학습 데이터 확장

원본 이미지는 100x100 크기의 이미지로 스크래치, 찍힘, 짙은 얼룩, 정상 4개의 클래스로 이루어져있다. 학습 시 정상 이미지에 비해 결함 이미지의 수가 부족하므로 학습용 결함 이미지에 대해서만 이미지 확장을 수행했다. 이미지 확장 방법은 회전, 윈도우 이동, 밝기 조절 방법을 적용했으며, 각 이미지는 CNN에 입력될 때 32x32 해상도로 크기를 조절하였다.

회전은 71x71 크기 윈도우를 10도씩 회전시켜 확장 이미지를 생성했고, 윈도우 이동은 71x71 크기로 8픽셀씩 이동하며 잘라내어 확장 이미지를 생성했다. 밝기 조절은 영상의 각 픽셀에 실수 값을 곱하여 수행하며, 곱해지는 실수 값은 0.7~1.3까지 0.05간격으로 증가시키며 수행해 확장 이미지를 생성했다.

위 방법들로 확장된 이미지는 결함이 포함되지 않은 이미지나 결함의 극히 일부만 포함된 이미지를 포함한다. 이러한 이미지는 수작업 분류를 통해 학습 데이터에서 제외시켜야 한다. 이미지 수작업 분류는 시간이 많이 걸리므로, 결함이 포함되지 않은 이미지가 생성되는 것을 줄이기 위해 이미지 확장 시 파라미터를 적절히 설정해주어야 한다. 주어진 이미지에서는 윈도우 이동이나 회전에서 윈도우의 크기는 원본 이미지의 약 71% 크기로 확장했고, 밝기 조절은 곱해지는 실수로 0.7~1.3 범위의 값을 사용하였다.

4. 표면 결함 실험

4.1 실험 환경

CNN 기반 전자제품 표면 결함 검사 실험은 각 결함 마다 3가지 확장 방법을 적용해 정상과 결함을 분류하는 2 클래스 분류 실험으로 수행한다.

본 연구에서는 널리 알려진 CNN 네트워크 구조인 AlexNet이나 VGGNet에 비해 비교적 단순한 구조의 네트워크를 사용한다. 네트워크 구조가 복잡해지면 충분히 학습시키기 위해서는 많은 양의 이미지가 필요한데, 산업용 데이터의 특성상 제공되는 양이 매우 적다. 따라서 일반적으로 물체 이미지 분류 및 물체 인식에 사용되는 네트워크에 비해 단순한 구조의 네트워크를 사용한다.

실험에 사용된 네트워크에서는 세 개 이하의 컨볼루션 층을 사용하고, 입력 이미지의 크기가 32x32로 작기 때문에 결함에 대한 특징 손실을 적게 하기 위해 세 개 이하의 풀링 층을 사용한다. 그리고 네트워크의 후반부에는 분류를 위한 완전연결 층과 소프트맥스 층이 위치한다. 그림. 4는 실험에 사용된 네트워크 구조이다.

그림. 4. 실험에 사용된 네트워크 구조

Fig. 4. Network structures used in experiments

../../Resources/kiee/KIEE.2018.67.5.669/fig4.png

실험에 사용된 원본 이미지는 스크래치, 찍힘, 짙은 얼룩에 대해 각 종류별로 결함 이미지 500장과 정상 이미지 4100장이다. 그리고 확장된 결함 이미지는 각 결함 종류마다 세 가지 확장을 각각 적용하여 생성된 이미지들 중 종류별로 3600장씩 임의로 선택하여 실험에 사용하였다.

원본 이미지로만 학습시킨 실험은 결함 이미지 400장, 정상 이미지 400장씩을 학습에 사용하였고, 결함 이미지와 정상 이미지 100장씩에 대해 평가하였다. 확장 방법을 사용한 실험에서는 결함 이미지 4000장(원본 400장+확장 3600장)과 원본 정상 이미지 4000장을 학습에 사용하였고, 평가는 같은 방법을 사용하였다. 위 데이터로 앞서 소개한 세 가지 네트워크에 대해 각각 열두 개 씩 총 36가지를 실험하였다. 표 1은 실험 데이터를 정리한 것이다.

표 1. 실험용 결함 데이터

Table 1. Defect data for experiments

Defect

Training

Test

Original defect

Augmented defect

Original normal

Original defect

Original normal

Stain

400

0

400

100

100

400

3600

4000

100

100

Scratch

400

0

400

100

100

400

3600

4000

100

100

Stamped

400

0

400

100

100

400

3600

4000

100

100

4.2 실험 결과

실험 결과를 나타내는 성능지표는 재현율(recall), 정밀도(precision), 정확도(accuracy)를 사용한다. recall은 평가에 사용된 결함 이미지 중 학습된 모델에서 결함으로 분류한 이미지의 비율을 나타내고, precision은 학습된 모델에서 결함으로 분류한 이미지 중 실제 결함 이미지의 비율을 나타낸다. 정확도는 결함과 정상을 정확하게 분류한 비율이다. 표 2~표 4에 각 네트워크별 3가지 성능 지표에 대한 결과가 나와 있다. 실험에 사용된 데이터의 결함과 정상의 수가 같기 때문에 정확도 위주로 분석하고, 재현율과 정밀도에 대해서는 표 5의 평균 mAP 수치를 중심으로 분석한다.

표 2에 CCP 네트워크에 대한 결함 이미지 분류 실험 결과가 나와 있다. CCP 네트워크로 실험 시, 짙은 얼룩에 대한 분류 성능은 밝기 조절 확장이 정확도 95%로 가장 우수하며, 윈도우 이동은 93.5%, 밝기 조절은 89.5%이다. 스크래치에 대해서는 윈도우 이동 확장이 정확도 88.5%로 가장 우수했으며, 회전 80.5%, 밝기조절 77%를 보인다. 찍힘에 대해서는 밝기 조절 확장이 98%로 가장 우수했으며, 윈도우 이동 93%, 회전 89% 순이다.

표 2. CCP 네트워크에 대한 결함 분류 결과

Table 2. Defect classification results for CCP network

Defect

Image Augmentation

Recall

Precision

Accuracy

Stain

Unapplied

87

94.6

91

Brightness

92

97.9

95

Rotation

81

97.6

89.5

Sliding Window

89

97.8

93.5

Scratch

Unapplied

95

65.5

72.5

Brightness

63

87.5

77

Rotation

67

91.8

80.5

Sliding Window

84

90.3

88.5

Stamped

Unapplied

83

80.5

81.5

Brightness

97

99

98

Rotation

81

96.4

89

Sliding Window

90

95.7

93

표 3은 CPCCP 네트워크에 대한 결함 분류 실험 결과이다. CPCCP 네트워크로 실험 시 짙은 얼룩에 대한 분류 성능은 CCP 네트워크와 같은 순서였으며, 밝기 조절 확장이 정확도 96%로 가장 우수하고, 윈도우 이동 93%, 회전 91%이다. 스크래치에 대한 분류 성능도 CCP 네트워크와 같은 순서로 윈도우 이동 90.5%, 회전 85%, 밝기 조절 74%이다. 찍힘에 대한 분류 성능은 슬라이딩 윈도우 91.5%, 회전 88.5%, 밝기 조절 76.5%로 CCP 네트워크에 비해 밝기 조절의 성능이 떨어지고, 슬라이딩 윈도우와 회전은 유사한 결과를 보였다.

표 3. CPCCP 네트워크에 대한 결함 분류 결과

Table 3. Defect classification results for CPCCP network

Defect

Image Augmentation

Recall

Precision

Accuracy

Stain

Unapplied

93

72.1

78.5

Brightness

94

97.9

96

Rotation

86

95.5

91

Sliding Window

88

97.8

93

Scratch

Unapplied

97

64.7

72

Brightness

100

65.8

74

Rotation

79

89.7

85

Sliding Window

92

89.3

90.5

Stamped

Unapplied

87

65.9

71

Brightness

95

69.3

76.5

Rotation

78

98.7

88.5

Sliding Window

89

93.7

91.5

표 4는 CPCPCP 네트워크에 대한 실험 결과이다. CPCPCP 네트워크로 실험 시 짙은 얼룩에 대한 분류 성능은 앞의 두 네트워크와 같은 순서로 밝기 조절 94%, 윈도우 이동 92.5%, 회전 91.5%이다. 스크래치에 대해 가장 우수한 확장 방법은 앞의 두 네트워크와 마찬가지로 정확도 87%의 윈도우 이동 방법이었다. 밝기 조절과 회전은 순서가 바뀌어 밝기 조절 86%, 회전 73%이다. 찍힘에 대한 분류 성능은 CCP와 같은 순서였으며, 정확도는 밝기 조절 96.5%, 윈도우 이동 93%, 회전 88.5%이다.

표 4. CPCPCP 네트워크에 대한 결함 분류 결과

Table 4. Defect classification results for CPCPCP network

Defect

Image Augmentation

Recall

Precision

Accuracy

Stain

Unapplied

94

61

67

Brightness

93

95

94

Rotation

84

98.8

91.5

Sliding Window

86

98.9

92.5

Scratch

Unapplied

92

63.4

69.5

Brightness

84

87.5

86

Rotation

47

97.9

73

Sliding Window

78

95.1

87

Stamped

Unapplied

31

39.7

42

Brightness

98

95.1

96.5

Rotation

77

77

88.5

Sliding Window

89

96.7

93

그림. 5-그림. 7표 2-표 4의 정확도(accuracy) 지표에 대해서 각 결함 별 네트워크의 성능을 그래프로 나타낸 것이다. 그림. 5는 얼룩에 대한 분류 정확도를 그래프로 나타낸 것이다. 각 확장 방법의 평균값으로 비교하였을 때 분류 성능은 밝기 조절이 가장 우수하며, 윈도우 이동, 회전 순으로 나온다. 꺾어진 선분은 3가지 네트워크의 평균 성능값을 나타낸다. CPCPCP 네트워크가 3가지 확장 모두에 대해서 성능 향상의 비율이 가장 높게 나타났다.

그림. 5. 짙은 얼룩에 대한 이미지 확장 방법별 성능 비교

Fig. 5. Performance comparison graphs by image augmentation methods for stain defect

../../Resources/kiee/KIEE.2018.67.5.669/fig5.png

그림. 6은 스크래치에 대한 분류 정확도를 그래프로 나타낸 것이다. 각 확장 방법의 평균값으로 성능을 비교하면 윈도우 이동이 가장 우수하며, 네트워크별로 비교해도 마찬가지이다. 회전과 밝기 조절은 분류 정확도 평균값이 서로 비슷하다. 그림. 7은 찍힘에 대한 결과이다. 찍힘에 대한 평균 정확도는 윈도우 이동이 가장 우수하나 다른 결함에 비해서 세 가지 확장 방법의 차이가 가장 적은 편이다. 네트워크별로 성능을 살펴봤을 때, CCP와 CPCPCP 네트워크는 밝기 조절을 확장한 실험에서 97-98%대의 매우 높은 성능을 보인데 비해, CPCCP 네트워크는 상당히 떨어졌다.

그림. 6. 스크래치에 대한 이미지 확장 방법별 성능 비교

Fig. 6. Performance comparison graphs by image augmentation methods for scratch

../../Resources/kiee/KIEE.2018.67.5.669/fig6.png

그림. 7. 찍힘에 대한 이미지 확장 방법별 성능 비교

Fig. 7. Performance comparison graphs by image augmentation methods for stamped defect

../../Resources/kiee/KIEE.2018.67.5.669/fig7.png

표 5에 세 네트워크에 대한 평균 mAP(mean Average Precision)와 이미지 확장 방법별 미적용 대비 mAP 개선율을 나타낸다. mAP는 recall-precision 그래프를 통해 계산되는 이미지 인식률을 계산하는 데 쓰이는 지표이다. 물체 검출에 대해서 기하적 변환과 밝기 조절 등에 의한 데이터를 확장하여 학습했을 때 mAP가 3%정도 향상된다고 보고 되어있다[6]. 본 논문에서 결함 이미지에 이미지 확장을 적용한 실험에서는 mAP가 결함 종류나 확장 방법에 따라 약 0.14~0.28(18.3%~45.4%) 향상됐다. 따라서 비정형인 결함을 학습시킬 때가 물체를 학습시킬 때에 비해 기하적 변환이나 밝기 조절을 통한 이미지 확장으로 더 많이 성능이 개선되었음을 보여준다.

표 5. 세 네트워크에 대한 평균 mAP와 확장 방법별 mAP 개선율

Table 5. Average mAP for three networks and improvement rate by augmentation methods

Defect

Image ugmentation

mAP

Improvement Rate

Stain

Unapplied

0.797

Brightness

0.942

18.3

Rotation

0.944

18.6

Sliding Window

0.950

19.2

Scratch

Unapplied

0.685

Brightness

0.828

20.8

Rotation

0.908

32.5

Sliding Window

0.945

37.9

Stamped

Unapplied

0.626

Brightness

0.828

32.2

Rotation

0.881

40.7

Sliding Window

0.910

45.4

스크래치의 mAP를 보면, 윈도우 이동 확장 방법을 적용한 실험이 가장 우수한 성능을 보였다. 그 이유는 스크래치가 길이와 방향을 가지기 때문이라고 생각한다. 밝기 조절을 적용하는 경우에는 길이나 방향은 전혀 변하지 않고, 주변 배경과 결함의 픽셀값 차이만 변하게 된다. 회전은 방향은 많이 변하지만 길이에 대해 변화가 적다. 하지만 윈도우 이동은 윈도우의 위치가 이동하며 이미지를 잘라내기 때문에 길이가 많이 변한다. 또한 여러 이미지에 대해 확장을 시도하기 때문에 다양한 방향을 가지는 스크래치 이미지가 많이 확장된다. 따라서 스크래치에 윈도우 이동을 적용했을 때 밝기 조절이나 회전에 비해 다양한 학습 이미지를 생성할 수 있다. 짙은 얼룩에서는 mAP가 밝기 조절, 회전, 윈도우 이동 3가지 확장이 모두 우수하게 나왔다. 찍힘에서는 윈도우 이동이 가장 우수한 mAP을 나타내었다.

결함 이미지에 대해서 사용된 확장 방법의 특징을 분석하면 다음과 같다. 윈도우 이동을 적용하면 원본 이미지와 같은 특징을 가지는 얼룩이나 찍힘의 위치만 변화한 이미지가 생성되거나 얼룩의 일부만 지워진 이미지가 생성된다. 회전을 적용하면 결함이 회전하면서 다른 특징을 가지는 이미지가 생성된다. 하지만 밝기 조절을 적용하여 결함과 배경의 픽셀값을 변화시키는 것이 결함과 주변 배경의 차이를 다양하게 학습시킬 수 있어 보다 효과적이라고 생각된다.

5. 결 론

산업용 부품 결함 이미지에 대해서 결함 종류에 따라 어떤 이미지 확장 방법이 학습에 더 효과적인지 CNN 기반의 딥러닝 기법을 적용하여 실험하고 비교분석하였다. 짙은 얼룩, 스크래치, 찍힘 세 가지 결함에 대해 밝기 조절, 회전, 윈도우 이동의 세 가지 이미지 확장 방법을 적용하였다.

학습 기반으로 표면 결함 검사를 할 때, 학습 데이터의 수가 적은 것을 이미지 확장을 통해 개선할 수 있는 것을 확인하였다. 또한, 학습 시 물체 이미지에 비해 비정형인 결함 이미지가 이미지 확장 방법을 통해 더 많이 개선되는 것을 확인하였다. 결함별로 정확도를 비교했을 때, 짙은 얼룩과 찍힘에 대해서는 밝기 조절 확장 방법이 가장 우수한 성능을 보였으며, 스크래치에 대해서는 윈도우 이동 확장 방법이 가장 우수한 성능을 보였다. 재현율과 정밀도를 함께 고려한 mAP 지표에서는 윈도우 이동 확장 방법이 모든 결함에 대해서 가장 우수한 성능을 나타내었다. 향후, 다수 클래스의 분류 문제에 대한 확장 실험을 통해, 결과의 신뢰성을 높이는 것이 필요하다.

References

1 
Park Y., Kweon I. S., 2016, Ambiguous Surface Defect Image Classification of AMOLED Displays in Smart- phones, IEEE Trans. on Industrial Informatics, Vol. 12, No. 2, pp. 597-607DOI
2 
Park J. K., Kwon N., Park J. H., Kang D., 2016, Machine Learning-Based Imaging System for Surface Defect Inspection, International Journal of Precision Engineering and Manufacturing-Green Technology, Vol. 3, No. 3, pp. 303-310DOI
3 
Choi H., Seo K., 2017, CNN Based Detection of Surface Defects for Electronic Parts, Journal of Korean Institute of Intelligent Systems, Vol. 27, No. 3Google Search
4 
Choi H., Seo K., 2017, Comparison of CNN Structures for Detection of Surface Defects, The Transactions of the Korean Institute of Electrical Engineers, Vol. 66, No. 7, pp. 1100-1104Google Search
5 
Dixit Mandar, Kwitt Roland, Niethammer Marc, Vasconcelos Nuno, AGA, Attribute-Guided Augmentation, arXiv:1612.02559Google Search
6 
Chatfield Ken, Simonyan Karen, Vedaldi Andrea, Zisserman Andrew, Return of the Devil in the Details: Delving Deep into Convolutional Nets, arXiv:1405.3531Google Search
7 
Howard Andrew G., Some Improvements on Deep Convolutional Neural Network Based Image Classification, arXiv:1312.5402Google Search
8 
Goodfellow Ian J., Pouget-Abadie Jean, Mirza Mehdi, Xu Bing, Warde-Farley David, Ozair Sherjil, Courville Aaron, Bengio Yoshua, Generative Adversarial Networks, arXiv: 1406.2661Google Search
9 
Wang Jason, Perez Luis, 2017, The Effectiveness of Data Augmentation in Image Classification using Deep Learning, Technical ReportGoogle Search
10 
Krizhevsky A., Sutskever I., Hinton G., 2012, ImageNet classification with deep convolutional neural networks, In NIPSGoogle Search

저자소개

김 준 봉 (Junbong Kim)
../../Resources/kiee/KIEE.2018.67.5.669/au1.png

2017년 서경대학교 전자공학과 졸업(학사)

2017년~현재 서경대학교 대학원 전자컴퓨터공학과 석사과정

관심분야는 딥러닝, 머신비전, 기상예측

서 기 성 (Kisung Seo)
../../Resources/kiee/KIEE.2018.67.5.669/au2.png

1993년 연세대학교 대학원 전기공학과 졸업(박사)

1999~2003년 Michigan State University, Genetic Algorithms Research and Applications Group, Research Associate

2002~ 2003년 Michigan State University, Electrical & Computer Engineering, Visiting Assistant Professor

2011~2012년 Michigan State University, BEACON (Bio/computational Evolution in Action CONsortium) Center, Visiting Scholar

1993년~현재 서경대학교 전자공학과 교수

관심분야는 진화연산, 딥러닝, 머신비전, 기상예측, 지능로봇