• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Department of Electronics and Computer Engineering, Seokyeong University, Korea.)



Deep learning, Colorization, Super-resolution, Image restoration, Decoupled Loss

1. 서 론

이미지 복원(image restoration)은 영상 처리를 통해 이미지의 품질을 향상시키고, 훼손된 정보를 복원하는 작업이다. 촬영 환경의 문제로 부족한 품질을 가진 이미지나, 디지털 풍화로 인해 압축, 훼손된 이미지를 복원하기 위해 사용된다. 이를 통해 영상의 가치를 높이고, 훼손된 자료를 복원할 수 있다.

영상채색(colorization)은 흑백 사진을 색상 사진으로 전환하는 기술이다. 기존의 전통적인 영상채색 기법들은 사용자가 일부 지역의 색상을 알려주거나(1), 예시 사진을 보여주는 등(2), 힌트 기반 기법들이 높은 성능을 달성했다. 딥러닝이 발전하면서 더 자연스럽고 높은 성능의 기법들이 제안되었고(3), 힌트 없이도 높은 성능을 보여주는 모델들도 제안되었다(4,5).

초해상화(super-resolution)는 노이즈를 제거하고 해상도를 높이는 기술이다. 전통적인 기법에서는 다양한 보간법을 활용해 초해상화를 수행하였다(6,7). 딥러닝이 발전함에 따라 초해상화에 CNN을 적용한 모델이 제안되었고(8), 최근에는 높은 성능을 가진 트랜스포머 기반 기법들이 제안되었다(9).

과거 영상 중 저화질 흑백 영상이 존재하는데, 초해상화와 영상채색을 모두 수행하는 연구는 거의 존재하지 않는다. 또한, 두 분야의 영상처리 모델을 단순하게 순차 적용하면 오차 누적으로 인해 부자연스러운 이미지가 나타날 수 있다. 이를 보완하기 위해 순차 모델에 대해서 재학습을 진행하면 각 모델의 역할이 열화 되는 문제가 발생한다.

본 논문에서는 영상채색 및 초해상화 네트워크에 대해서 각각의 역할을 유지하며 상호 독립적으로 성능을 향상시키는 분리된 손실함수(Decoupled Loss) 기반의 순차 모델 학습법을 제안한다. 영상채색과 초해상화의 각 처리과정에 적합한 손실함수를 정의하고, 주요 손실함수를 분리하여 각 모델의 성능을 상호 독립적으로 유지하도록 학습할 수 있도록 한다. EDSR-64(10)와 BigColor(11) 모델을 베이스 라인으로 하여, 미세 조정을 수행한 기본적 순차 모델과 제안된 분리적 순차 모델의 성능을 비교한다. DIV2K 및 ImageNet-1K 데이터셋에 대해서 PSNR, SSIM과 FID(12) 성능 지표를 평가한다.

2. 분리된 손실함수 기반 상호 독립적 학습 기법

2.1 전체 구조

그림 1에서와 같이 제안된 학습법은 두 개의 입력과 각각의 출력에 대해서 분리된 손실함수를 사용한다. 입력 2는 목표 이미지에 대해 3차 보간법을 통해 해상도를 낮춘 이미지이며, 입력 1은 입력 2에 대해서 흑백으로 변환시킨 이미지다. Network 1은 영상채색 모델이며, Network 2는 초해상화 모델이다. 입력 1은 순차적으로 Network 1, 2를 통과하고 목표 이미지와 손실을 계산하며, 이 때 손실함수는 GAN Loss(13)와 VGG Loss를 사용한다. 입력 2는 Network 2만을 통과하여 목표 이미지와 손실을 계산하고, 이 때 손실함수는 L1 Loss를 사용한다. 분리된 손실함수에 대한 자세한 내용은 2.3절에서 소개한다.

그림. 1. 제안된 학습법 구성도

Fig. 1. Overall configuration of the proposed training method

../../Resources/kiee/KIEE.2023.72.3.434/fig1.png

2.2 사전 학습 모델

영상채색 및 초해상화 네트워크의 성능을 보장하는 상호 독립적인 학습법을 보여주기 위해 영상채색, 초해상화, VGG, 판별자, 총 4개의 사전 학습된 네트워크를 사용한다. 영상채색 및 초해상화 네트워크는 이미지를 복원하기 위해, VGG 및 판별자 네트워크는 손실을 계산하기 위해 사용한다.

그림. 2. 영상채색 네트워크 구성도(BigColor)

Fig. 2. configuration of colorization network: BigColor

../../Resources/kiee/KIEE.2023.72.3.434/fig2.png

영상채색 네트워크는 BigGAN(14)을 재학습시킨 BigColor 모델을 사용하고, 추가적인 학습은 진행하지 않는다. 구조도는 그림 2와 같고, 분류기를 통해 클래스 정보를 임베딩하여 해당 객체에 대해 자연스러운 색상을 선택하도록 학습하는 모델이다. 초해상화 네트워크는 EDSR-64(10)을 사용하고, 미세 조정을 통해 영상채색 네트워크와 상호 간섭 없이 독립적인 역할을 하도록 학습한다. 구조도는 그림 3과 같고, 16개의 잔차 블록을 포함하며 모델명의 64는 각 컨볼루션 층의 채널을 의미한다. 사전 학습된 VGG 네트워크는 VGG Loss를 계산하기 위해(15), 판별자 네트워크는 GAN Loss를 계산하기 위해 사용한다. 이 때, BigColor가 아닌 BigGAN에서 사용된 판별자 네트워크가 사용되는데, 이는 이미지 복원 모델로 사용하는 BigColor 모델에 과적합되어 모드 붕괴가 발생하는 것을 방지하기 위함이다.

그림. 3. 초해상화 네트워크 구성도 (EDSR-64)

Fig. 3. configuration of super-resolution network (EDSR-64)

../../Resources/kiee/KIEE.2023.72.3.434/fig3.png

2.3 분리된 손실함수

일반적인 영상채색과 초해상화의 종단 학습은 그림 1에서 상단과 중단 부분만을 사용하여 각 이미지에 대해서 모든 손실을 계산하고 역전파를 수행한다. 손실함수는 식 (1)과 같다.

(1)
$Total loss =\sum_{i=0}^{n}L_{i}(N_{2}(N_{1}(x)),\: y)$

$N_{1}$, $N_{2}$는 각각 Network 1, 2이며, $x$, $y$, $L$, $n$은 각각 입력, 목표, 손실함수, 손실함수의 개수를 의미한다. 그러나, 이러한 순차 연결 방식으로 학습을 진행할 경우, 역전파 과정 중 채색과 초해상 네트워크의 손실을 구분할 수 없어서 개별 네트워크의 고유 역할을 제대로 수행하지 못하게 된다. 이러한 문제를 해결하기 위해서 그림 1의 하단의 점선 부분을 추가하여 손실함수를 분리 적용한다.

이미지 복원에 사용되는 대표적인 손실함수로 L1 Loss, GAN Loss, 그리고 VGG Loss가 있다. L1 Loss는 각 픽셀간의 거리을 줄여주는 손실함수다. L1 Loss의 식은 (2)과 같다.

(2)
$L1 Loss =\dfrac{1}{hw}\sum_{i=1}^{h}\sum_{j=1}^{w}|p_{ij}-\hat p_{ij}|$

$h$, $w$는 각각 이미지의 높이와 넓이, $p_{ij}$는 각 픽셀을 의미한다. 자연계 색상의 편차가 적은 객체에 대해서는 문제가 없지만, 편차가 큰 객체에 대해서는 문제가 발생할 수 있다. 예를 들어, 사과를 보고 L1 Loss를 통해 학습하면, 빨간색(R)과 초록색(G)사이에서 혼란을 일으킬 수 있고, 손실함수를 최소화하기 위해 낮은 채도의 색상으로 회귀하도록 학습될 수 있다. GAN Loss는 이미지의 개연성을 증가시켜 자연스러운 이미지를 만들도록 하는 손실함수다. GAN Loss의 식은 (3) 및 (4)과 같다.

(3)
$GAN Loss_{D}= E_{(x_{t},\: c_{t})\sim p_{data(0:T)}}[\min(0,\: 1-D(y_{t},\: c_{t})]$$+ E_{y_{t}\sim N ,\: c_{t}\sim p_{data(0:T)}}[\min(0,\: 1+D(G(x_{t},\: c_{t}),\: c_{t})]$

(4)
$GAN Loss_{G}=- E_{y_{t}\sim p_{z},\: c_{t}\sim p_{data(0:T)}}D(G(x_{t},\: c_{t}),\: c_{t})$

$D$는 판별자, $G$는 이미지 복원 네트워크, $c$는 임베딩 벡터를 의미 한다 픽셀간의 거리보다는 이미지가 얼마나 자연스럽고 현실성 있느냐에 집중하기 때문에 자연스러운 이미지를 만들어야하는 영상채색에 적합한 손실함수다. VGG Loss는 VGG 네트워크를 통과시켜 나오는 특징맵 간의 거리를 줄여주는 손실함수로써 식 (5)와 같다.

(5)
$VGG Loss=\dfrac{1}{C_{j}W_{j}H_{j}}\vert\vert \phi_{j}(G(x,\: c))-\phi_{j}(y)\vert\vert ^{2}$

$\phi_{j}$는 사전 학습된 $j$번째 계층까지의 VGG 네트워크이며, $C_{j},\: W_{j},\: H_{j}$는 순서대로 VGG 네트워크의 $j$번째 계층 출력 특징 맵에 대한 채널, 넓이, 높이를 의미한다. 픽셀간의 거리보다는 사람이 느끼는 구조적인 특성(엣지, 질감 등)이나 추상적인 의미에 집중하는 손실함수이기 때문에, GAN Loss와 마찬가지로 영상채색에 적합하다. VGG16 네트워크에서, 층 번호 $j$가 작을수록 엣지와 같은 낮은 수준의 특징에 집중하고, 클수록 추상적이고 의미론적인 높은 수준의 특징에 집중한다.

본 논문에서는 순차적인 네트워크에서 위와 같은 각 손실함수의 역할이 간섭없이 독립적으로 수행되어, 각각의 네트워크의 성능을 보장하는 학습법을 제안한다. 그림 1에서에서 두 가지 네트워크를 순차적으로 통과하는 입력 1의 출력에 대해서는 영상채색에 적합한 GAN Loss와 VGG Loss를 사용하여 초해상화 네트워크가 영상채색 네트워크를 보완하도록 학습한다. 초해상화 네트워크만 통과하는 입력 2의 출력 대해서는 초해상화에 적합한 L1 Loss를 사용하여, 초해상화 네트워크의 본래 성능을 보장하도록 학습한다. 식으로 표현하면 (6), (7) 및 (8)과 같다.

(6)
$Loss_{1}=\sum_{i=0}^{n}L_{i}(N_{2}(N_{1}(x_{1})),\: y)$

(7)
$Loss_{2}=\sum_{j=0}^{m}L_{j}(N_{2}(x_{2}),\: y)$

(8)
$Total loss =Loss_{1}+Loss_{2}$

$N_{1}$, $N_{2}$는 각각 Network 1, 2이며, $x$, $y$, $L$은 각각 입력, 목표, 손실함수를 의미한다. $n$과 $m$은 각각 $Loss_{1}$과 $Loss_{2}$로 분리된 손실함수의 개수인데, 여기서 $n$은 GAN Loss과 VGG Loss로 2이며, m은 L1 Loss를 사용하므로 1이다. 이러한 과정을 통해 초해상화 네트워크 본래의 역할이 붕괴되지 않고, 영상채색 네트워크를 보완하도록 학습한다.

3. 실험 및 결과 분석

3.1 실험 환경

제안된 기법을 통해 학습된 모델을 DIV2K, ImageNet-1k 데이터셋에 대해서 PSNR, SSIM 그리고 FID 지표를 통해 평가하고, 개별로 학습된 모델 및 미세 조정을 통해 학습된 모델과 비교한다. 사용된 데이터 셋은 표 1과 같다. DIV2K는 고화질 이미지 데이터셋으로, 800장의 훈련 데이터와 100장의 검증 데이터로 이루어져 있으며, 고화질의 세부적인 특징들을 얼마나 잘 복원하는지 판단하기에 적합하다. ImageNet-1k는 1000개의 클래스를 가진 데이터셋으로, 50000장의 검증 데이터를 사용한다. 다수의 클래스로 구성되어 있기 때문에, 다양한 종류의 객체에 대해서 얼마나 강인하게 이미지 복원을 해내는지 판단할 수 있다. ImageNet-1k는 검증용으로만 사용하고, 훈련용으로는 사용하지 않는다.

표 1. 사용 데이터셋

Table 1. Dataset

Dataset

train

validation

DIV2K

800

100

ImageNet-1k

-

50000

PSNR(Peak Signal-to-Noise Ratio)은 픽셀간의 거리에 대한 제곱평균에 반비례하는 지표이다. SSIM(Structural Similarity Index Measure)은 밝기, 대조, 구조적인 유사도에 대한 수치이다. FID(Fréchet Inception Distance)는 Inception-v3 네트워크(16)를 통과시켜서 나온 특징맵들을 이용하는 거리기반 지표로, 목표로 하는 이미지 집합과 생성된 이미지 집합간의 특징 분포를 측정한다. PSNR과 SSIM은 높을수록 좋은 지표고, FID는 낮을수록 좋은 지표다.

학습은 DIV2K 학습 데이터셋에 대해서 512x512 random crop하여 목표 이미지로 하고, 이후 256x256으로 resize하여 입력 2로 사용하고, 흑백 전환을 추가로 적용하여 입력 1로 사용한다. 데이터 증강을 위해 각 이미지에 대해서 horizontal flip, vertical flip, $90^{\circ}$rotation을 각각 0.5 확률로 적용한다. 검증은 원본 이미지를 목표이미지로 하고, 2분의 1로 축소하여 입력으로 사용한다.

하이퍼 파라미터 설정은 표 2와 같다. optimizer는 미세 조정에 적합한 SGD를 사용하며 모멘텀은 0.9로 설정한다. 초해상화 네트워크의 학습률은 사전 학습 종료에 맞추어 0.00005를 사용하고, 판별자 네트워크의 학습률은 BigColor에 맞추어 0.00003으로 설정한다. 손실함수 계수 또한, BigColor에 맞추어 L1 Loss는 1.0, VGG Loss는 0.2, GAN Loss는 0.03을 적용하고, $j =1,\: 2,\: 13,\: 20$에 대하여 VGG Loss를 계산한다. 200 epoch간 학습하며, $\lambda =0.995$의 람다 학습률 감소(lambda learning rate decay)를 사용한다. batch size는 8로 설정하고, 실험은 pytorch 환경에서 수행한다.

표 2. 학습 하이퍼 파라미터

Table 2. training hyper parameter

hyper parameter

value

size

input

256x256x1(Gray)

target

512x512x3(RGB)

augmentation

horizontal flip

vertical flip

$90^{\circ}$rotation

optimizer

SGD with momentum

learning rate

SR

5e-5

discriminator

3e-5

epoch

200

learning rate dacay

Lambda(0.995)

batch size

8

coefficient

L1

1.0

GAN

0.2

VGG

0.03

3.2 실험 결과

DIV2K 데이터 셋에 대해서 제안된 기법과 기존 기법을 비교한 결과가 표 3에 나와 있다. 여기서 베이스 라인은 전자채색과 초해상화에 대해서 개별 학습된 두 모델을 순차적으로 수행한 방식의 결과이다. 제안 기법의 PSNR, SSIM, FID가 각각 0.18, 0.003, 0.160 만큼 향상되었다. 영상채색에 대해 가장 직접적인 지표인 FID가 가장 크게 향상되었는데, 이는 우리의 의도대로 초해상화 네트워크가 영상채색 네트워크에 대해 보완적인 역할을 하면서도 기존 역할인 초해상화를 잘 수행하도록 학습 되었다는 의미다. 기존의 기법을 적용한 경우에는 PSNR 성능은 개선되었지만, SSIM과 FID성능은 재학습 이전과 비교해 오히려 낮아지는 모습을 보인다. 이는 재학습 과정에서 초해상화 네트워크가 붕괴되어 구조적, 의미론적인 부분에 대한 복원 성능이 약화되었음을 의미한다.

표 3. 성능비교 (DIV2K 검증 데이터셋)

Table 3. Perormance Comparison (DIV2K validation dataset)

Method

PSNR(↑)

SSIM(↑)

FID(↓)

baseline

20.30

0.815

0.756

baseline +

conventional fine-tuning

20.99

0.771

0.884

baseline +

decoupled Loss(ours)

20.48

0.818

0.596

ImageNet-1k 검증 데이터셋을 사용한 실험결과인 표 4에서도 FID에 대해서 높은 성능 향상을 보였고, PSNR과 SSIM 성능도 개선되었다. 이와 같은 결과는 이미지의 구조적인 특징 복원 능력이 개선되었고, 다양한 객체에 대해서 강인한 복원 능력을 학습했음을 보인다.

표 4. 기존 기법과의 성능비교(ImageNet-1k 검증 데이터셋)

Table 4. Comparison with baseline(ImageNet-1k validation dataset)

Method

PSNR(↑)

SSIM(↑)

FID(↓)

baseline

19.56

0.734

0.600

baseline +

conventional fine-tuning

20.16

0.698

0.806

baseline +

decoupled Loss(ours)

19.65

0.752

0.390

그림 4의 (e), (f)는 제안된 기법 없이 미세 조정한 모델의 결과로, 개별 학습된 베이스 라인 모델의 결과인 (c), (d)와 비교하여 색성분이 과도하게 억제된 것을 보여준다. L1 Loss는 입력 이미지의 특징들이 가질만한 색상의 평균으로 회귀하기 때문에 영상채색 네트워크 훈련에 대해서 해당 손실함수를 사용하면 색성분이 열화 되는 현상이 발생한다. 이러한 이유로 픽셀간의 거리 기반 손실이 최소화 되도록 학습된 모델은 PSNR 수치는 개선될 수 있었지만, 구조적, 의미론적인 특징들에 대한 복원 성능이 떨어지게 되어 SSIM과 FID 지표에 대해 낮은 성능을 보인다. 그에 반해 제안된 기법의 결과물인 (g)와 (h)를보면 색성분의 억제 없이 자연스러운 이미지를 만들도록 학습된 것을 알 수 있다. 특히, (g)는 과도한 색성분과 오차 누적으로 왜곡이 발생했지만, 제안된 기법으로 학습된 모델은 상호 독립적으로 작업을 수행해 (g)처럼 자연스러운 이미지를 복원한다.

그림. 4. 기법 적용 결과. 위에서부터 입력, 사전 학습 모델, 단순 미세 조정, 분리된 손실함수 사용(ours).

Fig. 4. qualitative evaluation. From the top, input, baseline, conventional fine-tuning, fine-tuning with decoupled Loss(ours).

../../Resources/kiee/KIEE.2023.72.3.434/fig4.png

그림. 5. 기존의 재학습과 제안된 기법 세부 비교

Fig. 5. detailed comparison of ours and conventional fine-tuning

../../Resources/kiee/KIEE.2023.72.3.434/fig5.png

그림 5은 샘플 이미지에 대해서 일부분을 확대한 사진이다. (a)는 일반적인 재학습을 수행한 모델의 출력이고 (c)는 그에 대한 확대 사진이며, (b)는 제안된 기법을 통해 재학습한 모델의 출력이고 (d)는 그에 대한 확대 사진이다. (c)를 보면 ‘체커보드 아티팩트’라 불리는 격자점 발생 현상이 나타났다. 이는 재학습 과정에서 초해상화 네트워크의 본래 기능이 열화 되어 발생한 문제이다. 그에 반해, 제안된 기법을 통해 학습한 모델은 체커보드 아티팩트 없이 깔끔한 결과를 보여준다. 이를 통해 제안한 기법이 각 네트워크간의 상호 간섭 없이 독립적인 기능을 유지하도록 학습시켜, 각 네트워므의 특성을 보존함을 알 수 있다.

4. 결 론

본 논문에서는 영상채색과 초해상화의 두 개의 순차 모델에 대해서 손실함수를 분리하여 각 모델의 성능 저하 없이 종단 학습하는 기법을 제안한다. 영상채색과 초해상화의 각 처리과정에 적합한 손실함수를 정의하고, 주요 손실함수를 분리하여, 추가적인 파라미터 없이 각 모델의 성능을 상호 간섭 없이 독립적으로 유지하도록 학습한다. DIV2K 및 ImageNet-1K 데이터셋에 대해서 제안된 분리적 순차 모델의 성능을 기존 기법들과 비교하여 PSNR, SSIM과 FID 등의 주요 성능 지표에서 우수한 성능을 얻었다. 향후, 손실함수의 정교화와 학습 구조의 개선을 통한 성능 향상이 필요하다.

References

1 
Y. C. Huang, Y. S. Tung, J. C. Chen, S. W. Wang, J. L. Wu, 2005, An adaptive edge detection based colorization algorithm and its applications, In Proceedings of the 13th annual ACM international conference on Multimedia, pp. 351-354DOI
2 
A. Y.-S. Chia, S. Zhuo, R. K. Gupta, Y.-W. Tai, S.-Y. Cho, P. Tan, S. Lin, 2011, Semantic colorization with internet images, in ACM Transactions on Graphics, Vol. 30, No. 6, pp. 156DOI
3 
R. Zhang, J.-Y. Zhu, P. Isola, X. Geng, A. S. Lin, T. Yu, A. A. Efros, 2017, Real-time user-guided image colorization with learned deep priors, ACM Transactions on Graphics (TOG), Vol. 36, No. 4, pp. 1-11DOI
4 
S. Jheng-Wei, C. Hung-Kuo, H. Jia-Bin, 2020, Instance-aware image colorization, in IEEE conference on computer vision and pattern recognition, pp. 7968-7977Google Search
5 
Y. Wu, X. Wang, Y. Li, H. Zhang, X. Zhao, Y. Shan, 2021, Towards vivid and diverse image colorization with generative color prior, Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 14377-14386Google Search
6 
R. Timofte, V. De Smet, L. Van Gool, 2013, Anchored neighborhood regression for fast example-based super-resolution, In Proceedings of the IEEE international conference on computer vision, pp. 1920-1927Google Search
7 
K.I. Kim, Y. Kwon, 2010, Single-image super-resolution using sparse regression and natural image prior, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 32, No. 6, pp. 1127-1133DOI
8 
C. Dong, C.C. Loy, K. He, X. Tang, 2014, Learning a deep convolutional network for image super-resolution., in European conference on computer vision, pp. 184-199DOI
9 
J. Liang, J. Cao, G. Sun, K. Zhang, L. Van Gool, R. Timofte, 2021, Swinir: Image restoration using swin transformer, in Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 1833-1844Google Search
10 
B. Lim, S. Son, H. Kim, S. Nah, K. Mu Lee, 2017, Enhanced deep residual networks for single image super-resolution, in Proceedings of the IEEE conference on computer vision and pattern recognition workshops, pp. 136-144Google Search
11 
G. Kim, K. Kang, S. Kim, H. Lee, S. Kim, J. Kim, S. Baek, S. Cho, 2022, BigColor: Colorization using a Generative Color Prior for Natural Images, In European Conference on Computer Vision, pp. 350-366Google Search
12 
M. Heusel, H. Ramsauer, T. Unterthiner, B. Nessler, S. Hochreiter, 2017, Gans trained by a two time-scale update rule converge to a local nash equilibrium, Advances in neural information processing systems, Vol. 30Google Search
13 
J. H. Lim, J. C. Ye, 2017, Geometric gan, arXiv preprint arXiv:1705.02894Google Search
14 
A. Brock, J. Donahue, K. Simonyan, 2018, Large scale GAN training for high fidelity natural image synthesis, arXiv preprint arXiv:1809.11096Google Search
15 
K. Simonyan, A. Zisserman, 2014, Very deep convolutional networks for large-scale image recognition, arXiv preprint arXiv:1409 1556Google Search
16 
C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, Z. Wojna, 2016, Rethinking the inception architecture for computer vision, In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 2818-2826Google Search

저자소개

권순용 (SoonYong Gwon)
../../Resources/kiee/KIEE.2023.72.3.434/au1.png

He received BS degree from Electronics Engineering from Seokyong University, Seoul, Korea, in 2023.

He is currently pursuing his MS degree in Electronics and Computer Engineering at Seokyeong University, His research interests include deep learning, computer vision.

서기성 (Kisung Seo)
../../Resources/kiee/KIEE.2023.72.3.434/au2.png

He received the BS, MS, and Ph.D degrees in Electrical Engineering from Yonsei University, Seoul, Korea, in 1986, 1988, and 1993 respectively.

He joined Genetic Algorithms Research and Applications Group (GARAGe), Michigan State University from 1999 to 2002 as a Research Associate.

He was also appointed Visiting Assistant Professor in Electrical &Computer Engineering, Michigan State University from 2002 to 2003.

He was a Visiting Scholar at BEACON (Bio/computational Evolution in Action CONsortium) Center, Michigan State University from 2011 to 2012.

He is currently Professor of Electronics Engineering, Seokyeong University. His research interests include deep learning, evolutionary computation, computer vision, and intelligent robotics.