• λŒ€ν•œμ „κΈ°ν•™νšŒ
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • ν•œκ΅­κ³Όν•™κΈ°μˆ λ‹¨μ²΄μ΄μ—°ν•©νšŒ
  • ν•œκ΅­ν•™μˆ μ§€μΈμš©μƒ‰μΈ
  • Scopus
  • crossref
  • orcid

  1. (Department of Electronics Engineering, Seokyeong University, Korea)



Convolutional neural network, Filter reduction, Genetic algorithm

1. μ„œλ‘ 

λ”₯λŸ¬λ‹ κΈ°λ²•μ€‘μ˜ ν•˜λ‚˜μΈ CNN (Convolutional Neural Networks)은 μƒλ¬Όμ²΄μ˜ μ‹œκ° 처리 방식을 μ‘μš©ν•œ κ²ƒμœΌλ‘œ μ˜μƒ μΈμ‹λΆ„μ•Όμ—μ„œ νƒμ›”ν•œ μ„±λŠ₯을 보이고 μžˆλ‹€(1,2). CNN은 νŠΉμ§•μ μ„ 사전에 μΆ”μΆœν•˜μ§€ μ•Šκ³ , μž…λ ₯ 측에 μ˜μƒ 데이터λ₯Ό 직접 μž…λ ₯ν•˜μ—¬ μ»¨λ³Όλ£¨μ…˜ 측을 톡해 νŠΉμ§•μ΄ μžλ™ μΆ”μΆœλ˜λŠ” κΈ°λŠ₯을 가지고 μžˆλ‹€(3). ꡬ체적으둜, λ‹€μΈ΅μœΌλ‘œ κ΅¬μ„±λœ 닀쀑 ν•„ν„° 기반의 μžλ™μ  ν•„ν„° 생성 λ°©μ‹μœΌλ‘œ 인해, 단일(μ†Œμˆ˜) ν•„ν„° 및 λ―ΈλΆ„μ΄λ‚˜ μ•Œκ³ λ¦¬μ¦˜μ„ μ‚¬μš©ν•΄ ν•„ν„°λ₯Ό μ„€κ³„ν•˜λŠ” 전톡적인 접근법(4)κ³Ό λŒ€λΉ„λœλ‹€.

CNN 기반의 λ‹€μΈ΅ 및 닀쀑 ν•„ν„°λ₯Ό ν•™μŠ΅μ— μ˜ν•΄μ„œ κ°œμ„ ν•˜λ©΄μ„œ 물체λ₯Ό μΈμ‹ν•˜λŠ” 것은 이미 λ›°μ–΄λ‚œ μ„±λŠ₯을 인정받고 있으며 측이 κΉŠμ–΄μ§ˆμˆ˜λ‘ μ •ν™•λ„λŠ” λ”μš± 높아지고 μžˆλ‹€(5,6). GPUλ“±μ˜ λ”₯λŸ¬λ‹ μ—°μ‚° ν™˜κ²½μ˜ λ°œλ‹¬λ‘œ μΈ΅κ³Ό ν•„ν„°μˆ˜λ₯Ό 늘린 λ°©λŒ€ν•œ 규λͺ¨μ˜ λͺ¨λΈμ΄ μ„±λŠ₯ ν–₯상을 μ£Όλ„ν•˜κ³  있으며(7,8), 측의 규λͺ¨κ°€ 컀질수둝 ꡬ쑰의 μ΅œμ ν™”κ°€ 더 μ–΄λ ΅κ³  λ°©λŒ€ν•œ μ—°μ‚°λŸ‰μ„ ν•„μš”λ‘œ ν•œλ‹€. 기쑴의 κ²½ν—˜μ μΈ μΈ΅ κ΅¬μ„±μ—μ„œ λ²—μ–΄λ‚˜ 진화연산을 μ΄μš©ν•˜μ—¬ CNN의 ꡬ쑰λ₯Ό μ΅œμ ν™”ν•˜λ €λŠ” μ‹œλ„κ°€ μ—°κ΅¬λ˜μ–΄ μ™”λ‹€(9-12). λ”μš± 졜근인 2018λ…„μ—λŠ” RNN을 μ‚¬μš©ν•˜μ—¬ CNN λͺ¨λΈμ„ μƒμ„±ν•˜κ³  κ°•ν™”ν•™μŠ΅μ„ 톡해 λ„€νŠΈμ›Œν¬μ˜ μ„±λŠ₯을 μ΅œλŒ€ν™” ν•˜λ„λ‘ RNN을 ν•™μŠ΅μ‹œν‚€λŠ” NASNet(13) 및 PNASNet(14) 연ꡬ가 μ œμ•ˆλ˜μ—ˆκ³  이전보닀 μš°μˆ˜ν•œ μ„±λŠ₯을 보여주고 μžˆλ‹€. RNN을 μ‚¬μš©ν•œ μ΄μœ λŠ” CNN의 ꡬ쑰와 연결이 가변길이 슀트링으둜 μ ν•©ν•˜κ²Œ ν‘œν˜„λ  수 있기 λ•Œλ¬Έμ΄λ‹€. ν‘œν˜„λœ CNN을 검증 데이터에 λŒ€ν•΄μ„œ μ„±λŠ₯을 ν‰κ°€ν•˜κ³ , 이 κ²°κ³Όλ₯Ό λ³΄μƒμœΌλ‘œ μ‚¬μš©ν•˜μ—¬ μ •μ±… 경사(policy gradient) λ₯Ό κ³„μ‚°ν•˜κ³  RNN을 κ°±μ‹ ν•˜λŠ” 방식이닀(13). ν•œνŽΈ 진화연산을 μ‚¬μš©ν•˜μ—¬ CNN의 ꡬ쑰λ₯Ό μ΅œμ ν™”ν•˜λŠ” AmoebaNet(15) 연ꡬ가 μ œμ‹œλ˜μ—ˆμœΌλ©°, λ°©λŒ€ν•œ 규λͺ¨μ˜ 탐색을 νš¨μœ¨ν™”ν•˜κΈ° μœ„ν•΄μ„œ 개체 선택에 λ‚˜μ΄ κ°œλ…μ„ λ„μž…ν•˜μ˜€λ‹€(aging evolution bytournament selection). 이 μ—°κ΅¬λŠ” ꡬ글 νŒ€μ—μ„œ GPU 500λŒ€ 이상을 10일 이상 νˆ¬μž…ν•œ κ²ƒμœΌλ‘œ, NASNet/PNASNetκ³Ό κ²½μŸν•  λ§Œν•œ κ²°κ³Όλ₯Ό μ–»κ³  μžˆλ‹€(15).

ν•œνŽΈμœΌλ‘œ CNN ꡬ쑰의 일뢀인 ν•„ν„° 수λ₯Ό μ€„μ΄λŠ” 연ꡬ가 μ‹œλ„λ˜κ³  μžˆλ‹€. 이것은 이미 μ„€κ³„λœ λ„€νŠΈμ›Œν¬μ—μ„œ μ»¨λ³Όλ£¨μ…˜ 측의 ν•„ν„°μ€‘μ—μ„œ 영ν–₯λ ₯이 적은 것듀을 μ‚­μ œν•¨μœΌλ‘œμ¨ 전체 λ„€νŠΈμ›Œν¬κ°€ μ°¨μ§€ν•˜λŠ” λ©”λͺ¨λ¦¬ μš©λŸ‰μ„ 쀄이고, 처리 속도λ₯Ό κ°μ†Œμ‹œν‚€λŠ” νŠΉμ„±μ΄ 있으며, μ••μΆ•(compression)μ΄λ‚˜ κ°€μ§€μΉ˜κΈ°(pruning)의 μ—°κ΅¬λ‘œ λΆ„λ₯˜λœλ‹€(16-21).

CNN μΈ΅μ—μ„œ ν•„ν„°μ˜ μ‚­μ œλ₯Ό 톡해 λ„€νŠΈμ›Œν¬μ˜ μš©λŸ‰μ„ μΆ•μ†Œν•˜λŠ” 것은 CNN의 μΈ΅ ꡬ쑰가 κ²°μ •λœ μƒνƒœμ—μ„œ 세뢀적인 κ°œμ„ μ„ μ§„ν–‰ν•˜λŠ” κ²ƒμœΌλ‘œ, μ€€ ꡬ쑰적인 μ΅œμ ν™”μ— ν•΄λ‹Ήν•œλ‹€. μƒκΈ°ν•œ λŒ€λΆ€λΆ„μ˜ 진화연산 κ΄€λ ¨ ꡬ쑰 연ꡬ가 CNN 측의 섀계에 μ΄ˆμ μ„ λ§žμΆ”κ³  μžˆλŠ” 것에 λΉ„ν•΄, λ³Έ λ…Όλ¬Έμ—μ„œλŠ” 사전 연ꡬ(22)에 μ΄μ΄μ„œ 진화연산을 기반의 ν•„ν„° μ‚­μ œ μ΅œμ ν™” μ•Œκ³ λ¦¬μ¦˜ 연ꡬλ₯Ό ν™•μž₯ν•˜μ—¬ μˆ˜ν–‰ν•œλ‹€. ν•„ν„° μ‚­μ œμ— 진화연산을 μ‚¬μš©ν•œ μ—°κ΅¬λŠ” λ³Έ μ—°κ΅¬μž μ™Έμ—λŠ” μ•„μ§κΉŒμ§€ μ‹œλ„λ˜μ§€ μ•Šκ³  μžˆλ‹€.

μ œμ•ˆν•˜λŠ” 진화연산 기반의 ν•„ν„° μΆ•μ†Œ 접근법은 단지 κ°€μ€‘μΉ˜ 기반의 μ‚­μ œμ„ ν†΅ν•œ λ„€νŠΈμ›Œν¬μ˜ μΆ•μ†Œκ°€ μ•„λ‹ˆλΌ, ν•„ν„°μ˜ μœ„μΉ˜ 및 μ „ν›„ 관계λ₯Ό κ³ λ €ν•˜μ—¬, νŠΉμ§•μ— λŒ€ν•œ ν‘œν˜„λ ₯이 더 ν–₯μƒλœ ν•„ν„° 집합을 μ œκ³΅ν•˜λŠ”λ° μžˆλ‹€. 즉, CNN이 μžλ™μ μœΌλ‘œ μ„ νƒν•œ ν•„ν„°λ₯Ό 진화연산(GA)λ₯Ό ν†΅ν•΄μ„œ μ •μ œν•˜μ—¬, 적은 수의 ν•„ν„°λ‘œμ„œ μ΅œλŒ€ν•œ μ„±λŠ₯을 μœ μ§€ν•˜λ„λ‘ 도λͺ¨ν•œλ‹€. μ§„ν™”μ—°μ‚°μ˜ κ΅¬ν˜„μ‹œ CNN의 μ‚­μ œν•  ν•„ν„°λ₯Ό μœ μ „μžλ‘œ ν‘œν˜„ν•œλ‹€.

6개측(conv 3, 풀링3)으둜 κ΅¬μ„±λœ 비ꡐ적 μ†Œκ·œλͺ¨μ˜ CNN λ„€νŠΈμ›Œν¬μ— λŒ€ν•΄μ„œ ν•΄λ‹Ή 데이터λ₯Ό μΆ©λΆ„νžˆ ν•™μŠ΅μ‹œν‚¨ ν›„, ν•™μŠ΅λœ λ„€νŠΈμ›Œν¬μ˜ 각측의 ν•„ν„°λ₯Ό 진화연산을 톡해 μž¬κ΅¬μ„±ν•˜κ³  이λ₯Ό ν…ŒμŠ€νŠΈ 데이터에 λŒ€ν•΄μ„œ 적합도λ₯Ό κ³„μ‚°ν•˜λ©΄μ„œ μ΅œμ ν™”λ₯Ό μ§„ν–‰ν•œλ‹€. ν•„ν„°μ˜ μΆ•μ†Œμœ¨μ€ 전체 ν•„ν„°μ˜ 10-30%λ₯Ό μ„€μ •ν•˜κ³  일정 μ„ΈλŒ€μ˜ 진화연산을 μˆ˜ν–‰ν•˜μ—¬ λΆ„λ₯˜μ„±λŠ₯인 정확도(accuracy)의 κ°œμ„ μ„ λΉ„κ΅ν•œλ‹€. λΆ€κ°€μ μœΌλ‘œ μ΅œμ’…μ„ΈλŒ€μ—μ„œ 얻어진 μΆ•μ†Œλ˜κ³  μ •μ œλœ CNN 필터듀에 λŒ€ν•΄μ„œ 좔가적인 ν•™μŠ΅μ„ μ§„ν–‰ν•˜μ—¬ μ„±λŠ₯κ°œμ„  μ—¬λΆ€λ₯Ό κ΄€μ°°ν•œλ‹€.

μ œμ•ˆλœ 방법을 CIFAR10에 λŒ€ν•΄μ„œ μ‹€ν—˜μ„ μˆ˜ν–‰ν•˜κ³  원본 λ„€νŠΈμ›Œν¬μ— λŒ€λΉ„ λΆ„λ₯˜μ„±λŠ₯의 μœ μ§€ μˆ˜μ€€μ„ 톡해 ν•„ν„° μ‚­μ œμ˜ 의 νš¨μœ¨μ„±μ„ μž…μ¦ν•œλ‹€.

2. CNN λ„€νŠΈμ›Œν¬ μ΅œμ ν™” 문제 뢄석

CNN λ„€νŠΈμ›Œν¬λŠ” κ·Έλ¦Ό. 1κ³Ό 같이 νŠΉμ§• μΆ”μΆœκ³Ό 강인화에 κ΄€μ—¬ν•˜λŠ” μ»¨λ³Όλ£¨μ…˜(convolution) μΈ΅κ³Ό 풀링(pooling) 측이 순차적으둜 반볡되며, ν›„λ°˜λΆ€μ— λΆ„λ₯˜ λͺ©μ μ— μ‚¬μš©λ˜λŠ” μ™„μ „μ—°κ²°(fully connected) 측이 μœ„μΉ˜ν•œλ‹€. 일반적인 λ„€νŠΈμ›Œν¬ μ΅œμ ν™” λ¬Έμ œλŠ” ꡬ쑰와 νŒŒλΌλ―Έν„°λ‘œ λ³€μˆ˜λ₯Ό ν¬ν•¨ν•œλ‹€. CNN λ„€νŠΈμ›Œν¬μ—μ„œ CNN ꡬ쑰에 κ΄€ν•œ λ³€μˆ˜λ“€μ€ μ»¨λ³Όλ£¨μ…˜ 측수, 풀링 측수, μ»¨λ³Όλ£¨μ…˜ μΈ΅λ‚΄μ˜ ν•„ν„° 수 및 크기등이 있으며, νŒ¨λ”©, 보폭, 풀링 μ—°μ‚°μ˜ 방식등이 ν•¨κ»˜ μ‘΄μž¬ν•œλ‹€. λ˜ν•œ μ»¨λ³Όλ£¨μ…˜ μΈ΅κ³Ό 풀링 측의 배열에 λŒ€ν•œ μ‘°ν•©κ³Ό μΈ΅κ°„μ˜ 뢄기도 κ°€λŠ₯ν•˜μ—¬ ꡬ쑰의 κ°€λŠ₯ λ³΅μž‘λ„λŠ” λ”μš± μ¦κ°€ν•œλ‹€. λ„€νŠΈμ›Œν¬ ꡬ쑰외에 ν•™μŠ΅λ₯ , κ°€μ€‘μΉ˜ 갱신법, κ°€μ€‘μΉ˜ μ΄ˆκΈ°ν™”, 배치 μ •κ·œν™”, ν™œμ„±ν™” ν•¨μˆ˜λ“±μ˜ ν•˜μ΄νΌ νŒŒλΌλ―Έν„°κ°€ λΆ€κ°€μ μœΌλ‘œ μ‘΄μž¬ν•˜λ‚˜, 이듀 쀑 μƒλ‹Ήμˆ˜κ°€ κΈ°μ‘΄ μ—°κ΅¬μ—μ„œ μƒλ‹Ήνžˆ 탐색이 된 κ²½μš°κ°€ λ§ŽμœΌλ―€λ‘œ, CNN λ„€νŠΈμ›Œν¬ μ΅œμ ν™”λŠ” ꡬ쑰적인 λ¬Έμ œκ°€ μ€‘μ μœΌλ‘œ λ³Ό 수 μžˆλ‹€.(9-12,23)

κ·Έλ¦Ό. 1. CNN λͺ¨λΈ ꡬ쑰

Fig. 1. CNN model structure

../../Resources/kiee/KIEE.2018.67.12.1665/fig1.png

그런데, μ§€κΈˆκΉŒμ§€ κΈ°μ‘΄ ꡬ쑰의 뢄석과 κ°œμ„ μ„ 톡해 많이 μ•Œλ €μ§„ λ„€νŠΈμ›Œν¬λ“€μ΄ μ‘΄μž¬ν•˜κ³ , 이듀 λ„€νŠΈμ›Œν¬λ“€μ€ μΌμ •ν•œ ꡬ성 ν˜•νƒœλ₯Ό 가지고 있기 λ•Œλ¬Έμ—, 전체 λ³€ν™” 곡간에 λŒ€ν•œ μž„μ˜μ˜ νƒμƒ‰λ³΄λ‹€λŠ” 계산 λΉ„μš©μ„ κ³ λ €ν•œ 영ν–₯λ ₯ μžˆλŠ” λΆ€λΆ„ 탐색이 더 효율적일 수 μžˆλ‹€. CNN ν•„ν„°λŠ” 정해진 개수만큼 μž„μ˜λ‘œ μƒμ„±λ˜κΈ° λ•Œλ¬Έμ— μ˜λ―Έκ°€ λ–¨μ–΄μ§€λŠ” ν•„ν„°κ°€ 포함될 수 μžˆλ‹€. ν•™μŠ΅μ„ 톡해 ν•„ν„°κ°€ κ°œμ„ λ˜μ§€λ§Œ, λΆˆν•„μš”ν•œ 여뢄이 μ—¬μ „νžˆ μ‘΄μž¬ν•  수 μžˆλ‹€.

정해진 μΈ΅ κ΅¬μ‘°μ—μ„œ μΈ΅ λ‚΄μ˜ μœ μš©ν•œ ν•„ν„° μ„ νƒμ΄λ‚˜ λΆˆν•„μš”ν•œ ν•„ν„°λ₯Ό 효율적으둜 μ œκ±°ν•˜λŠ” λ¬Έμ œλŠ” 쀀ꡬ쑰 μ΅œμ ν™”μ— ν•΄λ‹Ήν•˜λ©°, ν˜„μ‹€μ μΈ λŒ€μ‘ λ°©μ•ˆμ΄λ‹€. CNN ꡬ쑰/μ΅œμ ν™” λ¬Έμ œμ— λŒ€ν•œ λΆ„λ₯˜ κ°œλ…λ„κ°€ κ·Έλ¦Ό. 2에 λ‚˜μ™€ μžˆλ‹€.

κ·Έλ¦Ό. 2. CNN ꡬ쑰/μ΅œμ ν™” 문제 λΆ„λ₯˜

Fig. 2. Classification of CNN structure/parameter optimization

../../Resources/kiee/KIEE.2018.67.12.1665/fig2.png

3. CNN ν•„ν„° 선택 μ΅œμ ν™”

λŒ€λΆ€λΆ„μ˜ ꡬ쑰 λ˜λŠ” νŒŒλΌλ―Έν„° μ΅œμ ν™” λ¬Έμ œλŠ” λ°©λŒ€ν•œ 경우의 수둜 κ΅¬μ„±λœ 탐색 곡간 λ•Œλ¬Έμ— 진화연산 방식이 μ‚¬μš©λ˜κ³  μžˆλ‹€. λ˜ν•œ 문제의 ν‘œν˜„μ— μžˆμ–΄μ„œ CNN ν•„ν„°μ˜ ꡬ성과 μœ μ „μž ν‘œν˜„μ΄ λΆ€ν•©λ˜λ―€λ‘œ, λ³Έ μ—°κ΅¬μ—μ„œλŠ” 진화연산을 μ‚¬μš©ν•œ ν•„ν„° μ΅œμ ν™” 문제λ₯Ό λ‹€λ£¨κ³ μž ν•œλ‹€. 특히, DNN의 각 λ…Έλ“œκ°€ ν•˜λ‚˜μ˜ κ°€μ€‘μΉ˜ κ°’μœΌλ‘œ μ—°κ²°λœ 것에 λΉ„ν•΄μ„œ CNN의 ν•„ν„°λŠ” n X n 개의 κ°€μ€‘μΉ˜λ‘œ κ΅¬μ„±λ˜μ–΄ 있기 λ•Œλ¬Έμ— ν•˜λ‚˜μ˜ 필터라도 이λ₯Ό λ‹¨μˆœν•œ κ°€μ€‘μΉ˜ 값을 κΈ°μ€€μœΌλ‘œ μ²˜λ¦¬ν•˜κΈ° νž˜λ“€λ‹€.

3.1 진화 μ—°μ‚°

진화연산은 μœ μ „μž ν‘œν˜„, μœ μ „μž 생성, 적합도 평가, 선택, μœ μ „μ—°μ‚° λΆ€λΆ„μœΌλ‘œ κ΅¬μ„±λ˜μ–΄ μžˆλ‹€. μ΄μ€‘μ—μ„œ ꡬ쑰/νŒŒλΌλ―Έν„° μ΅œμ ν™” λ¬Έμ œμ— λŒ€ν•΄μ„œ λ°€μ ‘ν•˜κ²Œ κ΄€λ ¨λœ 뢀뢄은 ν•΄μ˜ μœ μ „μž ν‘œν˜„ 방법과 생성 및 탐색이닀. λ³Έ λ…Όλ¬Έμ—μ„œ λ‹€λ£¨λŠ” ν•„ν„°μ˜ 선택은 μ‘°ν•© μ΅œμ ν™” λ¬Έμ œμ— ν•΄λ‹Ήν•˜λ©°, GA (Genetic Algorithm) λ°©μ‹μœΌλ‘œ κ΅¬ν˜„ν•œλ‹€. 선택 λ˜λŠ” μ‚­μ œν•  필터듀을 GA 슀트링으둜 ν‘œν˜„ν•œλ‹€.

GA의 μˆ˜ν–‰κ³Όμ •μ€ λ‹€μŒκ³Ό κ°™λ‹€. μ΄ˆκΈ°μ— 슀트링으둜 κ΅¬μ„±λœ 각 κ°œμ²΄λ“€μ„ μž„μ˜λ‘œ μƒμ„±ν•œλ‹€. 그리고 각 개체λ₯Ό ν•΄μ„ν•˜μ—¬ κ΅¬ν•œ 후보 ν•΄λ₯Ό 적합도 ν•¨μˆ˜λ‘œ ν‰κ°€ν•œλ‹€. 이후, 주어진 선택 방법에 μ˜ν•΄ μœ μ „ 연산에 μ°Έμ—¬ν•  κ°œμ²΄λ“€μ„ μ„ νƒν•œλ‹€. μ„ νƒλœ κ°œμ²΄λ“€μ„ λŒ€μƒμœΌλ‘œ μœ μ „ 연산을(ꡐ배, λŒμ—°λ³€μ΄) μˆ˜ν–‰ν•œλ‹€. 그리고 이 전체과정을 μ’…λ£Œμ‘°κ±΄μ΄ 만쑱될 λ•ŒκΉŒμ§€ λ°˜λ³΅ν•œλ‹€. GAμ—μ„œμ˜ ꡐ배 μ—°μ‚°μžλŠ” μž„μ˜μ˜ μ μ—μ„œ λΆ€λͺ¨μ˜ 슀트링의 일뢀λ₯Ό κ΅μ²΄ν•˜λŠ” λ°©μ‹μœΌλ‘œ μˆ˜ν–‰λœλ‹€.

3.2 ν•„ν„°μ˜ 선택/μ‚­μ œ 문제의 μœ μ „μž ν‘œν˜„

μ»¨λ³Όλ£¨μ…˜ μΈ΅μ—μ„œ ν•„ν„°μ˜ 선택과 μ‚­μ œλŠ” λ™μ „μ˜ 양면이닀. ν•„ν„°μ˜ ν‘œν˜„(representation) μΈ‘λ©΄μ—μ„œ 보면 쒋은 ν•„ν„°λ₯Ό μ„ νƒν•˜λŠ” 것이 CNN λ„€νŠΈμ›Œν¬μ˜ μ„±λŠ₯을 ν–₯μƒμ‹œν‚¬ 수 μžˆλŠ”λ°, 이것은 ν•„μš”μ„±μ΄ λ–¨μ–΄μ§€λŠ” ν•„ν„°λ₯Ό μ‚­μ œν•˜κ³  λ‚¨λŠ” μƒνƒœμ™€ κ°™λ‹€. μ••μΆ•(compression)μ΄λ‚˜ κ°€μ§€μΉ˜κΈ°(pruning)의 κ΄€μ μ—μ„œλŠ” μ‚­μ œ μž‘μš©μ΄ 더 λΆ€ν•©λœλ‹€. λ³Έ λ…Όλ¬Έμ—μ„œλŠ” ν•„ν„°μ˜ 선택 및 μ‚­μ œμ˜ μ˜λ―Έκ°€ μ„œλ‘œ μƒλŒ€μ μ΄λ―€λ‘œ κ²½μš°μ— 따라 ν˜Όμš©ν•˜κΈ°λ‘œ ν•œλ‹€. μƒλŒ€μ μœΌλ‘œ λΆˆν•„μš”ν•œ ν•„ν„°λ₯Ό μ‚­μ œν•˜κΈ° μœ„ν•΄μ„œ 각 측의 ν•„ν„° 수 λ²”μœ„ λ‚΄μ—μ„œ ν•„ν„° 번호λ₯Ό μœ μ „μžλ‘œ κ΅¬μ„±ν•œλ‹€.

κ·Έλ¦Ό. 3κ³Ό 같이 n개의 측으둜 κ΅¬μ„±λœ CNN λ„€νŠΈμ›Œν¬μ˜ 각 μ»¨λ³Όλ£¨μ…˜ μΈ΅λ§ˆλ‹€ μ‚­μ œν•  ν•„ν„° 번호둜 κ΅¬μ„±λœ 슀트링이 λŒ€μ‘λœλ‹€. μœ μ „ν˜•μ€ μ‚­μ œν•  번호λ₯Ό, λ°˜λŒ€λ‘œ ν‘œν˜„ν˜•μ€ μ‚­μ œλ˜κ³  남은 ν•„ν„°λ‘œ κ΅¬μ„±ν•˜μ—¬ μ„±λŠ₯을 ν‰κ°€ν•œλ‹€. 선택할 필터보닀 μ‚­μ œν•  ν•„ν„° μˆ˜κ°€ 적기 λ•Œλ¬Έμ— μœ μ „μž 길이λ₯Ό 쀄이기 μœ„ν•΄μ„œ μ‚­μ œν•  ν•„ν„°λ₯Ό μœ μ „μžλ‘œ ν‘œν˜„ν•œλ‹€. κ·Έλ¦Ό. 3μ—μ„œ μœ μ „μž 맨 μ•žμ˜ 숫자 2λŠ” conv 1μΈ΅μ—μ„œ 2번째의 ν•„ν„°λ₯Ό μ‚­μ œν•œλ‹€λŠ” μ˜λ―Έμ΄λ‹€. νšŒμƒ‰ μŒμ˜μ€ μ‚­μ œν•  ν•„ν„°λ₯Ό, 흰색은 보쑴할 ν•„ν„° 번호λ₯Ό λ‚˜νƒ€λ‚Έλ‹€.

κ·Έλ¦Ό. 3. 3 CNN ν•„ν„° μ‚­μ œλ₯Ό μœ„ν•œ μœ μ „μž ν‘œν˜„

Fig. 3. GA chromosome for deleting CNN filters

../../Resources/kiee/KIEE.2018.67.12.1665/fig3.png

3.3 μœ μ „μž 곡간 탐색

κ·Έλ¦Ό. 3은 단지 3개의 μ»¨λ³Όλ£¨μ…˜ 측으둜 κ΅¬μ„±λœ μ†Œκ·œλͺ¨μ˜ CNN λ„€νŠΈμ›Œν¬λ₯Ό 예둜 λ“€μ—ˆμ§€λ§Œ, μ»¨λ³Όλ£¨μ…˜ 측이 λŠ˜μ–΄λ‚˜κ±°λ‚˜ μΈ΅ λ‹Ή ν•„ν„°μˆ˜κ°€ μ¦κ°€λœ λŒ€κ·œλͺ¨μ˜ λ„€νŠΈμ›Œν¬μΌ 경우, μœ μ „μžμ˜ κΈΈμ΄λŠ” 맀우 컀진닀. 이에 따라 탐색 곡간이 λ°©λŒ€ν•΄μ§€λ©°, 이둜 μΈν•˜μ—¬ κ΅λ°°λ‚˜ 변이 μ—°μ‚°μ—μ„œ 탐색 κ³΅κ°„μ˜ 이동이 νš¨μœ¨μ μ΄μ§€ λͺ»ν•˜λ‹€. 이λ₯Ό λ³΄μ™„ν•˜κΈ° μœ„ν•΄μ„œ 일반적인 1점 ꡐ배 μ—°μ‚°μž 외에 λ‹€μ–‘ν•œ 탐색을 μœ„ν•΄μ„œ 2점 ꡐ배 μ—°μ‚°μžλ₯Ό ν•¨κ»˜ μ‚¬μš©ν•œλ‹€(κ·Έλ¦Ό. 4). λ˜ν•œ, λŒμ—°λ³€ μ—°μ‚°μžμ˜ κ²½μš°λ„ ν•œ 개체 λ‚΄μ—μ„œ λ‹€μˆ˜μ˜ μš”μ†Œκ°€ 변이 될 수 μžˆλ„λ‘ κ΅¬ν˜„ν•œλ‹€.

κ·Έλ¦Ό. 4. μœ μ „ μ—°μ‚°μž a) 1점 ꡐ배, b) 2점 ꡐ배

Fig. 4. Genetic operations a) one-point crossover, b) two- point crossover

../../Resources/kiee/KIEE.2018.67.12.1665/fig4.png

3.4 진화연산 μˆ˜ν–‰ 방식

진화연산을 μ‚¬μš©ν•œ CNN ꡬ쑰 μ΅œμ ν™”μ— λŒ€ν•œ ꡬ글 νŒ€λ“±μ˜ 일뢀 μ—°κ΅¬μ—μ„œλŠ” 500μ—¬λŒ€μ˜ λŒ€κ·œλͺ¨ GPUλ₯Ό μ‚¬μš©ν•˜μ—¬ 각 κ°œμ²΄λ§ˆλ‹€ ν•™μŠ΅κ³Ό ν…ŒμŠ€νŠΈλ₯Ό μˆ˜ν–‰ν•˜μ˜€μ§€λ§Œ, λ³Έ λ…Όλ¬Έμ—μ„œλŠ” μ œν•œλœ μ»΄ν“¨νŒ… μžμ›μœΌλ‘œ 효율적인 진화연산을 μˆ˜ν–‰ν•˜κΈ° μœ„ν•΄μ„œ, ν•™μŠ΅ 없이 ν…ŒμŠ€νŠΈλ§ŒμœΌλ‘œ 개체의 적합도λ₯Ό ν‰κ°€ν•œλ‹€.

Algorithm 1 Evolution of CNN Filter Deletion

1: CNN training for train dataset

2: t ← 0

3: initialize P(t) // individuals for filter selection

4: procedure Evaluate P(t)

5: CNN test for test dataset

6: calculate accuracy

7: while not termination-condition do

8: t ← t+1

9: select P(t) from P(t-1)

10: crossover and mutation P(t)

11: procedure evaluate P(t)

12: CNN test for test dataset

13: calculate accuracy

진화연산 기반의 CNN ν•„ν„° μ‚­μ œλ₯Ό μœ„ν•œ 전체 μ•Œκ³ λ¦¬μ¦˜μ€ Algorithm 1κ³Ό κ°™λ‹€. 사전에 ν•™μŠ΅ 데이터에 λŒ€ν•΄μ„œ ν•™μŠ΅λœ CNN λ„€νŠΈμ›Œν¬λ₯Ό λŒ€μƒμœΌλ‘œ μ‚­μ œν•  ν•„ν„° μœ μ „μžλ₯Ό 개체둜 μƒμ„±ν•˜κ³ , ν…ŒμŠ€νŠΈ 데이터에 λŒ€ν•΄μ„œ μ΄λ“€μ˜ 정확도 μ„±λŠ₯을 ν‰κ°€ν•œλ‹€. 진화 μ—°μ‚°μ˜ μ„ΈλŒ€λ₯Ό μ¦κ°€μ‹œν‚€λ©΄ 개체λ₯Ό μ„ νƒν•˜κ³  ꡐ배와 λŒμ—°λ³€μ΄ 연산을 μˆ˜ν–‰ν•˜λ©°, μ‚­μ œ ν›„ CNN의 μ„±λŠ₯ 평가 과정을 반볡적으둜 μˆ˜ν–‰ν•œλ‹€.

λ³Έ λ…Όλ¬Έμ—μ„œλŠ” λ‹€μŒκ³Ό 같이 3가지 진화연산 μˆ˜ν–‰ 방식을 μ œμ•ˆν•˜κ³  이λ₯Ό λΉ„κ΅ν•œλ‹€(κ·Έλ¦Ό. 5). 첫째, 사전에 정해진 μ‚­μ œμœ¨(15~30%) 만큼의 ν•„ν„°λ₯Ό ν•œ λ²ˆμ— μ‚­μ œν•˜κ³ , 이후 μΆ©λΆ„ν•œ μ„ΈλŒ€(500 epochs)λ₯Ό μž¬ν•™μŠ΅μ‹œμΌœ ν•„ν„° μ‚­μ œμ— 따라 떨어진 λΆ„λ₯˜ 정확도 μ„±λŠ₯을 λŒμ–΄ μ˜¬λ¦¬λ„λ‘ ν•œλ‹€(κ·Έλ¦Ό. 5 상단). λ‘˜μ§Έ, 각 μ»¨λ³Όλ£¨μ…˜ 측에 λŒ€ν•΄μ„œ 순차적으둜 μ‚­μ œν•˜λŠ”λ°, 첫 μΈ΅λ§Œμ„ μ‚­μ œν•˜κ³  일뢀 μž¬ν›ˆλ ¨(100 epochs)을 μˆ˜ν–‰ν•œ ν›„ 두 번째 측을 μ‚­μ œν•œλ‹€. λ‹€μ‹œ μž¬ν›ˆλ ¨μ„ μˆ˜ν–‰ ν›„, 이λ₯Ό λ‹€μŒ 측에 λŒ€ν•΄μ„œ λ°˜λ³΅ν•œλ‹€(κ·Έλ¦Ό. 5 쀑단). μ…‹μ§Έ, 정해진 μ‚­μ œμœ¨μ„ n번으둜 λ‚˜λˆ„μ–΄ μˆ˜ν–‰ν•˜κ³  κ·Έ μ‚¬μ΄λ§ˆλ‹€ μž¬ν›ˆλ ¨(100 epochs)을 μˆ˜ν–‰ν•œλ‹€.

κ·Έλ¦Ό. 5. ν•„ν„° μ‚­μ œ 3 가지 방법 (a) 전체 ν•œλ²ˆ μ‚­μ œ, (b) 측별 μ‚­μ œ, (c) 반볡적 λΆ€λΆ„ μ‚­μ œ

Fig. 5. Filter deletion methods (a) one time deletion (b) layer by layer deletion (c) iteratively partial deletion

../../Resources/kiee/KIEE.2018.67.12.1665/fig5.png

사전 μ‹€ν—˜μ„ 톡해 이와 같은 λ°©μ‹μ˜ λ³€ν™”κ°€ μ„±λŠ₯에 μƒλ‹Ήν•œ 영ν–₯을 λ―ΈμΉ  수 μžˆμŒμ„ νŒŒμ•…ν•˜μ˜€κ³ , 이λ₯Ό κ°œμ„ ν•˜μ—¬ λ°©λ²•ν™”ν•˜κ³  μ œμ•ˆν•œλ‹€.

4. μ‹€ ν—˜

CNN ν•„ν„° μ‚­μ œ μ‹€ν—˜μ€ ν‘œ 1에 λ‚˜μ˜¨ Conv12 λ„€νŠΈμ›Œν¬μ— λŒ€ν•΄μ„œ CIFAR10 데이터λ₯Ό μ‚¬μš©ν•œλ‹€. 진화 μ—°μ‚° 과정은 λ‹€μŒκ³Ό 같은 GA νŒŒλΌλ―Έν„°λ₯Ό μ‚¬μš©ν•˜μ—¬ GTX-1080Ti GPU ν™˜κ²½μ—μ„œ μˆ˜ν–‰λœλ‹€.

ν‘œ 1. Conv12 λ„€νŠΈμ›Œν¬μ˜ νŒŒλΌλ―Έν„°

Table 1. Parameters of Conv12 model

Layer

Output Shape

Filter Size

Parameters

Input

32 x 32 x 3

0

Conv1

31 x 31 x 32

2 x 2

0.42K

Pool1

15 x 15 x 32

2 x 2

0

Conv2

14 x 14 x 64

2 x 2

8.26K

Conv2

13 x 13 x 64

2 x 2

16.45K

Pool2

6 x 6 x 64

2 x 2

0

FC

295.04K

Output

1.29K

μ‹€ν—˜μ— μ‚¬μš©λœ GA νŒŒλΌλ―Έν„°λŠ” λ‹€μŒκ³Ό κ°™λ‹€.

1. Number of generations: 20

2. Population sizes: 50

3. Selection: Tournament (size=7)

4. Crossover: 0.85

5. Mutation: 0.2

ν‘œ 2λŠ” GA 기반의 전체 ν•œλ²ˆ μ‚­μ œ λ°©λ²•μœΌλ‘œ 전체 ν•„ν„°μ˜ 15.6%λ₯Ό μ‚­μ œν•œ ν›„ 진화연산 μ΅œμ’…μ„ΈλŒ€μ—μ„œ 원본 λ„€νŠΈμ›Œν¬μ˜ 89.7% 정확도λ₯Ό μ–»μ—ˆκ³ , μ‚­μ œ ν›„ λ„€νŠΈμ›Œν¬λ₯Ό 500 epochs μž¬ν•™μŠ΅ν•˜μ—¬ 98.3%의 μ„±λŠ₯을 μ–»μ—ˆλ‹€. 이λ₯Ό 톡해 λ³Έ μ—°κ΅¬μ—μ„œ μ‹œλ„ν•œ GA 기반의 ν•„ν„° μ‚­μ œ 방법이 μœ νš¨ν•¨μ„ μ•Œ 수 μžˆλ‹€.

ν‘œ 2. GA 기반 ν•„ν„° μΆ•μ†Œ-μ „μ œ ν•œλ²ˆ μ‚­μ œ(15.6% μ‚­μ œμœ¨)

Table 2. GA-based filtering reduction 1-one time deletion (15% reduction rate)

ACC Data

Original

GA Filter Selection

Retrain after GA Filter Selection (epoch 500)

CIFAR-10

64.60%

57.94%

(89.7%)

63.55%(98.3%)

ν‘œ 3은 같은 λ°©λ²•μœΌλ‘œ 전체 ν•„ν„°μ˜ 31.3%λ₯Ό μ‚­μ œν•œ ν›„ 원본 λ„€νŠΈμ›Œν¬μ˜ 83.2% 정확도λ₯Ό μ–»μ—ˆκ³ , μ‚­μ œν›„ λ„€νŠΈμ›Œν¬λ₯Ό 500 epochs μž¬ν•™μŠ΅ν•˜μ—¬ 93.4%의 μ„±λŠ₯을 μ–»μ—ˆλ‹€. ν‘œ 1에 λΉ„ν•˜μ—¬ ν•„ν„°λ₯Ό 두배 κ°€λŸ‰ μ‚­μ œν–ˆμœΌλ―€λ‘œ λ‹Ήμ—°νžˆ λΆ„λ₯˜ μ„±λŠ₯이 많이 μ €ν•˜λ˜μ—ˆκ³ , μž¬ν•™μŠ΅ 후에도 ν‘œ 1에 λΉ„ν•΄μ„œ 원본 λ„€νŠΈμ›Œν¬ μ„±λŠ₯κ³Ό 6.4% 차이남을 μ•Œ 수 μžˆλ‹€. κ·ΈλŸ¬λ‚˜ μ‚­μ œμœ¨μ— λΉ„ν•΄μ„œλŠ” μ„±λŠ₯ μ €ν•˜κ°€ μ μœΌλ―€λ‘œ 적은 규λͺ¨μ˜ λ„€νŠΈμ›Œν¬μ™€ 처리 μ†λ„μ˜ κ°μ†Œλ₯Ό ν•„μš”λ‘œ ν•˜λŠ” κ²½μš°μ—λŠ” μœ μš©ν•˜λ‹€κ³  λ³Ό 수 μžˆλ‹€.

ν‘œ 3. GA 기반 ν•„ν„° μΆ•μ†Œ-μ „μ œ ν•œλ²ˆ μ‚­μ œ(15.6% μ‚­μ œμœ¨)

Table 3. GA-based filtering reduction 2 - one time deletion (31% reduction rate)

ACC Data

Original

GA Filter Selection

Retrain after GA Filter Selection (epoch 500)

CIFAR-10

64.60%

53.74%

(83.2%)

60.33%(93.4%)

μ œμ•ˆλœ 3가지 진화연산 λ°©λ²•μ˜ 비ꡐ κ²°κ³Όκ°€ ν‘œ 4에 λ‚˜μ™€ μžˆλ‹€. 전체 μ‚­μ œ(One time deletion) 방법에 λΉ„ν•΄ 측별 μ‚­μ œ(Layer by layer)와 반볡적 λΆ€λΆ„ μ‚­μ œ(Iteratively Partial Deletion)κ°€ 훨씬 더 μš°μˆ˜ν•˜μ˜€μœΌλ©°, 15%와 31% μ‚­μ œμœ¨ κ°„μ˜ μ„±λŠ₯ 차이도 맀우 μ μ—ˆλ‹€. μ΄λŠ” 일뢀 μ‚­μ œμ™€ μž¬ν›ˆλ ¨μ„ ν†΅ν•΄μ„œ 지속적인 μ΅œμ ν™”κ°€ μˆ˜ν–‰λ˜μ—ˆκΈ° λ•Œλ¬ΈμœΌλ‘œ 보인닀. 반볡적 λΆ€λΆ„ μ‚­μ œκ°€ 측별 μ‚­μ œμ— λΉ„ν•΄μ„œλ„ μ•½κ°„ 더 μš°μˆ˜ν•œ μ„±λŠ₯을 λ‚˜νƒ€λ‚΄μ—ˆλ‹€.

ν‘œ 4. 3가지 GA 기반 ν•„ν„° μΆ•μ†Œ λ°©λ²•μ˜ 비ꡐ(15%/31% μ‚­μ œμœ¨)

Table 4. Comparison of three GA-based filter reduction methods (15%/31% reduction rate)

ACC Reduction Rate

One Time Deletion

Layer by Layer Deletion

Iteratively Partial Deletion

15%

89.7%

99.6%

99.8%

15% (Retrain)

98.3%

99.7%

99.9%

31%

83.2%

97.7%

98.6%

31% (Retrain)

93.4%

98.7%

99.2%

CIFAR-10 데이터 쀑 고양이 이미지에 λŒ€ν•œ ν™œμ„±ν™” 맡이 κ·Έλ¦Ό. 6에 μ‹œκ°ν™”λ˜μ–΄ μžˆλ‹€. μ’ŒμΈ‘μ— 원본 맡이 λ‚˜μ™€ 있고, 쀑간에 진화연산 기반의 반볡적 λΆ€λΆ„ μ‚­μ œλ₯Ό 톡해 얻은 필터에 ν•΄λ‹Ήν•˜λŠ” ν™œμ„±ν™” 맡이 λ‚˜μ™€ μžˆλ‹€. μ•„λž˜ 검은색 뢀뢄은 μ‚­μ œλœ 필터에 λŒ€μ‘ν•˜λŠ” 것이라 κ²€κ²Œ ν‘œμ‹œλ˜μ–΄ μžˆλ‹€. 원본 맡에 λΉ„ν•΄μ„œ, ν™œμ„±ν™” 정도가 μ•½ν•œ 맡듀이 제거되고, λŒ€λΆ€λΆ„ μœ μ˜λ―Έν•œ λ§΅λ“€λ‘œ κ΅¬μ„±λ˜μ–΄ μžˆμŒμ„ μ•Œ 수 μžˆλ‹€. μš°μΈ‘μ€ 제거된 필터에 ν•΄λ‹Ήν•˜λŠ” ν™œμ„±ν™” 맡이닀.

κ·Έλ¦Ό. 6. ν™œμ„±ν™” 맡의 μ‹œκ°ν™” (a) 원본 맡, (b) μ‚­μ œν›„ 맡, (c) 제거된 맡

Fig. 6. Visualization of the activation map (a) original activations (b) updated activations (c) removed activations

../../Resources/kiee/KIEE.2018.67.12.1665/fig1.png

5. κ²° λ‘ 

CNN λ„€νŠΈμ›Œν¬μ˜ μ„±λŠ₯을 μœ μ§€ν•˜λ©΄μ„œ, μš©λŸ‰κ³Ό κ³„μ‚°λΉ„μš©μ„ μΆ•μ†Œν•˜κΈ° μœ„ν•΄μ„œ 진화연산 기반의 ν•„ν„° μ‚­μ œ 방법을 μ œμ•ˆν•˜μ˜€λ‹€. 진화적 ν•„ν„° μ‚­μ œμ™€ μž¬ν›ˆλ ¨ 과정을 측별 μˆ˜ν–‰κ³Ό 반볡적 λΆ€λΆ„ μ‚­μ œ 방식을 κ΅¬ν˜„ν•˜κ³  전체 ν•œλ²ˆ μ‚­μ œ 방식과 λΉ„κ΅ν•˜μ˜€λ‹€. 6개측(conv 3, 풀링3)으둜 κ΅¬μ„±λœ μ†Œκ·œλͺ¨μ˜ CNN λ„€νŠΈμ›Œν¬μ„ μ‚¬μš©ν•˜μ—¬ CIFAR10 데이터에 λŒ€ν•΄μ„œ μ‹€ν—˜μ„ μˆ˜ν–‰ν•˜μ˜€κ³ , 원본 λ„€νŠΈμ›Œν¬μ— λŒ€λΉ„ λΆ„λ₯˜μ„±λŠ₯은 99%, μΆ•μ†Œμœ¨μ€ μ΅œλŒ€ 31%λ₯Ό 얻을 수 μžˆμ—ˆλ‹€. 이λ₯Ό 톡해 진화연산을 ν•„ν„° μ‚­μ œμ— μ μš©ν•  수 μžˆλŠ” κ°€λŠ₯성을 λ°œκ²¬ν•˜μ˜€κ³ , ν–₯ν›„ μΆ•μ†Œμœ¨μ˜ ν™•λŒ€ 및 κ°€μ€‘μΉ˜ 기반의 κ°€μ§€μΉ˜κΈ°(pruning) μ•Œκ³ λ¦¬μ¦˜κ³Όμ˜ 비ꡐ도 μˆ˜ν–‰ν•  μ˜ˆμ •μ΄λ‹€.

κ°μ‚¬μ˜ κΈ€

λ³Έ μ—°κ΅¬λŠ” 2017학년도 μ„œκ²½λŒ€ν•™κ΅ ꡐ내연ꡬ비 지원에 μ˜ν•˜μ—¬ μ΄λ£¨μ–΄μ‘ŒμŒ.

References

1 
Schmidhuber J., 2015, Deep Learning in Neural Networks: An Overview, Neural Networks, Vol. 61, pp. 85-117DOI
2 
LeCun Y., Bengio Y., Hinton G., 2015, Deep learning, Nature, Vol. 521, pp. 436-444DOI
3 
LeCun Yann, et al., 1998, Gradient based learning applied to document recognition, Proceedings of the IEEE, pp. 2278-2324DOI
4 
Park Yunwon, Kweon In So, 2016, Ambiguous Surface Defect Image Classification of AMOLEDD is playsin Smartphones, IEEE Trans. Industrial Informatics, Vol. 12, No. 2, pp. 597-607DOI
5 
Simonyan K., Zisserman A., 2014, Very Deep Convolutional Networks for Large-Scale Image Recognition, International Conference on Learning RepresentationsGoogle Search
6 
Szegedy C., Liu W., Jia Y., Sermanet P., Reed S., Anguelov D., Erhan D., Vanhoucke V., Rabinovich A., 2015, Going Deeper with Convolutions, Computer Vision and Pattern RecognitionGoogle Search
7 
He K., Zhang X., Ren S., Sun J., 2016, Deep Residual Learning for Image Recognition, Computer Vision and Pattern RecognitionGoogle Search
8 
Zagoruyko S., Komodakis N., 2016, Wide Residual Networks, arXiv: 1605.07146Google Search
9 
Fernando C. et al., 2016, Convolution by Evolution: Differentiable Pattern Producing Networks, In Proceedings of the 2016 Genetic and Evolutionary Computation Conference, Denver, CO, USA, pp. 109-116DOI
10 
Rikhtegar A., Pooyan M., Manzuri-Shalmani M., 2016, Genetic algorithm-optimised structure of convolutional neural network for face recognition applications, IET Computer Vision, Vol. 10, No. 6, pp. 559-566DOI
11 
Xie L., Yuille A., 2017, Genetic CNN, CVPRGoogle Search
12 
Suganuma M., Shirakawa S., Nagao T., 2017, A Genetic Programming Approach to Designing Convolutional Neural Network Architectures, Proceedings of GECCO 2017, pp. 497-504DOI
13 
Zoph B., Le Q. V., 2016, Neural Architecture Search with Reinforcement Learning, CoRR abs/1611.01578Google Search
14 
Liu C., Zoph B., Shlens J., Hua W., Li L. J., Fei-Fei L., Murphy K., 2018, Progressive Neural Architecture Search, ECCVGoogle Search
15 
Real E., Aggarwal A., Huang Y., Le Q. V., 2018, Aging Evolution for Image Classifier Architecture SearchGoogle Search
16 
Hu H., Peng R., Tai Y. W., Tang C. K., 2016, Network trimming: A data-driven neuron pruning approach towards efficient deep architectures, arXiv preprint arXiv:1607.03250Google Search
17 
Li H., Kadav A., Durdanovic I., Samet H., Graf H. P., 2016, Pruning Filters for Efficient ConvNets, CoRR abs/1608.08710Google Search
18 
Huang Q., Zhou K., You S., Neumann U., 2018, Learning to prune filters in convolutional neural networks, arXiv preprint arXiv:1801.07365Google Search
19 
Chen C., Tung F., Vedula N., Mori G., 2018, Constraint- Aware Deep Neural Network Compression, ECCV, Vol. 8, pp. 409-424Google Search
20 
Han S., Mao H., Dally W. J., 2015, Deep compression: Compressing deep neural networks with pruning, trained quantization and huffman coding, arXiv preprint arXiv:1510.00149Google Search
21 
Luo J. H., Wu J., Lin W., 2017, ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression, ICCV, pp. 5068-5076Google Search
22 
Kim J., Lee M., Choi J., Seo K., 2018, GA-based Filter Selection for Representation in Convolutional Neural Networks, ECCV 2018 Workshop on Compact and Efficient Feature Representation and Learning in Computer VisionGoogle Search
23 
Seo K., 2018, Analysis of evolutionary optimization methods for CNN structures, Transactions of the Korean Institute of Electrical Engineers, Vol. 67, No. 6, pp. 767-772Google Search

μ €μžμ†Œκ°œ

μ„œ κΈ° μ„± (Kisung Seo)
../../Resources/kiee/KIEE.2018.67.12.1665/au1.png

1986λ…„ μ—°μ„ΈλŒ€ν•™κ΅ 전기곡학과 μ‘Έμ—…(학사)

1988λ…„ μ—°μ„ΈλŒ€ν•™κ΅ λŒ€ν•™μ› 전기곡학과 μ‘Έμ—…(석사)

1993λ…„ μ—°μ„ΈλŒ€ν•™κ΅ λŒ€ν•™μ› 전기곡학과 μ‘Έμ—…(박사)

1999~2003λ…„ Michigan State University, Genetic Algorithms Research and Applications Group, Research Associate

2002~ 2003λ…„ Michigan State University, Electrical & Computer Engineering, Visiting Assistant Professor

2011~2012λ…„ Michigan State University, BEACON (Bio/ computational Evolution in Action CONsortium) Center, Visiting Scholar

1993λ…„~ν˜„μž¬ μ„œκ²½λŒ€ν•™κ΅ μ „μžκ³΅ν•™κ³Ό ꡐ수

κ΄€μ‹¬λΆ„μ•ΌλŠ” 진화연산, λ”₯λŸ¬λ‹, λ¨Έμ‹ λΉ„μ „, κΈ°μƒμ˜ˆμΈ‘, 지λŠ₯λ‘œλ΄‡