๊ฐ์๊ฒฝ
(Su-Kyung Kang)
1
๋ฐ๋ช
ํ
(Myung-Hye Park)
1
๊น์ํ
(Young-Hyun Kim)
1
๊น๋์ฐ2
์์ธ์ฉ
(In-Yong Seo)
โ iD
-
(Korea Electric Power Research Institute, Korea.)
-
(Electronics and Telecommunications Research Institute, Korea.)
Copyright ยฉ The Korean Institute of Electrical Engineers(KIEE)
Key words
Autoencoder, Stacked Autoencoder, Self-attention, Anomaly-Detection, Underground Cable Tunnel, Adversarial-Autoencoder
1. ์ ๋ก
์ ๋ ฅ์๋น ๋ฐ ๋์ ๋ฏธ๊ด์ ๋ํ ๊ด์ฌ ์ฆ๊ฐ๋ก ์ง์คํ ์ ๋ ฅ์ค๋น๋ก์ ์ ํ ์๊ตฌ๊ฐ ๋์์ง๊ณ ์์ผ๋ฉฐ, 2019๋
์ ๊ตญ ๋ฐฐ์ ์ค๋น ์ง์คํ์จ์ 10.8%๋ก ์์ธ์
60%์์ค์ ๋ฌํ๊ณ , ์ง์ค๋ฐฐ์ ์ ๋ก ๊ธ์ฅ์ 54,618 circuit-km๋ก ๋งค๋
์ฆ๊ฐํ๊ณ ์๋ค. ์งํ์ ๋ ฅ๊ตฌ๋ ๋ค๋์ ์ผ์ด๋ธ ๋ฐ ๋ถ์์์ฌ, ์ผ์ด๋ธ์
์ ์๊ณต๊ฐ์ ํฌํจํ๋ ๊ธฐ๋ฅ์ ๊ฐ์ง ๊ตฌ์กฐ๋ฌผ์ด๋ค. ์งํ์ ๋ ฅ๊ตฌ์ ์ฌ๊ณ ์ ํ์ ํ์ฌ๊ฐ ๋ง์ด ๋ฐ์ํ๋ฉฐ, ์ด๋ ์์ค๋ฌผ์ ๊ณต๊ธ๋๋ ์ ๊ธฐ์ ์ ์๋ถ ๋ฐ ์ ์ฐ๋ถ์ ๊ณผ์ด๋ก
์ธํ ์ฌ๊ณ ์ด๋ค. ๊ณ ์ฅ์จ ์ญ์ ๋งค๋
์ฆ๊ฐํ๋ ์ถ์ธ๋ก ์งํ์ ๋ ฅ๊ตฌ์ ๋ํ ์๊ฒฉ๊ฐ์๊ฐ ํ์์ ์ด๋ค. ์ด๋ฅผ ์ํด ์งํ์ ๋ ฅ๊ตฌ ๋ด๋ถ์ ์จ๋, ํํ๋์ ์ผ์๋ฅผ ์ฃผ์
์ง์ ์ ์ค์นํ ํ ์ฃผ๋ก ์์์ ๊ฒ์ ํตํด ์ ๋ ฅ๊ตฌ ์ ๊ฒ์ ์ํํ๊ณ ์๋ค. ๊ทธ๋ฌ๋ ์ผ์ฑ๋ ๋ฐ์ดํฐ ๊ธฐ๋ฐ์ ๋ถ์ ๊ธฐ๋ฅ์ด ์ ์ฉ๋์ง ์๊ณ ์ผ์ ํ ๊ฐ ๊ธฐ๋ฐ์ ๊ฒฝ๊ณ ๋ฅผ
์ ๊ณตํ๊ณ ์์ด ์ข
ํฉํ๋จ์ ๋ด๋ฆฌ๊ธฐ์ ๋ถ์กฑํ๋ค. ๋ฐ๋ผ์, ์์ ์ ์ธ ์ ๋ ฅ์๋น์ค๋ฅผ ์ ๊ณตํ๊ธฐ ์ํด์๋ ์ด์
ํ ํ๊ฒฝ์ ์ค๋น ์ํ๋ฅผ ๋ชจ๋ํฐ๋งํ์ฌ ์ค์๊ฐ์ผ๋ก ์ง๋จํ๊ณ ,
์ฌ์ ์ ์ค๋น ์ฅ์ ๋ฅผ ์์งํ์ฌ ์ฌ์ ์ ์กฐ์นํ๋ ๊ฒ์ด ๋ฌด์๋ณด๋ค ์ค์ํ๋ค.
์ต๊ทผ ์ฐ์
ํ์ฅ์์๋ ์ค๋น์ ๋ถ์ฐฉํ ์ผ์ ์ ๋ณด ๊ธฐ๋ฐ์ผ๋ก ๊ธฐ๊ณํ์ต ์๊ณ ๋ฆฌ์ฆ์ ์ ์ฉํ์ฌ ์ค๋น ์ํ๋ฅผ ์ง๋จํ๋ ๋ฐฉ์์ผ๋ก์ ํจ๋ฌ๋ค์ ์ ํ์ด ์ด๋ฃจ์ด์ง๊ณ ์๋ค.
์ด์์ง๋จ์ ๊ณตํ์์คํ
์ ์ค์ฌ์ฉ ํ๊ฒฝ์์ ๊ฐ์ข
์ผ์๋ฅผ ํตํด ๋ฐ์ดํฐ๋ฅผ ์์งํ์ฌ ์ค๋น์ ์ด์์ํ๋ฅผ ํ๋จํ๊ณ , ์ค๋น์ ์๋ช
์ ์์งํ์ฌ ์ฌ์ ์ ๋น๋ฅผ ์ค์ํ๋
๊ธฐ์ ๋ก(1) ์์ ๋ฌธ์ , ๋ถ๋ ๊ฒ์ฌ ๋ฑ ๋ชจ๋ ์ฐ์
์ ๊ฑธ์ณ ์ ์ฉ๋๊ณ ์๋ค. ์ด๋ฅผ ์ํด ๋ค์ํ ๋ฐฉ๋ฒ๋ค์ด ์ฌ์ฉ๋์ด ์์ง๋ง, ์ต๊ทผ์๋ ๋ฅ๋ฌ๋ ์๊ณ ๋ฆฌ์ฆ์ ํ์ฉํ์ฌ ์ฌ๋ฌ
๋น์ ํ ๋ณํ์ ํตํด ์์๋ฐ์ดํฐ์์ ๋ํ ํน์ง์ ์ฐพ์๋ด๋ ๋ฐฉ๋ฒ์ผ๋ก ์ด์์ง๋จ์ ์ฌ์ฉํ๊ณ ์๋ค(2). Vincent ๋ฑ์ ํญ๊ณต๊ธฐ ์์ง ๊ณ ์ฅ์ง๋จ์ ์ํด ํจํด์ถ์ถ๊ธฐ๋ก ์ ์ธต์ก์์ ๊ฑฐ ์คํ ์ธ์ฝ๋๋ฅผ ์ฌ์ฉํ๊ณ , ์ํํธ๋งฅ์ค ๋ถ๋ฅ๊ธฐ๋ฅผ ์ด์ฉํ์ฌ ๊ฒฐํจ์ ๋ถ๋ฅํ๋ ์ฐ๊ตฌ๋ฅผ
์ํํ์๋ค(3). ๋ํ ์ ๋๊ธฐ์ ๊ณ ์ฅ์ง๋จ์ ์ํด ์
๋ ฅ๋ฐ์ดํฐ๋ฅผ FFT ๋ณํ์ ํตํด CNN(Convolution Neural Network) ๊ตฌ์กฐ๋ก ๋ชจ๋ธ๋งํ์ฌ ์ค์๊ฐ
๋ถ์ํ๋ ๋ฐฉ๋ฒ์ ๋ํ ์ฐ๊ตฌ ์ฌ๋ก๋ ์๋ค(4).
Autoencoder(AE) ๋ชจ๋ธ์ ๋ํ์ ์ธ ์ด์ ์ง๋จ ๋คํธ์ํฌ ๋ชจ๋ธ๋ก ์
๋ ฅ ๋ฐ์ดํฐ๋ฅผ ์ ์ฐจ์์ ๋ถํธํ ๋ฐ์ดํฐ๋ก ๋ฐ๊พธ๋ ์ธ์ฝ๋ ๊ณ์ธต๊ณผ ์ด๋ฅผ ๋ค์ ์
๋ ฅ๋ฐ์ดํฐ
์ฐจ์์ผ๋ก ์์ฑํ๋ ๋์ฝ๋ ๊ณ์ธต์ผ๋ก ์ด๋ฃจ์ด์ ธ์๋ค. ์ ์์ํ์ ํ์ต๋ฐ์ดํฐ์๋ ๋ค๋ฅธ ์ด์ ๋ฐ์ดํฐ ๋ฐ์์ autoencoder ๋ชจ๋ธ์ถ๋ ฅ์์ ์์ค๊ฐ์ด ๋ค๋ฅด๊ฒ
์ถ๋ ฅ๋๋ค. ์ด๋ฅผ ์ด์์ํฉ ๊ฒ์ถ์์ ํ์ฉํ ์ ์๋ค.
ํ๊ตญ์ ๋ ฅ์ ์ ๋ ฅ์ค๋น ์ค ์งํ์ ๋ ฅ๊ตฌ์๋ ๋ฐฐ์ ์ ๋ก ๋๋ ์ก์ ์ ๋ก์ ๋๋ถ์ด ์ ๋ ฅ์ค๋น ์์ ์ฑ ์ง๋จ์ ์ํ ๊ฐ์ข
์ ๊ฒ์ค๋น๊ฐ ๊ตฌ๋น๋์ด์๋ค. ์ ๋ ฅ์ค๋น ์ธ ์์
์๋ฅผ
์ํ ๋งจํ, ํ๊ธฐ๊ตฌ ๋ฑ์ด ์์ผ๋ฉฐ, ํ์ฌ ๊ฐ์, ์นจ์๊ฐ์ง, ์ถ์
๋ฌธ๊ฐ์, ํ๊ธฐํฌ๊ฐ์, ๊ตฌ๋ด์จ๋ ์ผ์๋ฑ์ด ์งํ์ ๋ ฅ๊ตฌ๋ด ์ฃผ์ ์ง์ ๋ง๋ค ์ค์น๋์ด ์๋ค. ์ ๋ ฅ์ค๋น
์ธ ๊ฐ์ข
์ ๊ฒ ์ค๋น ์ญ์ ํ์ ์ ์ ๊ฒ ๋์ ํญ๋ชฉ์ผ๋ก ์งํ์ ๋ ฅ๊ตฌ ํ๊ฒฝ์ ๋ํ ์ด์๊ฐ์ง๋ฅผ ํตํด ๋ ํฐ ๋ฌธ์ ๋ก์ ํ์ฐ์ ๋ฐฉ์งํ๋ค.
ํ๊ตญ์ ๋ ฅ์ ์งํ์ ๋ ฅ๊ตฌ์ ํ๊ฒฝ์ ๋ฌด์ธ ๊ฐ์ํ๊ธฐ ์ํด Light Detection and Ranging(Lidar), RGB, ์ํฅ ๋ฐ์ดํฐ๋ฅผ ์์งํ์ฌ
Autoencoder ๋ชจ๋ธ์ ์ด์ฉํ ์งํ์ ๋ ฅ๊ตฌ ํ๊ฒฝ ๊ฐ์ ์์คํ
์ ๊ฐ๋ฐํ์๋ค. ๋ณธ ๋
ผ๋ฌธ์์๋ ์งํ์ ๋ ฅ๊ตฌ์์ ์ทจ๋ ๋ฐ ์์ฑํ ์ํฅ๋ฐ์ดํฐ๋ฅผ ๋์์ผ๋ก ๋จธ์ ๋ฌ๋
๋ชจ๋ธ์ ํ์ฉํ์ฌ ์์ค๋ฌผ์ ์ํ๋ฅผ ๋ถ์ํ๊ณ ์ด์๋ฐ์์ ๊ฒฝ๋ณด๋ฅผ ์ ๊ณตํ๋ค.
๋ณธ ๋
ผ๋ฌธ์ ๊ตฌ์ฑ์ ๋ค์๊ณผ ๊ฐ๋ค. 2์ฅ์์๋ ์ด์ํ์ง๋ฅผ ๊ฒ์ถํ๊ธฐ ์ํ ์คํ ์ธ์ฝ๋ ๊ด๋ จ ์ฐ๊ตฌ์ ๋ํด ์๊ฐํ๊ณ , 3์ฅ์ ์งํ์ ๋ ฅ๊ตฌ ๋ด์ ์ํฅ๋ฐ์ดํฐ ์ทจ๋
๋ฐ ์ ์ฒ๋ฆฌ ๋ฐฉ๋ฒ, 4์ฅ์์๋ ์ด์ํ์ง ๋ชจ๋ธ๋ง ๋ฐ ์ํ๊ฒฐ๊ณผ์ ๋ํด์ ์ค๋ช
ํ์๊ณ , ๋ง์ง๋ง 5์ฅ์ ๊ฒฐ๋ก ์ ๊ดํด ๊ธฐ์ ํ์๋ค.
2. Autoencoders
2.1 Autoencoder
๊ทธ๋ฆผ 1์ Autoencoder์ ๊ตฌ์กฐ๋ฅผ ๋ํ๋ธ๋ค. Autoencoder๋ encoder์ decoder๋ก ๊ตฌ์ฑ๋์ด ์๊ณ , ์
๋ ฅ๊ณผ ์ถ๋ ฅ์ ๋
ธ๋ ์๊ฐ ๊ฐ๋ค.
Hidden Layer์ ์๊ฐ input layer์ ์๋ณด๋ค ์์์ ๋ฐ์ดํฐ๋ฅผ ์ฐจ์ ์ถ์ํ๊ฑฐ๋ ์
๋ ฅ ๋ฐ์ดํฐ์ ๋
ธ์ด์ฆ๋ฅผ ์ถ๊ฐํ ํ ์๋ณธ ์
๋ ฅ์ ๋ณต์ํ
์ ์๋๋ก ๋คํธ์ํฌ๋ฅผ ํ์ต์ํค๋ ๋ชจ๋ธ์ด๋ค(5).
๊ทธ๋ฆผ. 1. Autoencoder์ ๊ตฌ์กฐ
Fig. 1. Architecture of Autoencoder
Autoencoder์ architecture๋ฅผ ์ค๋ช
ํ๊ธฐ ์ํด์ ์๋์ ๊ฐ์ ์ ์๊ฐ ํ์ํ๋ค.
1) $F, G$๋ ์ผ๋ฐ ์งํฉ์ด๋ค.
2) $n, p$๋ ์์ฐ์์ด๋ฉฐ, $0<p<n$์ ๋ง์กฑํ๋ค.
3) $A$๋ $G^{P}$์์ $F^{n}$๋ก์ ํจ์๋ค์ ํด๋์ค๋ฅผ ๋ํ๋ธ๋ค.
4) $B$๋ $F^{n}$์์ $G^{P}$๋ก์ ํจ์๋ค์ ํด๋์ค๋ฅผ ๋ํ๋ธ๋ค.
5) $X=\left\{x_{1},\: x_{2},\:\cdots ,\: x_{m}\right\}$์ $F^{n}$์ ํ์ต ๋ฒกํฐ๋ค์ ์งํฉ์ ์๋ฏธํ๋ค.
$Y=\left\{y_{1},\: y_{2},\:\cdots ,\: y_{m}\right\}$์ $F^{n}$์ ํ์ต ๋ฒกํฐ๋ค์ ๋์๋๋ ๋ชฉํ ๋ฒกํฐ๋ค์
๋ํ๋ธ๋ค.
6) ฮ๋ $F^{n}$์์ ์ ์๋ ๋น์ ์ฌ ํจ์ (dissimilarity function)์ด๋ค.
Autoencoder์ ์ต์ข
์ถ๋ ฅ ์์ (1)๊ณผ ๊ฐ๋ค.
์ฌ๊ธฐ์, ์์์ ํจ์ $A, B$๋ $AโA$, $BโB$์ด๊ณ , autoencoder ๋ณํ์ ์
๋ ฅ ๋ฒกํฐ๋ $x_{t}$์ด๋ฉฐ autoencoder ๋ณํ์
์ถ๋ ฅ ๋ฒกํฐ๋ (1)๊ณผ ๊ฐ์ด $Y$์ด๋ค.
์ต์ ์ autoencoder ๋ณํ์ ์ํ ์ต์ ํด $A, B$๋ (2)์ ๊ฐ์ด ์ ์๋ ๋น์ ์ฌ ํจ์๋ฅผ ์ต์ํ ์์ผ์ผ ํ๋ค.
์ฌ๊ธฐ์ $\Delta\left(a_{i}, b_{i}\right)=\left\|a_{i}-b_{i}\right\|^{2}$์ด๋ค.
2.2 Stacked Autoencoder
Stacked Autoencoder(SAE)๋ ์ฌ๋ฌ ๊ฐ์ ํ๋ ๋ ์ด์ด๋ฅผ ๊ฐ์ง๋ ์คํ ์ธ์ฝ๋์ด๋ฉฐ, ๋ ์ด์ด๋ฅผ ์ถ๊ฐํ ์๋ก ์คํ ์ธ์ฝ๋๊ฐ ๋ ๋ณต์กํ ํ์ต์ด ๊ฐ๋ฅํ๋ค(6). ์
๋ ฅํ ๋ ์
๋ ฅ ๊ฐ์ด ์์ถ๋จ์ผ๋ก์จ ์์ค ์๋ ์๋ฒฝํ ์ถ๋ ฅ ๋ณต์ฌ๋ ๋ถ๊ฐ๋ฅํ๋ฉฐ, ํ๋ ๋ ์ด์ด์์ ์
๋ ฅ์ ํน์ฑ์ ํ์ตํ๋ค. Stacked Autoencoder
๊ธฐ๋ฒ์ ์ฌ์ฉ์ ํธ๋ฆฌ์ฑ๊ณผ ์ ์ฐ์ฑ์ผ๋ก ์ธํด, ํ์ฌ๋ ๋ง์ ์ด์ ์ง๋จ ๋ชจ๋ธ์์ ๋ค์ํ ๋ฐฉ๋ฒ์ผ๋ก ์ฌ์ฉ๋๊ณ ์๋ ๋ชจ๋ธ์ด๊ณ , ๋ ์ด์ด ์ถ๊ฐ ์ญ์ ๊ฐ ์ฉ์ดํ์ฌ ์ด์์ง๋จ์
ํญ๋๊ฒ ํ์ฉ๋๊ณ ์๋ค.
๊ทธ๋ฆผ. 2. Self-Attention module ์์ฑ๋ฐฉ๋ฒ
Fig. 2. Generation of Self-Attention module
2.3 Attention Mechanism
Self attention ๋ชจ๋์ ์ด๋ฏธ์ง์์ ๋์ ๋ฒ์์ ์ฌ๋ฌ ๋จ๊ณ์ dependency์ ๋ํด ๋ชจ๋ธ๋ง ํ ์ ์์ด ๊ธฐ์กด convolution์ ๋จ์ ์
๋ณด์ํ ์ ์๋ ํน์ง์ด ์๋ค. ๊ทธ๋ฆผ 2๋ self-attention์ ๋ฉ์นด๋์ฆ์ ๋ณด์ฌ์ฃผ๋ ๊ฒ์ผ๋ก, ํ ํฝ์
๊ณผ ๋ค๋ฅธ ํฌ์ง์
์ ํฝ์
๋ค ๊ฐ์ ๊ด๊ณ๋ฅผ ๋ช
์์ ์ผ๋ก ํ์ตํ๋๋ก ์ค๊ณ๋ ๊ฒ์ด๋ค.
Self attention์ ๋ฉ์นด๋์ฆ์ ๋ค์๊ณผ ๊ฐ๋ค(7). Convolution feature maps(x)์ 3๊ฐ๋ก ๋ณต์ ๋์ด ๋๋ ์ง๋ฉฐ, ์ด์ hidden layer $x\in R^{C\times N}$์
image feature๋ attention์ ๊ณ์ฐํ๊ธฐ ์ํด ๋ ๊ฐ์ ํผ์ณ ๊ณต๊ฐ $f,\:{g}
$๋ก ๋ณํ๋๋ฉฐ, ์ฌ๊ธฐ์ $f(x)= W_{f}x$, ${g}(x)= W_{{g}}x$,
$\beta_{j,\:i}$๋ $j
$๋ฒ์งธ ์ง์ญ์ ํฉ์ฑํ ๋ $i
$๋ฒ ์์น์ ์ง์คํ๋ ์ ๋๋ฅผ ๋ํ๋ธ๋ค. ์ฌ๊ธฐ์ $C
$๋ ์ฑ๋์ ์์ด๊ณ , $N
$์ ์ด์ hidden layer์์ feature๋ค์ feature location์ ๊ฐ์์ด๋ค. Attention layer์ ์ถ๋ ฅ์ $O=(o_{1},\:
o_{2},\:\cdots ,\: o_{j},\:\cdots ,\: o_{N})\in R^{C\times N}$
$W_{{g}}\in R^{\bar{C}\times C},\: W_{f}\in R^{\bar{C}\times C},\: W_{h}\in R^{\bar{C}\times
C},\:$$W_{v}\in R^{C\times\bar{C}}$๋ ํ์ต๊ฐ์ค ๋งคํธ๋ฆญ์ค์ด๋ค.
์ถ๋ ฅ $y
$๋ ์(5)์ ๊ฐ์ด self-attention feature map(o)์ scale parameter $\gamma$๋ฅผ ๊ณฑํ๊ณ , original input
feature map์ ๋ํ๋ค.
scale parameter $\gamma$๋ ์ด๊ธฐ๊ฐ์ด 0์ด์ง๋ง ํ์ต๊ณผ์ ์์ ์ ์ฐจ ์ฆ๊ฐํ๊ณ , ๋คํธ์ํฌ๋ ์ฒ์์๋ ๋ก์ปฌ ์์ญ์๋ง ์์กดํ๋ค๊ฐ ์ ์ฐจ ๋ฉ๋ฆฌ
์๋ ์์ญ์ ๋ ๋ง์ ๊ฐ์ค์น๋ฅผ ์ฃผ๋ ๋ฐฉ๋ฒ์ ํ์ตํ ์ ์๋๋ก ๊ตฌ์ฑํ๋ค. ๋ฐ๋ผ์ Self-attention์ด ์ ์ฉ๋ SAE๋ ์คํ ์ธ์ฝ๋์ ์ธ์ฝ๋ฉ ๋จ๊ณ์์
์ฌ๋ผ์ง ์ ์๋ ๋ํ
์ผํ feature ํน์ฑ์ ์ ์ฒ๋ฆฌํ ์ ์๋ค.
๊ทธ๋ฆผ. 3. Convolutional filter์ self attention๊ฐ์ ์ฐจ์ด
Fig. 3. Difference between convolutional filter and self attention
์ผ๋ฐ์ ์ธ Convolution ๋คํธ์ํฌ์์ ํ๋์ ํฝ์
์ ์์ ๋ก์ปฌ ์์ญ์ผ๋ก ์ ํํ๋ ๋ฐ๋ฉด, Self-Attention์ ๊ทธ๋ฆผ 3์์์ ๊ฐ์ด, ์ผ๋ฐ์ ์ธ CNN ๊ตฌ์กฐ์์ ๋ฐ์ํ๋ ํฝ์
๊ณผ ์ด์ ๊ฐ์ ํน์ง์ ์์ฃผ๋ก ์ถ์ถํ๋ ๋จ์ ์ ๋ณด์ํ์ฌ ๋ฉ๋ฆฌ ๋จ์ด์ง ์์ญ์ด๋๋ผ๋ ์ฝ๊ฒ ์ ์์ญ์์์
์์กด์ฑ์ ํ์ตํ ์ ์๋ค.
2.4 Adversarial-Auto Encoder
Adversarial-Auto Encoder(AAE)๋ Variational Auto-Encoder (VAE)์ Generative Adversarial
Network(GAN)์ ๊ฒฐํฉํ ์ค์ง๋ ํ์ต Neural Network์ด๋ค(8). AAE๋ VAE์ ๋จ์ ์ธ ํ๋ณธ์ ์ ๊ท๋ถํฌ ๊ฐ์ ๊ณผ ์ํธ ๊ฑฐ๋ฆฌ๊ณ์ฐ ๋ฌธ์ ๋ฅผ ๊ทน๋ณตํ๊ธฐ ์ํด GAN ๊ตฌ์กฐ๋ฅผ ์ถ๊ฐํจ์ผ๋ก์จ, ๋ณด๋ค ํจ๊ณผ์ ์ธ ๋คํธ์ํฌ ํ์ต์
๊ฐ๋ฅํ๊ฒ ํ๋ค. ์์ฑ์์ encoder๋ ๋ฐ์ดํฐ x๋ฅผ ์
๋ ฅ๋ฐ์์ ์ ์ฌ๋ณ์ z๋ฅผ ์ํ๋งํ๊ณ ์ ์ฌ ๊ณต๊ฐ์์ ๋ฐ์ดํฐ๋ฅผ ๋งคํํ๋ค. ์์ฑ์์ Generator๋
์ด๋ก๋ถํฐ ๋ค์ x๋ฅผ ๋ณต์ํ๋ค. AAE๋ ๊ธฐ์กด VAE์์ GAN์ ๊ตฌ๋ถ์(discriminator)์ญํ ์ ํ๋ ๋คํธ์ํฌ๊ฐ ์ถ๊ฐ๋์๋ค. ์ด ๊ตฌ๋ถ์๋ encoder๊ฐ
์์กฐํ z์ p(z)๋ก๋ถํฐ ์ง์ ์ํ๋งํ real z๋ฅผ ๊ตฌ๋ถํ๋ค. ํ์ต์์๋ ์ ์๋ฐ์ดํฐ๋ฅผ ํ์ฉํ๊ณ , ์คํ์ Query Image์ ๋ํ์ฌ ๋ณต๊ตฌ ์์์
๊ตฌํ ๋ค MSE๋ฅผ ๋์ถํ๋ค. ์ด MSE์ ์ต๋ ์ต์์น๋ฅผ ๊ณ ๋ คํ Regularity score๋ก ์ ์๊ณผ ๋น์ ์์ ํ๋ณํ ์ ์๋ค.
3. AE๋ฅผ ์ด์ฉํ ์งํ์ ๋ ฅ๊ตฌ ์ด์ํ์ง์์คํ
3.1 ์ด์ ํ์ง์์คํ
๊ตฌ์กฐ
๊ทธ๋ฆผ 4๋ ์ด์ํ์ง ์์คํ
๊ตฌ์กฐ๋๋ฅผ ๋ํ๋ด๋ ๊ฒ์ผ๋ก ๋ฐ์ดํฐ ์
๋ ฅ ํ ์ ์ฒ๋ฆฌ๋ฅผ ํตํด ์ด๋ฏธ์งํ ์ํจ ํ ๋ฅ๋ฌ๋ ํ์ต์ ์ํจ ํ ์์ค๊ฐ์ ์ถ์ถํ์ฌ ์ ์, ๋น์ ์์ ๋ฌด๋ฅผ
ํ๋จํ๋ค. ๋ณธ ๋
ผ๋ฌธ์์๋ ์ํฅ ๋ฐ์ดํฐ๋ง์ ๋์์ผ๋ก 4๊ฐ์ง ์ด์ํ์ง ์๊ณ ๋ฆฌ์ฆ์ ์ ์ฉํ๊ณ ๊ทธ ์ฑ๋ฅ์ ๋ํด ๋
ผํ๊ณ ์ ํ๋ค.
๊ทธ๋ฆผ. 4. ์ด์ํ์ง ์์คํ
๊ตฌ์กฐ๋
Fig. 4. Architecture of Anomaly-Detection System for underground cable tunnel
3.2 ์ด์ํ์ง์ฉ ์ํฅ ๋ฐ์ดํฐ ์ทจ๋ ๋ฐ ์ ์ฒ๋ฆฌ
์ํฅ ๋ฐ์ดํฐ๋ 9์ข
(rain, water drop, human walking, convert- sation, water pump, engine, drilling,
jack hammer, construction)์ ์ ์ ๋ฐ์ดํฐ ์
๊ณผ 1์ข
(siren)์ ์ด์ ๋ฐ์ดํฐ ์
์ผ๋ก ๊ตฌ์ฑํ์๋ค. Water drop, water
pump, human walking์ ์์์ ํ์ฅ ์งํ ์ ๋ ฅ๊ตฌ์์ ์ํฉ์ ๋ฐ์์์ผ ๋
น์ํ์๊ณ , rain, conversation, engine, drilling,
jack hammer, construction, siren 7์ข
์ ๋ฐ์ดํฐ๋ ๋ด์๋์ MARL(Music and Audio Research Lab)(9)์์ ๋ค์ด๋ฐ์ ํ์ฉํ์๋ค. ์ 7์ข
์ ์ํฅ์ ์ฌ์ํ์ฌ ์งํ์ ๋ ฅ๊ตฌ ํ์ฅ ํน์ ์ ์ก์๊ณผ ๊ฐ์ด ๋
น์ํ์ฌ ์ํฅ ๋ฐ์ดํฐ๋ฅผ ํ๋ณดํ์๋ค. Mel Frequency
Cepstral Coefficient(MFCC) ๊ธฐ๋ฐ์ ํน์ง ๋ฒกํฐ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ์ด 10์ข
์ํฅ ํด๋์ค ์ค 9์ข
์ ์ ์ฌ ์ํฅ ์ ํธ(water drop,
jackhammer ๋ฑ)์ ์ ์ ์ ํธ๋ก ๋ถ๋ฅํ๊ณ , ํน์ฑ์ด ๋ค๋ฅธ 1์ข
์ ์ํฅ์ ํธ(siren)๋ฅผ ๋น์ ์ ์ ํธ๋ก ์์ธํ์ฌ, ๋น์ ์ ์ ํธ ํ๋ณ ์ฌ๋ถ๋ฅผ ์ํํ์๋ค.
๊ทธ๋ฆผ. 5. ์ธก์ ํ 10์ข
์ํฅ ๋ฐ์ดํฐ ์ํ
Fig. 5. Measured Sound Data
๊ทธ๋ฆผ. 6. ์ํฅ ์ ํธ ์ ์ฒ๋ฆฌ(MFCC) ๊ฒฐ๊ณผ
Fig. 6. MFCC Preprocessed Sound Signal
๊ทธ๋ฆผ. 7. ์ทจ๋ ๋ฐ์ดํฐ ์๋
Fig. 7. Number of Sample data
์ค๋์ค ๋ฐ์ดํฐ๋ MFCC ์ ์ฒ๋ฆฌ ๊ธฐ๋ฒ์ ์ ์ฉํ์ฌ 1์ฐจ์์ ์๊ณ์ด ๋ฐ์ดํฐ๋ฅผ 2์ฐจ์์ ์ด๋ฏธ์ง ํํ์ ๋ฐ์ดํฐ๋ก ๊ฐ๊ณตํ์๋ค. MFCC๋ ์ํฅ์ ํธ ์ฒ๋ฆฌ์ ์์ด,
๋จ๊ธฐ ์ ํธ์ ํ์ ์คํํธ๋ผ์ ํํํ๋ ๋ฐฉ๋ฒ ์ค ํ๋๋ก์จ, ์ ๋ ฅ ์คํํธ๋ผ์ ๋น์ ํ์ Mel ์ค์ผ์ผ ์ฃผํ์ ํํฐ๋ฅผ ์ ์ฉํ์ฌ ์ป๋ ๋ฐฉ๋ฒ์ ๋งํ๋ค(10). MFCC ํน์ง ๋ฒกํฐ๋ ๊ทธ๋ฆผ 6๊ณผ ๊ฐ์ด 48๊ฐ์ MFCC ๊ณ์๋ฅผ ์ด์ฉํ๊ณ , 12kHz ์ํ๋ง ์ฃผํ์์ ๋ฐ๋ผ 4์ด ์ํฅ ์ํ์ ์๋์ฐ ์ค์ฒฉ์ ํตํด 188๊ฐ์ ํน์ง ๋ฒกํฐ๋ฅผ ๊ฐ๋๋ก ๊ตฌ์ฑํ์ฌ,
์ํ ๋น 48ร188์ ํ์ต ์
๋ ฅ ๋ฐ์ดํฐ๋ฅผ ๊ฐ๋๋ก ํ์๋ค. ์ฌ์ด๋๋ฅผ ์ ํํํ ์ ์๋ ์คํํธ๋ผ ํํ์ ์ด๋ฏธ์ง๋ก ๋ณํํ์๊ณ , ํ ์คํํธ๋ผ ๋น 4์ด์ฉ
๋ฐ์ดํฐ๋ฅผ ๋ง๋ค๊ณ , MFCC๋ฅผ ํฌํจํ ์ ์ฒ๋ฆฌ ๊ณผ์ ์ ๊ฑฐ์ณ ๊ทธ๋ฆผ 7๊ณผ ๊ฐ์ด ๋ฐ์ดํฐ๋ณ๋ก 1,000๊ฐ ์ด์์ฉ 10์ข
์ผ๋ก 10,000๊ฐ ์ด์์ ๋ฐ์ดํฐ๋ฅผ ์์ฑํ์๋ค.
4. ๋ชจ๋ธ๋ง ๋ฐ ์ฑ๋ฅ ๊ฒ์ฆ
4.1 Stacked Autoencoder ๋ชจ๋ธ๋ง
์ํฅ ์ด์์ง๋จ์ฉ SAE ๋ชจ๋ธ์ convolution layer, max-pooling layer, upsampling layer, batch_normalization
layer๋ก ๊ตฌ์ฑํ์๋ค. ์ํฅ์ ํธ์ ๋ํ SAE ๋ชจ๋ธ์ ์ธ์ฝ๋๋ Convolution layer- Leaky Relu layer-Maxpooling
layer์ ๋ฐ๋ณต์ผ๋ก ๊ตฌ์ฑํ์๋ค. ๋์ฝ๋๋ ๋์นญ๊ตฌ์กฐ๋ก ๊ฐ๋ฐํ๊ณ ๋ง์ง๋ง Activation layer๋ sigmoid ํจ์๋ฅผ ํ์ฉํ์๋ค. z-dimension์
8๋ก ์์ถํ์๊ณ , epoch์ 1000์ผ๋ก ์งํํ์๋ค. Optimizer๋ Adam ๊ธฐ๋ฒ์, Lossํจ์๋ก๋ MSE๋ฅผ ์ฌ์ฉํ์๋ค. ์ํฅ ๋ฐ์ดํฐ๋ MFCC
์ ์ฒ๋ฆฌ๊ธฐ๋ฒ์ ํตํด 2D ์ด๋ฏธ์งํํ์ฌ 48ร188ร1์ ์
๋ ฅ์ฌ์ด์ฆ๋ก ์ ์์ํ์ ๋ฐ์ดํฐ ์
9์ข
์ ์ํฅ ํด๋์ค๋ฅผ SAE ๋ชจ๋ธ์ ํ์ต ์ํจ๋ค. Criteria
๊ฐ์ ํ์ต์ ํตํด ๋์ถ๋ ์ต๋๊ฐ์ ๊ธฐ์ค์ผ๋ก ์ ํ์๊ณ , criteria๋ฅผ ๊ธฐ์ค์ผ๋ก ์ ์๊ณผ ๋น์ ์์ ๊ตฌ๋ถํ์๋ค. ๊ทธ๋ฆผ 8์ ๋ฐ๋ณต์ ์ธ ์คํ์ ํตํด ๊ตฌ์ฑํ ์ต์ ์ SAE ๋ชจ๋ธ์ ๋ณด์ฌ์ค๋ค. ์ด ๋ชจ๋ธ์ ์ด์์ง๋จ ์ฑ๋ฅ์ 87%๋ฅผ ๋ณด์๋ค.
๊ทธ๋ฆผ. 8. Stacked Autoencoder ๊ตฌ์กฐ
Fig. 8. Abnormal Sound Diagnostic Model using Stacked Autoencoder
4.2 Adversarial Autoencoder ๋ชจ๋ธ๋ง
Adversarial Autoencoder(AAE) ๋ชจ๋ธ์ ํฌ๊ฒ Encoder, Generator, Discriminator ๊ตฌ์กฐ๋ก ๊ตฌ๋ถ๋๋ค. ์ธ์ฝ๋,
Generator ๊ตฌ์กฐ๋ AE ๊ตฌ์กฐ์ ์ ์ฌํ๊ณ , Discriminator ๊ตฌ๋ถ์์ ๊ฒฝ์ฐ Dense Layer๋ก ๊ตฌ์ฑํ์๋ค. ๊ทธ๋ฆผ 9์ AAE ๋ชจ๋ธ์์๋ ํ์คํธ์ฐจ(ฯ)์ ํ๊ท ๊ฐ(ฮผ)๋ฅผ ๊ธฐ๋ฐ์ผ๋ก latent space z๋ฅผ ์ค์ ํ๋ค. ์ดํ Discriminator์์ ์ ์๋ฐ์ดํฐ๋ฅผ
๊ธฐ๋ฐ์ผ๋ก ํ์ต์ ์งํํ๋ค.
AE ๋ชจ๋ธ์์๋ ์๋ ๊ทธ๋ฆผ๊ณผ ๊ฐ์ด MFCC๋ฅผ ๊ธฐ๋ฐ์ผ๋ก 48ร188ํฌ๊ธฐ์ ์ํฅ ํน์ง์๋ฅผ ๊ตฌํํ๊ณ , ์ด๋ฅผ AAE ๋ชจ๋ธ์ ์
๋ ฅ์ผ๋กํ๋ค. ์ธ์ฝ๋ ๋จ์ 4ร188ร48(1stLayer)+4ร94ร24(2ndLayer)
+8ร 94ร24(3rd Layer)+8ร47ร12(4th Layer)+4512(5th Layer)๋ก ๊ตฌ์ฑํ์๋ค. ์์ฑ์ ๋จ์ 4512(1st Layer)+8ร47ร12(2nd
Layer)+8ร 94ร24(3rd Layer)+4ร94ร24(4th Layer)+4ร188ร48(5th Layer)๋ก ๊ตฌ์ฑ๋์ด์๋ค. ์ธ์ฝ๋ ๋จ์
5๋ฒ์งธ ๋ ์ด์ด์์ ์์์ ํ์คํธ์ฐจ(ฯ)์ ํ๊ท ๊ฐ(u)์ ๋ฐํ์ผ๋ก Kullback Leibler-Divergence๋ฅผ ์ด์ฉํ์ฌ q(z)์ p(z) ์์ฑํ์๋ค.
์ดํ ๊ตฌ๋ถ์๋จ์์๋ Fully connected Layer๋ก 16(1st Layer)+8(2nd Layer)+1(3rd Layer)๋ก ๊ตฌ์ฑํ์ฌ ๋ชจ๋ธ๋งํ์๋ค.
๊ทธ๋ฆผ. 9. AAE๋ฅผ ์ฌ์ฉํ ์ด์์ํฅ ์ง๋จ ๋ชจ๋ธ
Fig. 9. Abnormal Sound Diagnostic Model using AAE
4.3 Attention ์ถ๊ฐ SAE ๋ชจ๋ธ๋ง
๋ฅ๋ฌ๋ ๋ชจ๋ธ์ด ํน์ ๋ฒกํฐ์ ์ฃผ๋ชฉํ์ฌ ๋ชจ๋ธ ์ฑ๋ฅ์ ๋์ด๋ ๊ธฐ๋ฒ์ธ self-attention์ SAE์ ์ ์ฉํ์๋ค. Attention ๊ธฐ๋ฐ SAE ๋ชจ๋ธ์
SAE ๋ชจ๋ธ ์ฝ๋์ โAttentionโ ๋ ์ด์ด๋ฅผ ์ธ์ฝ๋ ํํธ์ ์ถ๊ฐํ๋ค. Attention ๋ชจ๋์ ํฌ๊ธฐ ์กฐ์ ๋ฐ ์์น๋ณ๊ฒฝ ์คํ์ ํตํด ์ธ์ฝ๋ ๋ง์ง๋ง
hidden layer์ ์๋จ์ ์์น์ํค๊ณ , ์ฌ์ด์ฆ๋ฅผ 24ร94ร16๋ก ํ์์ ๋ ์ด์ ํ์ง ์ฑ๋ฅ์ด ๊ฐ์ ๋จ์ ์ ์ ์์๋ค. Attention ๊ธฐ๋ฐ
SAE ๋ชจ๋ธ์ 91%๋ก, attention ๋ชจ๋์ ์ถ๊ฐํจ์ผ๋ก ์ธํด ์ฑ๋ฅ์ด 4% ์ฆ๊ฐํ์์์ ์ ์ ์๋ค.
๊ทธ๋ฆผ. 10. Attention ๊ธฐ๋ฐ SAE๋ชจ๋ธ ๋ฐ ํ๋ก์ฐ ์ฐจํธ
Fig. 10. Abnormal Sound Diagnostic Model using Attention based SAE
๊ทธ๋ฆผ. 11. Attention ๊ธฐ๋ฐ AAE๋ชจ๋ธ
Fig. 11. Attention based AAE Model
4.4 Attention ์ถ๊ฐ AAE ๋ชจ๋ธ๋ง
Attention layer๋ฅผ ์ธ์ฝ๋์ generator ๋จ์ ์ฎ๊ฒจ๊ฐ๋ฉด์ ๋ฐ๋ณต์คํ์ ํ ๊ฒฐ๊ณผ, AAE ๋ชจ๋ธ๋ณด๋ค ์ฑ๋ฅ์ด ๋จ์ด ์ก์ง๋ง, generator
๋จ์ ์ต์ ์ฌ์ด์ฆ์ ๊ฐ์ ํฌ๊ธฐ์ attention layer(12ร47ร8)๋ฅผ ์ฝ์
ํ์์ ๊ฒฝ์ฐ, ์ด์ํ์ง ์ ํ๋๊ฐ ๊ทธ๋๋ง ๋ ์ ํ๋จ์ ํ์ธํ์๋ค.
๋ณธ ์ด์ํ์ง ์์คํ
์์๋ AAE ๋ชจ๋ธ์ attention layer ์ถ๊ฐํ ๊ฒฝ์ฐ ์ฑ๋ฅ์ด 70%๋ก, AAE ๋ชจ๋ธ์ ๋นํด ์ฑ๋ฅ์ด ์คํ๋ ค 14% ๋ฎ์์ง์
๋ณด์๋ค.
4.5 ์ํฅ ํ์ต๋ชจ๋ธ ์ํ ๊ฒฐ๊ณผ
์ค์ ์ ์์ผ๋ก ์ด์๋๊ณ ์๋ ์งํ์ ๋ ฅ๊ตฌ๋ฅผ ๋์์ผ๋ก ๋ฐ์ดํฐ๋ฅผ ์ทจ๋ํ์์ผ๋ฏ๋ก ์์ง๋ ๋ฐ์ดํฐ๋ ๋๋ถ๋ถ ์ ์์ด๋ฉฐ, ๋ชจ๋ธ์ ์ฑ๋ฅ์ ํ์ธํ๊ธฐ ์ํ์ฌ ์ธ์์ ์ผ๋ก
์ด์๋ฐ์ดํฐ๋ฅผ ์์ฑํ์ฌ ์ฑ๋ฅ ๋ถ์์ ์ํํ์๋ค. ๋ชจ๋ธ์ ์ด 10,000๊ฐ์ ๋ฐ์ดํฐ ์ค ์ ์๋ฐ์ดํฐ 9000๊ฐ๋ฅผ ์ฌ์ฉํ์ฌ ํ์ต์์ผฐ๊ณ , ํ
์คํธ์์๋ ํ์ต์
์ฌ์ฉ๋์ง ์์ 500๊ฐ์ ์ ์ ๋ฐ์ดํฐ์ 500๊ฐ์ ์ด์ ๋ฐ์ดํฐ๋ฅผ ์
๋ ฅํ์ฌ MSE ํจ์๋ฅผ ์ ์ฉํ์ฌ ์์ค๊ฐ์ ๋น๊ตํ๋ ๋ฐฉ์์ผ๋ก ์ด์ ์ํฅ ์ฌ๋ถ๋ฅผ ํ๋ณํ๊ณ
์ฑ๋ฅ์ ํ๊ฐํ์๋ค.
๊ทธ๋ฆผ 12๋ attention ๊ธฐ๋ฐ SAE ๋ชจ๋ธ์ ๋ฐ๋ณต ํ์ต์ํฌ ๋์ ์์ค๊ฐ์ ๋ณด์ฌ์ฃผ๋ฉฐ, ์์ค๊ฐ์ด ์ง์ํจ์์ ์ผ๋ก ๊ฐ์ํ์ฌ ์๋ ดํ๋ฏ๋ก ๋ชจ๋ธ์ด ์ ์์ ์ผ๋ก ํ์ต๋์์์
์ ์ ์๋ค.
๊ทธ๋ฆผ. 12. ์ดํ
์
๊ธฐ๋ฐ ์คํ ์ธ์ฝ๋ ๋ชจ๋ธ ํ์ต ์ปค๋ธ
Fig. 12. Loss value curve for Attention based SAE Model
๊ทธ๋ฆผ. 13. ์ดํ
์
๊ธฐ๋ฐ AAE ๋ชจ๋ธ์์์ ์ ์ฌ๋ณ์ ICA ๊ตฐ์งํ ๋น๊ต
Fig. 13. ICA Clustering of Latent Variables for Attention Based AAE
๊ทธ๋ฆผ 13์ Independent Component Analysis(ICA) ๋ฐฉ๋ฒ์ ํ์ฉํ์ฌ AAE ๋ชจ๋ธ์ ์ ์ฌ๋ณ์ ๊ตฐ์งํ๋ฅผ 3์ฐจ์์ผ๋ก ๋ณด์ฌ์ฃผ๋ ๊ฒ์ด๋ค. latent
์ฌ์ด์ฆ๊ฐ 6์ผ ๋ ๋นจ๊ฐ์์ ์ ์, ๋
ธ๋์์ ๋น์ ์ ๋ฐ์ดํฐ์ ๊ตฐ์งํ๋ฅผ ๋ํ๋ด๋ฉฐ ์ ์์ ์ผ๋ก ๋ชจ๋ธ๋ง์ด ๋์์์ ํ์ธํ ์ ์๋ค.
๊ทธ๋ฆผ 14๋ attention ๊ธฐ๋ฐ SAE ๋ชจ๋ธ์ ์ฌ์ฉํ์ฌ ํ
์คํธ ๋ฐ์ดํฐ์ ๋ํด ์ด์ ํ์ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์ฌ์ฃผ๋ ๊ฒ์ผ๋ก, ๋นจ๊ฐ์ โณ๋ ์ด์๋ฐ์ดํฐ, ํ๋์ xํ๋
์ ์๋ฐ์ดํฐ๋ฅผ ๋ํ๋ธ๋ค. Loss๊ฐ์ด โ250~-300 ๊ทผ์ฒ์ผ ๊ฒฝ์ฐ ์ด์ ์ง๋จ์ ์๋ฌ๊ฐ ๋ฐ์ํ ์ ์์์ ์ ์ ์๋ค.
๊ทธ๋ฆผ. 14. ์ ์/์ด์ TEST Data์ ๋ํ ์ดํ
์
๊ธฐ๋ฐ ์คํ ์ธ์ฝ๋ ๋ชจ๋ธ์ ์ถ๋ ฅ ๊ตฐ์ง
Fig. 14. Normal/Abnormal test data cluster of attention based AE Model output
๋ชจ๋ธ ์ถ๋ ฅ์ ์ด์ํ๋จ ๊ธฐ์ค์ ํ
์คํธ์ฉ ๋ฐ์ดํฐ์ธํธ๋ฅผ ํ์ต์ด ์๋ฃ๋ ๋ชจ๋ธ์ ์
๋ ฅํ ๋ค, ์
๋ ฅ๋ ์ด๋ฏธ์ง์ ์ถ๋ ฅ๋ ์ด๋ฏธ์ง ๊ฐ์ MSE๋ฅผ ๊ธฐ์ค์ผ๋ก ์ค์ ํ์๋ค.
Criteria ๊ฐ์ ํ์ต์ ์ ์ ์ํ๋ง ๋ฐ์ดํฐ 100๊ฐ๋ฅผ ๊ธฐ์ค์ผ๋ก 80ํผ์ผํ์ผ์ ์ ์/๋น์ ์์ ํ๋ณํ๋๋ก ํ์๋ค. ์ฑ๋ฅํ๊ฐ Accuracy๋ confusion
matrix์ Accuracy = (TP + TN) / (TP + FP + FN + TN)๋ก ์ฌ์ฉํ์๋ค.
์์ 4๊ฐ์ง ๋ชจ๋ธ์ ๋ํ ์ด์ํ๋ณ ์ฑ๋ฅ์ ํ 1๊ณผ ๊ฐ๋ค. SAE ๋ชจ๋ธ์ ์ฑ๋ฅ์ 87%, attention layer๋ฅผ ์ถ๊ฐํ SAE ๋ชจ๋ธ์ ์ฑ๋ฅ์ 91%๋ก ์ฑ๋ฅ์ด 4% ์ฆ๊ฐํ์์์ ์ ์ ์๋ค.
AAE ๋ชจ๋ธ์ ์ฑ๋ฅ์ 84%, ์ฌ๊ธฐ์ attention layer๋ฅผ ์ถ๊ฐํ์์ ๊ฒฝ์ฐ 70%๋ก ์ฑ๋ฅ์ด ์คํ๋ ค ๋ฎ์์ง์ ๋ณผ ์ ์๋ค. AAE ๋ชจ๋ธ ํ๋ จ
์์๋ ์ด๋ฏธ ๋ชจ๋ธ ํ๋ผ๋ฏธํฐ ์ ๋๋นํ์ฌ ํ๋ จ๋ฐ์ดํฐ๊ฐ ๋ง์ง ์์๋๋ฐ, ์ด์ attention ๋ชจ๋ธ์ ์ถ๊ฐํจ์ผ๋ก์จ, ๋ชจ๋ธ ๋ด์์ ์ธ๋ํผํ
ํ์์ด ๋ฐ์ํ์
๊ฐ๋ฅ์ฑ์ด ๋๋ค. ํฅํ Attention-based AAE ๋ชจ๋ธ ์ฑ๋ฅ์ ๋์ด๊ธฐ ์ํด ํ๋ จ๋ฐ์ดํฐ๋ฅผ ์ถ๊ฐํ์ฌ ์คํ ์์ ์ด๋ค.
ํ 1. ์ฑ๋ฅ ๋น๊ต
Table 1. Performance Comparison of AE(Jetson TX2)
์๋น์ค
๋์
|
SAE
|
AAE
|
Attention-
based SAE
|
Attention-
based AAE
|
์ด์์ํฅ ํ์ง ์ฑ๋ฅ
|
87%
|
84%
|
91%
|
70%
|
5. ๊ฒฐ ๋ก
๋ณธ ๋
ผ๋ฌธ์์๋ stacked autoencoder, adversarial autoencoder, attention based SAE ๋ฐ attention
based AAE ๋ชจ๋ธ์ ๊ธฐ๋ฐ์ผ๋ก ์ํฅ ๋ฐ์ดํฐ๋ฅผ ์ด์ฉํ์ฌ ์งํ์ ๋ ฅ๊ตฌ์ ์ด์์ ์ง๋จํ๋ ์๊ณ ๋ฆฌ์ฆ์ ๊ฐ๋ฐํ์๋ค. ์งํ์ ๋ ฅ๊ตฌ ํ์ฅ์์ ์ค์๊ฐ ๋ถ์์ ์ํ์ฌ
Edge Device(Jetson Tx2)ํ๊ฒฝ ํ์ ๋์ํ๋๋ก ์๊ณ ๋ฆฌ์ฆ์ ํ์ฌํ์๋ค.
์คํ ์ธ์ฝ๋์ ํน์ง์ธ ์ฌ๊ตฌ์ฑ์ค์ฐจ(์์ค๊ฐ)๊ณผ ์ ์ฌ๋ณ์ ๊ตฐ์งํ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ์ ๋ ฅ์ค๋น ํ๊ฒฝ์ ์ํ๋ณํ๋ฅผ ํ์งํ ์ ์์์ ๋ณด์๋ค. ์ ์ธต ์คํ ์ธ์ฝ๋์ ๊ตฌ์กฐ๋ฅผ
๋ค์ํ๊ฒ ๋ณ๊ฒฝํ์ฌ ์ต์ ์ ๋ชจ๋ธ์ ๊ตฌ์ฑํ์๊ณ , ์ฑ๋ฅํฅ์์ ์ํด attention ๋ฉ์นด๋์ฆ์ SAE ๋ชจ๋ธ์ ์ถ๊ฐ ์ ์ฉํ์๋ค. ์คํ๊ฒฐ๊ณผ SAE ๋ชจ๋ธ์์
87%์ ๊ฒ์ถ์จ์ ๋ณด์๊ณ , attention ๋ฉ์นด๋์ฆ์ SAE ๋ชจ๋ธ์ ์ถ๊ฐํ์์ ๊ฒฝ์ฐ 91% ์ด์์ ๋น๊ต์ ๋์ ์ ํ๋๋ฅผ ๋ณด์๋ค. Adversarial
autoencoder์ ๊ฒฝ์ฐ SAE ๋ณด๋ค ๋ฎ์ 84%์ ๊ฒ์ถ์จ์ ๋ณด์๊ณ , attention ๋ฉ์นด๋์ฆ์ AAE ๋ชจ๋ธ์ ์ถ๊ฐํ์์ ๊ฒฝ์ฐ 70%์ ๊ฒ์ถ์จ์
๋ํ๋ด๋ฉฐ ์คํ๋ ค ์ฑ๋ฅ์ด ์ ํ๋จ์ ์ ์ ์์๋ค.
์งํ์ ๋ ฅ๊ตฌ๋ผ๋ ์ด์
ํ ํ๊ฒฝ์์ ๋ณธ ์ฐ๊ตฌ๊ฒฐ๊ณผ์ ์๊ณ ๋ฆฌ์ฆ์ ์ ์ฉํ ์ด์ํ์ง์์คํ
์ ํ์ฉํ์ฌ ์ค์๊ฐ ์๊ฒฉ ๊ฐ์๊ธฐ๋ฅ์ ์ ๊ณตํจ์ผ๋ก ์ด์๋ฐ์์ ์ฆ๊ฐ์ ์ธ ๋์ฒ๋ฅผ
ํ ์ ์๊ฒ ํ์๋ค. ํฅํ ์งํ์ ๋ ฅ๊ตฌ ์ด์ํ์ง์ ์ฑ๋ฅ ํฅ์์ ์ํด์๋ ์ํฅ ๋ฐ์ดํฐ ๋ฟ๋ง ์๋๋ผ Lidar, ์์๋ฐ์ดํฐ, ์จ์ต๋ ๋ฐ์ดํฐ ๋ฑ์ ๋ณตํฉ์ ์ผ๋ก
ํ์ฉํ ์ฐ๊ตฌ๊ฐ ํ์ํ๋ค.
References
S. H. Lee, B. D. Yun, 2015, Industry 4.0 and Direction of Failure Prediction and Health
Management Tech- nology(PHM), Journal of the Korean Society for Noise and Vibration
Engineering, Vol. 25, No. 1, pp. 22-28
Chalapathy Raghavendra, Chawla Sanjay, , Deep Learning for Anomaly Detection : A Survey,
arxive.org/pdf/1901. 03407.pdf
P. Vincent, H. Larochelle, I. Lajoie, Y. Bengio, P. A. Manzagol, 2010, Stacked Denoising
Autoencoder Learning Useful Representations in a Deep Network with a Local Denoising
Criterion, The Journal of Machine Learning Research, Vol. 11, No. 3, pp. 3371-3408
Dong-Jin Choi, , Real-Time Self Complement System of Fault Diagnosis for Induction
Motor Using Machine Learning and IoT Technique, The Transaction of the Korean Institute
of Electrical Engineers, Vol. 68, No. 5, pp. 662-669
Baldi Pierre, 2012, Autoencoders, Unsupervised Learning, and Deep Architectures, JMLR:
Workshop and Conference Proceedings, Vol. 27, pp. 37-50
Zabalza Jamie, 2015, Novel Segmented Stacked AutoEncoder for Effective Dimensionality
Reduction and Feature Extrac- tion in Hyperspectral Imaging, Neurocomputing Journal
Zhang Han, Goodfellow Ian, Metaxas Dimitris, Odena Augustus, 2019, Self-Attention
Generative Adversarial Networks, Proceedings of the 36th International Conference
on Machine Learning
Mkhzani Alireza, J. Shlens, N. Jaitlyl, I. Goodfeloow, B. Frey, 2015, Adversarial
Autoencoder, arXive:1511.05644
https://steinhardt.nyu.edu/marl
B. Logan, 2000, Mel Frequency Cepstral Coefficients for Music Modeling, The International
Sysposium on Music Information Retrieval, Vol. 270, pp. 1-11
์ ์์๊ฐ
2008๋
8์ ํ์๋ ์ ์์ ๊ธฐ์ปดํจํฐ๊ณตํ๋ถ(ํ์ฌ)
2008๋
7์~ํ์ฌ ํ์ ์ ๋ ฅ์ฐ๊ตฌ์
<๊ด์ฌ๋ถ์ผ> ์ธ๊ณต์ง๋ฅ, ์ค๋งํธ๊ทธ๋ฆฌ๋, ์์๋ถ์
๋ฐ๋ช
ํ(Myung-Hye Park)
1993๋
2์ ๊ฒฝ๋ถ๋ํ๊ต ์ ์๊ณตํ๊ณผ(ํ์ฌ)
1995๋
2์ ๊ฒฝ๋ถ๋ํ๊ต ์ ์๊ณตํ (์์ฌ)
1995๋
~ํ์ฌ ํ์ ์ ๋ ฅ์ฐ๊ตฌ์ ์ฑ
์์ฐ๊ตฌ์
<๊ด์ฌ๋ถ์ผ> ์ ๋ ฅ์ ๋ณดํต์ , ์ฌ๋ฌผ์ธํฐ๋ท, ๋คํธ์ํฌ ์๋ฎฌ๋ ์ด์
๊น์ํ(Young-Hyun Kim)
2002๋
2์ ํ๊ตญํญ๊ณต๋ํ๊ต ํต์ ์ ๋ณด๊ณตํ (ํ์ฌ)
2004๋
2์ ๊ด์ฃผ๊ณผํ๊ธฐ์ ์ ์ ๋ณดํต์ ๊ณตํ (์์ฌ)
2004๋
~ํ์ฌ ํ์ ์ ๋ ฅ์ฐ๊ตฌ์ ์ฑ
์์ฐ๊ตฌ์
<๊ด์ฌ๋ถ์ผ> ์ ๏ฝฅ๋ฌด์ ํต์ ์์คํ
, ์ฌ๋ฌผ์ธํฐ๋ท
1997๋
2์ ์ค์๋ํ๊ต ์ ์ด๊ณ์ธก๊ณตํ๊ณผ(ํ์ฌ)
2002๋
2์ ์ค์๋ํ๊ต ์ฒจ๋จ์์๋ํ์ ์์๊ณตํ๊ณผ (์์ฌ)
2006๋
2์ ์ค์๋ํ๊ต ์ฒจ๋จ์์๋ํ์ ์์๊ณตํ๊ณผ(๋ฐ์ฌ)
2006๋
3์~ํ์ฌ ํ๊ตญ์ ์ํต์ ์ฐ๊ตฌ์ ๊ด๋์ญํตํฉ๋ง ์ฐ๊ตฌ๋จ
<๊ด์ฌ๋ถ์ผ> ์์์์ถ, ์์์ ๋ณด๊ธฐ์
1984๋
2์ ์ฑ๊ท ๊ด๋ ์ ๊ธฐ๊ณตํ์ฌ(ํ์ฌ)
1989๋
8์ ๋ถ์ฐ๋ ์ ๊ธฐ์ ์๊ณตํ(์์ฌ)
2003๋
5์ ๋ฏธ๊ตญ BROWN๋ ์ ๊ธฐ๊ณตํ๊ณผ(๋ฐ์ฌ)
1990๋
1์~2012๋
12์ ํ์ ์ ๋ ฅ์ฐ๊ตฌ์ ๊ทผ๋ฌด(์ฑ
์์ฐ๊ตฌ์)
2013๋
1์~2018๋
6์ ํ์ ๊ฒฝ์ ๊ฒฝ์์ฐ๊ตฌ์(์์์ฐ๊ตฌ์)
2018๋
7์~2020๋
2์ ํ์ ์ ๋ ฅ์ฐ๊ตฌ์(์์์ฐ๊ตฌ์)
2020๋
3์~ํ์ฌ ์ฑ๊ท ๊ด๋ํ๊ต ์ ๋ณดํต์ ๋ํ ์ฐ๊ตฌ๊ต์
<๊ด์ฌ๋ถ์ผ> ์ ๋ฐฐ์ ์์คํ
, ์ค๋งํธ๊ทธ๋ฆฌ๋, ์ธ๊ณต์ง๋ฅ