• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Department of Electronics and Computer Engineering, Seokyeong University, Korea.)
  2. (Dept. of Electrical & Electronic Engineering, Yonam Institute of Technology, Korea.)



Deep learning, Occluded Person Re-ID, Transformer, Consistency Loss, keypoint

1. 서 론

사람 재식별(person re-identification)은 다중 카메라 환경에서 촬영되는 여러 이미지 중에서 특정 사람을 검색하거나 구별해내는 작업이다. CCTV기반의 지능형 영상 감시 시스템과 자율주행 환경에서의 보행자 식별에 적용될 수 있다. 초기에는 정상 조건에서 특정 사람을 찾는 것이었으나, 점차 난이도가 높아져, 최근에는 가려진(Occluded) 사람을 식별하는 문제가 관심을 끌고 있다. 실제 환경에서 나타나는 재식별의 어려운 점들은 다음과 같다. 사람이 나타난 시공간의 차이에 따른 배경 변화, 장애물 또는 타인에 의한 신체 일부의 가림, 자신에 의한 가림, 촬영 방향에 따른 사람의 자세나 신체의 변화 등과 같은 다양한 난이도 증가 요인 들이 존재한다.

기존의 전통적인 컴퓨터 비전 기법들을 적용한 방법들이 시도되었고(1,2), 최근에는 딥러닝 기반의 사람 재식별 방법들이(3,4) 우수한 성능을 보이고 있다. 주요 접근으로는 사람의 가려지지 않은 신체 부위의 특징 정보를 사용한 연구(5,6), 다양한 가려진 상황을 반영하기 위해서 임의의 영역들을 삭제하고 학습하는 연구들이(7,8) 시도되고 있다. 더불어 가장 우수한 성능을 보이는 트랜스포머 기반 재식별 연구가(9,10,11) 나오고 있다.

본 논문에서는 트랜스포머 기반 재식별 기법에 다음과 같은 개선을 제안한다. 첫째, 재식별 성능을 향상시키기 위한 데이터 증강(augmentation) 수행시, 임의의 영역의 삭제나 위치적인 분할 삭제 대신에 사람의 키포인트 특징을 포함하는 부분만을 삭제하여, 가려짐에 효과적인 학습을 목적으로 한다. 둘째, 전역 특징과 지역 특징의 강인한 표현을 위한 새로운 손실함수를 제안한다. Occluded-Duke 데이터셋에 대해서 mAP 와 Rank-1 성능을 평가하고 기존의 최신 기법과 비교한다.

2. 관련 연구 비교

가려지지 않은 사람의 신체 부위에 집중하기 위한 키포인트 기법과 여러 가려진 상황을 반영하는 데이터 증강 기법이 소개되었다 (7,8,13,14). PVPM(12)은 사람의 가려지지 않은 신체 부위에 초점을 맞추어 학습하도록 키포인트를 활용한 Pose- guided Attention을 제안하였다. HOReID(13)은 사람의 의미 있는 특징들을 추출하기 위해 키포인트를 이용한 고차원 정보를 그래프 매칭을 통해 구조 정보에 대한 학습을 수행하였다. Yan et al(14)는 Part Label Generator로 키포인트를 활용한 레이블을 생성하여 사람의 가려지지 않은 영역의 예측에 집중하도록 한다. 하지만 이러한 기법들은 이미지의 일부분을 임의삭제 후에 포즈 추정 모델로 키포인트를 추출하였기 때문에 특징 맵의 정확성이 떨어질 수 있다.

Chen et al(8)은 다양한 가려진 상황을 반영하기 위해서 2개의 영역(half, qurter), 4개의 위치(top, bottom, left, right)에 대해 데이터 증강을 수행, 이를 Attention-Guided Mask Module 통해 사람의 신체 부위에 집중하도록 하였다.

하지만 데이터 증강을 통한 다양한 가려진 상황 반영은 위치가 정해져있고 인위적이다. 그리고 임의 삭제를 사용한 기법에서는(8) 전체 이미지 내에서 랜덤으로 삭제할 위치와 크기가 정해지기 때문에, 사람의 주요 신체 부위가 지워지지 않을 가능성이 있다. 이러한 문제점들을 해결하기 위하여 본 논문은 키포인트 삭제를 통해 사람의 신체 부위를 중점으로 삭제하는 방식을 제안함으로써 실질적인 가려진 상황을 반영할 수 있다. 또한 삭제된 영역을 제외한 키포인트를 통해 사람의 신체 부위에 대한 정보를 기존보다 온전히 반영하여 신뢰성을 높인다.

한편, TransReID (9)는 최초로 ReID 분야에서 트랜스포머를 적용한 논문으로서, Jigsaw Patch Module(JPM)을 통해 부분 조각인 패치의 위치를 이동하고 섞음으로써 특징의 다변화를 도모하였다. 그러나 이 방법은 패치들의 위치가 일정한 패턴으로 고정되는 단점이 있다. 본 논문은 동적인 패치의 조합을 통해서 다양한 위치에 대한 경우를 학습시킴으로써, 재식별의 효율성을 높인다.

3. 재식별 기법

3.1 전체 개념도

그림. 1. 전체적인 모델 구성도

Fig. 1. Overall configuration of the proposed model

../../Resources/kiee/KIEE.2022.71.7.1002/fig1.png

그림 1에서와 같이 제안된 모델은 크게 3개의 가지로 나눌 수 있다. 첫 번째는 가려짐에 대한 학습 향상을 위해서 입력으로 원본 이미지와 키포인트 영역의 삭제가 포함된 이미지가 쌍으로 트랜스포머에 들어간다 (그림 1좌측). 이로써, 사람 영역에 대한 효율적인 삭제가 포함된 이미지의 증강이 가능하다. 두 번째는 사람 영역이 표현된 패치들과 사람 외의 영역 배경, 물체 등이 표현된 패치들의 적절한 조합으로 특징의 다양성을 유지한다 (그림 1중앙). 세 번째는 전역-지역 일치화 손실함수를 (Global-Local consistency loss) 통해 가려진 상황에 대한 동일인물에 대해서 강인하게 표현 하도록 학습한다 (그림 1우측). 다시 말해, 동일인에 대해서 가려진 부분과 가려지지 않은 부분에 대한 특징을 유사하게 인식시킴으로써 모델의 재식별 능력을 향상시킨다.

3.2 트랜스포머

본 논문에서는 ViT(15) 트랜스포머를 기본 네트워크로 사용한다. 이것은 표준 트랜스포머 (16)가 1D 순열의 토큰을 임베딘을 통해 벡터로 변환하는데 비해, ViT는 2D 이미지를 벡터로 변환하여 사용한다. 입력 이미지 $x$ ∈ $R^{H\times W\times C}$ 는 패치화 과정을 통해 $\hat x$ ∈ $R^{N_{p}\times(P^{2}\times C)}$ 로 재배열 된다. 여기서 $H$, $W$, C 는 각각 이미지의 높이, 폭, 채널수를 나타내며, $P$ 는 패치 크기, $N_{p}$ = $\dfrac{HW}{P^{2}}$ 는 패치의 수이다. 패치화된 입력은 선형 투영을 통해 벡터로 변환되고, 분류를 위해서 클래스 토큰이 추가된다. 따라서 전체 입력 순열은 다음과 같다

(1)
z = $[x_{cls}; l(\hat x_{1}); l(\hat x_{2});\cdots ;l(\hat x_{N})]+ p$

$z$ ∈ $R^{(N_{p}+cls)\times E_{d}}$는 트랜스포머 인코더의 입력으로서, 여기서, $E_{d}$, $cls$는 각각 트랜스포머의 임베딩 차원과 클래스 토큰을 나타낸다. 또한, $l$은 선형 투영 연산, 우측 끝의 $p$는 각 패치에 공간 정보를 주입하기 위해 더해지는 학습가능 위치 임베딩 값이다.

인코더는 다층 구조이며, 하나의 층은 Multi-head Self-Attention 과 MLP로 구성된다. 이를 다음과 같다

(2)
$F(x)= MSA(\bar{x},\:\bar{x},\:\bar{x})+ x$

(3)
$MLP(z)= GELU(0,\:\bar{z}W_{1}^{f}+ b_{1}^{f})W_{2}^{f}+ b_{2}^{f}$

(4)
$L(x)= MLP(\bar{F}(x))+ F(x)$

$\bar{x}$는 층의 정규화, MLP는 GELU 활성화 함수를 포함한 두 개의 완전 연결 모듈이다. $\bar{z}$는 정규화된 인코더 입력, $W_{1}^{f}$, $W_{2}^{f}$는 MLP의 첫 번째와 두 번째 층의 가중치, $b_{1}^{f}$, $b_{2}^{f}$는 첫 번째와 두 번째 층의 편향을 나타낸다. $L(x)$는 인코더 층을 의미한다.

3.3 키포인트 특징 부분 삭제에 의한 데이터 증강

현재 사용되는 ReID 데이터 셋에서 가려진(Occluded) 데이터가 부족하기 때문에, 가려진 상황에 대한 강인한 학습을 위해 입력 이미지를 변형하여 구성한 가려짐 이미지를 쌍으로 입력한다. 이를 위해서 기존에는 임의삭제 방식(9)을 사용해 이미지에서 지울 영역의 위치와 크기를 랜덤으로 정하였지만, 사람 영역 외에 배경이나 다른 물체가 삭제되는 경우가 발생해 효과적인 데이터 증식이 수행되지 못할 수 있다.

본 논문에서는 Gilroy et al (17)의 키포인트 그룹핑 방법을 사용해 얼굴은 하나의 그룹, 나머지 관절들은 인접한 두 개의 키포인트를 하나의 그룹으로 묶어 의미 있는 영역으로 확장한다. 이렇게 총 11개의 그룹 중 랜덤하게 하나를 선택하고 해당 그룹을 중심으로 삭제를 진행한다. 삭제 영역의 최대 크기는 기존 임의삭제 방식(9)을 그대로 사용하되, 최소크기는 적어도 두 키포인트를 포함하는 사각형으로 정한다. 따라서 사람 영역에 대한 효율적인 적정한 삭제가 포함된 이미지의 증강이 가능하다.

그림 2는 기존의 임의 삭제와 제안된 키포인트 삭제 방법을 4개의 이미지에 대해 나타낸 것이다. 동일 이미지에서 좌측은 임의 삭제, 우측은 키포인트 삭제 방식을 보여준다. 제안된 키포인트 삭제 방식이 인체의 내부 영역을 삭제함으로써 가려짐(occlusion) 상황을 더 유사하게 표현한다고 볼 수 있다. 즉, 원본 이미지와 쌍으로 들어가는 데이터 증식용 이미지가 인체에 대한 가려짐 상황을 항상 포함함으로써, 제안된 모델의 재식별 능력을 향상시킬 수 있다.

그림. 2. 임의 영역 삭제와 키포인트 영역 삭제 예시

Fig. 2. Illustration of random erasing vs keypoint erasing

../../Resources/kiee/KIEE.2022.71.7.1002/fig2.png

3.4 전역특징과 지역 특징의 일관성 인식

사람의 전체 외형에서 얻은 전역 특징과 신체의 일부분에서 얻은 지역 특징을 동일하게 인식할 수 있으면, 즉 동일인으로, 재식별 성능을 향상시킬 수 있다고 가정한다. 즉 다양한 부위의 부분(지역) 특징들을 전역 특징과 임베딩된 벡터를 통해 비교하여 이의 차이를 최소화하는 전역-지역 일치화 손실함수를 제안한다.

즉, 가려진 사람과 그렇지 않은 사람 간의 강인한 표현을 위해, 본 논문은 트랜스포머 마지막 레이어 $L_{N}$을 2가지 독립적인 $L_{N}^{1},\: L_{N}^{2}$으로 복사하여 각기 다른 역할을 수행하고 일치화 손실함수를 도입하여 동일인의 특징들 간의 일관된 학습이 가능하도록 한다. 첫 번째 가지 $L_{N}^{1}$는 전역 가지로써 전역적인 정보가 담긴 전역 특징 $f_{g}$를 표현한다. 두 번째 가지는 지역 가지로써 $L_{N}^{2}$는 TrasnReID(9)의 Jigsaw Patch Module(JPM)에 영감을 받아 class token를 제외한 $N_{p}$ 패치들을 $m$그룹으로 나누어 부분적인 정보들로 지역 특징 {$f_{l}^{j}vert j = 1,\:2,\: ... ,\:m$ }을 표현하는데, 기존의 고정된 위치의 패치들로 구성된 것과는 다르게 동적인 패치의 조합을 사용한다. 왜냐하면 가려진 상황을 발생시키는 주체는 크기와 모양이 다양하기 때문이다.

이렇게 앞에서 구한 전역적인 정보를 담고 있는 $f_{g}$와 부분적인 정보를 담고 잇는 $f_{l}^{j}$ 간의 Kullback-Leibler (KL) divergence (18) 손실함수를 다음과 같이 수행한다.

(5)
$L_{glboal-local}=\dfrac{1}{m}\sum_{j=1}^{m}soft\max(f_{g})\bullet\log(\dfrac{soft\max(f_{g})}{soft\max(f_{l}^{j})})$

KL-divergence는 두 분포를 유사하게 만드는 손실함수이므로, 전역 특징을 선생으로 지역 특징을 학생으로 간주하여, 두 분포간의 손실(여기서는 consistency loss로 정의)을 줄이도록 학습다. 즉, 동일인물의 재식별에서 사람의 전체적인 정보를 담고 있는 가려지지 않은 사람에 대한 표현과 사람의 부분적인 정보를 담고 있는 가려진 사람에 대한 표현이 유사해지는 효과를 갖도록 한다.

3.5 학습 손실함수

전역 특징 $f_{g}$, 지역 특징 {$f_{l}^{j}vert j = 1,\:2,\: ... ,\:m$}에 대해서 재식별 분야에서 일반적으로 사용하는 교차-엔트로피 손실함수 $L_{ID}$와 3쌍(triplet) 손실함수 $L_{T}$를 다음과 같이 구성하여 학습에 적용한다.

(6)
\begin{align*} L_{supervision}=L_{ID}(P(f_{g}))+L_{T}(f_{g})\\ +\dfrac{1}{m+2}\left\{\sum_{j=1}^{m}L_{ID}(P(f_{l}^{j}))+L_{T}(f_{l}^{j})\right\} \end{align*}

여기서, $P$는 확률 예측을 위한 분류기이다. 그리고 3.4절에서 전역-지역 일치화 손실함수 $L_{global-local}$를 $L_{supervision}$와 결합하여 최종 손실함수를 다음과 같이 구성한다. $\lambda$는 일치화 일치화 손실함수 계수이고, 다음은 최종 손실함수이다.

(7)
$L=L_{supervision}+\lambda *L_{global-local}$

4. 실험 및 결과 분석

4.1 실험 준비

제안된 기법을 Occluded-Duke(19) 데이터 셋에 대해서 mAP 와 Rank-1 성능을 평가하고 기존의 최신 기법과 비교한다. mAP는 상위 예측에 참값이 얼마나 근접하는지를 나타내는 확률이고 Rank-1은 최상위 예측이 참값과 일치하는 확률이다. 

Occluded-Duke는 현재 존재하는 가려진 데이터 셋들 중에서 가장 어려운 데이터로 아래 표 1과 같다. train, query, gallery로 구성되며 ids는 동일인물의 카테고리 수이고, cam은 다른 각도에서 사용된 캠의 개수를 의미한다. query는 재식별 문제의 제시 데이터로, 모두 가려진 사람 이미지로 구성되어 있고, train 데이터와 gallery는 query에서 제시된 사람을 재식별하기 위한 데이터 집합으로, 가려진 사람의 이미지와 가려지지 않은 이미지가 섞여 있다. train 데이터로 모델을 학습하고, 모델 검증은 query 이미지를 gallery 이미지와 매칭하여 동일인물을 얼마나 잘 찾는지 mAP와 Rank-1으로 평가한다.

표 1. Occluded-Duke 데이터 셋 구성

Table 1. Occluded-Duke dataset

ids

images

cam

train

702

15618

8

query

519

2210

8

gallery

1110

17661

8

본 논문은 이미지를 256x128로 재조정하고, 데이터 증강을 위해서 random flipping, padding 10 pixel, random cropping을 수행한 후, 제안된 키포인트 삭제 방식을 통해 이미지 쌍을 구성한다. 이를 통해, 트랜스포머의 입력에 배치 크기의 2배가 들어간다. 트랜스포머 초기 가중치는 ImageNet-21K에서 사전 훈련된 후, ImageNet1K에서 미세조정이 수행된다. 포즈 추정 모델은 COCO 데이터셋으로 사전에 학습된 HRNet(3)을 사용한다. Optimizer는 momentum 값이 0.9인 SGD, learning rate믐 0.008 및 cosin learning rate decay를 사용한다. $E_{d}$는 768, $m$는 4, $\lambda$는 0.5, batch size는 32로 설정한다. 모든 실험은 pytorch 환경에서 수행했다.

4.2 실험 결과

표 2를 보면 제안된 기법의 성능이 mAP/Rank-1 58.4%/66.3%으로 기존 기법들 보다 우수함을 나타낸다. 가려진 상황에 대한 데이터 증강 기법을 제안한 (7)에 비해 mAP/Rank-1이 각각 12.3%p/3.7%p 증가하였다. 기존 기법은 데이터의 수를 5배 증가하고, 임의 영역 삭제 위치가 상, 하, 좌, 우로 고정되 있는 반면, 본 논문은 데이터 수를 2배 증가하고, 위치가 고정되지 않으며 사람 영역 중심으로 삭제 되기 때문에 연산량이 더 적으면서 성능이 우수하다. 포즈 추정 모델을 보조로 사용하여 기포인트 히트맵을 학습에 직접 사용한 (14)와 비교하면, mAP/Rank-1이 각각 12.1%p/4.1%p 증가하였다. 트랜스포머 기반인 PAT, TrasnReID보다도 좋은 성능을 보여주었는데, 특히 영감을 받았던 TrasnReID 보다도 mAP는 2.7%p, Rank-1은 2.1%p 더 우수하다. 이것은 제안된 기법이 임의의 가려진 상황에서도 사람 특징을 강인하게 표현할 수 있도로 학습되었기 때문으로 생각된다.

표 2. 기존 기법과의 성능비교

Table 2. Comparison existing methods on Occluded-Duke

Method

mAP (%)

Rank-1 (%)

PVPM [12]

37.7

47.0

HOREID [15]

43.8

55.1

Chen et al [7]

46.1

62.6

Yang et al [14]

46.3

62.2

DRL-Net[10]

50.8

65.0

PAT [11]

53.6

64.5

TransReID [9]

55.7

64.2

Ours

58.4

66.3

그림. 3. 동일인물 재식별 결과 예시

Fig. 3. Person Re-Identification retrival results

../../Resources/kiee/KIEE.2022.71.7.1002/fig3.png

제안된 기법의 mAP가 Rank-1 성능보다 타기법에 비해 개선 폭이 큰 것은 갤러리 이미지들의 평균적인 성능이 더 향상된 것을 의미한다. 즉, 첫 번째 순위를 맞추는 Rank-1 은 타 기법과의 차이가 한 자리 수로 적지만, 더 일반적인 성능을 나타내는 10개에 대한 평균 성능은 두 자리수의 우위를 보임으로써, 실제적인 응용에 더 적합하다고 사료된다.

그림 3은 Occluded-Duke 데이터 셋의 query와 gallery 간의 동일인물에 대한 재식별 결과를 Rank 1부터 10까지 순서적으로 보여준다. 초록색 박스는 정답, 빨간색 박스는 오답이다. 첫 번째와 두 번째 결과는 물체에 의해 사람의 신체가 반 정도 가려진 경우이다. 사람 영역의 표현이 제한적이므로, 정보 양의 차이로 인해 전신이 나오는 gallery 이미지의 사람과의 매칭이 어려울 수 있는데 대부분 잘 식별하는 것을 볼 수 있다. 첫 번째에서는 2개의 이미지가 오답이지만 해당 이미지의 사람도 query와 외형적으로 비슷한 것을 알 수 있다.

세 번째 결과는 사람에 의한 가려짐 현상(inter-occlusion)의 경우인데, query 이미지에서 target person이 누구인지를 판단하기 어려운 문제이지만, 제안된 모델에서는 잘 식별하는 것을 볼 수 있다. 네 번째 결과는 나무가지에 의해 사람의 신체의 2/3 이상이 가려진 경우이다. 대단히 어려운 문제지만, 제안된 모델은 가려지지 않은 사람의 신체와 가방을 통해 동일인물을 잘 찾고 있다. 이 것은 동일인물에서 부분적인 특징을 가지고 있는 지역 특징과 전역 특징을 결부시키는 일치화 효과가 있음을 의미한다.

5. 결 론

본 논문에서는 트랜스포머 기반 가려진 사람 재식별에 강인한 표현을 하도록 모델을 구성하였다. 제안된 모델은 첫째, 키포인트 특징 중심의 사람 영역 삭제를 통해 효과적인 데이터 증식이 수행되도록 하였다, 둘째, 전역 특징과 지역 특징의 일관성 인식을 위해 consistency loss를 제안함으로써, 가려진 상황에서의 동일인물에 대한 강인한 표현의 학습을 통해 재식별 성능을 향상시켰다. 본 논문은 Occluded-Duke 데이터 셋에 대해 최신 기법들과의 비교를 통해 mAP와 Rank-1 성능이 모두 우수함을 보였다.

References

1 
M. Koestinger, M. Hirzer, P. Wohlhart, P.M. Roth, H. Bischof, 2012, Large scale metric learning from equivalence constraints, in IEEE conference on computer vision and pattern recognition, pp. 2288-2295DOI
2 
S. Liao, Y. Hu, X. Zhu, S.Z. Li, 2015, Person re-identification by local maximal occurrence representation and metric learning, in IEEE conference on computer vision and pattern recognition, pp. 2197-2206Google Search
3 
X. Qian, Y. Fu, T. Xiang, W. Wang, J. Qiu, Y. Wu, Y.G. Jiang, X. Xue, 2018, Pose-normalized image generation for person re-identification, in Proceedings of the European conference on computer vision (ECCV), pp. 650-667Google Search
4 
W. Shi, H. Liu, M. Liu, 2020, Identity-sensitive loss guided and instance feature boosted deep embedding for person search, Neuro computing, Vol. 415, pp. 1-14DOI
5 
X. Fan, H. Luo, X. Zhang, L. He, C. Zhang, W. Jiang, 2018, Scpnet: Spatial-channel parallelism network for joint holistic and partial person re-identification, in Asian conference on computer vision, pp. 19-34DOI
6 
M. Jia, X. Cheng, Y. Zhai, S. Lu, S. Ma, Y. Tian, J. Zhang, 2021, Matching on sets: Conquer occluded person re-identification without alignment, AAAI Conf. Artif. Intell, pp. 1673-1681Google Search
7 
P. Chen, W. Liu, P. Dai, J. Liu, Q. Ye, M. Xu, Q. Chen, R. Ji, 2021, Occlude them all: Occlusion-aware attention network for occluded person re-id, in Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 11833-11842Google Search
8 
Z. Zhong, L. Zheng, G. Kang, S. Li, Y. Yang, , Random erasing data augmentation, in Proceedings of the AAAI conference on artificial intelligence, Vol. 34, pp. 13001-13008Google Search
9 
S. He, H. Luo, P. Wang, F. Wang, H. Li, W. Jiang, 2021, Transreid: Transformer based object re-identification, in: Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 15013-15022Google Search
10 
M. Jia, X. Cheng, S. Lu, J. Zhang, 2022, Learning disentangled representation implicitly via transformer for occluded person re-identification, in IEEE Transactions on MultimediaGoogle Search
11 
Y. Li, J. He, T. Zhang, X. Liu, Y. Zhang, F. Wu, 2021, Diverse part discovery: Occluded person re-identification with part-aware transformer, in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 2898-2907Google Search
12 
S. Gao, J. Wang, H. Lu, Z. Liu, 2020, Pose-guided visible part matching for occluded person reid, in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 11744-11752Google Search
13 
G. Wang, S. Yang, H. Liu, Z. Wang, Y. Yang, S. Wang, G. Yu, E. Zhou, J. Sun, 2020, High-order information matters: Learning relation and topology for occluded person re-identification, in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 6449-6458Google Search
14 
J. Yang, J. Zhang, F. Yu, X. Jiang, M. Zhang, X. Sun, Y.C. Chen, W.S. Zheng, 2021, Learning to know where to see: A visibility-aware approach for occluded person re-identification, in Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 11885-11894Google Search
15 
A. Dosovitskiy, L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner, M. Dehghani, M. Minderer, G. Heigold, S. Gelly, 2020, An image is worth 16x16 words: Transformers for image recognition at scale, in International Conference on Learning RepresentationsGoogle Search
16 
A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A.N. Gomez, L. Kaiser, I. Polosukhin, 2017, Attention is all you need, Advances in neural information processing systems, Vol. 30Google Search
17 
S. Gilroy, M. Glavin, E. Jones, D. Mullins, 2021, Pedestrian occlusion level classification using keypoint detection and 2d body surface area estimation, in Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 3833-3839Google Search
18 
F. Pérez-Cruz, 2008, Kullback-Leibler divergence estimation of continuous distributions, IEEE international symposium on information theory, pp. 1666-1670Google Search
19 
J. Miao, Y. Wu, P. Liu, Y. Ding, Y. Yang, 2019, Pose-guided feature alignment for occluded person re-identification, in Proceedings of the IEEE/CVF international conference on computer vision, pp. 542-551Google Search

저자소개

김세준 ( Sejun Kim )
../../Resources/kiee/KIEE.2022.71.7.1002/au1.png

He received B.S. degrees from Electronics Engineering from Seokyong University, Seoul, Korea, in 2022.

He is currently pursuing his MS degree in Electronics and Computer Engineering at Seokyong University, His research interests include deep learning, computer vision.

강성재 (Sungjae Kang)
../../Resources/kiee/KIEE.2022.71.7.1002/au2.png

He received B.S. degrees from Electronics Engineering from Seokyong University, Seoul, Korea, in 2020.

He is currently pursuing his MS degree in Electronics and Computer Engineering at Seokyong University, His research interests include deep learning, computer vision.

최효민 (Hyomin Choi)
../../Resources/kiee/KIEE.2022.71.7.1002/au3.png

He received B.S. degrees from Electronics Engineering from Seokyong University, Seoul, Korea, in 2021.

He is currently pursuing his MS degree in Electronics and Computer Engi- neering at Seokyong University, His research interests include deep learning, computer vision, and anomaly detection.

김성수 (Seong Soo Kim)
../../Resources/kiee/KIEE.2022.71.7.1002/au4.png

He received the B.S. and M.S. degrees in Electrical Engineering from Yonsei University, Seoul, Korea, in 1989 and 1991, respectively, and the Ph.D. degree in Electrical and Computer Engineering from Texas A&M University in 2005, He worked in the areas of Consumer Electronics, Home Networking and Smart Car as a research engineer at LG Electronics Co., Ltd., Korea, from 1991 to 2001, and from 2013 to 2020.

Also, he worked in the areas of Wireless Comm. Standardization as a Principal Engineer at Samsung Electronics Co., Ltd., Korea, from 2005 to 2012.

He is currently a Professor in the Department of Electrical & Electronic Engineering, Yonam Institute of Technology, Korea.

His research interests are in AI, IoT, Cyber Security and Multimedia.

서기성 (Kisung Seo)
../../Resources/kiee/KIEE.2022.71.7.1002/au5.png

He received the BS, MS, and Ph.D degrees in Electrical Engineering from Yonsei University, Seoul, Korea, in 1986, 1988, and 1993 respectively.

He joined Genetic Algorithms Research and Applications Group (GARAGe), Michigan State University from 1999 to 2002 as a Research Associate.

He was also appointed Visiting Assistant Professor in Electrical & Computer Engineering, Michigan State University from 2002 to 2003.

He was a Visiting Scholar at BEACON (Bio/computational Evolution in Action CONsortium) Center, Michigan State University from 2011 to 2012.

He is currently Professor of Electronics Engineering, Seokyeong University.

His research interests include deep learning, evolutionary computation, computer vision, and intelligent robotics.