• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Department of Electronics and Computer Engineering, Seokyeong University, Korea.)
  2. (Department of Electronics and Computer Engineering, Seokyeong University, Korea.)



Cloth-changing Person Re-identification, Branching Structure Model, Color labels

1. 서 론

사람 재식별(person re-identification)은 다중 카메라 환경에서 촬영되는 여러 이미지 중에서 특정 사람을 검색하거나 구별해 내는 작업이다. 보안, 범죄 예방, 실종자 탐색 등에서 응용되고 있다 [1,2,3,4]. 기존의 재식별은 짧은 시간 간격을 가정하여 복장이 변하지 않은 특정 사람을 찾는 것이었으나, 실제 상황에서는 긴 시간 차이로 인해 복장이 변하는 경우가 발생한다. 이러한 상황에 대한 재식별의 필요성이 커짐에 따라, 최근에 복장이 변경되는 상황에 대한 재식별 연구가 시도되고 있다 [5,6].

한편, 기존의 재식별 기법은 동일 복장의 인물을 찾는 것에 집중하기 때문에, 복장의 변화에 대해서 낮은 성능을 보인다. 왜냐하면, 복장이 변경된 이미지 간의 상당한 표현 차이로 인해 재식별의 난이도가 높아지기 때문이다. 이러한 문제에 대처하기 위해, 복장의 영향을 최소화하기 위한 마스크 기법과 여러 복장과 관계없는 특징을 얻는 기법이 소개되었다 [7,8,9,10]. FSAM[7]은 체형 스트림에서 미세한 체형 특징을 학습하고, 외관 스트림으로 전송하여 복장과 관련 없는 지식을 보완한다. GI-ReID[8]은 복장과 무관한 생체 모션 특징을 학습하도록 재식별 모델에 발걸음 스트림을 추가하였다. CAL[9]은 복장과 관련 없는 특징을 추출하기 위해 모델이 복장에 대한 예측 능력을 페널티로 받도록 하는 방식의 학습을 수행한다. AIM[10]은 복장의 편향을 최대한 배제하기 위해 인과관계 기반의 AutoIntervention Model를 제안하였다. 이러한 기법들은 사람의 복장을 최대한 배제하거나 복장과 관계없는 정보의 추출에 초점을 맞춰, 복장의 변화가 재식별 수행에 미치는 영향을 최소화하려는 목표를 가지고 있다. 하지만 이러한 기존 방법들은 다양한 의미적 정보의 손실이 있고 복장과 ID의 관계를 무시한다는 단점이 존재한다.

본 논문은 위 문제점을 개선하기 위해, 복장 정보 중 체형, 실루엣과 같은 복장에 나타나는 사람 고유의 특징들을 추출하여 적용하는 방법을 제안한다. 이때 복장의 색상 정보는 사람의 식별과는 무관하기 때문에 배제한다. 이를 위해서 기본 재식별 네트워크에 복장 분류 분기와 복장 색상 분류 분기를 추가하고, 코사인 유사도 기반 표현 다양화 손실 함수 및 색상 정보 배제 손실 함수를 제안한다. LTCC 데이터 셋에[11] 대해서 Rank-1과 mAP 지표를 사용하여, 제안된 기법을 기존 최신 기법들과 비교한다.

2. 복장 변경 재식별의 문제

2.1 사람 재식별 수행 과정

기존 대부분의 재식별 연구들에서는[1, 2, 4-9] 그림 1과 같이 ResNet50[12]을 기본 네트워크로 사용하고 있어서 본 연구도 동등한 비교를 위하여 같은 네트워크를 사용한다. 입력은 $N\times K$개의 이미지 $I_{n}^{k}$ ∈ $R^{H\times W\times C}$, $n$ ∈ $N$, $k$ ∈ $K$ 이다. 입력은 합성곱 신경망의 순전파를 통해 $f_{id}(I_{n}^{k})$ ∈ $R^{24\times 12\times 2048}$ 벡터로 표현된다. 여기서 $n$은 사람을 구분 짓는 ID이고 $k$는 같은 ID로, 동일인에 대한 서로 다른 이미지이다. 동일한 ID를 가진 $k$개의 이미지는 동일한 복장 이미지인 SC(Same Cloth)와 복장이 변경된 이미지인 CC(Change Cloth)로 구성된다.

그림 1. 사람 재식별을 위한 기본 네트워크 - ResNet50

Fig. 1. Baseline network for Person Re-Identification - ResNet50

../../Resources/kiee/KIEE.2024.73.4.725/fig1.png

사람 재식별 네트워크는 교차 엔트로피 손실 함수(cross entropy loss)를 사용하여 각 사람들의 ID를 구분할 수 있도록 학습되고, 삼중 손실 함수(triplet loss)를 통해 같은 사람들 간의 표현 벡터가 유사해지도록 학습된다. 두 손실 함수는 식 (1)(2)와 같다.

(1)
$L_{ce}^{id}=-\sum_{i}^{I}t_{i}^{id}\log(y_{i}^{id})$
(2)
$ \begin{align*} L_{tri}^{id}=\sum_{i=1}^{N}\sum^{K}\max\{ [\max\left(d\left(f_{a}^{i},\: f_{p}^{i}\right)\right)\\ -{\dfrac{}{}}\min_{i\ne j}\left(d\left(f_{a}^{i},\: f_{n}^{j}\right)\right)]+m,\: 0\} \end{align*}$

여기서, I는 ID의 클래스 수, $y_{i}^{id}$는 완전 연결층을 통한 ID 예측 값, $t_{i}^{id}$는 ID 레이블 값, $f_{a}^{i}$는 anchor 표현 벡터, $f_{p}^{i}$는 anchor와 동일한 ID의 표현 벡터, $f_{n}^{i}$는 anchor와 다른 ID의 표현 벡터, $d$는 유클리드 거리(Euclidean distance), m은 과적합을 방지하기 위한 실수값 마진이다.

2.2 복장 변경 재식별의 어려움

그림 2는 복장 변화를 고려하지 않은 기존의 재식별 기법의 추론 과정을 시각적으로 나타낸 것이다. 그림 2는 쿼리(query) 이미지 ID C를 대상으로 갤러리(gallery) 이미지 ID A, B, C 중에서 동일인을 찾는 추론 과정을 보여주고 있으며, 오른쪽 그래프는 재식별 모델의 분류 예측 결과를 나타낸다. 그림 2에서 확인할 수 있듯이, 복장이 변경된 동일인 ID C 이미지에 낮은 점수가 부여되며, 반면에 복장이 유사한 다른 사람인 ID A와 ID B 이미지에는 높은 점수가 부여된다. 이로 인해, 추론 과정에서 비슷한 복장을 한 사람을 동일인으로 오인할 수 있다. 이러한 원인은 재식별 수행에 어려움을 초래하게 된다.

그림 2. 복장 변경 사람 재식별 오분류

Fig. 2. Misclassification in Cloth-changing Person Re-identification

../../Resources/kiee/KIEE.2024.73.4.725/fig2.png

3. 컬러 레이블 기반 분기 구조 모델 제안

3.1 전체 개념도

그림 3에서와 같이 제안된 모델은 크게 3개의 가지로 나눌 수 있다. 첫 번째는 복장 변경 사람 재식별을 수행하기 위해서 입력으로 복장이 변경된 사람 이미지와 복장이 변경되지 않은 사람 이미지가 섞여 ResNet50에 들어간다 (그림 3 상단). 두 번째는 복장을 분류하는 분기와 코사인 유사도 기반 색상 정보 배제 손실 함수를 추가한다 (그림 3 중앙). 이 과정에서 복장 레이블 기반으로 학습되는 복장 분류 분기의 역전파와 표현 다양화 손실 함수에 의해 공유된 스테이지 1-3이 옷에 대한 특징을 추출하는 역할을 수행하도록 한다. 세 번째는 복장의 색상 정보를 배제시키기 위해서 복장의 상의 및 하의의 색상을 추론하는 분기와 코사인 유사도 기반 색상 정보 배제 손실 함수를 추가한다 (그림 3 하단). 다시 말해, 복장이 변경된 동일인에 대해서 복장위치에서의 색상을 제외한 공통점을 인식시킴으로써 모델의 재식별 능력을 향상 시킨다. 또한, 추가된 두 개의 분기는 학습 과정에서만 수행을 하고, 추론 과정에서는 사용되지 않아 연산량의 증가가 없다.

그림 3. 전체적인 모델 구성도

Fig. 3. Overall configuration of the proposed model

../../Resources/kiee/KIEE.2024.73.4.725/fig3.png

그림 4. 복장 분류 분기 추가

Fig. 4. Addition of clothing classification branch

../../Resources/kiee/KIEE.2024.73.4.725/fig4.png

3.2 복장 분류 분기

2.1절의 기본 네트워크가 복장 정보를 활용하기 위해서 기본 네트워크의 스테이지 3의 출력 결과를 입력으로 받아 복장을 분류하는 분기를 추가한다. 입력은 합성곱 신경망의 순전파를 통해 $f_{cloth}(I_{n}^{k})$ ∈ $R^{24\times 12\times 2048}$ 벡터로 표현된다. 복장 레이블 기반으로 학습되는 분기의 역전파에 의해 공유된 스테이지 1-3이 옷에 대한 특징을 추출하는 역할을 수행하도록 한다. 분기는 스테이지 4의 구조를 사용하고 교차 엔트로피로 학습된다. 손실함수는 다음과 같다

(3)
$L_{ce}^{cloth}=-\sum_{i}^{C}t_{i}^{cloth}\log(y_{i}^{cloth})$

C는 복장의 클래스 수, $y_{i}^{cloth}$는 완전 연결층을 통한 복장 예측 값, $t_{i}^{cloth}$는 복장 레이블 값이다. 추가적으로 복장 정보를 내포하는 복장 표현 벡터를 더 효과적으로 반영하기 위해 표현 다양화 손실 함수 $L_{cos}^{sim}$를 추가한다.

(4)
$L_{cos}^{sim}= 1-cos[f_{id}(I_{n}^{k}),\: f_{cloth}(I_{n}^{k})]$

3.3 복장 색상 분류 분기

3.2절에서 분기가 추가된 기본 네트워크가 활용하는 복장 정보에서 사람 재식별수행에 방해가 되는 복장의 색상 정보의 추출을 억제하기 위해, 이를 추론하는 분기에 대한 역전파를 차단한다. 입력은 합성곱 신경망의 순전파를 통해 $f_{col}(I_{n}^{k})$ ∈ $R^{24\times 12\times 2048}$ 벡터로 표현된다. 이때 상의와 하의의 복장의 색상은 일반적으로 연관성이 없기 때문에, 표현 벡터를 식 (5), (6)과 같이 두 부분으로 동일하게 병렬 분할한다.

(5)
$f_{col\_up}(I_{n}^{k})$, $f_{col\_low}(I_{n}^{k})$ = $Split(f_{col}(I_{n}^{k}))$
(6)
$f_{col\_up}(I_{n}^{k})$, $f_{col\_low}(I_{n}^{k})$ ∈ $R^{12\times 12\times 2048}$

분할된 표현 벡터를 각각의 색상으로 분류하는 완전연결층을 추가한다. 분기는 스테이지 4의 구조를 사용하고 교차 엔트로피로 학습된다. 이는 다음과 같이 표현된다

(7)
$L_{ce}^{col\_up}=-\sum_{i}^{C}t_{i}^{col\_up}\log(y_{i}^{col\_up})$
(8)
$L_{ce}^{col\_low}=-\sum_{i}^{C}t_{i}^{col\_low}\log(y_{i}^{col\_low})$

$y_{i}^{col\_up}$, $y_{i}^{col\_low}$는 각각 완전연결층을 통한 상의, 하의의 색상 예측값이고, $t_{i}^{col\_up}$, $t_{i}^{col\_low}$는 각각 상의, 하의의 색상 레이블 값이다. 3.2절에서 기본 네트워크가 활용하는 복장 표현 벡터에서 복장 색상 정보를 배제하기 위해 색상 정보 배제 손실 함수 $L_{cos}^{dis}$를 다음 식 (7)과 같이 추가한다.

(9)
$L_{cos}^{dis}= \max (0,\: cos(f_{cloth}^{*}(I_{n}^{k}),\: f_{col}^{*}(I_{n}^{k}))$

$f_{col}^{*}(I_{n}^{k})$ ∈ $R^{12\times 12\times 4096}$는 $f_{col\_up}(I_{n}^{k})$와 $f_{col\_low}(I_{n}^{k})$를 이어 붙인 것이다. $f_{cloth}^{*}(I_{n}^{k})$는 $f_{col}^{*}(I_{n}^{k})$와 크기를 맞춰주기 위해 $Concatenate(Spl(f_{cloth}(I_{n}^{k})))$ ∈ $R^{12\times 12\times 4096}$을 수행한 것이다. 같은 이유로 $f_{"id"}(I_{n}^{k})$도 $f_{"id"}^{*}(I_{n}^{k})$로 변환해 준다. 최종 손실 함수 $Loss$는 다음과 같다

(10)
$Loss=L_{ce}^{id}+L_{tri}^{id}+L_{ce}^{cloth}+L_{ce}^{up}+L_{ce}^{low}+\lambda_{cos}\bullet L_{cos}$
(11)
$L_{cos}= L_{cos}^{sim}+ L_{cos}^{dis}$

$\lambda_{cos}$는 코사인 유사도 기반 두가지 손실 함수의 계수로 하이퍼 파라미터이다. 본 논문에서는 0.1을 사용한다.

3.4 자동 컬러 레이블링

3.3절에서 추가된 복장 색상 분류 분기는 상의 및 하의 각각의 복장 색상 레이블을 필요로 하지만 일반적인 사람 재식별 데이터 셋에서는 복장 색상 레이블을 제공하지 않는다. 따라서 본 논문에서는 색상 레이블이 없는 데이터 셋에 대해 효율적인 자동 색상 레이블 생성 기법을 제안한다. 동일 복장 레이블을 가진 모든 학습 이미지에 대해서 그림 5와 같이, 특정 영역 픽셀들의 평균값에 대하여 HSV 변환을 통해 해당 Hue의 값을 포함하는 영역을 색상 레이블로 사용한다.

그림 5. Hue 색상 공간 기반 복장 컬러 레이블

Fig. 5. Hue color space based clothing color label

../../Resources/kiee/KIEE.2024.73.4.725/fig5.png

4. 실험 및 결과 분석

4.1 실험 준비

제안된 기법의 성능을 평가하기 위해 복장 변경 데이터셋인 LTCC[11] 데이터 셋에 대해서 mAP와 Rank-1 성능을 평가하고 기존의 최신 기법과 비교한다. mAP는 상위 예측에 참값이 얼마나 근접하는지를 나타내는 확률이고 Rank-1은 최상위 예측이 참값과 일치하는 확률이다.

LTCC는 현재 존재하는 복장 변경 데이터 세트들 중에서 가장 어려운 데이터로, 152명의 사람을 포함한 17,119개의 이미지로 구성되며, 두 개의 세트로 구분된다. 첫 번째는 91명의 사람이 14,783개의 이미지에 416개의 서로 다른 복장 변경 세트이고, 두 번째는 61명의 사람이 2,336개의 이미지에 복장 변경이 없는 세트이다. train, test, 쿼리로 구성되며 각각 복장 변경 유무에 관계없이 9576, 7050, 493장의 데이터로 구성된다. 코드는 파이토치 환경에서 구현되었으며, 해당 실험은 두 대의 Nvidia RTX 3090 GPU를 사용하여 수행되었다.

4.2 실험 결과

표 1을 보면 제안된 기법의 성능이 Rank-1/mAP 41.1%/18.1%으로 기존 기법들 보다 대부분 우수함을 나타낸다. 복장 외의 특징에 집중하는 기법들 중, 발걸음 예측에 집중한 [7]에 비해서는 Rank-1/mAP이 각각 12.2%/3.9% 증가하였고 복장과 관련 없는 특징을 보완하는 학습법을 제안한 [8]에 비해 Rank-1/mAP이 각각 2.6%/1.9% 증가하였다. 복장의 영향을 최소화하는 기법들 중, 복장의 예측에 대한 페널티를 주는 CAL[9]에 비해 Rank-1/mAP이 각각 1.0%/0.1% 증가하였고 복장의 편향을 최대한 배제하기 위한 인과관계기반의 모델을 제안한 AIM[10]와 비교하면 Rank-1이 0.5% 증가하였다.

제안된 기법이 비교 기법들에 비해서 좋은 성능을 보여주는데, 이는 기존 접근법들에서 간과된 복장 정보를 보완함으로써 향상된 성능을 얻은 것으로 생각된다.

표 1 기존 기법과의 성능비교

Table 1 Comparison existing methods on LTCC

Method

Rank-1 (%)

mAP (%)

GI-ReID[7]

28.9

14.2

FSAM[8]

38.5

16.2

CAL[9]

40.1

18.0

AIM[10]

40.6

19.1

Ours

41.1

18.1

그림 6은 LTCC 데이터 셋의 쿼리와 갤러리 간의 동일 인물에 대한 기본 네트워크와 제안된 네트워크의 재식별 결과를 Rank1부터 5까지 순차적으로 보여준다. 초록색 박스는 정답, 빨간색 박스는 오답이다. 첫 번째와 두 번째 결과는 갤러리 이미지에 쿼리와 동일한 복장과 다른 복장이 있는 경우이다. 기본 네트워크는 동일한 복장만 식별을 했다면 제안된 네트워크는 다른 복장도 식별하는 것을 볼 수 있다. 세 번째와 네 번째 결과는 갤러리 이미지에 쿼리와 다른 복장만 있는 경우이다. 기본 네트워크는 동일한 복장의 경우가 없기 때문에 식별을 하지 못했지만, 제안된 네트워크는 다른 복장을 식별하는 것을 볼 수 있다. 이것은 색상 정보를 제외한 복장 정보의 적용이 효과가 있음을 의미한다.

그림 6. 동일인물 재식별 결과 예시

Fig. 6. Person Re-Identification retrival results

../../Resources/kiee/KIEE.2024.73.4.725/fig6.png

4.3 개별 구성 요소별 실험 (Ablation Study)

표 2는 기본 네트워크인 ResNet50의 각 스테이지별 제안된 추가 복장 분류 분기 위치에 대한 ablation study 결과를 보여준다. 분기는 추가된 위치의 스테이지부터 마지막 스테이지까지의 구조를 사용한다. 손실 함수는 $L_{ce}^{id}+L_{tri}^{id}+L_{ce}^{cloth}$을 사용한다. Index 1은 baseline인 ResNet50의 복장 변화 재식별 결과이고, Index 2-5는 복장 분기의 추가 위치별 복장 변화 재식별 결과 및 모델의 크기를 나타낸다. 스테이지 4에서의 추가가 가장 작은 크기의 분기를 추가하고 R-1은 2.3% mAP는 0.9% 증가하였다. 모든 위치에서의 복장 분기의 추가가 성능 향상에 도움을 주므로, 제안된 모델의 복장 정보의 활용이 복장 변경 사람 재식별수행에 도움이 된다는 것을 유추할 수 있다.

표 2 분기 추가 위치에 따른 성능 비교

Table 2 Comparison location of added branch

Index

Branch

R-1

mAP

size

1

-

36.5

15.5

23.51M

2

Stage 1

37.5

15.4

47.01M

3

Stage 2

36.7

16.2

46.80M

4

Stage 3

36.2

16.0

45.58M

5

Stage 4

38.8

16.4

38.48M

표 3은 제안 기법에서의 각 요소에 대한 ablation study 결과를 보여준다. branch1은 3.2절의 복장 분류 분기의 추가 여부를 의미하고, branch2는 3.3절의 복장 색상 분류 분기의 추가 여부를 의미한다. Index 1과 Index 2는 표 2의 Index 1과 Index 5이다. Index 3은 3.2절에서 제안한 표현 다양화 손실 함수 추가의 결과로 Index 2와 비교해서 Rank-1/mAP이 각각 0.5%/1.3% 증가하였다. Index 4는 3.3절에서 제안한 복장 색상 분류 분기의 추가와 색상 정보 배제 손실 함수 추가의 결과로 Index 3와 비교해서 Rank-1/mAP이 각각 0.8%/0.4% 증가하였다. 이로써 표현 다양화 손실 함수로 재식별에 도움이 되는 복장 정보가 더 반영되었다는 것과 복장 정보에서 색상 정보를 배제 시켜주는 방식이 재식별에 도움이 된다는 것이 검증되었다.

표 3 제안된 부분 기법들의 효과 비교

Table 3 Ablation study of proposed method

Index

branch1

branch2

$L_{cos}^{sim}$ $L_{cos}^{dis}$

mAP

R-1

1

36.5

15.5

2

38.8

16.4

3

39.3

17.7

4

41.1

18.1

5. 결 론

복장 변화 사람 재식별을 위한 ResNet50 기반의 개선된 기법을 다음과 같이 제안하였다 1) 모델의 복장 정보를 활용하기 위한 복장 분류 분기 및 표현 다양화 손실 함수 추가, 2) 활용하는 복장 정보의 색상 정보를 배제하기 위한 복장 색상 분류 분기 및 색상 정보 배제 손실 함수 추가, 3) 복장 색상 분류 분기의 학습을 위한 자동 컬러 레이블링 제안, 4) 제안된 기법을 LTCC 데이터 셋에 대해서 Rank-1 과 mAP 성능을 평가하고 기존의 최신 기법과 비교한다. 제안된 분기의 추가 위치에 대한 비교 분석과 제안된 부분 기법들에 대한 비교 분석이 수행되었고, 이를 통해 제안 기법의 정성적인 타당성을 확인하였다. 이러한 개선은 실제 다양한 상황에서의 성능 향상 및 안정성을 제공한다. 향후, 분기 구조의 개선을 통해 성능의 향상을 목표로 삼고 있다.

References

1 
M. Ye, J. Shen, G. Lin, T. Xiang, L. Shao, S. C. Hoi, “Deep learning for person re-identification: A survey and outlook,” in IEEE transactions on pattern analysis and machine intelligence, vol. 44, no. 06, pp. 2872-2893, 2022.DOI
2 
S. Kim, S. Gwon, and K. Seo, “Enhancing Diverse Intra- Identity Representation for Visible-Infrared Person Re-Identification,” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), pp. 2513-2522, 2024.URL
3 
S. Kim, S. Kang, H. Choi, S. Kim, and K. Seo, “Keypoint aware robust representation for transformer-based re-identification of occluded person,” in IEEE Signal Processing Letters, vol. 30, pp. 65-69, 2023.DOI
4 
S. Gwon, S. Kim, and K. Seo, “Balanced and Essential Modality-Specific and Modality-Shared Representations for Visible-Infrared Person Re-Identification,” in IEEE Signal Processing Letters, vol. 31, pp. 491-495, 2024DOI
5 
X. Gu, H. Chang, B. Ma, S. Bai, S. Shan, X. Chen, “Clothes-changing person re-identification with rgb modality only,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1060-1069, 2022.URL
6 
Y. Huang, Q. Wu, J. Xu, Y. Zhong, Z. Zhang, “Clothing status awareness for long-term person re-identification,” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), pp. 11895-11904, 2021.URL
7 
P. Hong, T. Wu, A. Wu, X. Han, W. Zheng, “Fine-grained shape-appearance mutual learning for cloth-changing person re-identification,” in Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR), pp. 10513–10522, 2021.URL
8 
X. Jin, T. He, K. Zheng, Z. Yin, X. Shen, Z. Huang, R. Feng, J. Huang, Z. Chen, X. Hua, “Cloth-changing person re-identification from A single image with gait prediction and regularization,” in Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR), pp. 14278–14287, 2022.URL
9 
X. Gu, H. Chang, B. Ma, S. Bai, S. Shan, and X. Chen, “Clothes-changing person re-identification with RGB modality only,” in Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR), pp. 1050–1059, 2022.URL
10 
Z. Yang, M. Lin, X. Zhong, Y. Wu, and Z. Wang, “Good is bad: Causality inspired cloth-debiasing for cloth-changing person re-identification,” in PProceedings of the IEEE conference on computer vision and pattern recognition (CVPR), pp. 1472–1481, 2023.URL
11 
X. Qian, W. Wang, L. Zhang, F. Zhu, Y. Fu, T. Xiang, Y. Jiang, X. Xue, “Long-term cloth-changing person re- identification,” Proceedings of the Asian Conference on Computer Vision (ACCV), 2020.URL
12 
K. He, X. Zhang, S. Ren, J. Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR), pp. 770-778, 2016.URL

저자소개

채운(Woon Chea)
../../Resources/kiee/KIEE.2024.73.4.725/au1.png

He received BS degree from Electronics Engineering from Seokyong University, Seoul, Korea, in 2024. He is currently pursuing his MS degree in Electronics and Computer Engineering at Seokyeong University, His research interests include deep learning and computer vision.

권순용 (SoonYong Gwon)
../../Resources/kiee/KIEE.2024.73.4.725/au2.png

He received BS degree from Electronics Engineering from Seokyong University, Seoul, Korea, in 2023. He is currently pursuing his MS degree in Electronics and Computer Engineering at Seokyeong University, His research interests include deep learning, computer vision.

서기성(Kisung Seo)
../../Resources/kiee/KIEE.2024.73.4.725/au3.png

He received the BS, MS, and Ph.D degrees in Electrical Engineering from Yonsei University, Seoul, Korea, in 1986, 1988, and 1993 respectively. He joined Genetic Algorithms Research and Applications Group (GARAGe), Michigan State University from 1999 to 2002 as a Research Associate. He was also appointed Visiting Assistant Professor in Electrical & Computer Engineering, Michigan State University from 2002 to 2003. He was a Visiting Scholar at BEACON (Bio/computational Evolution in Action CONsortium) Center, Michigan State University from 2011 to 2012. He is currently Professor of Electronics Engineering, Seokyeong University. His research interests include deep learning, evolutionary computation, computer vision, and intelligent robotics.