컨볼루션 신경망의 성능에 영향을 미치는 매개변수는 다양하다. 그 중에서도 손실 최소화에 매우 중요한 옵티마이저로 RMSprop와 Adam을 본 연구에서
적용하였다. 한정된 학습 이미지에서 신경망 과대접합을 최소화하기 위해서는 드롭아웃, 이미지 증식, 신경망 크기 축소, 가중치 규제 추가 등도 활용된다.
본 연구에서는 드롭아웃(Srivastava et al., 2014)과 이미지 증식을 적용하였다. 드롭아웃 비율은 50 %로 설정하였으며, Table 1과 같은 이미지 증식을 고려하였다.
3.1 바닐라 컨볼루션 신경망
GPR B-scan 회색조 이미지에서 싱크홀 특성을 추출하기 위해 본 연구에서 적용한 바닐라 컨볼루션 신경망 구조와 매개변수는 Table 2~3과 같다.
Table 2의 바닐라 컨볼루션 신경망은 4개의 층으로 구성되었으며, 최대값 폴링을 적용하여 특성 맵의 크기를 축소하고 특징을 추출하였다. 각 층에 ReLU 활성화
함수를 적용하고, 이중 분류를 위해 마지막 층에는 활성화 함수로 Sigmoid를 사용하였으며, RMSprop와 Adam 옵티마이저를 적용하였다.
옵티마이저인 RMSprop는 경사하강 알고리즘의 확장으로, 각 매개변수에 대한 단계 크기를 조정할 때 부분 경사의 감쇠 평균을 사용한다. 이를 통해
알고리즘이 초기 경사를 잊어버리고 검색 진행 중에 가장 최근의 경사에만 집중하는 adaptive gradient 알고리즘의 한계를 극복할 수 있다(Kurbiel et al., 2017).
옵티마이저인 Adam은 확률적 경사하강법의 확장으로, 자연어 및 컴퓨터 비전 문제의 희소 경사에 대한 성능을 향상시키기 위해 매개변수별 학습률을 유지하는
adaptive gradient 알고리즘과 가중치에 대한 경사의 크기의 평균을 기반으로 조정된 매개변수별 학습률을 유지하는 옵티마이저 RMSprop
알고리즘의 장점을 가지고 있다(Kingma et al., 2014).
Table 2~3의 바닐라 컨볼루션 신경망 모델에서는 옵티마이저인 RMSprop와 Adam, 그리고 드롭아웃 및 이미지 증식의 적용 여부에 따라 8가지 경우를
시뮬레이션하였으며, 이에 따른 도출된 top-1 검증 정확도와 연산 시간을 Table 5에 정리하였다.
Table 4의 8가지 경우에서 이미지 증식 적용 영향 분석을 위한 결과를 Fig. 4에 정리하였다.
Table 2. Vanilla Convolutional Neural Network
Layer type
|
Output Shape
|
Number of Parameters
(Total number of weights)
|
Conv2D_1
|
59, 59, 32
|
416
|
MaxPooling2D_1
|
29, 29, 32
|
0
|
Conv2D_2
|
28, 28, 64
|
8,256
|
MaxPooling2D_2
|
14, 14, 64
|
0
|
Conv2D_3
|
13, 13, 128
|
32,896
|
MaxPooling2D_3
|
6, 6, 128
|
0
|
Conv2D_4
|
5, 5, 256
|
131,328
|
MaxPooling2D_4
|
2, 2, 256
|
0
|
Flatten
|
1,024
|
0
|
Dense
|
256
|
262,400
|
Dense (sigmoid)
|
1
|
257
|
Table 3. Parameters
Parameters
|
Name/Value
|
Activation function
|
ReLU, Sigmoid
|
Rate of learning
|
1 × 10-5
|
Epochs
|
500
|
Batch size
|
20
|
Loss function
|
Binary cross entropy
|
Optimizer
|
RMSprop / Adam
|
Table 4. Considered Analysis Cases of Vanilla Convolution Neural Network
Remark
|
Case ID
|
1
|
2
|
3
|
4
|
5
|
6
|
7
|
8
|
Optimizer
|
RMSprop
|
○
|
○
|
○
|
○
|
|
|
|
|
Adam
|
|
|
|
|
○
|
○
|
○
|
○
|
Dropout
|
○
|
○
|
|
|
○
|
○
|
|
|
Image generation
|
○
|
|
○
|
|
○
|
|
○
|
|
Fig. 4(a)와 Fig. 4(c)의 이미지 증식 적용으로 인해 학습 정확도와 검증 정확도가 거의 동일하여, 이미지 증식이 적용되지 않은 Fig. 4(b)와 Fig. 4(d)에서는 과대접합이 발생하지 않고 있다. Fig. 4(c)와 Fig. 4(d)에서의 옵티마이저 Adam 적용 시, 이미지 증식으로 인한 과대접합 감소 정도가 Fig. 4(a)와 Fig. 4(b)에서의 옵티마이저 RMSprop 적용 시의 것보다 더 높은 것으로 나타났다. 과대접합을 감소시키는 방법 중 하나인 드롭아웃 적용에 따른 시뮬레이션
결과는 Fig. 5에 정리하였다.
Table 5. Compute Time and Top-1 Validation Accuracy of Vanilla Convolution Neural Network
Remark
|
Case ID
|
1
|
2
|
3
|
4
|
5
|
6
|
7
|
8
|
Compute time per epoch (sec)
|
0.83
|
0.59
|
0.85
|
0.61
|
0.83
|
0.57
|
0.83
|
0.59
|
Top-1 Validation accuracy (%)
|
71.8
|
76.3
|
70.9
|
74.5
|
77.2
|
77.2
|
78.2
|
78.2
|
Fig. 4. Effect of Applying Image Generation at the Vanilla Convolution Neural Network: (a) Image Generation (RMSprop), (b) No Image Generation (RMSprop), (c) Image Generation (Adam), (d) No Image Generation (Adam)
Fig. 5. Effect of Applying Dropout (50 %) at the Vanilla Convolutional Neural Network: (a) Dropout (RMSprop), (b) No Dropout (RMSprop),
에포크 150회에 한정하여 분석할 경우, 드롭아웃 미적용 시 약 60회 에포크 이후에 과대접합이 발생하지만(Fig. 5(b)), 드롭아웃 적용 시에는 에포크 100회 정도까지 과대접합이 발생하지 않는 것으로 나타나고 있어, 과대접합을 지연시키는 드롭아웃의 효과를 확인할
수 있다.
GPR B-scan 회색조 이미지에서 싱크홀 특성 추출에 이미지 증식을 적용할 경우(case 1, 3, 5, 7), 필요 연산 시간이 약 40 %
정도 증가하였으나, top-1 검증 정확도 상승이 발생하지 않는 것으로 Table 5에 나타나고 있다. 비용 개념을 고려한 연산 시간과 top-1 검증 정확도를 기반으로 아키텍처 효율 지수(architecture efficient
index)를 Eq. (1)과 같이 도출하여, top-1 검증 정확도와 함께 Fig. 6에 나타내었다.
Table 2에서 바닐라 컨볼루션 신경망에 옵티마이저 Adam을 적용한 경우, 이미지 증식과 드롭아웃의 적용 여부와 관계없이 거의 동일한 top-1 검증 정확도(77.2~78.2
%)가 case 5~8에서 분석된다. 반면 옵티마이저 RMSprop을 적용한 경우(case 1~4)에는 top-1 검증 정확도(70.9~76.3 %)의
변동폭이 상대적으로 높다. 이는 Fig. 6(a)에서 확인할 수 있다.
Fig. 6(b)의 아키텍처 효율 지수를 살펴보면, 이미지 증식에 따른 연산 시간 증가로 이미지 증식이 고려된 case 1, 3, 5, 7의 아키텍처 효율 지수가
0.83~0.94로, 이미지 증식이 고려되지 않은 case 2, 4, 6, 8의 아키텍처 효율 지수인 1.22~1.35와 비교하여 약 30.3~31.9
% 낮은 것으로 나타났다. Case 1과 3, case 2와 4, case 5와 7, case 6과 8을 각각 비교할 경우, 드롭아웃의 적용으로 인해
연산 시간과 top-1 검증 정확도의 변화가 거의 없어 아키텍처 효율 지수가 거의 동일한 것으로 나타났다.
Fig. 6. Top-1 Validation Accuracy and Architecture Efficient Index: (a) Top-1 Validation Accuracy, (b) Architecture Efficient Index
3.2 사전 훈련된 컨볼루션 신경망
사전 훈련된 컨볼루션 신경망은 대량의 데이터 세트에서 미리 훈련된 네트워크이다. 충분히 큰 이미지 데이터 세트로 훈련된 네트워크는 훈련된 이미지와는
완전히 다른 클래스에도 매우 유용하게 활용된다. 특성 추출은 새로운 이미지 데이터 세트에서 특성을 뽑아내는 것으로, 이러한 특성을 바탕으로 맞춤 분류기를
훈련시킨다. 특성 추출은 빠른 특성 추출(fast feature extraction)과 특성 추출(feature extraction)로 나누어진다.
빠른 특성 추출은 많은 연산이 수반되는 합성곱 연산을 한 번만 실행하기 때문에 빠르고 비용이 적게 들지만, 과대접합을 최소화할 수 있는 데이터 증식을
적용할 수 없다. 특성 추출은 사전 훈련된 컨볼루션 신경망 위에 층을 쌓아 확장한 후 새로운 이미지 데이터 세트로 전체 네트워크를 실행한다. 모든
입력 이미지가 매번 합성곱 기반 층을 통과하기 때문에 이미지 증식을 사용할 수 있다.
사전 훈련된 가중치와 함께 사용할 수 있는 딥러닝 모델로는 케라스 홈페이지에서 38개(2023년 12월 30일 기준)의 사전 훈련된 딥러닝 모델을
제시하고 있으며, 최근 컴퓨터 비전 분야에서 널리 사용되는 사전 훈련된 딥러닝 모델은 Resnet50, EfficientNet, Inceptionv3이다.
ResNet50 모델은 마이크로소프트에서 개발되었으며, 기울기 소실 문제를 해결하여 최대 100개의 레이어로 구성된다. EfficientNet은 구글에서
개발한 STOA(state-of-the-art) 모델이며, InceptionV3 모델 또한 구글에서 개발한 모델로서 생성하는 매개변수의 수와 발생하는
계산 비용 측면에서 효율적으로 평가되고 있다. 이러한 3개의 모델 외에 케라스 홈페이지에서 제시하는 VGG, DesNet, MobileNetV2 모델의
성능을 Table 6에 정리하였다.
Table 6에서 EfficientNetB7의 top-1 검증 정확도(84.3 %)가 가장 높지만, GPU 기반 연산 시간(61.6ms)이 가장 높아 정확도와
연산 시간을 종합적으로 고려할 때 신경망 효율이 가장 낮게 된다. 반면에 MobileNetV2는 상대적으로 낮은 top-1 검증 정확도(71.3 %)를
보여주지만, 짧은 연산 시간(3.8 ms)으로 가장 높은 효율을 보여준다.
Table 6. Model Performance
Model
|
Size
(MB)
|
Top-1
Accuracy
|
Top-5
Accuracy
|
Parameters
|
Depth
|
Time(ms) per inference step (GPU)
|
ResNet50
|
98
|
74.9 %
|
92.1 %
|
25.6 M
|
107
|
4.6
|
ResNet152
|
232
|
76.6 %
|
93.1 %
|
60.4 M
|
311
|
6.5
|
EfficientNetB7
|
256
|
84.3 %
|
97.0 %
|
66.7 M
|
438
|
61.6
|
InceptionV3
|
92
|
77.9 %
|
93.6 %
|
23.9 M
|
189
|
6.9
|
VGG16
|
528
|
71.3 %
|
90.1 %
|
138.4 M
|
16
|
4.2
|
VGG19
|
549
|
71.3 %
|
90.0 %
|
143.7 M
|
19
|
4.4
|
DesNet121
|
33
|
75.0 %
|
92.3 %
|
8.1 M
|
242
|
5.4
|
DesNet201
|
80
|
77.3 %
|
93.6 %
|
20.2 M
|
402
|
6.7
|
MobileNetV2
|
14
|
71.3 %
|
90.1 %
|
3.5 M
|
105
|
3.8
|
*Source : KERAS hompage_KERAS Applications_Available models
Table 7. MobileNets Performance
Model
|
Top-1 Accuracy
|
MAdds
|
Parameters
|
Latency (ms)
|
MobileNetV2
|
72.0 %
|
300
|
3.4 M
|
64
|
MobileNetV3-Large
|
75.2 %
|
219
|
5.4 M
|
51
|
MobileNetV3-Small
|
67.4 %
|
56
|
2.5 M
|
15.8
|
Table 8. Simulation Case of Pretrained Convolution Neural Network
Case
|
Optimizer
|
Dropout
|
Image generation
|
Extraction Type
|
1
|
RMSprop
|
Yes
|
Yes
|
feature extraction
|
2
|
No
|
fast feature extraction
|
3
|
No
|
Yes
|
feature extraction
|
4
|
No
|
fast feature extraction
|
5
|
Adam
|
Yes
|
Yes
|
feature extraction
|
6
|
No
|
fast feature extraction
|
7
|
No
|
Yes
|
feature extraction
|
8
|
No
|
fast feature extraction
|
MobileNetV2는 모바일 체계에 필요한 낮은 계산 복잡도와 저전력으로도 충분한 정확도를 확보할 수 있는 가벼운 신경망이다 (Howard et al., 2017). 관련하여 MobileNetV3-Large 및 MobileNetV3-Small을 개발하는 등 계속적인 연구가 진행되고 있다(Howard et al., 2019). MobileNets의 성능은 Table 7에 정리하였다.
Table 7에서는 MobileNetV3-Large이 가장 높은 top-1 검증 정확도를 보여주고 있으며, MobileNetV3-Small의 연산 시간이 가장
짧다. 옵티마이저(RMSProp, ADAM) 종류와 드롭 아웃 및 이미지 증식의 적용 여부에 따른 빠른 특성 추출과 특성 추출의 성능을 평가하기 위해
Table 6~7의 모델을 사용하여 Table 8에 8가지 경우의 GPR B-scan 회색조 이미지의 싱크홀 특성 추출 시뮬레이션을 수행하였다. 가장 높은 top-1 검증 정확도가 분석된 VGG19
시뮬레이션 결과를 Fig. 7에 정리하였다.
VGG19 기반 특성 추출에 옵티마이저 RMSprop을 적용할 경우, 드롭아웃이나 이미지 증식의 적용 여부에 관계없이, 에포크 30 이상에서 명확한
과대접합이 발생하는 것을 Fig. 7(a), (c)에서 확인할 수 있다.
반면에, Fig. 7(b), (d)에서는 드롭아웃을 적용한 빠른 특성 추출에 과대접합 정도가 감소하고 오히려 과소접합이 발생하는 양상을 보여준다. 옵티마이저 Adam을 적용할
경우에는 과소 및 과대 접합이 발생하지 않지만 낮은 top-1 검증 정확도를 Fig. 7(e), (f)에서 보여주고 있으며, 빠른 특성 추출을 적용할 경우에는 일정 이상의 에포크부터 명확한 과대접합이 Fig. 7(f), (h)에서 나타난다.
이러한 결과로부터, 동일한 모델에 대해서도 특성 추출 방법과 적용된 옵티마이저 등이 시뮬레이션 결과에 명확한 영향을 미치는 것으로 판단된다. Table 6~7의 사전 훈련된 컨볼루션 신경망의 GPR B-scan 회색조 이미지 싱크홀 특성 추출 top-1 검증 정확도를 Table 9에 정리하였다.
옵티마이저 종류, 이미지 증식 및 드롭아웃 적용 여부, 특성추출 방법에 따라 동일한 신경망에서도 top-1 검증 정확도의 변화가 발생하는 것으로 Table 9에서 분석되고 있다. Table 6의 KERAS 시뮬레이션 결과에서 EfficientNetB7와 MobileNetV2의 top-1 검증 정확도가 각각 84.3 %, 71.3 %로,
이 두 모델의 top-1 검증 정확도의 13 % 차이가 발생하는 것으로 평가되고 있지만, 본 연구에서 도출된 Table 9의 두 신경망 top-1 검증 정확도는 각각 80.9 %, 78.2 %로 거의 차이가 발생하지 않는 것으로 나타났다.
Fig. 7. Simulation Results of VGG19: (a) RMSprop, Dropout, Image Generation, (b) RMSprop, Dropout, Fast Feature Extraction, (c) RMSprop, Image Generation, (d) RMSprop, Fast Feature Extraction, (e) Adam, Dropout, Image Generation, (f) Adam, Dropout, Fast Feature Extraction, (g) Adam, Image Generation, (h) Adam, Fast Feature Extraction
이는 KERAS 시뮬레이션 대상 이미지 특성과 시뮬레이션 조건이 본 연구의 GPR B-scan 회색조 이미지의 싱크홀 특성 추출에 사용된 이미지 특성
및 시뮬레이션 조건과 상이하기 때문이다.
모바일 체계에 합당한 MobileNetV2는 Table 9의 5번 시뮬레이션 조건(Adam, Dropout, Image generation, feature extraction)으로 EfficientNetB7와
상응하는 높은 top-1 검증 정확도를 보장할 수 있을 뿐만 아니라 상대적으로 짧은 연산 시간으로 신경망 효율을 강화할 수 있다.
EfficientNetB7, InceptionV3, VGG19, MobileNetV3-Large는 시뮬레이션 조건에 따라 각각 29.8 %, 26.4
%, 31.8 %, 24.6 %의 높은 top-1 검증 정확도 변화가 발생하고 있으므로 해당 신경망을 객체 검출 및 분할 백본으로 적용할 경우에는
매개변수 등의 적용에 신중해야 한다. 본 연구에 활용된 GPU 탑재 컴퓨터의 1 에포크 연산 시간을 Table 10에 정리하였다.
Table 9. Top-1 Validation Accuracy of Pretrained Convolution Neural Network ( %)
Case
|
ResNet50
|
ResNet152
|
EfficientNetB7
|
InceptionV3
|
VGG16
|
VGG19
|
1
|
76.4(a)
|
73.6
|
80.9(a)
|
78.2
|
81.8(a)
|
84.5(a)
|
2
|
70.0(b)
|
64.5(b)
|
75.4
|
64.5
|
75.4
|
82.7
|
3
|
72.7
|
71.8
|
80.0
|
74.5
|
80.9
|
80.9
|
4
|
71.8
|
65.4
|
74.5
|
61.8
|
74.5(b)
|
80.0
|
5
|
74.5
|
74.5(a)
|
80.0
|
76.4
|
78.2
|
52.7(b)
|
6
|
73.6
|
70.0
|
53.6
|
52.7(b)
|
77.3
|
80.9
|
7
|
71.8
|
71.0
|
76.3
|
79.1(a)
|
79.1
|
67.2
|
8
|
71.8
|
69.1
|
51.8(b)
|
61.8
|
77.2
|
79.1
|
(a)-(b) (%)
|
6.4
|
10.0
|
29.8
|
26.4
|
7.3
|
31.8
|
|
Case
|
DesNet121
|
DesNet201
|
MobileNetV2 256
|
MobileNetV2 1024
|
MobileNetV3 Large
|
MobileNetV3 Small
|
1
|
83.6(a)
|
75.4
|
66.3(b)
|
63.6(b)
|
55.4(b)
|
64.5(b)
|
2
|
66.4(b)
|
71.0(b)
|
70.0
|
68.2
|
77.2
|
68.2
|
3
|
80.0
|
75.4
|
66.4
|
67.2
|
53.6
|
73.6(a)
|
4
|
67.3
|
71.8
|
68.2
|
69.1
|
78.2
|
71.8
|
5
|
76.3
|
78.2
|
80.9(a)
|
78.2(a)
|
58.2
|
71.0
|
6
|
71.0
|
73.6
|
70.0
|
72.7
|
77.3
|
71.8
|
7
|
80.0
|
79.1(a)
|
78.2
|
76.3
|
57.3
|
65.4
|
8
|
68.2
|
71.8
|
70.9
|
69.1
|
80.0(a)
|
72.7
|
(a)-(b) (%)
|
17.2
|
8.1
|
14.6
|
14.6
|
24.6
|
9.1
|
Table 10. Compute Time of Pretrained Convolution Neural Network (Second for 1 Epoch)
Case
|
ResNet50
|
ResNet152
|
EfficientNetB7
|
InceptionV3
|
VGG16
|
VGG19
|
1
|
0.28(a)
|
0.51(a)
|
0.47(a)
|
0.28(a)
|
0.28
|
0.29(a)
|
2
|
0.21
|
0.23(a)
|
0.27
|
0.20
|
0.17
|
0.18
|
3
|
0.28(a)
|
0.51
|
0.40
|
0.28(a)
|
0.30(a)
|
0.26
|
4
|
0.20(b)
|
0.23
|
0.26
|
0.19
|
0.16(b)
|
0.18
|
5
|
0.28(a)
|
0.38
|
0.37
|
0.28(a)
|
0.27
|
0.15
|
6
|
0.21
|
0.22(b)
|
0.25
|
0.19
|
0.16(b)
|
0.16
|
7
|
0.28(a)
|
0.37
|
0.38
|
0.27
|
0.27
|
0.26
|
8
|
0.20(b)
|
0.22(b)
|
0.24(b)
|
0.18(b)
|
0.19
|
0.14(b)
|
((a)-(b))/(b) (%)
|
40.0
|
131.8
|
95.8
|
55.5
|
87.5
|
107.1
|
|
Case
|
DesNet121
|
DesNet201
|
MobileNetV2 256
|
MobileNetV2 1024
|
MobileNetV3 Large
|
MobileNetV3 Small
|
1
|
0.74(a)
|
0.48(a)
|
0.31(a)
|
0.27
|
0.29(a)
|
0.28(a)
|
2
|
0.18(b)
|
0.23
|
0.20
|
0.29(a)
|
0.25
|
0.20
|
3
|
0.30
|
0.48(a)
|
0.28
|
0.28
|
0.29(a)
|
0.29
|
4
|
0.21
|
0.23
|
0.18(b)
|
0.30
|
0.22
|
0.20
|
5
|
0.29
|
0.34
|
0.28
|
0.27
|
0.29(a)
|
0.28(a)
|
6
|
0.18(b)
|
0.21(b)
|
0.18(b)
|
0.20
|
0.17
|
0.18
|
7
|
0.29
|
0.35
|
0.28
|
0.29(a)
|
0.29(a)
|
0.28(a)
|
8
|
0.18(b)
|
0.21(b)
|
0.19
|
0.18(b)
|
0.15(b)
|
0.17(b)
|
((a)-(b))/(b) (%)
|
311.1
|
128.5
|
72.2
|
61.1
|
93.3
|
64.7
|
Table 10에서 시뮬레이션 조건에 따라 동일한 신경망에서도 연산 시간 변화가 나타나고 있다. DesNet121은 적용된 시뮬레이션 조건에 따라 연산 시간이 최대
311.1 % 변화하는 것으로 분석되었다. Eq. (1)에 따른 아키텍처 효율 지수를 Table 11에 정리하였다.
각 신경망의 최대 아키텍처 효율 지수는 2.81에서 5.45 사이로, 모델 간에 최대 1.94배의 차이가 발생함을 Table 11에서 분석하고 있다. 시뮬레이션 조건에 따라 연산 시간과 top-1 검증 정확도가 변화하면서 아키텍처 효율 지수가 변화하며, 이 변화가 낮을수록 모델이
강건한 것으로 판단된다.
Table 11의 결과를 통해 각 모델의 시뮬레이션 조건 변화에 따른 아키텍처 효율 지수 변동 정도를 살펴보면, DesNet121 및 MobileNetV3-Large에서
각각 246.0 %, 177.4 %의 높은 변동이 있어 이 모델들을 GPR B-scan 회색조 이미지의 싱크홀 객체 검출 및 분할 백본으로 사용할
때는 시뮬레이션 조건 적용에 특히 주의해야 할 것으로 분석된다.
InceptionV3의 아키텍처 효율 지수 변화는 22.6 %로 가장 낮아 가장 강건한 모델로 평가된다. Table 9에서 분석된 top-1 검증 정확도와 Table 11의 아키텍처 효율 지수를 정리한 결과는 Table 12와 같다.
Table 12를 종합적으로 고려할 때, 상위 25 %의 top-1 검증 정확도(81.1 % 이상)와 상위 25 %의 아키텍처 효율 지수(4.32)를 동시에 충족하는
VGG19 및 VGG16이 GPR B-scan 회색조 이미지의 싱크홀 특성 추출 백본으로 상대적으로 높은 효율성을 갖는 것으로 나타나고 있다. 또한,
GPR 내재 기반 실시간 B-scan 회색조 이미지의 싱크홀 특성 추출을 위해서는 MobileNet 중 MobileNetV3-Large가 가장 적합하다고
평가된다.
Table 11. Architecture Efficient Index
Case
|
ResNet50
|
ResNet152
|
EfficientNet B7
|
InceptionV3
|
VGG16
|
VGG19
|
Vanilla CNN
|
1
|
2.72
|
1.42
|
1.72(b)
|
2.78
|
2.89
|
2.90
|
0.87
|
2
|
3.22
|
2.72
|
2.71
|
3.22
|
4.35
|
4.46
|
1.29
|
3
|
2.55
|
1.38(b)
|
2.0
|
2.65(b)
|
2.70(b)
|
3.03
|
0.83(b)
|
4
|
3.50
|
2.74
|
2.81(a)
|
3.12
|
4.57
|
4.37
|
1.22
|
5
|
2.57
|
1.95
|
2.16
|
2.71
|
2.81
|
3.52
|
0.93
|
6
|
3.49
|
3.13(a)
|
2.09
|
2.73
|
4.69(a)
|
4.82
|
1.35(a)
|
7
|
2.49(b)
|
1.89
|
2.0
|
2.83
|
2.86
|
2.54(b)
|
0.94
|
8
|
3.58(a)
|
3.05
|
2.15
|
3.25(a)
|
4.01
|
5.45(a)
|
1.33
|
((a)-(b))/(b) (%)
|
43.7
|
126.8
|
63.3
|
22.6
|
73.7
|
114.5
|
62.6
|
|
Case
|
DesNet121
|
DesNet201
|
MobileNetV2 256
|
MobileNet
V2 1024
|
MobileNet
V3 Large
|
MobileNet
V3 Small
|
Vanilla
CNN
|
1
|
1.13(b)
|
1.55
|
2.14(b)
|
2.28
|
1.91
|
2.25(b)
|
0.87
|
2
|
3.64
|
2.98
|
3.49
|
2.33
|
3.00
|
3.42
|
1.29
|
3
|
2.60
|
1.54(b)
|
2.30
|
2.41
|
1.82(b)
|
2.55
|
0.83(b)
|
4
|
3.16
|
3.06
|
3.66
|
2.27(b)
|
3.56
|
3.45
|
1.22
|
5
|
2.64
|
2.24
|
2.82
|
2.82
|
1.99
|
2.48
|
0.93
|
6
|
3.91(a)
|
3.47(a)
|
3.75(a)
|
3.48
|
4.39
|
3.93
|
1.35(a)
|
7
|
2.72
|
2.27
|
2.72
|
2.63
|
1.97
|
2.28
|
0.94
|
8
|
3.74
|
3.41
|
3.60
|
3.77(a)
|
5.05(a)
|
4.20(a)
|
1.33
|
((a)-(b))/(b) (%)
|
246.0
|
125.3
|
75.2
|
66.0
|
177.4
|
86.6
|
62.6
|
Table 12. Architecture Efficient Index and Maximum Top-1 Validation Accuracy
Model
|
Architecture Efficient Index
|
Top-1 Validation Accuracy (%)
|
Vanilla CNN
|
1.35
|
78.2
|
ResNet50
|
3.58
|
76.4
|
ResNet152
|
3.13
|
74.5
|
EfficientNetB7
|
2.81
|
80.9
|
InceptionV3
|
3.25
|
79.1
|
VGG16
|
4.69
|
81.8
|
VGG19
|
5.45
|
84.5
|
DesNet121
|
3.91
|
83.6
|
DesNet201
|
3.47
|
79.1
|
MobileNetV2
|
3.75
|
80.9
|
MobileNetV3-Large
|
5.05
|
80.0
|
MobileNetV3-Small
|
4.20
|
73.6
|