728x90
반응형
VGGNet
- 목표 : 네트워크의 깊이를 깊게 만드는 것이 성능에 어떤 영향을 미치는가 확인
- 방법 : 깊이의 영향만을 확인하기 위해 커널 사이즈는 가장 작은 3X3으로 고정
6개의 구조를 만들어 성능 비교
- layer가 깊어질수록 성능이 좋아지는 것을 확인
VGG16
3x3 Filter
- 여러 개의 Relu non-linear를 사용할 수 있음
- 큰 필터로 구성된 하나의 레이어를 작은 필터의 여러 레이어로 나누었기 때문에 Relu non-linerlity가 들어갓 곳이 더 많아짐
- 학습해야할 weight 수가 많아 줄어듬
- regularization(모델의 일반화) 측면에서 큰 이점
- 학습 속도가 빠름
학습 이미지: 224x224로 고정
- 다양한 이미지를 crop을 통해 224x224로 크기 고정
VGGNet 단점
- fully connected layer가 3개가 있고, pooling을 거친 뒤에는 feature map 개수가 2배로 커지면서 필요한 파라미터가 과도하게 많음
- 파라미터가 많다는 것은 gradient vanishing, overfitting 등의 문제가 발생할 가능성이 크다는 의미
- VGG16, VGG19는 학습에 어려움이 있음
- "A"모델의 pretrainted model로 하여 학습을 진행
728x90
반응형
'Machine Learning > CNN' 카테고리의 다른 글
[Machine Learning] Transfer Learning with CNNs (0) | 2021.03.05 |
---|---|
[Machine Learning] ResNet(Residual Network) (0) | 2021.03.05 |
[Machine Learning] GoogleNet (Inception V4) (0) | 2021.03.05 |
[Machine Learning] AlexNet (0) | 2021.03.05 |
[Machine Learning] CNN(Convolutional Neural Network) (0) | 2021.03.02 |