Machine Learning/CNN

[Machine Learning] VGGNet

데이터 세상 2021. 3. 5. 16:27
728x90
반응형

VGGNet

  • 목표 : 네트워크의 깊이를 깊게 만드는 것이 성능에 어떤 영향을 미치는가 확인
  • 방법 : 깊이의 영향만을 확인하기 위해 커널 사이즈는 가장 작은 3X3으로 고정

 

6개의 구조를 만들어 성능 비교

  • layer가 깊어질수록 성능이 좋아지는 것을 확인

VGG16

3x3 Filter

 

  • 여러 개의 Relu non-linear를 사용할 수 있음
    • 큰 필터로 구성된 하나의 레이어를 작은 필터의 여러 레이어로 나누었기 때문에 Relu non-linerlity가 들어갓 곳이 더 많아짐
  • 학습해야할 weight 수가 많아 줄어듬
    • regularization(모델의 일반화) 측면에서 큰 이점
    • 학습 속도가 빠름

학습 이미지: 224x224로 고정

  • 다양한 이미지를 crop을 통해 224x224로 크기 고정

 

VGGNet 단점

  • fully connected layer가 3개가 있고, pooling을 거친 뒤에는 feature map 개수가 2배로 커지면서 필요한 파라미터가 과도하게 많음
    • 파라미터가 많다는 것은 gradient vanishing, overfitting 등의 문제가 발생할 가능성이 크다는 의미
  • VGG16, VGG19는 학습에 어려움이 있음
    • "A"모델의 pretrainted model로 하여 학습을 진행

 

728x90
반응형