입력 → 컨볼루션 → 평균풀링 → 컨볼루션 → 평균풀링 → 컨볼루션 → 완전연결 → 완전연결
<aside> 💡 PPT엔 필터크기나 이동거리, 활성화 함수 등 다양한 파라미터가 적혀있는데 못 외울거같아서 생략
</aside>
LeNet-5의 경우 컨볼루션층과 풀링층이 교대로 왔으나, AlexNet은 컨볼루션이 연속적으로 오기도 함
입력 → 컨볼루션 → 맥스풀링 → 컨볼루션 → 맥스풀링 → 컨볼루션 → 컨볼루션 → 컨볼루션 → 맥스풀링 → 완전연결 → 완전연결 → 완전연결
컨볼루션 층의 활성화 함수 적용 후 국부 반응 정규화라는 과정이 포함 됨
# tflearn 으로 국부 반응 정규화를 사용하는 함수
tflearn.layers.normalization.local_response_normalization()
AlexNet과 유사하게 하나 혹은 다수의 컨볼루션층 다음에 풀링층이 오고 끝에 세개의 완전연결층이 존재
층이 훨씬 깊어졌고, 컨볼루션 층의 필터 사이즈가 3 * 3 으로 고정
대신 여러개를 쌓기 때문에 다른 크기의 필터를 적용하는 효과를 줄 수 있음
→ 큰 사이즈의 필터에 비해 패러미터의 수가 줄어 학습 속도가 빨라짐
→ 층의 개수가 깊어져 비선형성이 증가하므로 유용한 특징이 나올 확률 상승
층의 깊이에 따라 VGG-11, VGG-13, VGG-16, VGG-19 등으로 네이밍