AlexNet
과대적합을 줄이기 위해 두 가지 규제 기법을 사용, 드롭아웃의 비율을 50% 로 적용, 두 번째는 훈련 데이터의 데이터 증식의 수행 C1 과 C3 층의 ReLU 단계 후에 바로 LRN Local Response Normalizatoin 이라고 부르는 경쟁적인 정규화 단계 사용, 가장 강하게 활성화된 뉴런이 다른 특성 맵에 있는 같은 위치의 뉴런을 억제한다. 이는 특성 맵을 가기 특별하게 다른 것과 구분되게 하고, 더 넓은 시각에서 특징을 탐색하도록 만들어 일반화 성능을 향상시킨다. b_i 는 특성 맵, u행, v 열에 위치한 뉴런의 정규화된 출력이다. a_i 는 ReLU 단계를 지나고 정규화 단계는 거치기 전인 뉴런의 활성화 값 k, alpha, beta, r 은 하이퍼 파라미터 k 는 편향, r 은 깊..