◾Weight Initialization

🔻Weight initialization의 필요성 ⭐

  1. 모델의 층이 깊어질수록 활성화 함수 이후 데이터의 분포가 한 쪽으로 쏠릴 수 있다.

    [kernel academy - DL Basic]

    [kernel academy - DL Basic]

  2. 잘못된 가중치 최적화를 Plateau(고원) 지점에서 학습을 시작하게 할 수 있다.

    [kernel academy - DL Basic]

    [kernel academy - DL Basic]

🔻Weight Init 방법

🔸Bad Cases

🔸Xavier 초기화

🔸He 초기화 (Kaiming Uniform)

But Xavier, He 초기화 둘 다 실험해봐야 한다. 항상 어떤 활성화 함수에서 어떤 방법이 좋은 것은 아니다.

◾Regularization

🔻Weight Decay ⭐