
Q3) Batch 사이즈는 중요한가?
2018, Dec 14
면접에서 Batch 사이즈는 중요한가? 라고 물어보면 어떻게 대답할까요?
저라면 아래와 같이 대답할 것 같습니다. 물론 정답은 아닐거 같지만요… 좋은 답 있으면 댓글로 남겨 주세요~
Batch 사이즈는 학습할 때 영향을 많이 준다고 생각합니다. Batch 사이즈를 선정할 때에는 너무 크지도 않고 너무 작지도 않게 선정을 해야 합니다. 개인적으로는 단위로 증가시키고 128 부터 사용하고 있습니다. 데이터에 따라 적당한 Batch 사이즈가 다르기 때문에 시행착오를 통해 적절한 사이즈를 찾아야 합니다. Batch 사이즈가 너무 작으면 학습이 오래 걸리게 될 뿐 아니라 BatchNormalization을 사용할 때에도 각 Batch의 평균과 표준편차가 데이터의 분포를 잘못 나타낼 수 있고 Batch 사이즈가 너무 커버리면 generalization performance 문제가 발생하게 됩니다. 이럴 때에는 gradient가 문제이기 때문에 optimizer 까지 고려하여 Batch 사이즈 문제를 해결하는 것이 좋습니다.