📝딥러닝 에포크와 배치사이즈
batch_size= n : 한번 학습할때 몇개의 데이터를 넣어 학습할지 값을 입력
※ 메모리의 한계와 속도 저하 때문에 대부분의 경우에는 한 번의 epoch에서 모든 데이터를 한번에 집어넣을 수 없다
그래서 데이터를 나누어 주는데 이때 몇 번 나누어 주는가를 iteration, 각 iteration마다 주는 데이터 사이즈를 batch size라고함
epochs= n : 해당 데이터를 몇번 반복해서 학습할지 값을 입력
※ 한 번의 epoch는 신경망에서 전체 데이터 셋에 대해 forward pass/backward pass 과정을 거친 것을 말함
즉, 전체 데이터 셋에 대해 한 번 학습을 완료한 상태
model.fit(X_train, y_train, batch_size= 10, epochs= 20)
'인공지능 > Deep Learning' 카테고리의 다른 글
[Deep Learning] DNN TensorFlow Regression 수치예측 문제 모델링 (1) | 2022.12.28 |
---|---|
[Deep Learning] TensorFlow GridSearch (0) | 2022.12.27 |
[Deep Learning] Dummy variable trap (0) | 2022.12.27 |
[Deep Learning] ANN TensorFlow 분류의 문제 모델링 (0) | 2022.12.27 |
[Deep Learning] Optimizer 종류 (0) | 2022.12.27 |
댓글