16. Mini-batch Gradient Descent

2023. 9. 11. 12:18Google ML Bootcamp/2. Improving Deep Neural Networks

 m개의 훈련 예제를 벡터화를 통해 for문 없이 한번에 수행할 수 있게 되었다. = 더 빠른 학습이 가능하다.

- but, 모든 훈련 예제에 대해 기울기(gradient)를 계산하기 전에 일부 데이터에 대해서 gradient descent를 수행하는 것이 더 빠른 학습이 가능함이 밝혀졌다.

 

Notation

x(i) : 소괄호는 i 번째 훈련 예제.

a[l] : 대괄호는 l 번째 layer.

x{t} : 중괄호는 t번째 batch set.

- x(i).shape : (nx,m)

- x{t}.shape : (nx,batch_size )

 

Mini-batch Gradient Descent != Batch Gradient Descent

- 하지만 미니 배치를 주로 사용한다. 무엇이 다른지는 다음 동영상에서 알아보자.