Google ML Bootcamp(181)
-
25. Vectorizing Across Multiple Examples
a[2][i] : i번째 훈련 예제에 대한 2번째 layer output.a how to vectorizing across multiple examples? start: 이전 단일 훈련 예제에서 X, W를 stacking을 통해 벡터화했던 것과 같이, Z, A에 대해서도 벡터화를 진행. column : training examples, row : hidden units(input x features)를 의미.
2023.09.09 -
24. Computing a Neural Network's Output 2023.09.09
-
23. Neural Network Representation
a는 해당 layer의 output을 의미. a[1]와 같이 대괄호 첨자를 사용하여 layer의 번호를 나타냄 x(i)와 같은 소괄호 첨자는 i번째 훈련 세트를 의미하므로 혼동하지 말 것.
2023.09.09 -
22. Neural Networks Overview
Logistic Regression의 경우 layer가 1개 WX + b -> Z -> A -> L(A,Y) Neural Network의 경우 layer가 여러개 - 예시는 two layer W(1)X + b -> Z(1) -> A(1) -> W(2)A + b -> Z(2) -> A(2) -> L(A(2), Y) - 즉 각 layer의 output 인 A(i)가 다음 Layer의 input으로 들어가는 구조
2023.09.09 -
21. Explanation of Logistic Regression Cost Function(Optional)
Cost function을 왜 사용하는지. y 는 true. p(y|x) 란 x가 주어졌을 때 y=1일 확률을 의미 - binary classification의 경우 y=0 or y=1 두가지 경우밖에 없음 따라서 y=1 -> p(y|x) = y* y = 0 -> p(y|x) = 1-y* 이걸 하나의 방정식으로 표현하면 y* **y * (1-y*) **(1-y) 왜? y=0과 y=1을 대입했을 때 우리가 원하는 p(y|x)가 나오기 때문. 이때 양변에 log를 취해주게 되면 우리가 앞서 정의한 loss function이 나오게 된다. log p(y|x) = y log(y*) + (1-y) log(1-y*) 여기까지는 loss를 구했을 뿐인데, 우린 이걸 최소화 하고 싶으므로 앞에 음수를 표기한다 min ..
2023.09.08 -
20. Quick tour of Jupyter/iPython Notebooks
jupyter notebook 설명내용.. 그 이상 이하도 아님
2023.09.08