Google ML Bootcamp(181)
-
7. Gradient Descent
Cost(J)를 최소화 하기 위해 Global optimal point 인 빨간점을 찾는게 목적. - Logistic Regression 의 경우 convex function(볼록함수)임이 알려져 있으므로 W의 초기화 방법에 대해서는 고민하지 않아도 된다. - 어느지점에서 출발하든 결국 전역해에 도달할꺼기 때문. w에 따른 Cost function(J) 모양을 도식화. Logisitc Regression의 경우 예시와 같은 Convex function.
2023.09.08 -
6. Logistic Regression Cost Function
Loss function (L) : define to measure how good our output(predicted y) is when the truth label y. if 정답이 1 일 경우 -> loss를 작게 만들기 위해서는 predict y 또한 가능한 커져야한다. 이때 predict y는 sigmoid 값이므로 1을 넘을 수 없다. 따라서 1에 가까워지도록 학습. if 정답이 0 인 경우 -> loss를 작게 만들기 위해서는 predict y가 작아저야한다. 이때 predict y는 sigmoid 값으므로 0보다 작아질 수 없다. 따라서 0에 가까워지도록 학습. Loss function : 단일 훈련 예제. 즉 한가지의 training example에 대해서 수행. Cost functio..
2023.09.08 -
5. Logistic Regression
Binary Classification 문제에서 사용하는 기법. - output is 0 or 1 (yes or no) Why? input X, weight W(=function X map to Y), output Y, bias b XW+b = Y 하도록 학습 시 선형회귀의 경우 이대로 적용. 하지만 0
2023.09.08 -
4. Binary Classification
Notation: - (x,y) - m training example : (x1,y1), (x2,y2), ... , (xm,ym) - 이때 X : all training set training set은 각 train sample을 column방향으로 stack. 따라서 X.shape : (n(x), m) - n(x) 는 input xm의 feature dimension Y 또한 column 방향으로 stack. 따라서 Y.shape : (1,m) binary classification : input X -> output y(0 or 1)
2023.09.08 -
3. Why is Deep Learning taking off?
Why is deep learning suddenly working so well? - over the last 10 years maybe is that for a lot of problems we went from having a relatively small amout of data. but now, we have a fairly large amout of data and all of this was thanks to the digitization of a society. for hit this very high level of performance ten wyou need two things. 1. size of Neural Network 2. enough data(=labeled data) if ..
2023.09.05 -
2. Supervised Learning with Neural Networks
Supervised Learning : 지도학습 - want to learn function mapping 'x' to 'y' Structured Data : 정형 데이터(Databases of data) UnStructured Data : 비정형 데이터(audio, image, text etc..)
2023.09.05