27. Activation Functions

2023. 9. 9. 14:27Google ML Bootcamp/1. Neural Networks and Deep Learning

1. sigmoid : Logisitc Regression에서 사용하던 활성화 함수 output (0,1)

2. tan h : output (-1,1)

 

**중요 더이상 sigmoid는 활성화 함수로 사용하지 않음. tan h가 거의 모든 상황에서 잘 작동함.**

- 예외 : 이진분류시에 output layer. 

- 결과가 0 또는 1이므로 sigmoid가 유효함.

 

3. ReLU : output [0,x]

- 0인 시점에 미분이 안되지만 실제로 input이 완벽히 0일 확률은 극히 드물다. 또한 예외처리로 이때 기울기를 0또는 1로 설정할 수도 있음.

- hidden layer 에 활성화 함수 무엇을 쓸지 모르겠다면 그냥 ReLU쓰면 된다. 요즘은 그게 합리적.