본문 바로가기
반응형

sigmoid2

[머신러닝] Activation function(활성화 함수) 정리 2022.07.18 - [Studying/Machine Learning] - [머신러닝] Pytorch Linear Regression & MLP - Mnist 활용 저번 포스트의 MLP 모델에 Relu 함수를 적용하였는데 설명이 필요할 것 같아 정리하게 되었다. 활성화 함수를 쓰는 이유를 설명하기 위해 예시를 들어 보겠다. 동물을 분류할 때 '눈 크기, 키, 몸무게, 발 사이즈, 색' 등의 많은 데이터가 있다고 가정을 할 때 몇 가지 데이터는 분류에 있어서 큰 가중치를 가지고, 몇 가지 데이터는 가중치가 낮을 수 있다. 이 가중치를 추가적으로 조절하고 여러 레이어를 통과하며 값이 어떻게 변할지 모르기 때문에 그 폭을 어느 정도 제어하는 역할 도 한다. 이를 모델에 학습시키기 위해 활성화 함수를 사용하게.. 2022. 7. 19.
[머신러닝] Logistic Regression 이전의 두 포스트에서는 데이터와 잘 맞는 직선을 찾는 linear regression을 했는데 예측 값이 떨어져 있다면 이 모델로는 예측이 어려울 것이다. 가장 대표적인 것이 binary classification인데 예측값이 0 또는 1이다. 이때 이 예측값을 확률로 표현한 다음 특정 값 이상이면 1 아니면 0으로 분류한다. 이러한 문제에 적용하는 방법이 Logistic Regression이다. 이론 logistic regression을 진행하기 위해서는 출력 값을 0과 1로 맞춰주어야 한다. 이를 위해 다음과 같은 logistic function을 사용한다. $$\sigma(z) = \frac{1}{1 + e^{-z}}$$ 입력 데이터를 x, 실제 class 값을 y, 예측된 출력 값을 y_hat이라.. 2022. 7. 7.
반응형