반응형 ELU1 [머신러닝] Activation function(활성화 함수) 정리 2022.07.18 - [Studying/Machine Learning] - [머신러닝] Pytorch Linear Regression & MLP - Mnist 활용 저번 포스트의 MLP 모델에 Relu 함수를 적용하였는데 설명이 필요할 것 같아 정리하게 되었다. 활성화 함수를 쓰는 이유를 설명하기 위해 예시를 들어 보겠다. 동물을 분류할 때 '눈 크기, 키, 몸무게, 발 사이즈, 색' 등의 많은 데이터가 있다고 가정을 할 때 몇 가지 데이터는 분류에 있어서 큰 가중치를 가지고, 몇 가지 데이터는 가중치가 낮을 수 있다. 이 가중치를 추가적으로 조절하고 여러 레이어를 통과하며 값이 어떻게 변할지 모르기 때문에 그 폭을 어느 정도 제어하는 역할 도 한다. 이를 모델에 학습시키기 위해 활성화 함수를 사용하게.. 2022. 7. 19. 이전 1 다음 반응형