activation function (1) 썸네일형 리스트형 [Deep Learning from Scratch] 3장. 신경망 - 이론 신경망은 퍼셉트론과 별반 다를 것이 없습니다. 이미 설정된 가중치와 편향 값만 있다면 입력 값을 받아 결과에 맞는 출력을 얻을 수 있습니다. 가중치와 편향 값은 아래의 식을 계산할 때 이용됩니다. 위 식은 다음과 같이 나타낼 수도 있습니다. 이 때 h(x)는 활성화 함수(activation function)라 합니다. 활성화 함수는 뉴런의 입력신호의 총합을 통해 해당 뉴런을 활성화 시킬지 말지를 결정하는 함수입니다. 뉴런이 활성화 되었다는 것은 출력신호가 1이라는 뜻으로 해석할 수 있습니다. 활성화 함수 본 포스팅에서는 세가지의 활성화 함수에 대해 소개합니다. 바로 시그모이드 함수(sigmoid function), 계단 함수, ReLU(Rectified Linear Unit)입니다. 시그모이드 함수 시그.. 이전 1 다음