728x90 반응형 Activation function1 Activation Function activation function hidden layer에서 hidden node들은 앞선 노드들의 가중합을 input으로 받아 activation function을 거친 output을 내놓게 된다. 우선, activation function을 왜 써야 하는지에 대해 알아보자. 앞서 multilayer perceptron에서 설명했듯이 multilayer perceptron에 층을 계속 쌓아나가는 심층신경망 즉, 딥러닝에서 가중합을 그대로 선형함수 $f(x)=\delta x$ 를 거쳐 output을 내놓게 된다면, 층을 쌓는 의미가 없어진다. 즉 가중합 연산만 반복하게 되는 의미없는 작업의 반복을 하게 된다. 그렇기 때문에 activation function을 사용하여 hidden layer를 쌓는 의.. 2020. 9. 24. 이전 1 다음 728x90 반응형