HeYStRanGeR
article thumbnail

(23.03.18)

 

이번에는 퍼셉트론을 이용한 AND, OR, NOR, XOR gate 연산, forward/backward propagation, activation function 에 대해 정리해보았다.


Perceptron

- 입력 신호에 가중치가 곱해지고, 그 값들이 더해져 최종적으로 출력한다. 

- 활성화 함수: 출력 노드에 모인 신호들을 내보낼 때, 얼마나 강하게 내보낼지 정하는 함수로 (sigmoid, ReLU 등이 있다)

- perceptron의 학습: 출력값과 목표값을 비교하여 나오는 오차를 줄이는 방향으로 가중치(w)를 조절하는 것

- hyperparameter: w의 조정 정도 (learning rate), loss function을 무엇으로 정할 것인지, 

----> weight (parameter) 는 모델의 동작을 결정하고, hyperparameter는 학습 과정을 조절한다. 

- perceptron은 XOR 연산을 구현하지 못한다는 문제가 있다.

 

 

perceptron으로 AND, OR, NAND, NOR gate 표현하기

(activation function: ReLU)

AND gate

 

OR gate

 

NAND gate

 

NOR gate

 

 

multi-layer perceptron

- 단층 퍼셉트론은 가중치를 이용하여 학습이 가능하지만, 선형 분리만 가능하다. XOR gate와 같은 선형분리가 아닌 연산은 수행하지 못한다는 문제를 해결하고자 나온 것이 Multi-layer perceptron이다. => 여러 층을 사용하자!!

- input layer, hidden layer, ouput layer로 구성되어있다.

- 입력 값과 가중치를 계산하고 합하고, 최종 출력층으로 계산하는 forward propagation 을 진행하며, 최종 출력값과 실제값(목표값)의 오차를 계산하여 가중치를 업데이트하는 back propagation 을 수행한다. 

- 그러나 layer를 너무 깊게 쌓을 경우, back propagation (역전파)를 진행할 때, 가중치가 손실되는 gradient vanishing 문제가 발생할 수 있다. 

 

 

 

back propagation 

 

 

 

 

multi-layer perceptron으로 XOR gate 표현하기

(activation function : ReLU)

 

 

 

activation function

(노션에 정리해두었던 내용)

 

 

 

 

 

 

 

 

 

 

 

 

728x90
profile

HeYStRanGeR

@HeYStRanGeR

포스팅이 좋았다면 "좋아요❤️" 또는 "구독👍🏻" 해주세요!