HeYStRanGeR
article thumbnail
밑바닥부터 시작하는 딥러닝 ch.7 CNN + ch.8 딥러닝
Computer Science/Deep Learning 2023. 12. 28. 15:05

(23.12.28) Fully connected layer (Affine layer) 이전까지의 신경망 layer 는 모두 fully connected layer 였다. (== Affine layer) fully connected layer 에서는 인접하는 layer 의 모든 뉴런이 연결되고, 출력 노드(뉴런)의 개수를 임의로 정할 수 있었다. -> but, 이미지 (w, h, c) 3차원 데이터가 flatten 1차원 데이터가 되어버리는 문제점이 존재한다. -> 예를 들어 MNIST 데이터는 28x28x1 이미지인데, 신경망에 넣을때, 784개의 1차원 데이터로 입력한다. -> fully connected layer (Affine layer) 는 데이터의 형상이 무시된다. --> 이미지의 RGB 각 채..

article thumbnail
밑바닥부터 시작하는 딥러닝 ch.6 학습관련 기술들
Computer Science/Deep Learning 2023. 12. 28. 12:11

(23.12.18) 최적화 : 매개변수의 최적값을 찾는 것. 즉, 신경망의 학습에서는 손실함수의 결과값을 최솟값으로 만들기 위한 손실함수의 매개변수 최적값을 찾는 것을 말한다. 최적의 매개변수 값을 찾기 위해서 미분을 이용하였다. -> gradient descent, back propagation SGD, Momentum, AdaGrad, Adam ㄴSGD 는 방향에 따라 기울기가 달라지는 함수에서는 탐색경로가 비효율적이다. 가중치 초기값 설정 Xavier 초기값과 He 초기값 Batch Normalization - 학습 속도 개선 - 초기값 의존도 down - overfitting 개선 => mini-batch 단위로 정규화를 진행한다. 데이터 분포가 평균이 0, 분산이 1이 되도록 정규화한다. Ove..

article thumbnail
밑바닥부터 시작하는 딥러닝 ch.5 오차역전법

(23.12.04) 가중치 매개변수의 기울기 구하는 방법 - 수치 미분: 단순하고, 구현하기 쉽다. but, 시간이 오래걸린다. - back propagation: 효율적인 계산이 가능하다. 계산그래프 위와 같이 왼쪽에서 오른쪽으로 계산을 진행하는 것을 "순전파: forward propagation" 이라고 한다. 계산 그래프는 "국소적 계산"을 전파하여 최종결과를 낸다. (국소적 계산: 자신과 직접 관계된 작은 범위) -> 아무리 복잡해도 각 노드에서는 단순한 계산이 이루어진다. 계산 그래프는 중간 계산 결과를 모두 저장할 수 있으며, 역전파를 통해 미분을 효율적으로 계산할 수 있다. 연쇄 법칙 : 합성 함수의 미분은 합성함수를 구성하는 각 함수의 미분의 곱으로 나타낼 수 있다. 덧셈 노드의 역전파 곱..

article thumbnail
밑바닥부터 시작하는 딥러닝 ch.4 신경망 학습
Computer Science/Deep Learning 2023. 11. 27. 16:09

(23.11.27) 학습 - train data 로 부터 weight, bias (가중치 매개변수) 의 최적값을 얻는 것이다. ===> 신경망이 학습할 수 있도록 하는 지표를 loss function 이라고 한다. - 학습의 목표: loss function의 결과값을 가장 작게 만드는 weight, bias 를 찾는 것 - 신경망은 end-to-end machine learning 이라고도 한다. ==> 입력부터 출력까지 사람의 개입이 없다는 의미. 데이터의 구분 : train + test - train data 를 통해 학습하고, 최적의 weight, bias 를 찾는다. - test data 를 통해 학습한 모델의 성능을 평가한다. - 하나의 data 로 학습하고, 해당 data 로 평가하면, 그 성..

article thumbnail
밑바닥부터 시작하는 딥러닝 ch.3 신경망
Computer Science/Deep Learning 2023. 11. 21. 10:38

(23.11.20) 퍼셉트론의 한계: 선형적으로만 문제를 해결할 수 있음. --> 비선형 활성화 함수를 사용하여 여러개의 층을 쌓고, 비선형적으로 문제를 해결할 수 있게 됨. 신경망 - 여러 층으로 구성되어 있으며, 비선형 활성화 함수를 사용한 다층 퍼셉트론 - 2단계를 거쳐 문제를 해결 - 학습데이터를 통해 가중치 매개변수 학습 - 학습한 매개변수를 사용하여 입력 데이터에 대해 추론 활성화 함수 (activation function) - 입력신호의 총합을 출력신호로 변환하는 함수 - 입력신호의 총합이 활성화를 일으키는지 정하는 역할 활성화 함수 - step function - 단층 퍼셉트론에서 사용하는 원시적인 activation function 이다. - 0에서 출력이 불연속적이다. => 0에서 기울..

article thumbnail
밑바닥부터 시작하는 딥러닝 ch.2 퍼셉트론
Computer Science/Deep Learning 2023. 11. 21. 09:49

(23.11.13) 퍼셉트론 - 프랑크 로젠블라트. 1975년 고안 - 신경망 (딥러닝) 의 기원이 되는 알고리즘 - 다수의 신호를 입력으로 받아 하나의 신호를 출력 -> y가 어떠한 임계값을 넘으면 1을 출력, 넘지 못하면 0을 출력 -> 가중치가 클수록, 해당 신호가 그만큼 중요하다는 것을 의미 논리회로 AND 게이트 NAND 게이트 OR 게이트 XOR 게이트 - 베타적 논리합 - x1, x2 중 하나만 1일 경우에만 1을 출력 -> XOR 게이트의 입력과 출력을 좌표평면에 표현해보면, 어떠한 직선으로 영역으로 나눌 수 없다는 것을 알 수 있다. ====> 퍼셉트론의 한계 !! AND, NAND, OR 게이트를 조합하여 XOR 게이트를 만들 수 있다. -> AND, OR, NAND 는 단층 퍼셉트론 ..

728x90