일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 완전탐색
- Github
- Loss
- Virtual Memory
- BF
- ML
- 머신러닝
- Python
- dfs
- 백트래킹
- 투포인터
- sort
- backtracking
- 코딩테스트
- two pointer
- OS
- python3
- 파이썬
- 재귀
- 재귀함수
- 백준
- 정렬
- 알고리즘
- 브루트포스
- CS
- 프로그래머스
- 코테
- 1일1솔
- Algorithm
- 신나는함수실행
Archives
- Today
- Total
이것저것 공부 기록하기
[Deep Learning] Forward propagation 본문
순전파(Forward propagation)
뉴럴 네트워크 모델의 입력층부터 출력층까지 순서대로 변수들을 계산하고 저장하는 것을 의미한다.
한개의 은닉층(hidden layer)를 갖는 딥 네트워크를 예로 들어 단계별로 어떻게 계산되는지 살펴보자.
- 먼저, 은닉층의 가중치 파라미터인 W^(1)과 입력값 x를 곱하여 중간 변수 z를 정의한다. (간단하게 식을 구성하기 위해 편향(bias) 항목은 생략)
- 중간 변수 z를 활성화 함수(activation function)에 입력해서 벡터 길이가 h인 은닉층 변수를 얻는다. (은닉 변수 h도 중간 변수)
- 출력층의 가중치 W^(2) 만을 사용한다고 가정하면, 벡터 길이가 q인 출력층의 변수 o를 W^(2) x h로 계산할 수 있다.
- 손실 함수(loss function)를 l 이라고 하고, 샘플 레이블을 y라고 가정하면, 하나의 데이터 샘플에 대한 손실(Loss)값을 다음과 같이 계산할 수 있다. L =l(o, y)
- L2 norm 정규화(regularization)의 정의에 따라, 하이퍼파라미터 gamma가 주어졌을 때 정규화 항목은 다음과 같다.
6. 여기서 행렬의 Frobenius norm은 행렬을 벡터로 바꾼 후 계산하는 L2 norm과 같다.
7. 마지막으로, 한개의 데이터 샘플에 대한 모델의 정규화된 손실(regularized loss) 값을 계산한다.
- J = L + s
- J : 주어진 데이터 샘플에 대한 목표 함수(objective function). 즉, 목표 함수(objective function).
References
https://ko.d2l.ai/chapter_deep-learning-basics/backprop.html
반응형
'DeepLearning' 카테고리의 다른 글
[DeepLearning] 추천시스템 모델 - Factorization (0) | 2022.01.08 |
---|---|
[DeepLearning] 추천시스템 metric (0) | 2022.01.07 |
Comments