250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 재귀함수
- 주식매매
- 가격맞히기
- 주가예측
- 프로그래머스
- Regression
- 크롤링
- 회귀
- 파이썬
- 알고리즘
- Linear
- 주식연습
- 딥러닝
- tensorflow
- PyTorch
- 템플릿
- python
- 기초
- CLI
- DeepLearning
- 게임
- 머신러닝
- 흐름도
- 연습
- API
- 추천시스템
- 선형회귀
- 코딩
- 코딩테스트
- 주식
Archives
- Today
- Total
목록확률적경사하강법 (1)
코딩걸음마
[딥러닝] Pytorch 확률적 경사하강법 SGD(Stochastic Gradient Descent)
Loss Function을 계산할 때 전체 Train-Set을 사용하는 것을 Batch Gradient Descent라고 합니다. 그러나 이렇게 계산하면 한번 계산할 때 전체 데이터에 대해 Loss Function을 계산해야 하므로 너무 많은 계산이 필요합니다. 이를 방지하기 위해 Stochastic Gradient Desenct(SGD)를 사용합니다. 이 방법에서는 Loss Function을 계산할 때, 전체 데이터(Batch) 대신 일부 데이터의 모음(Mini-Batch)를 사용하여 Loss Function을 계산합니다. (Mini-Batch의 기대값은 전체 train-set을 계산한 값과 같다는 가정) Batch Gradient Descent보다 다소 부정확할 수는 있지만, 계산 속도가 훨씬 빠르기..
딥러닝_Pytorch
2022. 6. 30. 02:26