250x250
Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | ||||||
| 2 | 3 | 4 | 5 | 6 | 7 | 8 |
| 9 | 10 | 11 | 12 | 13 | 14 | 15 |
| 16 | 17 | 18 | 19 | 20 | 21 | 22 |
| 23 | 24 | 25 | 26 | 27 | 28 | 29 |
| 30 |
Tags
- python
- 주식연습
- 프로그래머스
- 연습
- 추천시스템
- 기초
- 머신러닝
- 가격맞히기
- 흐름도
- 알고리즘
- tensorflow
- 코딩테스트
- 게임
- 딥러닝
- 크롤링
- 주가예측
- 주식매매
- 선형회귀
- Linear
- 재귀함수
- PyTorch
- 파이썬
- CLI
- 템플릿
- 주식
- 코딩
- Regression
- API
- DeepLearning
- 회귀
Archives
- Today
- Total
목록SGD (1)
코딩걸음마
Loss Function을 계산할 때 전체 Train-Set을 사용하는 것을 Batch Gradient Descent라고 합니다. 그러나 이렇게 계산하면 한번 계산할 때 전체 데이터에 대해 Loss Function을 계산해야 하므로 너무 많은 계산이 필요합니다. 이를 방지하기 위해 Stochastic Gradient Desenct(SGD)를 사용합니다. 이 방법에서는 Loss Function을 계산할 때, 전체 데이터(Batch) 대신 일부 데이터의 모음(Mini-Batch)를 사용하여 Loss Function을 계산합니다. (Mini-Batch의 기대값은 전체 train-set을 계산한 값과 같다는 가정) Batch Gradient Descent보다 다소 부정확할 수는 있지만, 계산 속도가 훨씬 빠르기..
딥러닝_Pytorch
2022. 6. 30. 02:26