일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- Regression
- 게임
- 주가예측
- 주식연습
- 기초
- tensorflow
- python
- 프로그래머스
- 재귀함수
- 파이썬
- 가격맞히기
- 연습
- 코딩
- 템플릿
- Linear
- CLI
- 주식
- 회귀
- DeepLearning
- API
- 추천시스템
- 흐름도
- 크롤링
- 선형회귀
- 주식매매
- 알고리즘
- 딥러닝
- 머신러닝
- PyTorch
- 코딩테스트
- Today
- Total
목록딥러닝_Pytorch (18)
코딩걸음마
98% ,100%정확도를 가지고 있는 모델은 정말 좋은 모델일까? 이 모델만 있으면 세상의 진리를 깨우친거라고 말할 수 있을까? 아쉽게도 모델의 정확도가 이렇게 높다면 train_set data에 대해서 충분히 학습이 되어 과적합일 확률이 높다. 즉, 우물안 개구리인 모델이라는 뜻이다. 정말 좋은 모델은 우리가 아직 알지 못하는 미래 즉, Unseen data에 대한 정확도가 높은 것을 의미한다. 그렇다면 아래의 과정으로 모델의 Unseen Data에 대한 정확도를 확인하고, 과적합을 줄이는 방법에 대해서 이야기해보자. import numpy as np import pandas as pd import seaborn as sns import matplotlib.pyplot as plt from sklear..
Loss Function을 계산할 때 전체 Train-Set을 사용하는 것을 Batch Gradient Descent라고 합니다. 그러나 이렇게 계산하면 한번 계산할 때 전체 데이터에 대해 Loss Function을 계산해야 하므로 너무 많은 계산이 필요합니다. 이를 방지하기 위해 Stochastic Gradient Desenct(SGD)를 사용합니다. 이 방법에서는 Loss Function을 계산할 때, 전체 데이터(Batch) 대신 일부 데이터의 모음(Mini-Batch)를 사용하여 Loss Function을 계산합니다. (Mini-Batch의 기대값은 전체 train-set을 계산한 값과 같다는 가정) Batch Gradient Descent보다 다소 부정확할 수는 있지만, 계산 속도가 훨씬 빠르기..
보스턴 집값예측 데이터로 DNN을 활용한 회귀식모델을 만들어봅시다. 1. 데이터 준비하기 import pandas as pd import seaborn as sns import matplotlib.pyplot as plt from sklearn.preprocessing import StandardScaler from sklearn.datasets import load_boston boston = load_boston() df = pd.DataFrame(boston.data, columns=boston.feature_names) df["TARGET"] = boston.target scaler = StandardScaler() scaler.fit(df.values[:, :-1]) df.values[:, :-..