일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- python
- CLI
- 프로그래머스
- 기초
- 코딩테스트
- API
- 주식연습
- 템플릿
- 크롤링
- DeepLearning
- 게임
- PyTorch
- 알고리즘
- 주식
- 회귀
- 주가예측
- 파이썬
- 선형회귀
- Linear
- 연습
- 흐름도
- 코딩
- 추천시스템
- 재귀함수
- 딥러닝
- tensorflow
- 가격맞히기
- 주식매매
- 머신러닝
- Regression
- Today
- Total
목록Linear (3)
코딩걸음마
Loss Function을 계산할 때 전체 Train-Set을 사용하는 것을 Batch Gradient Descent라고 합니다. 그러나 이렇게 계산하면 한번 계산할 때 전체 데이터에 대해 Loss Function을 계산해야 하므로 너무 많은 계산이 필요합니다. 이를 방지하기 위해 Stochastic Gradient Desenct(SGD)를 사용합니다. 이 방법에서는 Loss Function을 계산할 때, 전체 데이터(Batch) 대신 일부 데이터의 모음(Mini-Batch)를 사용하여 Loss Function을 계산합니다. (Mini-Batch의 기대값은 전체 train-set을 계산한 값과 같다는 가정) Batch Gradient Descent보다 다소 부정확할 수는 있지만, 계산 속도가 훨씬 빠르기..
보스턴 집값예측 데이터로 DNN을 활용한 회귀식모델을 만들어봅시다. 1. 데이터 준비하기 import pandas as pd import seaborn as sns import matplotlib.pyplot as plt from sklearn.preprocessing import StandardScaler from sklearn.datasets import load_boston boston = load_boston() df = pd.DataFrame(boston.data, columns=boston.feature_names) df["TARGET"] = boston.target scaler = StandardScaler() scaler.fit(df.values[:, :-1]) df.values[:, :-..
1. Linear layer의 작동 구조 인공신경망(NN)은 연속적인 함수전달체계를 이루고 있다. 어떤 정보가 입력되었을때 그 정보에 대한 강도를 어느정도로 할 것인지 또한 보정값을 얼마나 줄 것인지 정할 수 있다. 입력값과 출력값이 선형관계 즉 y = ax=b 라고 할 때 다음 방법을 사용할 수 있다. import torch W = torch.FloatTensor([[1, 2], [3, 4], [5, 6], [7, 8]] ) b = torch.FloatTensor([4, 2]) 그럼 주어진 가중치와 보정값으로 선형 결합층(Linear Layer)함수를 만들어보자 def linear(x, W, b): y = torch.matmul(x, W) + b return y 이제 입력데이터에 값을 입력하면, 선형결..