일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |
- tensorflow
- 주식연습
- 재귀함수
- 코딩
- 게임
- 기초
- 머신러닝
- 흐름도
- python
- 회귀
- 주가예측
- 파이썬
- 연습
- 가격맞히기
- 주식
- 추천시스템
- 딥러닝
- API
- PyTorch
- DeepLearning
- CLI
- 코딩테스트
- 템플릿
- 주식매매
- 선형회귀
- Linear
- 알고리즘
- 크롤링
- 프로그래머스
- Regression
- Today
- Total
목록Linear (3)
코딩걸음마
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cwAppj/btrF6IEesnH/55MGzTOrsy60yye6PkpjKK/img.gif)
Loss Function을 계산할 때 전체 Train-Set을 사용하는 것을 Batch Gradient Descent라고 합니다. 그러나 이렇게 계산하면 한번 계산할 때 전체 데이터에 대해 Loss Function을 계산해야 하므로 너무 많은 계산이 필요합니다. 이를 방지하기 위해 Stochastic Gradient Desenct(SGD)를 사용합니다. 이 방법에서는 Loss Function을 계산할 때, 전체 데이터(Batch) 대신 일부 데이터의 모음(Mini-Batch)를 사용하여 Loss Function을 계산합니다. (Mini-Batch의 기대값은 전체 train-set을 계산한 값과 같다는 가정) Batch Gradient Descent보다 다소 부정확할 수는 있지만, 계산 속도가 훨씬 빠르기..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/H2Chk/btrF5bf5Id4/NKTdFp3KKKzx0ydqcrut2k/img.png)
보스턴 집값예측 데이터로 DNN을 활용한 회귀식모델을 만들어봅시다. 1. 데이터 준비하기 import pandas as pd import seaborn as sns import matplotlib.pyplot as plt from sklearn.preprocessing import StandardScaler from sklearn.datasets import load_boston boston = load_boston() df = pd.DataFrame(boston.data, columns=boston.feature_names) df["TARGET"] = boston.target scaler = StandardScaler() scaler.fit(df.values[:, :-1]) df.values[:, :-..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/8IuCK/btrFOwKYFc6/K6AUUpGpiMWs04sFJpfip1/img.png)
1. Linear layer의 작동 구조 인공신경망(NN)은 연속적인 함수전달체계를 이루고 있다. 어떤 정보가 입력되었을때 그 정보에 대한 강도를 어느정도로 할 것인지 또한 보정값을 얼마나 줄 것인지 정할 수 있다. 입력값과 출력값이 선형관계 즉 y = ax=b 라고 할 때 다음 방법을 사용할 수 있다. import torch W = torch.FloatTensor([[1, 2], [3, 4], [5, 6], [7, 8]] ) b = torch.FloatTensor([4, 2]) 그럼 주어진 가중치와 보정값으로 선형 결합층(Linear Layer)함수를 만들어보자 def linear(x, W, b): y = torch.matmul(x, W) + b return y 이제 입력데이터에 값을 입력하면, 선형결..