일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
- 선형회귀
- python
- CLI
- 가격맞히기
- PyTorch
- DeepLearning
- 재귀함수
- 주가예측
- 추천시스템
- Linear
- tensorflow
- 기초
- API
- 파이썬
- 주식연습
- 템플릿
- 프로그래머스
- 크롤링
- 주식매매
- 딥러닝
- 머신러닝
- 코딩테스트
- 회귀
- 게임
- Regression
- 연습
- 알고리즘
- 코딩
- 흐름도
- 주식
- Today
- Total
목록딥러닝 (23)
코딩걸음마
1. 데이터 불러오기 사용할 데이터 셋 : TMDB 5000 Movie Dataset https://www.kaggle.com/datasets/tmdb/tmdb-movie-metadata/download?datasetVersionNumber=2 Kaggle: Your Home for Data Science www.kaggle.com import pandas as pd import numpy as np movies_df = pd.read_csv('data/tmdb_5000_movies.csv') print(movies_df.shape) # 행, 열 개수 파악 movies_df.head() (4803, 20) 2. 데이터 확인 결측치 및 dtype확인 movies_df.info() RangeIndex: 48..
Titanic 데이터를 활용하여 TensorFlow 의 모델 save와 load 방법을 알아봅시다. save와 load 방법을 알아보기 위해 기본적인 딥러닝 모델 플로우를 작성하겠습니다. import pandas as pd import numpy as np import matplotlib.pyplot as plt from sklearn import model_selection, preprocessing import seaborn as sns 데이터 불러오기 titanic_df = pd.read_csv("titanic_modified.csv") titanic_target = titanic_df[['Survived']].copy() titanic_data = titanic_df.copy() del titan..
Loss Function을 계산할 때 전체 Train-Set을 사용하는 것을 Batch Gradient Descent라고 합니다. 그러나 이렇게 계산하면 한번 계산할 때 전체 데이터에 대해 Loss Function을 계산해야 하므로 너무 많은 계산이 필요합니다. 이를 방지하기 위해 Stochastic Gradient Desenct(SGD)를 사용합니다. 이 방법에서는 Loss Function을 계산할 때, 전체 데이터(Batch) 대신 일부 데이터의 모음(Mini-Batch)를 사용하여 Loss Function을 계산합니다. (Mini-Batch의 기대값은 전체 train-set을 계산한 값과 같다는 가정) Batch Gradient Descent보다 다소 부정확할 수는 있지만, 계산 속도가 훨씬 빠르기..