목록전체 글 (64)
코딩걸음마
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/clRsRc/btrF8Qda9rM/s1KQbJmcocleOm4dNOAWeK/img.png)
98% ,100%정확도를 가지고 있는 모델은 정말 좋은 모델일까? 이 모델만 있으면 세상의 진리를 깨우친거라고 말할 수 있을까? 아쉽게도 모델의 정확도가 이렇게 높다면 train_set data에 대해서 충분히 학습이 되어 과적합일 확률이 높다. 즉, 우물안 개구리인 모델이라는 뜻이다. 정말 좋은 모델은 우리가 아직 알지 못하는 미래 즉, Unseen data에 대한 정확도가 높은 것을 의미한다. 그렇다면 아래의 과정으로 모델의 Unseen Data에 대한 정확도를 확인하고, 과적합을 줄이는 방법에 대해서 이야기해보자. import numpy as np import pandas as pd import seaborn as sns import matplotlib.pyplot as plt from sklear..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/8bYl7/btrF9ifMvqv/WWYZ1QWKKFHTTlxhZlbaW1/img.jpg)
Titanic 데이터를 활용하여 TensorFlow 의 모델 save와 load 방법을 알아봅시다. save와 load 방법을 알아보기 위해 기본적인 딥러닝 모델 플로우를 작성하겠습니다. import pandas as pd import numpy as np import matplotlib.pyplot as plt from sklearn import model_selection, preprocessing import seaborn as sns 데이터 불러오기 titanic_df = pd.read_csv("titanic_modified.csv") titanic_target = titanic_df[['Survived']].copy() titanic_data = titanic_df.copy() del titan..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cwAppj/btrF6IEesnH/55MGzTOrsy60yye6PkpjKK/img.gif)
Loss Function을 계산할 때 전체 Train-Set을 사용하는 것을 Batch Gradient Descent라고 합니다. 그러나 이렇게 계산하면 한번 계산할 때 전체 데이터에 대해 Loss Function을 계산해야 하므로 너무 많은 계산이 필요합니다. 이를 방지하기 위해 Stochastic Gradient Desenct(SGD)를 사용합니다. 이 방법에서는 Loss Function을 계산할 때, 전체 데이터(Batch) 대신 일부 데이터의 모음(Mini-Batch)를 사용하여 Loss Function을 계산합니다. (Mini-Batch의 기대값은 전체 train-set을 계산한 값과 같다는 가정) Batch Gradient Descent보다 다소 부정확할 수는 있지만, 계산 속도가 훨씬 빠르기..