일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
- 추천시스템
- 가격맞히기
- 주가예측
- 프로그래머스
- 머신러닝
- 게임
- CLI
- 딥러닝
- 주식매매
- 템플릿
- 크롤링
- 파이썬
- tensorflow
- 알고리즘
- 회귀
- 기초
- 연습
- 주식연습
- 흐름도
- PyTorch
- 선형회귀
- 코딩테스트
- API
- Linear
- python
- DeepLearning
- 주식
- 코딩
- 재귀함수
- Regression
- Today
- Total
목록파이썬 (20)
코딩걸음마
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/b1oVsO/btrFoE4SEq4/d0u3bkcBlz6qrEWpT3wOR1/img.gif)
데이터프레임(DataFrame) 메모리 줄이는 코드! 캐글에서 가장 인기있는 코드이다. 불러오는 파일의 크기가 300mb이상이고, numeric정보만 있다면 사용할 때 메모리 감소 효과가 크다 dtype 변경에 따라 일부 모듈에서 오류를 낼 수 있지만, 그때마다 astype으로 교체해주는 귀찮음보다 메모리감소 효과가 너무 크다. def reduce_mem_usage(df): """ iterate through all the columns of a dataframe and modify the data type to reduce memory usage. """ #start_mem = df.memory_usage().sum() / 1024**2 #print('Memory usage of dataframe is..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/MHUcY/btrFopGFoKh/0JFl0rEJviKVLCR35sKNWk/img.png)
재귀 함수(Recursive Function)란 자기 자신을 다시 호출하는 함수를 뜻한다. - 재귀 함수는 함수의 종료 조건을 반드시 명시해야 한다. - 종료 조건을 제대로 명시하지 않으면 함수가 무한히 호출된다. def hello(n): print("반갑습니다") if n==0: return else: return hello(n-1) 최소공배수 def gcb(a,b): return a if b==0 else gcb(b,a%b) 최대공약수 (유클리드 호재법) def max(n,m): if m>n : m,n = n,m while m != 0 : n = n%m n,m = m,n return n def min(n,m): return n*m // max(n,m) 피보나치수열 def factorial(n): if..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/C18di/btrFjzbYCb0/ik5l6YVHWKmspxZEMvn3LK/img.png)
단순 선형회귀 분석과 다르게 다중 선형 회귀 분석은 다중공선성을 주의해야 합니다. 다중공선성(Multicollinearity) 이란? - 독립변수들이 강한 선형관계에 있을때 다중 공선성이 있다고 할수 있다. - 종속변수를 설명하기 위한 독립변수가 매우 비슷한 영역을 설명하고 있다. - 다중공선성이 있으면 잘못된 변수의 해석이나 예측의 정확도 하락의 결과를 가져올수 있다. - 독립변수들의 잔차가 강한 상관관계를 갖는경우 아래 코드로 다중공선성을 제거하는 과정을 봅시다. 1. 기초 모듈불러오기 %config InlineBackend.figure_formats = {'png', 'retina'} import numpy as np import pandas as pd import matplotlib as mpl ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/pJ3TK/btrFde653aE/TlF7eVy3kG2rVWlgMp6ZKK/img.png)
- PCA란 입력 데이터들의 공분산 행렬(covariance matrix)에 대한 고유값 분해 - 기존 데이터의 분포를 최대한 보존하면서 고차원 공간의 데이터들을 저차원 공간으로 변환하는 차원축소기법 중 하나이다. 즉, 데이터의 분산(variance)을 최대한 보존하는 축(서로 직교하는 새 기저)을 찾아 고차원 공간의 데이터를 선형 연관성이 없는 저차원 공간으로 변환하는 기법입니다. - PCA는 기존의 변수를 조합하여 서로 연관성이 없는 새로운 변수, 즉 주성분(principal component)을 만들어낸다. - 예를 들어, PC1, PC2, PC3이 기존 데이터의 분포를 잘 나타내는 순서라고 하자. 이 때, PC1, PC2, PC3이 기존 데이터의 분포를 약 90%(예시)이상 보존한다면 나머지 10..