목록분류 전체보기 (64)
코딩걸음마
머신러닝(ML)을 하기 전에 습관적으로 체크하자! https://scikit-learn.org/stable/tutorial/machine_learning_map/index.html
Tensor도 DateFrame 처럼 자르고, 합치고, 쪼개고, 인덱싱하고, stack할 수 있습니다. x = torch.FloatTensor([[[1, 2], [3, 4]], [[5, 6], [7, 8]], [[9, 10], [11, 12]]]) print(x.size()) torch.Size([3, 2, 2]) 1. 인덱싱(indexing)과 슬라이싱(Slicing) Pytorch에서 indexing과 slicing은 Pandas와 비슷하게(아니 똑같이...) 작동합니다. 하지만 차원이 늘어난 만큼 이해하기 난해하므로, 예시를 보면서 한번 익혀봅시다! pandas처럼 인덱싱을 해봅시다. 2번째 dataset가 나올거라 예상하면서요. x[1] 과연 어느 차원의 2번째 일까요? tensor([[5., 6..
1. Tensor shape 파악하기 (.shape / .size() ) Tensor를 눈으로 보고 바로 몇차원이며 몇개의 원소가 들어가 있는지 한번에 파악하기에는 현실적으로 너무 어렵다. 하지만, 한번에 파악할 수 있는 방법이 다행히(?) 있다. x = torch.FloatTensor([[[1, 2], [3, 4]], [[5, 6], [7, 8]], [[9, 10], [11, 12]]]) print(x.shape) print(x.size()) torch.Size([3, 2, 2]) torch.Size([3, 2, 2]) .shape .size() 를 입력하면 torch.Size([ 3 ,2 , 2])라고 나오는데 이를 도식화 하면 다음과 같다 1-2. Tensor shape 변경하기 (reshape) ..
우선 tensor의 이해를 쉽게 하기 위해 , 기초 부터 정의해보자 해당 Tensor에 존재하는 data 수는 K*n*m 개이다 1. 기본연산1 아래의 코드를 그림으로 표현하면 다음과 같다 a = torch.FloatTensor([[1, 2], [3, 4]]) b = torch.FloatTensor([[1, 1], [1, 1]]) 1-1. + 더하기 연산 a + b tensor([[2., 3.], [4., 5.]]) 1-2. - 빼기 연산 a - b tensor([[-1., 0.], [ 0., 1.]]) 1-3. x 곱하기 연산 a * b tensor([[1., 2.], [3., 4.]]) 물론 **와 같이 지수연산도 가능하다. 1-4. / 나누기 연산 a = torch.FloatTensor([[1, 2..