코딩공작소
딥러닝의 기본함수와 shape 본문
** shape 구하는법
처음의 ' [ '의 갯수를 센다 -> ' [ '의 갯수만큼의 ( ? , ? ) 이다.
원소의 개수를 센다 -> ( ? , 개수 )
가장안의 []가 몇개인지를 센다 -> ( 개수 , ㅇㅇ )
ex) matirx1 = [[1,2] , [3,4]] --> [[가 2개 이므로 ( ? , ? ) 꼴이고 2개의 원소이므로 ( ? , 2 ) 이며 2개 있으므로 (2,2)
matrix2 = [[1],[2]] --> [[2개 , 원소 1개, 총개수 2개 --> (2,1)
==> 매트릭스 곱을 하려면 ( a , b ) X ( c , d ) --> b와 c가 같아야 한다. 결과는 ( a , d )
matmul 와 * 의 결과는 다르다.
axis는 가장 밖이 0 안으로갈수록 수가 높아지며 가장 안쪽 axis는 -1이기도 하다.
shape이 다르다 하더라도 연산을 하게 해주는것 --> Broadcasting
*주의를 요망
Reduce_mean()
: 평균을 계산할때는 floating값을 사용해야 한다. [1. , 2. ]
축에 따라 값이 다르다
Reduce_sum()
:
가장 큰원소의 위치를 알려줌. 위치를 구하는 함수
one_hot, casting, stack, ones_like, zeros_like, zip 함수들에 대해 기본적인 사용.
'강의정리 > 딥러닝' 카테고리의 다른 글
NN (XOR) (0) | 2019.01.23 |
---|---|
Neural Network(NN) (0) | 2019.01.22 |
training set (0) | 2019.01.21 |
some Problems in training (0) | 2019.01.21 |
Softmax function ++ 함수들 (0) | 2019.01.21 |