코딩공작소
multi-variable linear regression 본문
H(x1,x2,x3) = w1x1 + w2x2 + w3x3 의 식으로 해결해주면 된다.
항의 개수가 많아질수록 --> Matrix
Matrix multiplication을 이용해준다.
bias --> b는 잠시 생략
인스턴스가 늘어나도 행렬의 행의 개수만 증가한다.
Theory : H(x) = Wx + b
TensorFlow(구현) : H(X) = XW
##매트릭스 이전의 구현
##매트릭스 적용후
placeholder 만들때 shape을 주의해줘야 한다. [ a b ] a개의 원소를 주고 b개의 각 원소마다의 개수이다.
데이타 부분이 간단해 졌음 --> 매트릭스를 이용한 장점 !
'강의정리 > 딥러닝' 카테고리의 다른 글
Softmax function (0) | 2019.01.17 |
---|---|
Softmax classification : Multinomial classification (0) | 2019.01.17 |
Logistic (regression) classification (0) | 2019.01.17 |
Loading Data from file (0) | 2019.01.17 |
Linear Regression (0) | 2019.01.16 |