코딩공작소

multi-variable linear regression 본문

강의정리/딥러닝

multi-variable linear regression

안잡아모찌 2019. 1. 17. 10:35

 


H(x1,x2,x3) = w1x1 + w2x2 + w3x3 의 식으로 해결해주면 된다.






항의 개수가 많아질수록 --> Matrix


Matrix multiplication을 이용해준다.


bias --> b는 잠시 생략




인스턴스가 늘어나도 행렬의 행의 개수만 증가한다.


Theory : H(x) =  Wx + b

TensorFlow(구현) : H(X) = XW




##매트릭스 이전의 구현





##매트릭스 적용후





placeholder 만들때 shape을 주의해줘야 한다. [ a b ] a개의 원소를 주고 b개의 각 원소마다의 개수이다.

데이타 부분이 간단해 졌음 --> 매트릭스를 이용한 장점 ! 




'강의정리 > 딥러닝' 카테고리의 다른 글

Softmax function  (0) 2019.01.17
Softmax classification : Multinomial classification  (0) 2019.01.17
Logistic (regression) classification  (0) 2019.01.17
Loading Data from file  (0) 2019.01.17
Linear Regression  (0) 2019.01.16