코딩공작소

Linear Regression 본문

강의정리/딥러닝

Linear Regression

안잡아모찌 2019. 1. 16. 17:43

H(x) = Wx + b

cost = H(x) - y --> (H(x) - y)^2



m은 데이터의 갯수

 값의 차의 제곱의 평균 --> cost function


H(x) = Wx + b

cost(W,b)  --> W와 b의 함수가 된다.

W,b 를 가장 작게 하는 것을 찾아야 한다.

Goal : Minimize cost **




Variable --> 텐서플로우가 자체적으로 변경시키는 값이다.







variable을 사용하기 위해서는 반드시 초기화함수를 사용해주어야 한다.








##cost의 최소화



최소화 되는 점을 찾아내는 것



Gradient descent algorithm !! ( 경사를 따라 내려가는 알고리즘 )


최소화 함수에 사용됨

cost(W,b) 함수에서 W,b의 최소값을 찾아주는 함수.










'강의정리 > 딥러닝' 카테고리의 다른 글

Softmax function  (0) 2019.01.17
Softmax classification : Multinomial classification  (0) 2019.01.17
Logistic (regression) classification  (0) 2019.01.17
Loading Data from file  (0) 2019.01.17
multi-variable linear regression  (0) 2019.01.17