코딩공작소
Linear Regression 본문
H(x) = Wx + b
cost = H(x) - y --> (H(x) - y)^2
m은 데이터의 갯수
값의 차의 제곱의 평균 --> cost function
H(x) = Wx + b
cost(W,b) --> W와 b의 함수가 된다.
W,b 를 가장 작게 하는 것을 찾아야 한다.
Goal : Minimize cost **
Variable --> 텐서플로우가 자체적으로 변경시키는 값이다.
variable을 사용하기 위해서는 반드시 초기화함수를 사용해주어야 한다.
##cost의 최소화
최소화 되는 점을 찾아내는 것
Gradient descent algorithm !! ( 경사를 따라 내려가는 알고리즘 )
최소화 함수에 사용됨
cost(W,b) 함수에서 W,b의 최소값을 찾아주는 함수.
'강의정리 > 딥러닝' 카테고리의 다른 글
Softmax function (0) | 2019.01.17 |
---|---|
Softmax classification : Multinomial classification (0) | 2019.01.17 |
Logistic (regression) classification (0) | 2019.01.17 |
Loading Data from file (0) | 2019.01.17 |
multi-variable linear regression (0) | 2019.01.17 |