코딩공작소
Logistic (regression) classification 본문
학습이라는 것은 최소의 cost를 찾아내는 것이다.
cost 곡선은 Gradient decent 알고리즘을 쓰면 어떤 점에서 시작하더라도 최종시점은 최소점으로 간다.
기울기에 따라서 점점 내려간다. learning_rate 는 얼만큼씩 움직일 것인가에 대한 상수.
Classfication이란 ?
(Binary) 둘중에 한개의 정해진 카테고리를 고르는 것.
Spam Detection : Spam(1) or Ham(0)
Facebook feed : show(1) or hide(0)
Credit Care Fraudulent Transcaton detection : legitimate/fraud (신용카드 다르게 사용하면 가짜라고 판별)
--> 0,1 encoding
여러가지의 활용도가 높아지고 있다.
ex ) 의료, 주식 ,etc...
--> 문제점이 생긴다 : Y는 0 또는 1 이 나와야 하지만 1보다 크거나 0보다 작게 나올수 있다.
H(x) = Wx + b 의 모델은 간단하지만 문제점이 있기때문에 0~1까지의 값을 나오게하는 함수를 만들어 줘야하는 필요성을 느낌.
0 < g(z) < 1 의 함수를 찾았다 --> H(X)
Logistic classification의 H(X)를 구함!!
다음은 cost function을 정의해줘야함
##COST
새로운 H(X)함수를 사용하게 되면 로컬 미니멈을 찾을 가능성이 있으므로 그대로 사용할 수는 없다.
Y는 True(1) , False(0)을 갖는다.
placeholder를 만들때 shape에 주의해줘야 한다.
Weight의 shape은 [ a, b ] a의 갯수만큼 들어와서 b로 나간다. x개로 들어와서 y개로 나간다.
bias의 shape[ a ] 는 a의 개수로 나간다. y개로 나간다.
x데이터는 모든 행에 0부터 -1까지의 원소들의 값 집합
y데이터는 모든 행에 마지막 원소들의 값 집합
8개의 데이터 .
'강의정리 > 딥러닝' 카테고리의 다른 글
Softmax function (0) | 2019.01.17 |
---|---|
Softmax classification : Multinomial classification (0) | 2019.01.17 |
Loading Data from file (0) | 2019.01.17 |
multi-variable linear regression (0) | 2019.01.17 |
Linear Regression (0) | 2019.01.16 |