코딩공작소

Logistic (regression) classification 본문

강의정리/딥러닝

Logistic (regression) classification

안잡아모찌 2019. 1. 17. 12:45

학습이라는 것은 최소의 cost를 찾아내는 것이다.


cost 곡선은 Gradient decent 알고리즘을 쓰면 어떤 점에서 시작하더라도 최종시점은 최소점으로 간다.

기울기에 따라서 점점 내려간다. learning_rate 는 얼만큼씩 움직일 것인가에 대한 상수.




Classfication이란 ?


(Binary) 둘중에 한개의 정해진 카테고리를 고르는 것.

Spam Detection : Spam(1) or Ham(0)

Facebook feed : show(1) or hide(0)

Credit Care Fraudulent Transcaton detection : legitimate/fraud (신용카드 다르게 사용하면 가짜라고 판별)


--> 0,1 encoding


여러가지의 활용도가 높아지고 있다.

ex ) 의료, 주식 ,etc...







--> 문제점이 생긴다 : Y는 0 또는 1 이 나와야 하지만 1보다 크거나 0보다 작게 나올수 있다.

H(x) = Wx + b 의 모델은 간단하지만 문제점이 있기때문에 0~1까지의 값을 나오게하는 함수를 만들어 줘야하는 필요성을 느낌.






0 < g(z) < 1 의 함수를 찾았다 --> H(X)





Logistic classification의 H(X)를 구함!!

다음은 cost function을 정의해줘야함



##COST



새로운 H(X)함수를 사용하게 되면 로컬 미니멈을 찾을 가능성이 있으므로 그대로 사용할 수는 없다.







Y는 True(1) , False(0)을 갖는다.

placeholder를 만들때 shape에 주의해줘야 한다.




Weight의 shape은 [ a, b ] a의 갯수만큼 들어와서 b로 나간다. x개로 들어와서 y개로 나간다.

bias의 shape[ a ] 는 a의 개수로 나간다. y개로 나간다.









x데이터는 모든 행에 0부터 -1까지의 원소들의 값 집합

y데이터는 모든 행에 마지막 원소들의 값 집합








8개의 데이터 .



'강의정리 > 딥러닝' 카테고리의 다른 글

Softmax function  (0) 2019.01.17
Softmax classification : Multinomial classification  (0) 2019.01.17
Loading Data from file  (0) 2019.01.17
multi-variable linear regression  (0) 2019.01.17
Linear Regression  (0) 2019.01.16