코딩공작소

Softmax classification : Multinomial classification 본문

강의정리/딥러닝

Softmax classification : Multinomial classification

안잡아모찌 2019. 1. 17. 13:26

Multinomal Classification에서 가장 많이 사용되는 것이 Softmax Classification 이다.



0 ~ 1의 값을 갖게 하기위해서 sigmoid함수를 사용했다. 바Y는 예측값을 나타낸다.


W를 학습한다는것은 X와 ㅁ을 구분하는 선을 찾아낸 다는 뜻이다.




1) 하나씩 구분해서 찾아 낸다. A 인가 아닌가 

2) B 인가 아닌가

3) C 인가 아닌가

--> 3개의 각각 다른 binary로 구현 가능함.



각각 별개로 구현했을 때의 그림





합쳐서 행렬의 곱으로 만들수 있다.



우리의 목표는 0~1의 값으로 나타내는 것 --> SoftMax!




softmax를 사용하면 우리가 원했던 0~1의 값과 총합이 1 이되는 조건을 만족할 수 있다.





가장 높은것만을 1로 해서 나머지 값들은 버리는 방법 'ONE-HOT ENCODING'



원래의 값 S와 예측되어지는 값 L 간의 cost를 구해주는 방법.




예측값이 맞을 때는 cost값이 작고 틀리면 크게 해야한다.




'강의정리 > 딥러닝' 카테고리의 다른 글

Softmax function ++ 함수들  (0) 2019.01.21
Softmax function  (0) 2019.01.17
Logistic (regression) classification  (0) 2019.01.17
Loading Data from file  (0) 2019.01.17
multi-variable linear regression  (0) 2019.01.17