코딩공작소
Softmax classification : Multinomial classification 본문
Multinomal Classification에서 가장 많이 사용되는 것이 Softmax Classification 이다.
0 ~ 1의 값을 갖게 하기위해서 sigmoid함수를 사용했다. 바Y는 예측값을 나타낸다.
W를 학습한다는것은 X와 ㅁ을 구분하는 선을 찾아낸 다는 뜻이다.
1) 하나씩 구분해서 찾아 낸다. A 인가 아닌가
2) B 인가 아닌가
3) C 인가 아닌가
--> 3개의 각각 다른 binary로 구현 가능함.
각각 별개로 구현했을 때의 그림
합쳐서 행렬의 곱으로 만들수 있다.
우리의 목표는 0~1의 값으로 나타내는 것 --> SoftMax!
softmax를 사용하면 우리가 원했던 0~1의 값과 총합이 1 이되는 조건을 만족할 수 있다.
가장 높은것만을 1로 해서 나머지 값들은 버리는 방법 'ONE-HOT ENCODING'
원래의 값 S와 예측되어지는 값 L 간의 cost를 구해주는 방법.
예측값이 맞을 때는 cost값이 작고 틀리면 크게 해야한다.
'강의정리 > 딥러닝' 카테고리의 다른 글
Softmax function ++ 함수들 (0) | 2019.01.21 |
---|---|
Softmax function (0) | 2019.01.17 |
Logistic (regression) classification (0) | 2019.01.17 |
Loading Data from file (0) | 2019.01.17 |
multi-variable linear regression (0) | 2019.01.17 |