코딩공작소

Softmax function ++ 함수들 본문

강의정리/딥러닝

Softmax function ++ 함수들

안잡아모찌 2019. 1. 21. 14:38

Logit  = tf.matmul(X,W) + b --> ((SoftMax)) --> Probabilities






cost는 동일함. 





one_hot 함수는 실행하면 하나의 차원을 더 크게해준다. [[0],[3]]

따라서 reshape 이라는 함수를 통해 원하는 형태로 만들어준다.





##코드##





**

flatten --> [[1],[0]] --> [1,0]으로 만들어주는 함수



'강의정리 > 딥러닝' 카테고리의 다른 글

training set  (0) 2019.01.21
some Problems in training  (0) 2019.01.21
Softmax function  (0) 2019.01.17
Softmax classification : Multinomial classification  (0) 2019.01.17
Logistic (regression) classification  (0) 2019.01.17