티스토리 뷰

1. Mean Squared Error(MSE)

 

2. Cross Entropy Error(CEE)

먼저,이 에러는 하나하나의 데이터에 대한 에러 값이다.

softmax를 통과한 값을 확률로 쓴다. 

 

softmax를 생각해보면, 이렇게 생겼다. 

 

k = e^a / (e^a + e^b + e^c)

 

t는 정답이면 1이고, 오답이면 0이다. sigma를 쓰지만 정답인 값의 log만 쓰이는 셈이다. 

one-hot encoding한 y(신경망 출력), t(정답 레이블) 에 대해서,

E = -sum(t_k * log(y_k))

근데 one-hot encoding 해줬으니까  0<= y_k <= 1인데, log(0) = -∞, log(1) = 0이니까 E에다가 -를 곱해서 부호를 바꿔줬다. 

 

말이 시그마긴 한데 결국 하나만 살아남는다!

-log(x)의 그래프를 생각해보면 예측값이 1에 가까우면 오차가 작아지는 형식이다. 

 

 

공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/10   »
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
글 보관함