티스토리 뷰

출처 : Stanford cs231n

https://www.youtube.com/watch?v=h7iBpEHGVNc&list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv&index=3  

 

0. SVM ( Support Vector Machine ) 이란?

http://hleecaster.com/ml-svm-concept/

 

 

1. Multiclass SVM loss

 

 

코드는 다음과 같이 벡터화해서 작성할 수 있다. 

 

 

2. Loss함수의 regularization

처음과 같이 작성하니 과도하게 training set에 최적화되는 문제가 생겼다. 파란색 선처럼!

그래서 람다 값을 추가하는데 이를 Regularization이라고 한다. 

 

 

 

그래서 Loss함수는 이제 Data Loss와 Regularization Loss의 합의 값이 되게 된다. 

 

Regularization Loss은 hyperparameter인 람다와 R(W)의 곱으로 결정된다. 

 

 

 

R(W)는 어떤 식일까?

 

공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/10   »
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
글 보관함