머신러닝&딥러닝/모두를 위한 딥러닝

[머신러닝 이론] Overfitting(과적합) Regularization(일반화)

Chaerry._o 2024. 1. 15. 13:41
반응형

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다.

 

 

[머신러닝 이론] Learning rate(학습률)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [딥러닝 이론] Softmax Regression(소프트맥스 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론]

chaerrylog.tistory.com

이전 글에서는 학습률에 대해서 설명했다.

이전 글에 이어 이번 글에서는 실제 머신러닝을 실행할 때 필요한 개념 중 하나인 과적합에 대해서 설명하겠다.


Overfitting

https://skyengine.ai/se/skyengine-blog/129-overfitting-in-machine-learning-and-computer-vision

 

과적합은 모델이 training dataset에 과하게 잘 맞는 것을 말한다. 이는 training dataset에 대해서는 매우 좋은 성능을 보이지만, testing dataset과 real data에서는 좋은 성능을 보이지 못한다.

 

이를 해결하는 방법은 training data의 수를 더 많이 늘리는 것, feature의 수를 줄이는 것, 그리고 Regularization이 있다.

 

Regularization

Regularization은 weight가 너무 큰 값을 갖지 않도록 하는 것이다. 이 방법을 사용하면 구불구불했던 함수가 펴지게 된다.

 

loss=i=0n(yij=0mxijWj)+λj=0mWj2

 

원래 loss function에 penalty term을 추가하면 Regularization이 된다. regularization strenght인 람다에 어떤 값을 넣어주냐에 따라 regularization의 비중을 결정할 수 있다.

반응형