deepleaning 2

[머신러닝 이론] Overfitting(과적합) Regularization(일반화)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Learning rate(학습률) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [딥러닝 이론] Softmax Regression(소프트맥스 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] chaerrylog.tistory.com 이전 글에서는 학습률에 대해서 설명했다. 이전 글에 이어 이번 글에서는 실제 머신러닝을 실행할 때 필요한 개념 중 하나인 과적합에 대해서 설명하겠다. Overfitting 과적합은 모델이 training dataset에 과하게 잘 맞는 것을 말한다. 이는 training dataset에 대해서는 매우 좋은 성능을 보이지만, testing ..

[머신러닝 이론] Learning rate(학습률)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [딥러닝 이론] Softmax Regression(소프트맥스 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Logistic Regression(로지스틱 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] chaerrylog.tistory.com 이전 글에서는 다중 분류를 위한 소프트맥스 회귀에 대해서 설명했다. 이번 글에서는 실제 머신러닝을 실행할 때 필요한 개념 중 하나인 학습률에 대해서 설명하겠다. Learning rate 앞서 Gradient descent(경사하강법)에 대해서 설명한 적이 있다. 이는 Loss function이 최소가 되는 Weight를 ..