머신러닝&딥러닝/모두를 위한 딥러닝 14

[머신러닝 이론] Normalization, Standardization(정규화), Regularization(일반화)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Overfitting(과적합) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Learning rate(학습률) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [딥러닝 이론] Softmax Regression chaerrylog.tistory.com 이전 글에서는 과적합과 그에 대한 해결책인 regularization에 대해서 설명했다. 이번 글에서는 헷갈리는 단어인 Normalization, Standardization, Regularization의 차이에 대해서 설명하겠다. Normalization, Standardization, Regularization는 학습할 때..

[머신러닝 이론] Overfitting(과적합) Regularization(일반화)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Learning rate(학습률) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [딥러닝 이론] Softmax Regression(소프트맥스 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] chaerrylog.tistory.com 이전 글에서는 학습률에 대해서 설명했다. 이전 글에 이어 이번 글에서는 실제 머신러닝을 실행할 때 필요한 개념 중 하나인 과적합에 대해서 설명하겠다. Overfitting 과적합은 모델이 training dataset에 과하게 잘 맞는 것을 말한다. 이는 training dataset에 대해서는 매우 좋은 성능을 보이지만, testing ..

[머신러닝 이론] Learning rate(학습률)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [딥러닝 이론] Softmax Regression(소프트맥스 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Logistic Regression(로지스틱 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] chaerrylog.tistory.com 이전 글에서는 다중 분류를 위한 소프트맥스 회귀에 대해서 설명했다. 이번 글에서는 실제 머신러닝을 실행할 때 필요한 개념 중 하나인 학습률에 대해서 설명하겠다. Learning rate 앞서 Gradient descent(경사하강법)에 대해서 설명한 적이 있다. 이는 Loss function이 최소가 되는 Weight를 ..

[머신러닝 이론] Softmax Regression(소프트맥스 회귀)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Logistic Regression(로지스틱 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Multiple Linear Regression(다중 선형 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 chaerrylog.tistory.com 이전 글에서는 Binary Classification를 수행하는 로지스틱 회귀에 대해서 설명했다. 이번 글에서는 Multi-class Classification을 수행하는 소프트맥스 회귀에 대해서 설명하겠다. Softmax Function 소프트맥스 함수는 출력값의 범위를 [0, 1]로 바꿔주는 함수이고, 소프트..

[머신러닝 실습] Logistic Regression(로지스틱 회귀) with PyTorch

이 글은 PyTorchZeroToAll을 기반으로 작성한 글입니다. [머신러닝 이론] Logistic Regression(로지스틱 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Multiple Linear Regression(다중 선형 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 chaerrylog.tistory.com 위 글에서 로지스틱 회귀에 대해서 설명했다. 이 내용을 토대로 파이토치를 사용해 실습을 진행한다. from torch import tensor from torch import nn from torch import sigmoid import torch.nn.functional as F import torch.o..

[머신러닝 이론] Logistic Regression(로지스틱 회귀)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Multiple Linear Regression(다중 선형 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Gradient descent(경사하강법) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Linear chaerrylog.tistory.com 이전 글까지는 선형 회귀의 가설, 손실함수, 경사하강법에 대해서 배웠다. 이 글에서는 로지스틱 회귀에 대하여 설명한다. Logistic Hypothesis 머신 러닝은 지도 학습과 비지도 학습으로 구분되고, 지도 학습은 회귀과 분류로 나눠진다. 앞에서 배운 선형 회귀는 Regression에 속하고, 오..

[머신러닝 실습] Linear Regression(선형 회귀) with PyTorch

이 글은 PyTorchZeroToAll을 기반으로 작성한 글입니다. [머신러닝 이론] Multiple Linear Regression(다중 선형 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Gradient descent(경사하강법) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Linear chaerrylog.tistory.com 앞에서 선형 회귀에 대해서 알아봤다. 이 내용들을 종합해 파이토치를 사용해 실습을 진행한다. import torch from torch import nn from torch import tensor torch를 import한다. PyTorch를 통해 신경망을 만들기 위해 torch.nn 패키지를 i..

[머신러닝 이론] Multiple Linear Regression(다중 선형 회귀)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Gradient descent(경사하강법) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Linear Regression(선형 회귀) 이 글은 모두의 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Machine Learni chaerrylog.tistory.com 앞에서 단순 선형 회귀와 cost가 최소가 되는 weight 값을 찾는 방법인 경사하강법에 대해서 알아봤다. 이번 글에서는 다중 선형 회귀에 대해서 알아보겠다. Multiple Linear Regression 다중 선형 회귀는 독립 변수 x가 여러 개일 때의 종속 변수 y를 예측하는 것이다. 따라서 input으로 ..

[머신러닝 실습] Gradient Descent(경사하강법)

이 글은 PyTorchZeroToAll을 기반으로 작성한 글입니다. [머신러닝 이론] Gradient descent(경사하강법) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Linear Regression(선형 회귀) 이 글은 모두의 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Machine Learni chaerrylog.tistory.com 위 글에서 경사하강법에 대해서 설명했다. 이 내용을 토대로 파이썬을 사용해 실습을 진행한다. Gradient Descent 이전 실습에서 loss function에 weight 값을 다양하게 대입했을 때 아래로 볼록한 그래프가 나오는 걸 확인했다. 이러한 그래프는 경사하강법을 사용해서 loss가 최소가 되는 w..

[머신러닝 이론] Gradient descent(경사하강법)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Linear Regression(선형 회귀) 이 글은 모두의 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Machine Learning 개념 이 글은 모두의 딥러닝 시즌1을 기반으로 작성한 글입니다. 머신러닝은 사람이 하나하나 프로그래 chaerrylog.tistory.com 이전 글에서 선형회귀와 Loss function에 대해서 설명했다. 그 내용을 토대로 이번 글에서는 경사하강법에 대해서 설명하겠다. Gradient Descent Optimizer(최적화)는 Loss function을 어떤 방식으로 최소화할 지 결정하고 학습하는 방법이다. 가장 기본적인 옵티마이저 알고리즘인 Gradient descen..