분류 전체보기 83

[머신러닝 이론] Normalization, Standardization(정규화), Regularization(일반화)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Overfitting(과적합) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Learning rate(학습률) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [딥러닝 이론] Softmax Regression chaerrylog.tistory.com 이전 글에서는 과적합과 그에 대한 해결책인 regularization에 대해서 설명했다. 이번 글에서는 헷갈리는 단어인 Normalization, Standardization, Regularization의 차이에 대해서 설명하겠다. Normalization, Standardization, Regularization는 학습할 때..

[머신러닝 이론] Overfitting(과적합) Regularization(일반화)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Learning rate(학습률) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [딥러닝 이론] Softmax Regression(소프트맥스 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] chaerrylog.tistory.com 이전 글에서는 학습률에 대해서 설명했다. 이전 글에 이어 이번 글에서는 실제 머신러닝을 실행할 때 필요한 개념 중 하나인 과적합에 대해서 설명하겠다. Overfitting 과적합은 모델이 training dataset에 과하게 잘 맞는 것을 말한다. 이는 training dataset에 대해서는 매우 좋은 성능을 보이지만, testing ..

[머신러닝 이론] Learning rate(학습률)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [딥러닝 이론] Softmax Regression(소프트맥스 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Logistic Regression(로지스틱 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] chaerrylog.tistory.com 이전 글에서는 다중 분류를 위한 소프트맥스 회귀에 대해서 설명했다. 이번 글에서는 실제 머신러닝을 실행할 때 필요한 개념 중 하나인 학습률에 대해서 설명하겠다. Learning rate 앞서 Gradient descent(경사하강법)에 대해서 설명한 적이 있다. 이는 Loss function이 최소가 되는 Weight를 ..

[머신러닝 이론] Softmax Regression(소프트맥스 회귀)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Logistic Regression(로지스틱 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Multiple Linear Regression(다중 선형 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 chaerrylog.tistory.com 이전 글에서는 Binary Classification를 수행하는 로지스틱 회귀에 대해서 설명했다. 이번 글에서는 Multi-class Classification을 수행하는 소프트맥스 회귀에 대해서 설명하겠다. Softmax Function 소프트맥스 함수는 출력값의 범위를 [0, 1]로 바꿔주는 함수이고, 소프트..

[백준] 2903번 파이썬 python(중앙 이동 알고리즘)

▷ 문제 상근이는 친구들과 함께 SF영화를 찍으려고 한다. 이 영화는 외계 지형이 필요하다. 실제로 우주선을 타고 외계 행성에 가서 촬영을 할 수 없기 때문에, 컴퓨터 그래픽으로 CG처리를 하려고 한다. 외계 지형은 중앙 이동 알고리즘을 이용해서 만들려고 한다. 알고리즘을 시작하면서 상근이는 정사각형을 이루는 점 4개를 고른다. 그 후에는 다음과 같은 과정을 거쳐서 지형을 만든다. 정사각형의 각 변의 중앙에 점을 하나 추가한다. 정사각형의 중심에 점을 하나 추가한다. 초기 상태에서 위와 같은 과정을 한 번 거치면 총 4개의 정사각형이 새로 생긴다. 이와 같은 과정을 상근이가 만족할 때 까지 계속한다. 아래 그림은 과정을 총 2번 거쳤을 때까지의 모습이다. 상근이는 어떤 점은 한 개 보다 많은 정사각형에 ..

[백준] 2720번 파이썬 python(세탁소 사장 동혁)

▷ 문제 미국으로 유학간 동혁이는 세탁소를 운영하고 있다. 동혁이는 최근에 아르바이트로 고등학생 리암을 채용했다. 동혁이는 리암에게 실망했다. 리암은 거스름돈을 주는 것을 자꾸 실수한다. 심지어 $0.5달러를 줘야하는 경우에 거스름돈으로 $5달러를 주는것이다! 어쩔수 없이 뛰어난 코딩 실력을 발휘해 리암을 도와주는 프로그램을 작성하려고 하지만, 디아블로를 하느라 코딩할 시간이 없어서 이 문제를 읽고 있는 여러분이 대신 해주어야 한다. 거스름돈의 액수가 주어지면 리암이 줘야할 쿼터(Quarter, $0.25)의 개수, 다임(Dime, $0.10)의 개수, 니켈(Nickel, $0.05)의 개수, 페니(Penny, $0.01)의 개수를 구하는 프로그램을 작성하시오. 거스름돈은 항상 $5.00 이하이고, 손님..

[백준] 11005번 파이썬 python(진법 변환 2)

▷ 문제 10진법 수 N이 주어진다. 이 수를 B진법으로 바꿔 출력하는 프로그램을 작성하시오. 10진법을 넘어가는 진법은 숫자로 표시할 수 없는 자리가 있다. 이런 경우에는 다음과 같이 알파벳 대문자를 사용한다. A: 10, B: 11, ..., F: 15, ..., Y: 34, Z: 35 ▷ 전체 코드 N, B = map(int, input().split()) a = "0123456789ABCDEFGHIJKLMNOPQRSTUVWXYZ" b = "" while N: b += str(a[N%B]) N //= B print(b[::-1]) ▷ 코드 분석 N, B = map(int, input().split()) 변수 N에 10진법의 수를 저장하고, 변수 B에 몇 진법으로 바꿀지 저장한다. map() 함수를 ..

[머신러닝 실습] Logistic Regression(로지스틱 회귀) with PyTorch

이 글은 PyTorchZeroToAll을 기반으로 작성한 글입니다. [머신러닝 이론] Logistic Regression(로지스틱 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Multiple Linear Regression(다중 선형 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 chaerrylog.tistory.com 위 글에서 로지스틱 회귀에 대해서 설명했다. 이 내용을 토대로 파이토치를 사용해 실습을 진행한다. from torch import tensor from torch import nn from torch import sigmoid import torch.nn.functional as F import torch.o..

[머신러닝 이론] Logistic Regression(로지스틱 회귀)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Multiple Linear Regression(다중 선형 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Gradient descent(경사하강법) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Linear chaerrylog.tistory.com 이전 글까지는 선형 회귀의 가설, 손실함수, 경사하강법에 대해서 배웠다. 이 글에서는 로지스틱 회귀에 대하여 설명한다. Logistic Hypothesis 머신 러닝은 지도 학습과 비지도 학습으로 구분되고, 지도 학습은 회귀과 분류로 나눠진다. 앞에서 배운 선형 회귀는 Regression에 속하고, 오..

[머신러닝 실습] Linear Regression(선형 회귀) with PyTorch

이 글은 PyTorchZeroToAll을 기반으로 작성한 글입니다. [머신러닝 이론] Multiple Linear Regression(다중 선형 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Gradient descent(경사하강법) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Linear chaerrylog.tistory.com 앞에서 선형 회귀에 대해서 알아봤다. 이 내용들을 종합해 파이토치를 사용해 실습을 진행한다. import torch from torch import nn from torch import tensor torch를 import한다. PyTorch를 통해 신경망을 만들기 위해 torch.nn 패키지를 i..