Chaerrylog

  • 홈
  • 태그
  • 방명록

Sigmoid function 1

[머신러닝 이론] Logistic Regression(로지스틱 회귀)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Multiple Linear Regression(다중 선형 회귀) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Gradient descent(경사하강법) 이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Linear chaerrylog.tistory.com 이전 글까지는 선형 회귀의 가설, 손실함수, 경사하강법에 대해서 배웠다. 이 글에서는 로지스틱 회귀에 대하여 설명한다. Logistic Hypothesis 머신 러닝은 지도 학습과 비지도 학습으로 구분되고, 지도 학습은 회귀과 분류로 나눠진다. 앞에서 배운 선형 회귀는 Regression에 속하고, 오..

머신러닝&딥러닝/모두를 위한 딥러닝 2023.09.20
이전
1
다음
더보기
프로필사진

ᰔᩚ AI 대학원생 생존로그 ᰔᩚ

  • 분류 전체보기 (83)
    • 기초 프로그래밍 (69)
      • Python (68)
      • 데이터 분석 (1)
    • 기초 수학 (0)
    • 머신러닝&딥러닝 (14)
      • 모두를 위한 딥러닝 (14)

최근글과 인기글

  • 최근글
  • 인기글

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바