Chaerrylog

  • 홈
  • 태그
  • 방명록

볼록함수 1

[머신러닝 이론] Gradient descent(경사하강법)

이 글은 모두를 위한 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Linear Regression(선형 회귀) 이 글은 모두의 딥러닝 시즌1을 기반으로 작성한 글입니다. [머신러닝 이론] Machine Learning 개념 이 글은 모두의 딥러닝 시즌1을 기반으로 작성한 글입니다. 머신러닝은 사람이 하나하나 프로그래 chaerrylog.tistory.com 이전 글에서 선형회귀와 Loss function에 대해서 설명했다. 그 내용을 토대로 이번 글에서는 경사하강법에 대해서 설명하겠다. Gradient Descent Optimizer(최적화)는 Loss function을 어떤 방식으로 최소화할 지 결정하고 학습하는 방법이다. 가장 기본적인 옵티마이저 알고리즘인 Gradient descen..

머신러닝&딥러닝/모두를 위한 딥러닝 2023.09.06
이전
1
다음
더보기
프로필사진

ᰔᩚ AI 대학원생 생존로그 ᰔᩚ

  • 분류 전체보기 (83)
    • 기초 프로그래밍 (69)
      • Python (68)
      • 데이터 분석 (1)
    • 기초 수학 (0)
    • 머신러닝&딥러닝 (14)
      • 모두를 위한 딥러닝 (14)

최근글과 인기글

  • 최근글
  • 인기글

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바