배우고, 기록.

  • 홈
  • 태그
  • 방명록

ML 1

Regularization & Normalization

Regularization(정칙화) 오버피팅(overfitting)을 해결하기 위한 방법 중 하나 오버피팅(overfitting): 과적합, train set은 매우 잘 맞히지만 validation/test set은 맞히지 못하는 현상 기출문제는 외워서 잘 맞히지만, 새로운 응용 문제로 시험을 볼 때는 잘 풀지 못하는 경우이다 ex) L1, L2 Regularization, Dropout, Batch normalization 모델이 train set의 정답을 맞히지 못하도록 오버피팅을 방해(train loss가 증가) 하는 역할 train loss는 약간 증가하지만 결과적으로, validation loss나 최종적인 test loss를 감소시키려는 목적 ▶ 오버피팅을 막고자 하는 방법 Normalizat..

ML 2022.11.16
이전
1
다음
프로필사진

배우고, 기록.

  • 분류 전체보기 (22)
    • Data Science (4)
      • data analysis (1)
      • 확률 및 통계 (0)
      • 시계열(Time-series) (1)
    • ML (1)
    • DL (1)
    • Python (3)
    • 부스트코스 코칭스터디 서포터즈 (8)
    • 알고리즘 (2)
    • AI 교양 (3)

Tag

코칭스터디, 밑시딥, 테크놀로지 푸시, isocalendar, return print 차이, python #파이썬 #오버라이딩 #오버로딩, 데이터, AI혁신, BoostCourse, 리드부스터, 라이브코칭, 부스트코스, 한 권으로 끝내는 AI 비즈니스 모델, 데이터연결분석, 책, Python, py4e, 부스터, Zone7, 모두의연구소,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

  2025. 07  
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.