지식을 나누면 두배로

  • 홈
  • 태그
  • 방명록

Regularization 1

[Deep Learning] Regularization

머신 러닝에서 모델이 과적합되는 것을 방지하기 위해 사용하는 여러 Regularization 기법들에 대해 알아보자. Early Stopping validation 데이터 셋에 대한 loss 값이 커지기 직전 시점의 값으로 모델의 파라미터를 결정한다. Parameter Norm Penalty loss function에 파라미터의 패널티 항을 추가해서 weight 값이 커지는 것에 제약을 준다. Data Augmentation 가지고 있는 훈련 데이터 셋을 여러가지 방법으로 증강하여 그 수를 늘린다. Noise Robustness 입력값 또는 weight에 노이즈를 넣어 다양한 입력값들에 대해 강건한 모델을 만든다. Label Smoothing 여러 라벨의 데이터를 섞음으로써, 정확히 하나의 클래스만 표현..

AI/Deep Learning 2023.03.21
이전
1
다음
프로필사진

선한 영향력을 나누는 지속 가능한 개발자가 되기 위해 공부중입니다.

  • 분류 전체보기 (109)
    • Backend (30)
      • Spring Boot (2)
      • Trouble Shooting (5)
      • Python (14)
      • pytest (3)
      • 기타 (6)
    • Cloud Architect (3)
      • AWS (3)
    • AI (63)
      • Numpy (7)
      • Pandas (10)
      • AI Math (6)
      • PyTorch (13)
      • Deep Learning (6)
      • 논문 리뷰 (5)
      • Prompt Engineering (3)
      • Trouble Shooting (3)
      • 기타 (10)
    • Data Engineering (4)
      • 데이터 시각화 (1)
      • Airflow (3)
    • GitHub (5)
    • 프로젝트 회고 (4)

Tag

부스트캠프 AI TECH, github actions, airflow, 파이썬, numpy, 판다스, pytorch, mojo, LSTM, 논문 리뷰, 부스트캠프, pandas, github, prompt engineering, 넘파이, pytest, 부스트캠프 AI Tech 5기, 파이썬 테스트, Andrew Ng, 네이버 부스트캠프,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

  2025. 07  
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

Copyright © Kakao Corp. All rights reserved.

  • 깃허브

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.