일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- top_k
- API Gateway
- requests
- Retry
- 공분산
- session 유지
- hadoop
- GenericGBQException
- youtube data
- login crawling
- correlation
- Counterfactual Explanations
- grad-cam
- chatGPT
- gather_nd
- airflow subdag
- UDF
- 상관관계
- XAI
- GCP
- integrated gradient
- tensorflow text
- 유튜브 API
- BigQuery
- spark udf
- subdag
- flask
- Airflow
- TensorFlow
- API
- Today
- Total
데이터과학 삼학년
Regularization 본문
Regularization
- Test data와 Trainng data의 loss 차이가 크면 일반화하기가 어렵지
> overfitting을 막으면 loss의 차이가 줄을 것이야
- complex 한 경우 → feature, model 등 → overfitting이 일어날 수 있음
- complex 를 줄이려면 복잡한 feature가 필요할때만 들어가도록 자동화하는 것 필요
- Overfitting을 막는 몇가지 방법
> early stopping, dataset을 추가하는 방법(dataset augmentation),
> 언어의 경우 dataset을 추가하려면 → 번역된 다른 나라 언어로 변환시켜서 데이터를 넣는 방법이 있음
- L1, L2 regularization
> l1,l2 norm을 loss 계산값에 추가 시켜서 loss가 추가 발생하도록 만들어 overfitting을 줄임
- 모델의 complexity를 계산하는 방법
> w의 값들의 norm을 계산하는 방법
> l1 norm을 사용하면 모델의 몇 weight를 없애버리지 → feature selection 메카니즘으로 사용할 수 있음
> l2 norm을 사용하면 weight의 값은 다 살아 있긴 하지 → 중요하지 않다고 판단되는 feature는 0에 가까운 값이 됨
- l1과 l2의 차이?
> feature를 중요한 feature들만 쓰고 싶다 → l1
> feature를 다 살리면서 쓰고 싶다 → l2
'Machine Learning' 카테고리의 다른 글
Optimization (0) | 2020.01.18 |
---|---|
Learning rate and Batch size (0) | 2020.01.18 |
Feature engineering 기초 & wide and deep model (0) | 2020.01.18 |
Distributed training (feat.GCP CMLE) (0) | 2020.01.12 |
Deep Neural Networks 기초 (0) | 2020.01.12 |