250x250
반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- correlation
- subdag
- Counterfactual Explanations
- spark udf
- flask
- API
- grad-cam
- hadoop
- session 유지
- UDF
- youtube data
- XAI
- requests
- tensorflow text
- GCP
- 유튜브 API
- airflow subdag
- API Gateway
- BigQuery
- chatGPT
- Airflow
- GenericGBQException
- Retry
- login crawling
- gather_nd
- TensorFlow
- 상관관계
- top_k
- integrated gradient
- 공분산
Archives
- Today
- Total
데이터과학 삼학년
Dropout 본문
반응형
Dropout
- randomly 하게 node(neuron)를 제거 하면서 학습하여 앙상블 효과와 overfitting을 막음
> 특정 경로로 weight가 치중되는 문제를 막음
> 앙상블 러닝으로 볼 수 있음 → random forest의 경우, 트리를 여러번 타면서 overfitting을 방지하는 것과 비슷한 원리
- train 단계에서는 사용하지만 test단계에서는 dropout을 실행하면 안돼!!!
- 일반적으로 0.2를 적용하여 80%의 뉴런을 사용함
> 학습이후에는 학습된 수치에 드랍아웃된 비율만큼 나눠줌 → 드랍아웃 비율 만큼 weight가 과다 산정되었을 것이기 때문
728x90
반응형
LIST
'Machine Learning' 카테고리의 다른 글
Custom Estimator, Keras (0) | 2020.01.18 |
---|---|
Hyperparameter Tuning (0) | 2020.01.18 |
Optimization (0) | 2020.01.18 |
Learning rate and Batch size (0) | 2020.01.18 |
Regularization (0) | 2020.01.18 |
Comments