250x250
반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- subdag
- XAI
- tensorflow text
- TensorFlow
- correlation
- flask
- 유튜브 API
- spark udf
- youtube data
- UDF
- GCP
- hadoop
- Airflow
- login crawling
- Retry
- API Gateway
- top_k
- 상관관계
- session 유지
- GenericGBQException
- 공분산
- chatGPT
- airflow subdag
- BigQuery
- requests
- integrated gradient
- API
- grad-cam
- gather_nd
- Counterfactual Explanations
Archives
- Today
- Total
데이터과학 삼학년
Optimization 본문
반응형
Optimization
- 보통 adam을 많이 씀 → 제일 마지막에 바꾸는 하이퍼파라미터
> learing rate은 옵티마이저 안에 정의하게 되고, regularization도 마찬가지여
- 하이퍼파라미터 정의하는 위치를 기억하자!!!
> train_and_evaluate에서는 train steps을 정할때 spec 부분에서 정의함
>> input_fn → optimizer → model → train → test
728x90
반응형
LIST
'Machine Learning' 카테고리의 다른 글
Hyperparameter Tuning (0) | 2020.01.18 |
---|---|
Dropout (0) | 2020.01.18 |
Learning rate and Batch size (0) | 2020.01.18 |
Regularization (0) | 2020.01.18 |
Feature engineering 기초 & wide and deep model (0) | 2020.01.18 |
Comments