250x250
반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- integrated gradient
- BigQuery
- 상관관계
- session 유지
- Airflow
- 유튜브 API
- GCP
- Retry
- flask
- chatGPT
- 공분산
- spark udf
- API
- correlation
- grad-cam
- login crawling
- subdag
- gather_nd
- XAI
- hadoop
- TensorFlow
- tensorflow text
- API Gateway
- requests
- youtube data
- top_k
- UDF
- Counterfactual Explanations
- airflow subdag
- GenericGBQException
Archives
- Today
- Total
데이터과학 삼학년
LGBM(LightGBM) 본문
반응형
LGBM이란?
LGBM(LightGBM)은 Microsoft에서 개발한 Gradient Boosting 알고리즘을 기반으로 한 머신 러닝 라이브러리
LGBM은 이전의 Gradient Boosting 라이브러리와 달리 효율적인 분할 알고리즘으로 인해 대용량 데이터에 대한 빠른 속도와 높은 정확도를 제공
다양한 하이퍼파라미터 튜닝 기능과 다양한 기능들을 제공하여 사용자들이 모델링에 적합한 파라미터를 쉽게 찾을 수 있음
LGBM의 장점
- 빠른 속도: LGBM은 효율적인 분할 알고리즘을 사용하여 대용량 데이터에 대해 빠른 속도를 제공
- 높은 정확도: LGBM은 이전의 Gradient Boosting 라이브러리보다 높은 정확도를 제공
- 다양한 기능: LGBM은 다양한 하이퍼파라미터 튜닝 기능과 다양한 기능들을 제공하여 사용자들이 모델링에 적합한 파라미터를 쉽게 찾을 수 있음
코드 예시
import lightgbm as lgb
from sklearn.datasets import load_breast_cancer
from sklearn.model_selection import train_test_split
# 데이터 로드
data = load_breast_cancer()
X_train, X_test, y_train, y_test = train_test_split(data.data, data.target, test_size=0.2, random_state=42)
# LGBM 데이터셋 생성
train_data = lgb.Dataset(X_train, label=y_train)
# 하이퍼파라미터 설정
params = {
'objective': 'binary',
'metric': 'binary_logloss',
'num_leaves': 31,
'learning_rate': 0.05,
'feature_fraction': 0.9,
'bagging_fraction': 0.8,
'bagging_freq': 5,
'verbose': 0
}
# 모델 학습
num_rounds = 100
lgbm_model = lgb.train(params, train_data, num_rounds)
# 모델 평가
y_pred = lgbm_model.predict(X_test)
y_pred = [1 if x >= 0.5 else 0 for x in y_pred]
accuracy = sum(y_pred == y_test) / len(y_test)
print(f"Accuracy: {accuracy}")
728x90
반응형
LIST
'Machine Learning' 카테고리의 다른 글
히스토그램 기반 그래디언트 부스팅 트리(Histogram Gradient Boosting Tree) (0) | 2023.05.25 |
---|---|
LightGBM vs CatBoost vs XGBoost (0) | 2023.05.12 |
Pandas-AI (pandas 활용을 chatGPT 명령에 따라 실행) (0) | 2023.05.08 |
[Tensorflow] tf.math.top_k을 이용해서 probs, indices를 한번에! (0) | 2023.03.18 |
TensorFlow 모델 서빙 방법 (feat. ChatGPT) (0) | 2023.03.14 |
Comments