250x250
반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- chatGPT
- tensorflow text
- API Gateway
- Airflow
- Retry
- UDF
- BigQuery
- GenericGBQException
- requests
- integrated gradient
- gather_nd
- login crawling
- XAI
- 유튜브 API
- TensorFlow
- 상관관계
- subdag
- youtube data
- Counterfactual Explanations
- flask
- API
- correlation
- spark udf
- airflow subdag
- 공분산
- GCP
- hadoop
- session 유지
- top_k
- grad-cam
Archives
- Today
- Total
데이터과학 삼학년
TensorRT for Inference 본문
반응형
TensorRT
- Tensorflow의 latency를 낮춰 좋게 만들기위한 방법으로 TensorRT로 변환!!!
- inference 최적화 및 latency를 최소화히기위한 플랫폼
- NVIDIA GPUs환경에서 작동
- TensorRT로 모든 주요 프레임웍에서 동작시킬수 있음
Tensorflow → TensorRT 변환 방법
- GPU환경에서 변환 가능 → TensorRT는 GPU에서 작동 가능함
- CPU에서 최적화하고 싶다면 OpenVino나 ONNX를 사용
from tensorflow.python.compiler.tensorrt import trt_convert as trt
# Conversion Parameters
conversion_params = trt.TrtConversionParams(
precision_mode=trt.TrtPrecisionMode.<FP32 or FP16>)
converter = trt.TrtGraphConverterV2(input_saved_model_dir=input_saved_model_dir, conversion_params=conversion_params)
# Converter method used to partition and optimize TensorRT compatible segments
converter.convert()
# Save the model to the disk
converter.save(output_saved_model_dir)
TensorRT inference 방법
- 기존 tensorflow 모델과 동일한 방법으로 불러와 signatures로 inference
# Load the model using TensorFlow
model = tf.saved_model.load(input_model_dir,\\
tags=[tag_constants.SERVING])# Creating Signature for the model
signature_keys = list(model.signatures.keys())# Building a graph function for prediction
graph_func = model.signatures[signature_keys[0]]# Making prediction out of it.
model_score = graph_func(input_tensor)
- TensorRT는 대게 3배 더 빠른 inference가 가능하다고 한다
참고
728x90
반응형
LIST
'Machine Learning' 카테고리의 다른 글
EBM(Explainable Boosting Machine) (0) | 2023.09.18 |
---|---|
커널 함수(kernel function) 조건 및 종류 (0) | 2023.09.13 |
Zero-Shot, One-Shot, Few-Shot learning (1) | 2023.08.28 |
SOTA (State-of-the-Art) 가장 최신의 성능 좋은 모델들...어떻게 확인?! (0) | 2023.08.06 |
SCIKIT_LLM (sklearn + llm), large language model을 쉽게 쓰자!!! (0) | 2023.07.31 |
Comments