FastAPI를 이용한 추론 모델 배포 (feat.docker)
Cori
.py 파일을 통해 분류를 수행하는데, 인코더 모델의 경우 매번 .py 파일을 실행할 때마다 메모리에 로드되었고, 이로 인해 결과값을 받아보는데 생각보다 시간이 소요되었다. 이를 해결하기 위해 다음과 같은 방법들을 고려할 수 있는데, 여기서는 이 중 FastAPI를 이용해 예측을 수행하는 과정에 대해 다뤄보고자 한다. 1. Hugging Face 캐싱 확인2. 모델 캐시 파일 재사용3. 웹 프레임워크(Flask, FastAPI)를 사용해 모델을 서버 형태로 배포- 서버 형태로 배포할 경우 예측 요청이 들어올 때마다 이미 로드된 모델로 예측을 수행하게 할 수 있다.더보기Method 1. classifier = pipeline("sentiment-analysis", model="microsoft/deber..