대딩코딩/웹개발 스터디
[Backend Development] AI Model Serving
시데브
2024. 7. 17. 04:52
AI Model Serving
- 미리 완성된 AI model을 api request, response 형태를 통해서 사용할 수 있도록 서버를 구축하는 것
- 크게 Online Serving과 Batch Serving으로 나뉜다.
- Serving: 모델을 웹/앱 서비스에 배포하는 과정, 모델을 서비스화하는 관점
- Inference: 모델에 데이터가 제공되어 예측하는 경우, 모델을 사용하는 관점
Online Serving
- 서버가 Request를 받으면, 요청한 내용을 모델이 받아서 반환하는 것을 Response로 전송해주는 형태
- ML 모델 서버에 요청할 때, 필요할 시에 데이터 전처리를 따로 진행해야 함 -> 이 경우 전처리 서버 / ML 모델 서버로 나눌 수도 있음
Batch Serving
- 함수 단위를 주기적으로 실행
- Airflow, Cron Job 등으로 Scheduling 작업 수행
- 실시간 반환이 필요없는 대부분의 방식에서 활용 가능
- Online Serving 보다 구현이 수월하고 간단, 한 번에 많은 데이터를 처리하므로 Latency가 문제 X
- 그러나, 실시가능로 활용이 불가능하고, Colde start 문제(오늘 새로 생긴 컨텐츠는 추천 불가능)가 존재
참고자료
728x90
반응형