일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 티스토리챌린지
- LG Aimers
- ChatGPT
- PCA
- OpenAI
- AI
- 해커톤
- deep learning
- GPT-4
- 회귀
- regression
- 분류
- Machine Learning
- supervised learning
- 머신러닝
- LLM
- LG Aimers 4th
- 오블완
- Classification
- 딥러닝
- 지도학습
- gpt
- LG
Archives
- Today
- Total
SYDev
[Backend Development] AI Model Serving 본문
AI Model Serving
- 미리 완성된 AI model을 api request, response 형태를 통해서 사용할 수 있도록 서버를 구축하는 것
- 크게 Online Serving과 Batch Serving으로 나뉜다.
- Serving: 모델을 웹/앱 서비스에 배포하는 과정, 모델을 서비스화하는 관점
- Inference: 모델에 데이터가 제공되어 예측하는 경우, 모델을 사용하는 관점
Online Serving
- 서버가 Request를 받으면, 요청한 내용을 모델이 받아서 반환하는 것을 Response로 전송해주는 형태
- ML 모델 서버에 요청할 때, 필요할 시에 데이터 전처리를 따로 진행해야 함 -> 이 경우 전처리 서버 / ML 모델 서버로 나눌 수도 있음
Batch Serving
- 함수 단위를 주기적으로 실행
- Airflow, Cron Job 등으로 Scheduling 작업 수행
- 실시간 반환이 필요없는 대부분의 방식에서 활용 가능
- Online Serving 보다 구현이 수월하고 간단, 한 번에 많은 데이터를 처리하므로 Latency가 문제 X
- 그러나, 실시가능로 활용이 불가능하고, Colde start 문제(오늘 새로 생긴 컨텐츠는 추천 불가능)가 존재
참고자료
'대딩코딩 > 웹개발 스터디' 카테고리의 다른 글
[스프링 부트 3 백엔드 개발자 되기] Chapter 11. AWS에 프로젝트 배포하기 (0) | 2024.06.26 |
---|---|
JWT의 개념 및 활용 (0) | 2024.05.18 |
[스프링 부트 3 백엔드 개발자 되기] Chapter 7. 블로그 화면 구성하기 (2) | 2024.05.01 |
[스프링 부트 3 백엔드 개발자 되기] Chapter 6. 블로그 기획하고 API 만들기 (0) | 2024.04.07 |
[Express] 19. React Nodejs Start (1) | 2023.12.05 |