Обратно към речника MLOps & Жизнен цикъл

Обслужване на модели (Model Serving)

Обслужването на модели обхваща инфраструктурата и практиките за предоставяне на инференция на модела на производствен трафик - балансирайки производителността, разходите, надеждността и мащабирането.

Избор на инфраструктура

Обслужването на модели варира от специализирани пълномащабни приложения до прости HTTP сървъри. Сред общите инфраструктурни компоненти са рамки за обслужване на модели (TorchServe, Triton, vLLM за LLM), батчиране на заявки за ефективно използване на GPU и автоматично мащабиране въз основа на натоварването.

Ефективност на инференцията

За LLM модели, изборът между пакетна инференция и стрийминг е критичен за потребителското изживяване. Стриймингът намалява латентността при натоварване чрез изпращане на отговора на клиента при генерирането му, вместо изчакване на пълното генериране.

Оптимизация на разходите

Обслужването на модели е скъпо. Търсете споделяне на GPU чрез батчиране на заявки, квантизация (намалявайки изчислителните разходи) и автоматично мащабиране (намалявайки ресурсите по време на ниско натоварване).