Wróć do słownika Technologia

Destylacja modeli (Knowledge Distillation)

Proces transferu wiedzy z dużego modelu AI ("nauczyciela") do mniejszego ("ucznia"), zachowujący większość możliwości przy znacznie niższych kosztach.

Czym jest destylacja wiedzy?

Destylacja modeli (Knowledge Distillation) to technika kompresji, w której mniejszy model ("uczeń") uczy się naśladować zachowanie większego modelu ("nauczyciel"). Zamiast trenować mały model na surowych danych, uczeń trenuje na "miękkich" wyjściach nauczyciela — rozkładach prawdopodobieństwa, które zawierają bogatszą informację niż zwykłe etykiety. Dzięki temu mały model potrafi uchwycić niuanse i zależności odkryte przez duży model.

Jak przebiega proces?

Nauczyciel (np. model o miliardach parametrów) generuje predykcje dla zbioru danych treningowych. Uczeń — znacznie mniejsza sieć — jest trenowany tak, aby jego wyjścia jak najbardziej zbliżyły się do wyjść nauczyciela. Parametr "temperatura" kontroluje miękkość rozkładów prawdopodobieństwa: wyższa temperatura ujawnia więcej informacji o relacjach między klasami. Proces można łączyć z kwantyzacją dla dodatkowej kompresji.

Zastosowania enterprise

W środowisku korporacyjnym destylacja umożliwia tworzenie wyspecjalizowanych, lekkich modeli dostosowanych do konkretnych zadań — np. klasyfikacji emaili, ekstrakcji danych z dokumentów czy routingu zapytań. Zdestylowany model może działać lokalnie, zapewniając niskie koszty, krótki czas odpowiedzi i pełną kontrolę nad danymi bez wysyłania ich do zewnętrznych API.