Înapoi la glosar Tehnologie

Distilarea modelelor (Knowledge Distillation)

Tehnica de antrenare a unui model mai mic și mai eficient "student" folosind ieșirile unui model mai mare "profesor", comprimând inteligența și accelerând inferența.

Înțelegerea distilării modelelor

Distilarea cunoștințelor este o tehnică de compresie a modelelor în care un model mai mic și mai eficient ("studentul") este antrenat pe ieșirile de probabilitate soft, reprezentările intermediare sau alte cunoștințe ale unui model mai mare și mai precis ("profesorul"). Rezultatul distilării este un model mult mai mic care aproximează performanța modelului mai mare cu o fracțiune din cerințele de calcul.

Tehnici de distilare

Distilarea cunoștințelor bazată pe răspuns antrenează studentul să imite distribuțiile de ieșire ale profesorului. Distilarea bazată pe caracteristici se bazează pe imitarea activărilor intermediare ale profesorului. Distilarea bazată pe relații se concentrează pe captarea relațiilor dintre exemplele de antrenare ale profesorului.

Aplicații enterprise

Distilarea permite implementarea modelelor AI mari pe dispozitive și aplicații cu resurse limitate. Implementările la margine și aplicațiile care necesită latență redusă beneficiază de modelele distilate.