Späť na slovník Technológie

Destilácia znalostí

Trenovacia technika, kde mensí model 'student' sa ucí napodonat správanie väcsieho modelu 'ucitel'.

Ako funguje destilácia znalostí?

Destilácia znalostí je technika kompresie modelu, kde velký, vysoko výkonný model (ucitel) prenáša svoje naucené znalosti na mensí, efektívnejsí model (student). Namiesto trenovania studenta výhradne na surových datách sa ucí z výstupnych distribúcií pravdepodobnosti ucitela, ktore obsahuju bohatšie informacie o vzfahoch medzi triedami a konceptmi ako jednoduché štítky.

Stratégie destilácie

Moderná destilácia ide nad rámec porovnávania výstupnych distribúcií. Destilácia na základe príznakov zarovnáva medziľahlé reprezentácie medzi ucitelom a studentom. Destilácia na základe vztahov zachováva vztahy medzi datovymi bodmi. Pre jazykové modely destilácia casto zahrnuje generovanie syntetickych trenovacích dat od ucitela.

Podnikové výhody

Destilácia znalostí umoznuje organizáciam nasadit AI schopnosti s dramaticky nižsími výpocetnymi nákladmi. Destilovaný model môze obsluhovat tisíce požiadavok za sekundu na skromnom hardvéri, cím je nevyhnutný pre aplikácie citlivé na latenciu ako zákaznícky servis v reálnom case alebo mobilné aplikácie.