Zpět na slovník Technologie

Destilace znalosti

Trenovaci technika, kde mensi model 'student' se uci napodobovat chovani vetsiho modelu 'ucitel'.

Jak funguje destilace znalosti?

Destilace znalosti je technika komprese modelu, kde velky, vysoce vykonny model (ucitel) prenasi sve naucene znalosti na mensi, efektivnejsi model (student). Namisto trenovani studenta vyhradne na surovych datech se uci z vystupnich distribuci pravdepodobnosti ucitele, ktere obsahuji bohatsi informace o vztazich mezi tridami a koncepty nez jednoduche stitky.

Strategie destilace

Moderni destilace jde nad ramec porovnavani vystupnich distribuci. Destilace na zaklade priznaku sladuje mezihlehle reprezentace mezi ucitelem a studentem. Destilace na zaklade vztahu zachovava vztahy mezi datovymi body. Pro jazykove modely destilace casto zahrnuje generovani syntetickych trenovaciach dat od ucitele.

Podnikove vyhody

Destilace znalosti umoznuje organizacim nasadit AI schopnosti s dramaticky nizsimi vypocetnimi naklady. Destilovan model muze obsluhovat tisice pozadavku za sekundu na skromnem hardwaru, cimz je nezbytny pro aplikace citlive na latenci jako zakaznicky servis v realnem case nebo mobilni aplikace.