Lura lejn il-glossarju Teknoloġija

Knowledge Distillation

Teknika ta' taħriġ fejn mudell iżgħar 'student' jitgħallem jireplika l-imġiba ta' mudell akbar 'teacher'.

Kif Taħdem Knowledge Distillation

Knowledge distillation hija teknika ta' kompressjoni tal-mudelli fejn mudell kbir u ta' prestazzjoni għolja (it-teacher) jittrasferixxi l-għarfien mgħallem tiegħu lil mudell iżgħar u aktar effiċjenti (l-istudent). Minflok iħarreġ l-istudent direttament fuq tikketti iebsa (risponsi korretti/mhux korretti), l-istudent jitgħallem minn distribuzzjonijiet tal-probabbiltà aktar rikki li t-teacher jipproduċi — li jinkludi informazzjoni dwar liema tweġibiet ħżiena huma aktar plawsibbli minn oħrajn.

Benefiċċji Prattiċi

Knowledge distillation tippermetti lill-organizzazzjonijiet juħżu mudelli iżgħar li huma aktar mgħaġġla, orħos, u jistgħu jiġu esegwiti fuq hardware aktar modest — inkluż apparati edge u telefons ċellulari. Mudell distillat jista' jilħaq 90-99% tal-prestazzjoni tat-teacher b'frazzjon tad-daqs u r-rekwiżiti ta' komputazzjoni. Dan jagħmilha possibbli li tuħż kapaċitajiet ta' AI avvanzata f'ambjenti fejn mudelli kbar mhumiex prattiċi.

Tekniki Avvanzati

Lil hinn mid-distillation bażika, tekniki avvanzati jinkludu: distillation ta' saffi multipli (trasferiment ta' għarfien minn saffi intermedji, mhux biss mill-output finali), self-distillation (mudell jitgħallem minnu nnifsu), distillation online (it-teacher u l-istudent jitgħallmu simultanjament), u distillation speċifika għall-kompitu (iffoka fuq it-trasferiment tal-għarfien rilevanti għal użu speċifiku). L-għażla tat-teknika tiddependi fuq ir-rekwiżiti tiegħek ta' prestazzjoni, daqs, u latenza.