Retour au glossaire Technologie

Distillation du Connaissances

Technique d'entraînement où un modèle plus petit « élève » apprend à répliquer le comportement d'un modèle « professeur » plus grand.

Qu'est-ce que la distillation du connaissances ?

La distillation du connaissances est une technique de compression de modèle où un modèle compact « élève » est entraîné pour répliquer les sorties d'un modèle « professeur » puissant mais gourmand en ressources. Au lieu de s'entraîner directement sur des données brutes, le modèle élève apprend des « cibles douces » du modèle professeur — les distributions de probabilité sur toutes les sorties possibles, pas seulement l'étiquette la plus probable. Ces signaux d'entraînement plus riches permettent aux petits modèles de surpasser largement l'entraînement direct.

Pourquoi c'est important

Les modèles IA de pointe avec des milliards de paramètres sont trop coûteux et lents pour le déploiement en production. La distillation produit de petits modèles atteignant 70 à 90 % des performances à une fraction du coût computationnel. Les modèles distillés peuvent être déployés sur des appareils edge, des applications mobiles et des services sensibles à la latence.

Applications en entreprise

Les entreprises utilisent la distillation pour créer des modèles spécifiques aux tâches optimisés pour leurs cas d'usage particuliers. Au lieu de payer pour un modèle généraliste de pointe à chaque appel, vous entraînez une fois un modèle distillé et l'exploitez de manière autonome.