Volver al glosario Tecnología

Destilación del Conocimiento

Técnica de entrenamiento en la que un modelo más pequeño "estudiante" aprende a replicar el comportamiento de un modelo "profesor" más grande.

¿Qué es la Destilación del Conocimiento?

La destilación del conocimiento es una técnica de compresión de modelos en la que un modelo compacto "estudiante" se entrena para replicar los resultados de un modelo "profesor" potente pero intensivo en recursos. En lugar de entrenarse directamente con datos brutos, el modelo estudiante aprende de los "objetivos blandos" del modelo profesor — las distribuciones de probabilidad sobre todas las posibles salidas, no solo la etiqueta más probable. Estas señales de entrenamiento más ricas permiten a los modelos pequeños superar con creces el rendimiento del entrenamiento directo.

Por Qué es Importante

Los modelos de IA de frontera con miles de millones de parámetros son demasiado costosos y lentos para el despliegue en producción. La destilación produce modelos pequeños que alcanzan el 70–90 % del rendimiento a una fracción del coste computacional. Los modelos destilados pueden desplegarse en dispositivos edge, aplicaciones móviles y servicios sensibles a la latencia.

Aplicaciones Empresariales

Las empresas usan la destilación para crear modelos específicos de tareas optimizados para sus casos de uso particulares. En lugar de pagar por un modelo de frontera general para cada llamada, se entrena una vez un modelo destilado y se opera de forma independiente. Es especialmente valioso para aplicaciones de alto volumen: clasificación de documentos, análisis de sentimiento, reconocimiento de intenciones.