Povratak na rječnik Umjetna inteligencija

Zakoni skaliranja neuronskih mreža

Empirijski odnosi između veličine modela, compute-a, podataka i izvedbe — temelj za predviđanje i planiranje razvoja velikih AI modela.

Što su zakoni skaliranja?

Zakoni skaliranja (scaling laws) su empirijski otkrivene matematičke veze koje opisuju kako se izvedba neuronskih mreža predvidivo poboljšava s povećanjem veličine modela, compute-a i podataka za treniranje — obično po power-law. Ovo otkriće, dokumentirano u radovima OpenAI i DeepMind, revolucioniralo je AI razvoj pokazujući da je skaliranje relativno predvidiv put prema boljoj izvedbi.

Chinchilla zakoni skaliranja

DeepMind-ov 'Chinchilla' rad (2022.) otkrio je da prethodni LLM-ovi (uključujući GPT-3) su bili 'previše trenirani' — previše compute za premalo podataka. Optimalan omjer: za svako povećanje veličine modela, skalirajte i podatke proporcionalno. Ovo je preoblikovalo strategije treniranja u cijeloj industriji.

Implikacije za poslovanje

Zakoni skaliranja impliciraju da se izvedba AI-ja može predvidjeti i unaprijed planirati. Za organizacije: veći modeli za složenije zadatke, manji za jednostavne (cost optimization); predvidive investicije u infrastrukturu; i razumijevanje zašto najnoviji modeli uvijek nadmašuju prethodne.