Povratak na rječnik Tehnologija

GPU i TPU za AI

Specijalizirani procesori koji ubrzavaju AI treniranje i inferenciju — GPU od NVIDIA, TPU od Googlea i novi ASICs za AI infereneciju.

Zašto AI treba specijalizirani hardver?

Treniranje i inferencija AI modela dominantno se svodi na operacije matričnog množenja u golemim razmjerima. CPU-ovi su optimizirani za serijsko izvođenje složenih instrukcija — loš za paralelno matrično množenje. GPU-ovi imaju tisuće jezgri dizajniranih za masivnu paralelizaciju — idealan za AI.

GPU vs TPU vs NPU

GPU (NVIDIA A100, H100, RTX): opća namjena, dominantan za AI treniranje. TPU (Google): custom ASIC optimiziran za TensorFlow/JAX — izvanredan za skalabilno treniranje. NPU/AI akceleratori: Apple Silicon Neural Engine, Qualcomm NPU — za inference na uređajima. Gaudi (Intel), Trainium (AWS): alternativni cloud AI procesori za smanjenje troškova.

Poslovne odluke

Cloud GPU (A100/H100 instance): idealan za treniranje, pay-as-you-go, ali skupo pri kontinuiranoj inferenciji. On-premise GPU: visoki CapEx, ali predvidljiv trošak i privatnost. Edge NPU: za lokalne, nisko-latenčne inferenece zadatke. Odabir ovisi o volumen posla, regulativi i troškovnom profilu.