Povratak na rječnik Sigurnost

AI zaštitne ograde

Zaštitni mehanizmi koji ograničavaju ponašanje AI modela — filtri sadržaja, validacija izlaza, ograničenja dozvola i sigurnosne kontrole.

Što su AI zaštitne ograde?

AI zaštitne ograde su kontrolni mehanizmi koji ograničavaju ponašanje AI modela kako bi osigurali sigurnost, kvalitetu i regulatornu usklađenost. Djeluju kao "ograde" — ne blokiraju AI, ali ga drže unutar sigurnih granica.

Vrste zaštitnih ograda

Ulazne zaštitne ograde — filtriranje i validacija upita prije slanja modelu (blokiranje prompt injection, uklanjanje PII). Izlazne zaštitne ograde — provjera odgovora modela prije isporuke korisnicima (validacija formata, provjera halucinacija, filtri sadržaja). Procesne zaštitne ograde — ograničenja dozvola, proračuni tokena, eskalacija ljudima pri niskom pouzdanju.

Poslovni zahtjevi

U korporativnim okruženjima, zaštitne ograde moraju uključivati: validaciju usklađenosti s politikama, zaštitu povjerljivih informacija, mogućnost revizije (svaka odluka zaštitne ograde mora biti zabilježena), konfigurabilnost po odjelima/ulogama te integraciju s postojećim sigurnosnim sustavima (SIEM, DLP).