Späť na slovník Bezpečnosť

AI Guardrails

Ochranné mechanizmy obmedzujúce správanie AI modelu — obsahové filtre, validácia výstupov, obmedzenie oprávnení a bezpečnostné kontroly.

Čo sú AI Guardrails?

AI guardrails sú kontrolné mechanizmy, ktoré obmedzujú správanie AI modelu na zabezpečenie bezpečnosti, kvality a regulačného súladu. Fungujú ako „zvodidlá" — neblokujú AI, ale udržiavajú ju v bezpečných hraniciach.

Typy guardrails

Vstupné guardrails — filtrovanie a validácia dotazov pred odoslaním modelu (blokovanie prompt injection, odstraňovanie PII). Výstupné guardrails — overovanie odpovedí modelu pred doručením používateľom (validácia formátu, kontrola halucinácií, obsahové filtre). Procesné guardrails — obmedzenie oprávnení, tokenové rozpočty, eskalácia k ľuďom pri nízkej spoľahlivosti.

Podnikové požiadavky

V podnikovom prostredí guardrails musia zahŕňať: validáciu súladu s politikami, ochranu dôverných informácií, auditovateľnosť (každé rozhodnutie guardrail musí byť zalogované), konfigurovateľnosť podľa oddelenia/roly a integráciu s existujúcimi bezpečnostnými systémami (SIEM, DLP).