Zpět na slovník Bezpečnost

AI Guardrails

Ochranné mechanismy omezující chování AI modelu — obsahové filtry, validace výstupů, omezení oprávnění a bezpečnostní kontroly.

Co jsou AI Guardrails?

AI guardrails jsou kontrolní mechanismy, které omezují chování AI modelu pro zajištění bezpečnosti, kvality a regulačního souladu. Fungují jako „svodidla" — neblokují AI, ale udržují ji v bezpečných hranicích.

Typy guardrails

Vstupní guardrails — filtrování a validace dotazů před odesláním modelu (blokování prompt injection, odstraňování PII). Výstupní guardrails — ověřování odpovědí modelu před doručením uživatelům (validace formátu, kontrola halucinací, obsahové filtry). Procesní guardrails — omezení oprávnění, tokenové rozpočty, eskalace k lidem při nízké spolehlivosti.

Podnikové požadavky

V podnikovém prostředí guardrails musí zahrnovat: validaci souladu s politikami, ochranu důvěrných informací, auditovatelnost (každé rozhodnutí guardrail musí být zalogováno), konfigurovatelnost podle oddělení/role a integraci se stávajícími bezpečnostními systémy (SIEM, DLP).

Související služby a produkty