Hvad er AI Guardrails?
AI guardrails er kontrolmekanismer, der begrænser AI-modellers adfærd for at sikre sikkerhed, kvalitet og regulatorisk overholdelse. De fungerer som "sikkerhedsrækværk" — de blokerer ikke AI, men holder den inden for sikre grænser.
Typer af guardrails
Inputguardrails — filtrering og validering af forespørgsler, før de sendes til modellen (blokering af prompt injection, fjernelse af PII). Outputguardrails — verificering af modelsvar, før de leveres til brugere (formatvalidering, hallucinationstjek, indholdsfiltre). Procesguardrails — tilladelsesgrænser, tokenbudgetter, menneskelig eskalering ved lav tillid.
Virksomhedskrav
I virksomhedsmiljøer skal guardrails inkludere: politikoverholdelsesvalidering, beskyttelse af fortrolige oplysninger, reviderbarhed (hver guardrailbeslutning skal logges), konfigurerbarhed per afdeling/rolle og integration med eksisterende sikkerhedssystemer (SIEM, DLP).