Tilbage til ordlisten Sikkerhed

AI Guardrails

Beskyttelsesmekanismer, der begrænser AI-modellers adfærd — indholdsfiltre, outputvalidering, tilladelsesgrænser og sikkerhedskontroller.

Hvad er AI Guardrails?

AI guardrails er kontrolmekanismer, der begrænser AI-modellers adfærd for at sikre sikkerhed, kvalitet og regulatorisk overholdelse. De fungerer som "sikkerhedsrækværk" — de blokerer ikke AI, men holder den inden for sikre grænser.

Typer af guardrails

Inputguardrails — filtrering og validering af forespørgsler, før de sendes til modellen (blokering af prompt injection, fjernelse af PII). Outputguardrails — verificering af modelsvar, før de leveres til brugere (formatvalidering, hallucinationstjek, indholdsfiltre). Procesguardrails — tilladelsesgrænser, tokenbudgetter, menneskelig eskalering ved lav tillid.

Virksomhedskrav

I virksomhedsmiljøer skal guardrails inkludere: politikoverholdelsesvalidering, beskyttelse af fortrolige oplysninger, reviderbarhed (hver guardrailbeslutning skal logges), konfigurerbarhed per afdeling/rolle og integration med eksisterende sikkerhedssystemer (SIEM, DLP).

Relaterede tjenester og produkter