Tillbaka till ordlistan Säkerhet

AI Guardrails

Skyddsmekanismer som begränsar AI-modellers beteende — innehållsfilter, utdatavalidering, behörighetsbegränsningar och säkerhetskontroller.

Vad är AI Guardrails?

AI guardrails är kontrollmekanismer som begränsar AI-modellers beteende för att säkerställa säkerhet, kvalitet och regelefterlevnad. De fungerar som "skyddsräcken" — de blockerar inte AI, utan håller den inom säkra gränser.

Typer av guardrails

Indataguardrails — filtrering och validering av frågor innan de skickas till modellen (blockering av prompt injection, borttagning av PII). Utdataguardrails — verifiering av modellsvar innan leverans till användare (formatvalidering, hallucinationskontroll, innehållsfilter). Processguardrails — behörighetsbegränsningar, tokenbudgetar, mänsklig eskalering vid låg tillförlitlighet.

Företagskrav

I företagsmiljöer måste guardrails inkludera: policyefterlevnadsvalidering, skydd av konfidentiell information, granskningsbarhet (varje guardrailbeslut måste loggas), konfigurerbarhet per avdelning/roll och integration med befintliga säkerhetssystem (SIEM, DLP).