Terug naar woordenlijst Beveiliging

AI Guardrails

Beschermingsmechanismen die het gedrag van AI-modellen beperken — inhoudsfilters, uitvoervalidatie, bevoegdheidslimieten en beveiligingscontroles.

Wat zijn AI Guardrails?

AI guardrails zijn controlemechanismen die het gedrag van AI-modellen beperken om veiligheid, kwaliteit en naleving van regelgeving te waarborgen. Ze fungeren als "vangrails" — ze blokkeren AI niet, maar houden het binnen veilige grenzen.

Soorten guardrails

Invoer-guardrails — filteren en valideren van queries voordat ze naar het model worden gestuurd (prompt injection blokkeren, PII verwijderen). Uitvoer-guardrails — verifiëren van modelantwoorden voordat ze aan gebruikers worden geleverd (formaatvalidatie, hallucinatiecontrole, inhoudsfilters). Proces-guardrails — bevoegdheidslimieten, tokenbudgetten, menselijke escalatie bij lage betrouwbaarheid.

Enterprise-vereisten

In bedrijfsomgevingen moeten guardrails bevatten: beleidsnaleving, bescherming van vertrouwelijke informatie, controleerbaarheid (elke guardrailbeslissing moet worden gelogd), configureerbaarheid per afdeling/rol, en integratie met bestaande beveiligingssystemen (SIEM, DLP).

Gerelateerde diensten en producten