Înapoi la glosar Securitate

AI Guardrails

Mecanisme de protecție care limitează comportamentul modelelor AI — filtre de conținut, validarea ieșirilor, limite de permisiuni și controale de securitate.

Ce sunt AI Guardrails?

AI guardrails sunt mecanisme de control care restricționează comportamentul modelului AI pentru a asigura siguranța, calitatea și conformitatea regulatorie. Funcționează ca „parapete" — nu blochează AI-ul, ci îl mențin în limite sigure.

Tipuri de guardrails

Guardrails de intrare — filtrarea și validarea interogărilor înainte de trimiterea la model (blocarea prompt injection, eliminarea PII). Guardrails de ieșire — verificarea răspunsurilor modelului înainte de livrarea către utilizatori (validare format, verificare halucinații, filtre de conținut). Guardrails de proces — limite de permisiuni, bugete de tokeni, escaladare umană la încredere scăzută.

Cerințe enterprise

În mediile corporative, guardrails trebuie să includă: validarea conformității cu politicile, protecția informațiilor confidențiale, auditabilitate (fiecare decizie guardrails trebuie înregistrată), configurabilitate per departament/rol și integrare cu sistemele de securitate existente (SIEM, DLP).