Tornar al glossari Seguretat

AI Guardrails

Mecanismes protectors que limiten el comportament dels models d'IA — filtres de contingut, validació de sortida, límits de permisos i controls de seguretat.

Què són els AI Guardrails?

Els AI guardrails són mecanismes de control que restringeixen el comportament dels models d'IA per garantir seguretat, qualitat i conformitat regulatòria. Actuen com a «baranes de protecció» — no bloquegen la IA, sinó que la mantenen dins de límits segurs.

Tipus de guardrails

Guardrails d'entrada — filtratge i validació de consultes abans d'enviar-les al model (bloqueig de prompt injection, eliminació de PII). Guardrails de sortida — verificació de respostes del model abans de lliurar-les als usuaris (validació de format, comprovació d'al·lucinacions, filtres de contingut). Guardrails de procés — límits de permisos, pressupostos de tokens, escalada humana en baixa confiança.

Requisits empresarials

En entorns corporatius, els guardrails han d'incloure: validació de conformitat amb polítiques, protecció d'informació confidencial, auditabilitat (cada decisió de guardrail ha de ser registrada), configurabilitat per departament/rol, i integració amb sistemes de seguretat existents (SIEM, DLP).