Que son os AI Guardrails?
Os AI guardrails son mecanismos de control que restrinxen o comportamento dos modelos de IA para garantir seguridade, calidade e cumprimento regulatorio. Actúan como «varandas de protección» — non bloquean a IA, senón que a manteñen dentro de límites seguros.
Tipos de guardrails
Guardrails de entrada — filtrado e validación de consultas antes de envialas ao modelo (bloqueo de prompt injection, eliminación de PII). Guardrails de saída — verificación de respostas do modelo antes de entregárllelas aos usuarios (validación de formato, comprobación de alucinacións, filtros de contido). Guardrails de proceso — límites de permisos, orzamentos de tokens, escalada humana en baixa confianza.
Requisitos empresariais
En contornos corporativos, os guardrails deben incluír: validación de cumprimento con políticas, protección de información confidencial, auditabilidade (cada decisión de guardrail debe ser rexistrada), configurabilidade por departamento/rol, e integración con sistemas de seguridade existentes (SIEM, DLP).