Voltar ao glossário Segurança

Guardrails de IA

Mecanismos de proteção que limitam o comportamento dos modelos de IA — filtros de conteúdo, validação de saídas, limites de permissões e controlos de segurança.

O que são guardrails de IA?

Os guardrails de IA são mecanismos de controlo que restringem o comportamento dos modelos de IA para garantir segurança, qualidade e conformidade regulamentar. Atuam como «barreiras de segurança» — não bloqueiam a IA, mas mantêm-na dentro de limites seguros.

Tipos de guardrails

Guardrails de entrada — filtragem e validação de consultas antes do envio ao modelo (bloqueio de prompt injection, remoção de PII). Guardrails de saída — verificação das respostas do modelo antes da entrega aos utilizadores (validação de formato, verificação de alucinações, filtros de conteúdo). Guardrails de processo — limites de permissões, orçamentos de tokens, escalação humana em caso de baixa confiança.

Requisitos empresariais

Em ambientes corporativos, os guardrails devem incluir: validação de conformidade com políticas, proteção de informação confidencial, auditabilidade (cada decisão de guardrail deve ser registada), configurabilidade por departamento/função e integração com sistemas de segurança existentes (SIEM, DLP).