Torna al glossario Sicurezza

Guardrails IA

Meccanismi di protezione che limitano il comportamento dei modelli IA — filtri di contenuto, validazione degli output, limiti di autorizzazione e controlli di sicurezza.

Cosa sono i guardrails IA?

I guardrails IA sono meccanismi di controllo che vincolano il comportamento dei modelli IA per garantire sicurezza, qualità e conformità normativa. Agiscono come «guardrail» — non bloccano l'IA, ma la mantengono entro confini sicuri.

Tipi di guardrails

Guardrails di input — filtraggio e validazione delle query prima dell'invio al modello (blocco di prompt injection, rimozione PII). Guardrails di output — verifica delle risposte del modello prima della consegna agli utenti (validazione del formato, controllo delle allucinazioni, filtri di contenuto). Guardrails di processo — limiti di autorizzazione, budget di token, escalation umana in caso di bassa confidenza.

Requisiti aziendali

Negli ambienti aziendali, i guardrails devono includere: validazione della conformità alle policy, protezione delle informazioni riservate, auditabilità (ogni decisione di guardrail deve essere registrata), configurabilità per dipartimento/ruolo e integrazione con i sistemi di sicurezza esistenti (SIEM, DLP).