Torna al glossario Sicurezza

Avvelenamento dei Dati

Attacchi che corrompono i dati di addestramento di un modello IA per farlo effettuare previsioni errate o manipolabili nel deployment.

Cos'è l'Avvelenamento dei Dati?

L'avvelenamento dei dati è un attacco all'integrità dei sistemi IA in cui gli attaccanti compromettono il processo di addestramento iniettando punti dati malevoli nel set di addestramento. A differenza degli attacchi di inferenza che colpiscono modelli finiti, gli attacchi di avvelenamento mirano al fondamento del modello — i dati da cui apprende. Il modello avvelenato risultante può comportarsi normalmente per la maggior parte degli input ma è compromesso per input speciali.

Tipi di Attacchi

Gli attacchi di backdoor embedding incorporano trigger nascosti nel modello — uno schema o prefisso specifico che, quando presente, produce un output predefinito. Gli attacchi di degradazione delle prestazioni riducono l'accuratezza complessiva del modello senza trigger specifici. Gli attacchi mirati influenzano le previsioni per classi o individui specifici.

Misure di Difesa

Per proteggersi dall'avvelenamento dei dati: validate le fonti di dati e implementate il tracking della provenienza. Usate metodi statistici per rilevare anomalie nel dataset di addestramento. Implementate procedure di addestramento robuste come le tecniche di differential privacy. Monitorate il comportamento del modello alla ricerca di pattern anomali che potrebbero indicare backdoor.

Servizi e prodotti correlati