Lura lejn il-glossarju Sigurtà

Data Poisoning

Attakki ta' data poisoning jikkorrompu datasets tat-taħriġ tal-AI biex jimmanipulaw l-imġiba tal-mudelli, u jintroduċu preġudizzji jew backdoors li jippersistu wara t-taħriġ.

Fehim tad-Data Poisoning

Data poisoning hija teknika ta' attakk fejn avversarji deliberatament jintroduċu kampjuni korrotti, ittikkettjati ħażin, jew malizzjużi fid-dataset tat-taħriġ ta' sistema tal-AI. Peress li mudelli ta' machine learning jitgħallmu direttament mid-data tat-taħriġ tagħhom, data avvelenata tista' tikkawża li l-mudelli jitgħallmu xejriet żbaljati, jiżviluppaw preġudizzji, jew jinkludu backdoors moħbija li l-attakkanti jistgħu jesplojtaw aktar tard.

Tipi ta' Attakki

Attakki ta' disponibbiltà jimmiraw li jiddegradaw il-prestazzjoni ġenerali tal-mudell billi jintroduċu ħafna kampjuni bi hsara. Attakki mirati jimmanipulaw l-imġiba fuq inputs speċifiċi filwaqt li l-prestazzjoni ġenerali tibqa' normali — u jagħmluhom diffiċli biex jiġu identifikati. Attakki ta' backdoor jimplantaw triggers moħbija li jikkawżaw klassifikazzjoni ħażina biss meta trigger speċifiku jkun preżenti fl-input. Kull tip jippreżenta livell differenti ta' sofistikazzjoni u diffikultà ta' detezzjoni.

Difiża

L-istrateġiji ta' difiża jinkludu: validazzjoni tad-data (tindif u verifika ta' data tat-taħriġ għal anomaliji), provenienza tad-data (traċċa l-oriġini u l-katina ta' kustodja ta' kull sors ta' data), detezzjoni ta' outliers (identifika kampjuni li jiddevjaw sinifikantement minn xejriet mistennija), taħriġ robust (tekniki li jagħmlu mudelli aktar reżistenti għal data avvelenata), u monitoraġġ (osserva l-imġiba tal-mudelli għal sinjali ta' kompromiss). L-ebda difiża waħda mhija infallabbli — uża approċċ ta' difiża fil-fond b'saffi multipli ta' protezzjoni.

Servizzi u prodotti relatati