Kaj je zastrupljanje modela?
Zastrupljanje modela je napad, ki cilja sam model UI — z vbrizgavanjem zlonamernih posodobitev v federativno učenje, manipulacijo procesa finega nastavljanja ali ogrožanjem modelov iz odprtokodnih repozitorijev.
Vektorji napadov
Federativno učenje: zlonamerni udeleženec pošlje zastrupljene posodobitve gradienta. Ogrožanje modela: zlonamerni akterji objavljajo zastrupljene modele. Napad na dobavno verigo: ogrožanje odvisnosti pri finemnastavlanju.
Obrambe in ublažitve
Strategije obrambe vključujejo: Byzantinsko tolerantno agregacijo, preverjanje proveniacije modela, testiranje vedenja modela ob vsaki posodobitvi.