Nazaj na slovar Varnost

Zastrupljanje modela

Napad na model UI z vbrizgavanjem zlonamernih posodobitev — posebej relevantno pri federativnem učenju in modelih v skupni rabi.

Kaj je zastrupljanje modela?

Zastrupljanje modela je napad, ki cilja sam model UI — z vbrizgavanjem zlonamernih posodobitev v federativno učenje, manipulacijo procesa finega nastavljanja ali ogrožanjem modelov iz odprtokodnih repozitorijev.

Vektorji napadov

Federativno učenje: zlonamerni udeleženec pošlje zastrupljene posodobitve gradienta. Ogrožanje modela: zlonamerni akterji objavljajo zastrupljene modele. Napad na dobavno verigo: ogrožanje odvisnosti pri finemnastavlanju.

Obrambe in ublažitve

Strategije obrambe vključujejo: Byzantinsko tolerantno agregacijo, preverjanje proveniacije modela, testiranje vedenja modela ob vsaki posodobitvi.

Povezane storitve in izdelki