Duomenų užnuodijimo supratimas
Duomenų užnuodijimas (Data Poisoning) yra puolimo technika, kai priešininkai tyčia įveda korumpuotus, klaidingai pažymėtus ar kenkėjiškus pavyzdžius į dirbtinio intelekto sistemos mokymo duomenų rinkinį. Kadangi mašininio mokymosi modeliai mokosi šablonų tiesiogiai iš duomenų, net nedidelis procentas užnuodytų pavyzdžių gali reikšmingai pakeisti modelio elgseną. Šie puolimai ypač pavojingi, nes jie vyksta prieš mokymą, todėl atsirandantys pažeidžiamumai yra būdingi modeliui ir sunkiai aptinkami standartinėmis vertinimo procedūromis.
Dažni puolimo šablonai
Etikečių apvertimo puolimai keičia mokymo pavyzdžių etiketes, sukeldami sisteminį klaidingą klasifikavimą. Švaraus etiketės puolimai įterpia teisingai pažymėtus, bet priešiškai sukurtus pavyzdžius, kurie perkelia sprendimų ribas. Prieinamumo puolimai pablogina bendrą modelio veikimą, įvesdami triukšmą. Tiksliniai puolimai sukelia konkrečius klaidingus klasifikavimus, kartu palaikydami bendrą tikslumą, todėl juos sunkiau aptikti. Iš žiniatinklio surinkti duomenų rinkiniai ir minios šaltinio anotacijos yra ypač pažeidžiami, nes puolėjai gali pateikti užnuodytus duomenis per legitimiai atrodančius kanalus.
Įmonės apsaugos priemonės
Gynyba nuo duomenų užnuodijimo reikalauja griežtos duomenų valdysenos per visą dirbtinio intelekto gyvavimo ciklą. Duomenų kilmės sekimas užtikrina, kad kiekvienas mokymo pavyzdys turėtų patikrintą šaltinį. Statistiniai išskirčių aptikimo ir duomenų rinkinių valymo metodai gali identifikuoti anomalius pavyzdžius prieš mokymą. Mokymas su atspariais nuostolių funkcijomis sumažina jautrumą korumpuotiems duomenų taškams. Kritiniams taikymams įmonės turėtų tvarkyti kuruotus, prieigos kontroliuojamus duomenų rinkinius su versijų kontrole, reguliariai atlikti duomenų auditus ir įdiegti anomalijų aptikimą gaunamuose duomenų srautuose, kad anksti pagautų užnuodijimo bandymus.