Vissza a szójegyzékhez Biztonság

Adatmérgezés (Data Poisoning)

AI-biztonsági fenyegetés, amelyben a támadók rosszindulatú adatokat injektálnak a tanítási készletbe, hogy manipulálják a modell viselkedését.

Az adatmérgezés megértése

Az adatmérgezés az AI biztonsági fenyegetések egyik formája, amelyben a támadók gondosan tervezett példákat szúrnak be a betanítási adatokba, hogy eltorzítsák a modell tanuló folyamatát. Szemben az inferenciaidejű adversarial támadásokkal, amelyek betanított modelleket céloznak meg, az adatmérgezés az adatgyűjtési és -előfeldolgozási fázisban kísérli meg veszélyeztetni a modellt.

Mérgezési támadások típusai

A hibás mérgezés hibás szándékos zavaró adatokat szúr be az általános tanulás ártására. A hátsó ajtó (backdoor) mérgezés rejtett triggereket ültet be, amelyek a modell normálisan viselkedik, kivéve ha valami specifikus van jelen. A célzott mérgezés a modell predikciójának megváltoztatását célozza meg adott bemenetek vonatkozásában.

Védelmi intézkedések

Az adatforrások validálása és az eredet-lánc ellenőrzése csökkenti a kompromittált adatbeszerzés kockázatát. Az anomáliadetekció azonosíthatja a statisztikailag rendhagyó tanítási példákat, amelyek mérgezett adatokat jelezhetnek. A robusztos tanítási technikák, amelyek ellenállnak a kilógó értékeknek, mérsékelhetik az adatmérgezés hatását.

Kapcsolódó szolgáltatások és termékek