Wróć do słownika Bezpieczeństwo

Ataki adwersaryjne na AI

Celowe manipulowanie danymi wejściowymi systemu AI w celu wywoływania błędnych predykcji lub obejścia mechanizmów bezpieczeństwa.

Na czym polegają ataki adwersaryjne?

Ataki adwersaryjne (adversarial attacks) to techniki celowego manipulowania danymi wejściowymi modelu AI, aby wymusić nieprawidłowe działanie. Atakujący wprowadza subtelne, często niedostrzegalne dla człowieka perturbacje — np. zmianę kilku pikseli w obrazie — które powodują, że model klasyfikuje dane błędnie z wysoką pewnością. Ataki te ujawniają fundamentalną kruchość wielu architektur uczenia maszynowego.

Rodzaje ataków

Wyróżniamy ataki białoskrzynkowe (atakujący zna architekturę modelu) i czarnoskrzynkowe (brak wiedzy o modelu). Do najczęstszych technik należą: FGSM (Fast Gradient Sign Method), PGD (Projected Gradient Descent), ataki transferowe (exploit jednego modelu działa na innym) oraz ataki evasion (omijanie detekcji). W kontekście modeli językowych popularne są prompt injection i jailbreaking.

Ochrona systemów enterprise

Obrona przed atakami adwersaryjnymi wymaga wielowarstwowego podejścia: trening adwersaryjny (augmentacja danych o przykłady ataku), certyfikowana odporność (provable robustness), detekcja anomalii na wejściu, walidacja predykcji i monitoring behawioralny modelu. W środowisku produkcyjnym kluczowe jest ciągłe testowanie odporności modeli oraz wdrożenie procedur reagowania na incydenty związane z manipulacją AI.

Powiązane usługi i produkty