Wróć do słownika Bezpieczeństwo

Bezpieczeństwo łańcucha dostaw AI

Zarządzanie ryzykiem w łańcuchu dostaw systemów AI — od modeli pretrenowanych po biblioteki i dane treningowe.

Łańcuch dostaw w AI

Łańcuch dostaw systemu AI obejmuje wszystkie zewnętrzne komponenty: pretrenowane modele (z Hugging Face, OpenAI, Anthropic), biblioteki ML (PyTorch, TensorFlow), datasety treningowe, pipeline'y przetwarzania danych, infrastrukturę chmurową i narzędzia MLOps. Każdy z tych elementów stanowi potencjalny wektor ataku — kompromitacja jednego ogniwa może zagrozić całemu systemowi.

Zagrożenia i wektory ataku

Najpoważniejsze zagrożenia obejmują: zatrute modele pretrenowane (model poisoning via publiczne repozytoria), złośliwe zależności w bibliotekach Python (typosquatting, dependency confusion), manipulację publicznych datasetów, podatności w frameworkach ML oraz ataki na infrastrukturę treningową. Incydent w jednej popularnej bibliotece może dotknąć tysiące organizacji jednocześnie — efekt kaskadowy jest znaczący.

Strategie zabezpieczenia

Organizacje powinny wdrożyć: weryfikację integralności modeli i bibliotek (checksums, podpisy cyfrowe), skanowanie zależności pod kątem podatności (SCA), audyt provenance modeli pretrenowanych, izolację środowisk treningowych, kontrolę dostępu do pipeline'u ML oraz polityki dopuszczania zewnętrznych komponentów. AI Act wprowadza wymogi dokumentowania łańcucha dostaw dla systemów wysokiego ryzyka — organizacje muszą znać i weryfikować każdy element swojego stosu AI.

Powiązane usługi i produkty