Systemy AI jako cele o wysokiej wartości
Platformy enterprise AI przetwarzają emaile, dane finansowe, umowy i dane osobowe. Łączą się z dziesiątkami zewnętrznych usług i wykonują zautomatyzowane akcje. To czyni je atrakcyjną powierzchnią ataku — skompromitowany agent AI z dostępem do CRM, poczty i systemów finansowych może wyrządzić większe szkody niż tradycyjne naruszenie danych. Mimo to wiele wdrożeń AI traktuje bezpieczeństwo jako element dodatkowy, doklejany po zbudowaniu głównego systemu.
W ESKOM.AI bezpieczeństwo jest wbudowane w architekturę naszej platformy AI od pierwszego dnia. Każda warstwa — od dostępu sieciowego po uprawnienia poszczególnych agentów — stosuje zasadę obrony w głąb. Oto jak podchodzimy do każdej warstwy.
Sieć i infrastruktura
Wszystkie usługi naszej platformy komunikują się przez prywatną sieć VPN z szyfrowaniem end-to-end. Żadna usługa nie jest bezpośrednio wystawiona do publicznego internetu. Komunikacja między usługami odbywa się po prywatnych adresach IP (zakres 100.x.x.x), a dostęp zewnętrzny jest kontrolowany przez reverse proxy z białą listą adresów IP. Infrastruktura działa na dedykowanym sprzęcie — bez współdzielonych instancji chmurowych, gdzie „hałaśliwi sąsiedzi” mogliby umożliwić ataki kanałem bocznym.
Każdy plik przesyłany do systemu lub generowany przez system przechodzi przez skanowanie antywirusowe, zanim wejdzie do pipeline'u przetwarzania. Wyłapuje to załączniki z malware w emailach, zainfekowane dokumenty z zewnętrznych integracji i potencjalnie złośliwe ładunki w zapytaniach API. To podstawowe zabezpieczenie, ale takie, które wiele platform AI całkowicie pomija.
Ochrona danych i zgodność z RODO
Przetwarzanie danych osobowych przez modele AI tworzy ekspozycję na RODO. Naszym rozwiązaniem jest Anoxy — dedykowany serwis anonimizacji PII, który przechwytuje dane, zanim trafią do jakiegokolwiek LLM. Anoxy wykrywa i maskuje identyfikatory osobowe (imiona, emaile, numery telefonów, numery PESEL, adresy) w czasie rzeczywistym, zastępując je odwracalnymi tokenami. LLM przetwarza zanonimizowane dane, a oryginalne wartości są przywracane dopiero w końcowym wyniku, widocznym tylko dla uprawnionych użytkowników.
- Automatyczne wykrywanie PII w ponad 15 typach encji
- Odwracalna tokenizacja — anonimizacja do przetwarzania, deanonimizacja do wyświetlenia
- Logowanie audytowe — każde zdarzenie anonimizacji jest rejestrowane ze znacznikiem czasu, typem encji i agentem zlecającym
- Konfigurowalny poziom wrażliwości — różne poziomy anonimizacji per agent i per kategoria danych
Bezpieczeństwo aplikacji i audyt
Nasza platforma stosuje wytyczne OWASP Top 10 v3 we wszystkich endpointach API. Obejmuje to walidację danych wejściowych, kodowanie wyjścia, uwierzytelnianie przez enterprise SSO z bezpieczną autoryzacją, kontrolę dostępu opartą na rolach (RBAC) i ograniczanie liczby zapytań. Każdy z agentów działa zgodnie z zasadą najmniejszych uprawnień — agent HR nie ma dostępu do danych finansowych, a agent DevOps nie może czytać emaili zarządu.
Każda akcja w systemie generuje niezmienną ścieżkę audytu: który agent wykonał akcję, do jakich danych uzyskano dostęp, który LLM został użyty i jaki wynik został wygenerowany. To nie tylko dla zgodności — jest to niezbędne do debugowania, zapewniania jakości i rozliczalności. Gdy agent podejmuje decyzję, można prześledzić cały łańcuch rozumowania wstecz do oryginalnego wejścia. Dla przedsiębiorstw oceniających platformy AI nasza rekomendacja jest prosta: jeśli dostawca nie potrafi szczegółowo wyjaśnić swojego modelu bezpieczeństwa, prawdopodobnie go nie ma.