Voltar ao glossário Segurança

Ataques Adversariais à IA

Os ataques adversariais exploram vulnerabilidades em modelos de IA criando inputs concebidos para causar classificação incorreta ou comportamento inesperado.

O que São Ataques Adversariais?

Os ataques adversariais são técnicas que exploram vulnerabilidades fundamentais em modelos de machine learning, criando inputs cuidadosamente elaborados que enganam sistemas de IA para produzir outputs incorretos. Ao contrário dos ciberataques tradicionais que visam infraestrutura ou código, os ataques adversariais visam a lógica estatística aprendida dos próprios modelos de IA. Perturbações minúsculas que são imperceptíveis para os humanos podem causar falhas dramáticas de classificação.

Tipos de Ataques

Os ataques de caixa branca têm acesso completo à arquitetura e parâmetros do modelo, permitindo ataques de gradiente altamente eficazes. Os ataques de caixa negra funcionam apenas com acesso de consulta, tornando-os mais práticos para sistemas do mundo real. Os ataques físicos aplicam perturbações ao mundo físico — como padrões especiais que enganam câmaras de vigilância ou sistemas de reconhecimento facial. Os ataques de patch adversarial criam stickers ou sobreposições impressas que manipulam reconhecimento de imagem quando colocados no mundo real.

Defesas Empresariais

A robustez adversarial requer múltiplas camadas de defesa: treino adversarial, que expõe modelos a exemplos adversariais durante o treino; defesas baseadas em deteção que identificam inputs suspeitos; técnicas de randomização que tornam os ataques de gradiente ineficazes; e monitorização de produção que deteta padrões de ataque. Para sistemas de segurança críticos, realize avaliações de robustez adversarial antes da implantação e continue a testar à medida que surgem novas técnicas de ataque.

Serviços e produtos relacionados