O Problema da Cadeia de Fornecimento de IA
Os sistemas de IA modernos raramente são construídos de raiz — aproveitam modelos pré-treinados, conjuntos de dados públicos, bibliotecas de código aberto e infraestrutura de cloud de terceiros. Cada componente de terceiros introduz riscos potenciais de segurança que as organizações podem não reconhecer completamente. Tal como as vulnerabilidades da cadeia de fornecimento de software podem comprometer produtos de outro modo seguros, as vulnerabilidades da cadeia de fornecimento de IA podem comprometer sistemas de IA inteiros.
Tipos de Riscos
Os riscos da cadeia de fornecimento de modelos incluem modelos envenenados distribídos através de repositórios de modelos (Hugging Face, outros), modelos fine-tuned sobre dados corrompidos, e modelos com backdoors inseridos nos pesos. Os riscos de conjuntos de dados incluem conjuntos de dados de treino públicos contendo conteúdo malicioso ou enviesado. Os riscos de dependências incluem bibliotecas Python de ML com código malicioso. Os riscos de infraestrutura incluem a comprometimento de plataformas de cloud ou pipelines CI/CD usados para treino e implantação.
Medidas de Mitigação
Trate artefatos de IA como código com os mesmos processos de segurança: verifique a integridade dos modelos com checksums criptográficos, audite conjuntos de dados de treino de terceiros antes de usar, mantenha um inventário dos modelos e bibliotecas de IA usados em produção, monitore os repositórios de modelos e conjuntos de dados por atualizações que podem introduzir problemas, use ambientes de execução isolados para inferência de modelos não confiáveis, e implemente revisão de código para mudanças em pipelines de treino de IA.