AI Act — Uma Nova Realidade Regulatória
A União Europeia tornou-se a primeira jurisdição do mundo a criar regulamentações abrangentes que regem a IA. O AI Act entrou em vigor em agosto de 2024 e está a ser aplicado em fases. Cada empresa que implementa sistemas de IA nas suas operações dentro da UE deve familiarizar-se com estas regras.
Classificação de Risco dos Sistemas de IA
- Risco inaceitável (proibido) — sistemas que manipulam o comportamento humano, pontuação social por autoridades, vigilância biométrica em tempo real.
- Alto risco — IA usada em recrutamento, pontuação de crédito, cuidados de saúde, educação, administração da justiça.
- Risco limitado — chatbots, deepfakes, sistemas de geração de conteúdo. Obrigação de transparência.
- Risco mínimo — a maioria das aplicações empresariais de IA.
Quem é Fornecedor e Quem é Utilizador de um Sistema de IA?
O AI Act distingue dois papéis chave. Um fornecedor é a entidade que cria e coloca um sistema de IA no mercado. Um utilizador é a entidade que usa um sistema de IA nas suas operações empresariais.
Obrigações dos Utilizadores para Sistemas de Alto Risco
Se a sua empresa usa um sistema de IA de alto risco, deve garantir supervisão humana, manter registos operacionais, realizar uma Avaliação de Impacto nos Direitos Fundamentais e reportar incidentes graves à autoridade supervisora competente.
Penalidades e Prazos
As penalidades por violar o AI Act são severas: até 35 milhões de EUR ou 7% do volume de negócios anual global por violações envolvendo sistemas proibidos.