O Sistema de Classificação de Risco
O AI Act da UE utiliza uma abordagem baseada no risco para regulação, classificando os sistemas de IA com base no potencial de dano. Em vez de regular todas as aplicações de IA uniformemente, o regulamento focaliza os requisitos mais rigorosos onde os riscos são maiores, deixando aplicações de baixo risco amplamente não regulamentadas.
Quatro Categorias de Risco
O risco inaceitável abrange sistemas que representam ameaças claras aos direitos fundamentais — estes são proibidos, incluindo sistemas de pontuação social, monitorização em massa e identificação biométrica em tempo real em espaços públicos (com exceções de segurança). O alto risco inclui sistemas usados em áreas críticas como infraestrutura, educação, emprego, serviços essenciais, saúde e aplicação da lei — estes exigem documentação técnica rigorosa, avaliações de conformidade e supervisão humana. O risco limitado inclui sistemas com obrigações de transparência específicas, como chatbots que devem divulgar a sua natureza de IA. O risco mínimo cobre a maioria das aplicações de IA (filtragem de spam, recomendações, etc.) sem requisitos regulatórios especiais.
Implicações para as Empresas
As organizações devem auditar os seus sistemas de IA para determinar a categoria de risco adequada e implementar os requisitos relevantes antes dos prazos de aplicação. A classificação incorreta de um sistema de alto risco como de risco limitado é um risco de conformidade significativo, com potencial de multas de até 7% do volume de negócios global.