AI Act — O nouă realitate reglementară
Uniunea Europeană a devenit prima jurisdicție din lume care a creat reglementări cuprinzătoare privind inteligența artificială. AI Act a intrat în vigoare în august 2024 și se aplică în faze — primele obligații sunt deja aplicabile, cu cerințe suplimentare introduse până în 2025–2027. Fiecare întreprindere care implementează sisteme AI în operațiunile sale din UE trebuie să se familiarizeze cu aceste reguli.
AI Act nu interzice inteligența artificială — o reglementează pe baza unei abordări bazate pe risc. Cu cât riscul potențial este mai mare, cu atât cerințele sunt mai stricte.
Clasificarea riscurilor
AI Act clasifică sistemele AI în patru categorii: Risc inacceptabil (interzis) — sisteme care manipulează comportamentul uman, credit social, identificare biometrică în timp real în spații publice. Risc ridicat — sisteme în domenii critice: infrastructura critică, educație, ocuparea forței de muncă, serviciile publice esențiale, aplicarea legii, imigrația, justiția. Acestea necesită înregistrare, documentare, testare și supraveghere umană. Risc limitat — cerințe de transparență (de exemplu, chatboții trebuie să se identifice ca AI). Risc minim — fără cerințe specifice.
Obligații practice pentru întreprinderi
Întreprinderile care implementează sisteme AI de risc ridicat trebuie să: efectueze evaluări ale conformității, mențină documentație tehnică detaliată, implementeze sisteme de logare pentru trasabilitate, asigure supraveghere umană semnificativă, înregistreze sistemul în baza de date UE și monitorizeze performanța post-market. Companiile care furnizează sisteme AI (nu doar le utilizează) au obligații suplimentare ca furnizori.