AI Act — Een Nieuwe Regelgevingsrealiteit
De Europese Unie werd de eerste jurisdictie ter wereld die uitgebreide regelgeving voor kunstmatige intelligentie creëerde. De AI Act trad in werking in augustus 2024 en wordt gefaseerd toegepast — de eerste verplichtingen zijn al afdwingbaar, met aanvullende vereisten die worden ingevoerd tot 2025–2027. Elke onderneming die AI-systemen inzet in haar activiteiten binnen de EU moet vertrouwd raken met deze regels.
De AI Act verbiedt kunstmatige intelligentie niet — het reguleert het op basis van een risicogebaseerde aanpak. Hoe hoger het risico, hoe strenger de vereisten. De meeste zakelijke toepassingen van AI vallen in de lage of beperkte risicocategorieën, wat relatief lichte verplichtingen betekent. Maar er zijn gebieden waar de vereisten aanzienlijk zijn.
Verboden AI-praktijken
De AI Act verbiedt bepaalde toepassingen van AI volledig, ongeacht het risiconiveau: biometrische massa-identificatie in openbare ruimten (met beperkte uitzonderingen voor rechtshandhaving), sociale scoresystemen door overheden, manipulatieve AI die subliminale technieken gebruikt om gedrag te beïnvloeden, en kwetsbaarheden uitbuitende AI gericht op specifieke groepen (kinderen, mensen met een beperking).
Hoog-risico AI-systemen: Zware Verplichtingen
Hoog-risico AI-systemen in sectoren zoals werkgelegenheid, onderwijs, essentiële diensten, wetshandhaving en kritieke infrastructuur zijn onderworpen aan strikte vereisten: verplicht conformiteitsbeoordelingsprocedures, technische documentatie, post-marktmonitoring, transparantie tegenover gebruikers, en menselijke toezichtmechanismen.
Specifieke voorbeelden van hoog-risico AI: AI voor rekrutering en personeelsbeoordeling — een van de meest directe gevolgen voor HR-afdelingen, kredietscoringssystemen, biometrische identificatiesystemen, en AI die kritieke infrastructuur beheert.
Verplichtingen voor Gebruikers (Deployers)
Zelfs als u geen AI bouwt maar het inzet vanuit een leverancier, heeft u verplichtingen. Deployers van hoog-risico AI-systemen moeten: een register bijhouden van gebruikte AI-systemen, menselijk toezicht implementeren, fundamentele rechten waarborgen, en bij significante risico's een fundamentele rechten effectbeoordeling uitvoeren.
Praktische Voorbereiding: Stap voor Stap
ESKOM.AI begeleidt organisaties door AI Act-voorbereiding in vijf stappen: AI-inventarisatie — catalogiseer alle AI-systemen in gebruik; risicoklassificatie — bepaal of systemen verboden, hoog-risico, beperkt of minimaal risico zijn; hiaatwetenschappelijk — vergelijk huidige documentatie met AI Act-vereisten; nalevingsplan — prioriteer acties op basis van risico en deadline; continue monitoring — AI Act-naleving is geen eenmalig project maar een doorlopend proces. De sancties voor niet-naleving zijn aanzienlijk — tot EUR 30 miljoen of 6% van de jaarlijkse mondiale omzet voor de ernstigste overtredingen.