Artificiële Intelligentie (AI) speelt een steeds belangrijkere rol in onze economie en samenleving. Om ervoor te zorgen dat de uitrol van AI op een verantwoorde manier gebeurt, reguleert de Europese Unie (EU) de regels rondom de veiligheid en toegankelijkheid van AI. Hiermee wil de EU de ingebruikneming van AI stimuleren en tegelijkertijd de normen en waarden van de Unie in acht nemen. Om dit doel te bereiken is de Artificiële Intelligentie Verordening (2024/1689) opgezet.
Definitie AI
Artikel 3, lid 1, omschrijft een ‘AI-systeem’ als “een op machine gebaseerd systeem dat is ontworpen om met verschillend niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan tonen, en dat, voor expliciete en impliciete doelstellingen, uit de ontvangen input afleidt hoe output te generen zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen”.
In essentie zitten in deze definitie drie herkenningspunten waardoor een AI-systeem te identificeren is. Dit zijn:
- een bepaald niveau van autonomie om te werken. Dit betekent dat het systeem beslissingen kan maken zonder menselijke tussenkomst;
- aanpassingsvermogen;
- en de mogelijkheid output te generen op basis van input.
Doel verordening
De AI Verordening heeft als doel om de risico’s van AI beter te adresseren dan voorgaande Europese regelgeving. De Verordening heeft een op risico gebaseerde aanpak; hoe meer risico de technologie met zich meebrengt, hoe strikter de regels die ervoor gelden. Hierbij wordt onderscheid gemaakt tussen vier AI-systemen:
- Onaanvaardbaar risico, gedefinieerd in artikel 5 als AI-toepassingen die een duidelijke bedreiging zijn voor de veiligheid, het levensonderhoud en de rechten van mensen.
- Hoog risico, betreft AI-systemen die vergaande schade kunnen aanrichten aan de veiligheid, gezondheid en rechten van mensen, maar met een toepassing die zo dusdanig nuttig kan zijn, dat dit ingezet wordt op het zorgvuldig inzetten van deze toepassing.
- Middelgroot risico, waarbij het mogelijk onduidelijk is of een gebruiker gebruik maakt van AI of een interactie heeft met een product dat het gevolg is van AI.
- Minimaal risico, waaronder de toepassingen van AI vallen die zo dusdanig weinig schade aan kunnen richten dat zij weinig tot geen impact hebben bij eventuele fouten.
Aansluitend op de risico zitten verplichtingen op de inzet van AI. De onaanvaardbare risico’s zijn ronduit verboden om ingezet te worden. Voor de hoge risico’s moeten strenge eisen rondom cyberveiligheid, toezicht en kwaliteitsbeheer, documentatie van processen, evaluaties en conformiteitsbeoordeling voldoen. Middelgroot risico’s worden gemitigeerd door transparantieverplichtingen die de inzet van AI duidelijk maken. De lage risico’s hebben als enige eis dat de software up-to-date gehouden wordt.
Elke lidstaat moet één of meerdere nationale bevoegde autoriteiten aanwijzen die verantwoordelijk is voor het toezicht op de Verordening in algemene zin. Daarnaast moeten er ook toezichthouders komen, afhankelijk van de sector waar een AI-systeem in gebruik wordt genomen.
Decentrale relevantie
AI zal in de toekomst een grote rol in de economie en samenleving spelen: zowel positief, bijvoorbeeld hoe AI kan ondersteunen in watermanagement, als negatief, namelijk het feit dat er al spraakopnames of beelden genereerd kunnen worden die nooit echt hebben plaatsgevonden.
De inzet van AI kan decentrale overheden helpen bij het vinden van oplossingen voor veel economische een maatschappelijke problemen. Deze problemen variëren van problemen binnen de gezondheidssector tot aan de landbouwsector en de beveiligingsindustrie. Zo kunnen steden AI gebruiken bij onder andere infrastructuur, afvalverwerking en toezicht en liggen er voor de waterschapsector kansen in een efficiëntere afvalwaterketen.
Wat de AI Verordening voor decentrale overheden precies betekent is op dit moment nog niet helemaal duidelijk. Decentrale overheden kunnen wel beginnen met anticiperen op hoe AI in uw gemeente of provincie een rol kan gaan spelen en hoe daarin gehandeld wordt.
Samenhang
Het onderhavige voorstel vormt een kernonderdeel van de EU-strategie voor een digitale eengemaakte markt. Het is in de eerste plaats bedoeld om de goede werking van de interne markt te waarborgen door geharmoniseerde regels vast te leggen, met name voor de ontwikkeling, het in de Unie in de handel brengen en het gebruik van producten en diensten die gebruikmaken van AI-technologieën of die als autonome AI-systemen worden aangeboden.
Stand van zaken
Op 14 juni 2023 heeft het Europees Parlement zijn onderhandelingspositie over AI Verordening vastgesteld. Op 9 december 2023 hebben de Raad van de EU en het Europese Parlement een voorlopig politiek akkoord bereikt over de voorwaarden voor AI.
Op 2 augustus 2024 is de AI Verordening in werking getreden. Op 2 augustus 2026, oftewel twee jaar later, zal de Verordening van toepassing zijn. Enkele onderdelen zullen echter eerder of later van toepassing worden.
Hoofdstukken I en II zullen echter zes maanden na de inwerkingtreding van toepassing zijn. Per 2 februari 2025 zullen daarmee de algemene bepalingen, zoals definities, en verboden toepassingen van AI van kracht worden.
Op 2 augustus 2025 zullen aan de volgende set eisen voldaan moeten worden. Hoofdstuk III, sectie 4 over het aanmelden van verantwoordelijkheids- en toezichthoudende autoriteiten is hier één van. Het is al bekend dat de Autoriteit Persoonsgegevens deze rol gaat vervullen.
Naast deze specifieke sectie, zullen op 2 augustus 2025 ook hoofdstuk V over AI-modellen voor algemene doeleinden, hoofdstuk VII over de bestuurlijke aspecten van de AI Verordeningen en hoofdstuk XII (behalve artikel 101) over sancties bij het niet naleven van de Verordening van toepassing worden.
Als allerlaatst zal artikel 6, lid 1, over de AI-systemen met een hoog risico pas later in werking treden. Deze zal een jaar na de rest van Verordening in werking treden, op 2 augustus 2027.