Nieuws

Publicatie: 2 december 2024

Door: en


Van slimme aanbevelingen op je streamingdienst tot geavanceerde medische diagnoses: artificiële intelligentie (AI) maakt ons leven makkelijker en sneller. Grote mogelijkheden gaan echter ook gepaard met grote risico’s, dus hoe bewaar je een goede balans tussen innovatie en ethiek? De EU heeft daar de Wet op Artificiële Intelligentie, ook bekend als de AI-Verordening, voor opgesteld. Deze baanbrekende regelgeving is op 1 augustus 2024 in werking getreden en zal de komende periode stapsgewijs van toepassing worden. De Verordening stelt duidelijke eisen aan AI-systemen binnen de EU om ze veiliger, transparanter en ethischer te maken. Recent is er een eerste ontwerp van de Praktijkcode Algemene Kunstmatige Intelligentie gepubliceerd en zijn er toezichthouders aangewezen om grondrechten te beschermen.  

Eerste versie AI-praktijkcode

De AI-Verordening introduceert praktijkcodes in artikel 50 en bepaalt het ontwerpproces in artikel 56. Onlangs heeft de Europese Commissie (hierna: de Commissie) een eerste ontwerp van de Praktijkcode Algemene Kunstmatige Intelligentie gepubliceerd. Deze code voorziet AI-aanbieders en -ontwikkelaars van richtlijnen en ‘goede praktijken’ om hun systemen veiliger te maken. De praktijkcode richt zich daarbij op AI-systemen die niet onder de categorie ‘hoog-risico’ vallen, maar toch impact hebben op gebruikers en de maatschappij: de zogenaamde AI-modellen voor algemene doeleinden (General Purpose Artificial Intelligence, GPAI). Denk hierbij aan chatbots, gepersonaliseerde aanbevelingssystemen en beeldherkenning in de detailhandel. De code gaat in op thema’s als transparantie, handhaving van auteursrechtgerelateerde regels en systeemrisico’s. Hoewel hij niet juridisch bindend is, sluit de code wel naadloos aan bij de AI-Verordening. Het is een instrument voor AI-aanbieders “om aan te tonen dat zij de AI-Verordening naleven” aldus de Commissie. 

Verschillende onderdelen van de AI-Verordening worden gefaseerd ingevoerd om AI-ontwikkelaars en aanbieders de gelegenheid te geven om hun systemen aan te passen op de nieuwe eisen. Het eerste ontwerp van de Praktijkcode is opgesteld onder leiding van het AI-bureau van de Commissie en is het resultaat van uitgebreide consultatie. Hierbij vormde het AI-bureau vier themawerkgroepen, voorgezeten door onafhankelijke experts, met in totaal bijna 1000 belanghebbenden, vertegenwoordigers van lidstaten en waarnemers. Tevens stelde de Commissie een algemene raadpleging open. Het eerste ontwerp van de code zal nu verder worden besproken door de werkgroepen in drie opeenvolgende ontwerprondes. Artikel 56, lid 9 van de AI-Verordening voorziet de verplichting dat de praktijkcode uiterlijk op 2 mei 2025 af zijn, voorafgaand aan de inwerkingtreding van de regelgeving over AI-modellen voor algemeen gebruik in augustus 2025.  

Toezichthouders voor grondrechten 

Naast de praktijkcode verplicht de AI-Verordening alle EU-lidstaten ook om toezichthouders, of zogenaamde grondrechtenautoriteiten, aan te wijzen (omschrijving in artikel 77). Deze instanties zien toe op de naleving van grondrechten bij het gebruik van AI-systemen met een hoog risico, zoals het recht op gelijke behandeling en privacy. Alle lidstaten moesten een openbare lijst opstellen en de Commissie hier uiterlijk 2 november 2024 over informeren. Deze lijst is een levend document en kan dus nog worden aangepast. In een brief aan de Tweede Kamer laat de regering weten dat de volgende autoriteiten voorlopig verantwoordelijk zullen worden voor de bescherming van grondrechten: het College voor de Rechten van de Mens voor grondrechten in brede zin en de Autoriteit Persoonsgegevens voor gegevensbeschermingsrecht. Daarnaast worden de procureur-generaal bij de Hoge Raad, de voorzitter van de Afdeling Bestuursrechtspraak bij de Raad van State, het gerechtsbestuur van de Centrale Raad van Beroep en het gerechtsbestuur van het College van Beroep voor het bedrijfsleven aangewezen als toezichthouders in het kader van gerechtelijke taken. 

De focus ligt in dit geval op AI-systemen die als ‘hoog-risico’ worden geclassificeerd. Hieronder vallen toepassingen zoals gezichtsherkenning, systemen voor risicobeoordeling (bijvoorbeeld bij kredietverlening), en AI die wordt ingezet in medische of juridische contexten. In augustus 2026 worden de bepalingen uit de AI-Verordening over hoog-risico AI van toepassing en gaat ook het toezicht hierop officieel van start. In de aanloop hiernaartoe wordt het grondrechtentoezicht op AI verder uitgewerkt. De toezichthouders krijgen onder meer het recht om documentatie over hoog-risico AI-systemen op te vragen en mogen ook een verzoek indienen bij de markttoezichthouder om AI-systemen met een hoog risico te laten testen. Naast het handhaven van eisen aan hoog-risico AI zullen toezichthouders ook zorgen dat transparantieverplichtingen en het verbod op bepaalde AI-vormen worden nageleefd. 

Gebruiksveilige AI

De praktijkcode en de aanwijzing van grondrechtenautoriteiten vullen elkaar aan. Waar de praktijkcode bedrijven ondersteunt in het verbeteren van hun AI-modellen voor algemene doeleinden conform de regelgeving, zorgt het toezicht op hoog-risico AI voor strenge handhaving. Beide instrumenten zijn essentieel voor gebruiksveilige AI waarbij (grond)rechten gerespecteerd worden. Naast deze twee reguleringsinstrumenten zal het AI-bureau van de Europese Commissie zelf ook op EU-niveau toezicht houden op grote AI-modellen die voor veel verschillende doelen gebruikt kunnen worden. 

Decentrale overheden maken steeds meer gebruik van AI-systemen bij het uitvoeren en ondersteunen van hun beleid. Wanneer een decentrale overheid als gebruiksverantwoordelijke een AI-systeem met een hoog risico inzet, moet zij volgens artikel 26 van de AI-Verordening voldoen aan een reeks verplichtingen, waaronder het waarborgen van menselijk toezicht, het melden van risico’s en incidenten bij de aanbieder en betreffende markttoezichtautoriteiten, en het beschermen van persoonsgegevens. Onder artikel 27 van de AI-Verordening zijn overheden als gebruiksverantwoordelijken verplicht om ook een grondrechtenbeoordeling uit te voeren bij het gebruik van een AI-systeem met een hoog risico.  

Gerelateerde KED-artikelen