Nieuws

Publicatie: 10 februari 2025

Door:


Efficiënter en effectiever te werk gaan, dat is de belofte van artificiële intelligentie (AI). AI kan processen versnellen en dienstverlening ondersteunen, mogelijk zelfs verbeteren. Toch heeft AI ook een keerzijde. Wat gebeurt er als AI op grote schaal biometrische gegevens verwerkt? Of veelvuldig misinformatie genereert en verspreidt? Dit kan enorme negatieve gevolgen hebben voor mensen en de samenleving.

Toch zou het ook betreurenswaardig zijn om de mogelijkheden die AI biedt niet te benutten. Met de AI-verordening probeert de Europese Unie (EU) een balans te vinden tussen deze risico’s en kansen. Per 2 februari 2025 is een belangrijk deel van de wet in werking getreden, waarmee geprobeerd wordt de grootse risico’s te mijden door bepaalde praktijken te verbieden. Dit artikel bespreekt welke toepassingen van AI niet meer toegestaan zijn in de EU.

Verboden praktijken

Van alle stappen die de AI-verordening zet, is het verbieden van bepaalde toepassingen van AI de meest indringende. Het gaat om het gebruik van AI-systemen die vergaande schade kunnen aanrichten. Deze systemen mogen dus absoluut niet in handel gebracht worden of ingezet worden.

Dat AI een dreiging kan vormen voor samenlevingen is overduidelijk. In het rapport Artificial Intelligence and Democracy van de European Parliamentary Technology Assessment Network (EPTA) (zie pagina’s 91 tot en met 97) uit 2024 wordt opgemerkt hoe generatieve AI een bedreiging kan zijn voor grootschalige desinformatie, maar ook dat AI suggesties kan geven voor politieke partijen die niet in lijn zijn met de rechtsstaat. Een voorzichtige uitrol met het oog op het bewaken van de democratie is daarom wenselijk. De AI-verordening zet hierop in.

Artikel 5 van de AI-Verordening verbiedt de volgende toepassingen:

  • AI die mensen manipuleert, met als doel één of meerdere personen op zo’n grote schaal te misleiden dat hun doen-vermogen om een geïnformeerd besluit te nemen wordt aangetast en/of dat deze persoon of groep (waarschijnlijk) schade oploopt.
  • AI die gebruik maakt van de kwetsbaarheden van een natuurlijk persoon of een specifieke groep met als doel deze persoon of personen zo te verstoren dat zij (waarschijnlijk) schade oplopen. Deze zwakheden worden gedefinieerd door leeftijd, een handicap of een specifieke sociale of economische achterstand.
  • AI die mensen evalueert of classificeert op basis van sociaal gedrag of voorspelde persoonlijke kenmerken, waarbij dit wordt gebruikt om deze personen onevenredig of onrechtvaardig te behandelen, is een onrechtvaardig gebruik van social scoring.
  • AI die risicobeoordelingen maakt van personen om te bepalen in hoeverre een persoon een risico is om een strafbaar feit te plegen. Dit mag wel gebruikt worden ter ondersteuning van menselijke beoordeling om achteraf te bepalen of iemand mogelijk betrokken was bij een criminele activiteit. Deze AI-toepassing is echter niet toegestaan voordat er daadwerkelijk een strafbaar feit is gepleegd.
  • AI die databanken voor gezichtsherkenning maakt of aanvult door middel van ongerichte scraping van het internet of CCTV-beelden.
  • AI die emoties van natuurlijke personen op de werkplek of in het onderwijs monitort.
  • AI die personen categoriseert op basis van biometrische gegevens om ras, politieke
    opvattingen, vakbondslidmaatschap, religieuze of levensbeschouwelijke overtuigingen, seksleven of seksuele gerichtheid af te leiden.
  • AI die real-time op afstand mensen biometrisch identificeert met het oog op rechtshandhaving. Dit mag wel als er gezocht wordt op een specifiek slachtoffer van ontvoering, mensenhandel of seksuele uitbuiting, al dan wel een vermiste persoon. Ook bij het voorkomen van een specifieke, aanzienlijke en imminente dreiging, zoals bij een terroristische aanslag, kan deze AI-toepassing gebruikt worden.

Wat deze verboden toepassingen kenmerkt is het hoge risico op schade en negatieve impact die zij kunnen hebben op de veiligheid of rechten van mensen. Noemenswaardig is de uitzonderingsgrond voor de toepassing van real-time AI die mensen biometrisch identificeert. Dit komt (waarschijnlijk) doordat het voordeel voor de openbare orde zwaarder weegt dan de mogelijke schade door AI.

Eerder publiceerde KED een artikel over hoe risico werkt binnen de AI-verordening. Dit toonde aan dat AI altijd risico’s met zich meebrengt, maar dat deze groter worden bij bepaalde data en meer zelfstandigheid. De ernst van de schade wordt hoofdzakelijk bepaald door de mogelijke negatieve impact die de technologie kan hebben op de veiligheid, gezondheid en/of rechten van mensen.

Toekomstige ontwikkelingen

Met het van toepassing worden van Hoofdstukken I en II zet de AI-Verordening de eerste grote stappen, maar zeker niet de laatste. Op 2 augustus van dit jaar zullen hoofdstuk III, afdeling 4, hoofdstuk V, hoofdstuk VII, hoofdstuk XIII behalve 101, en artikel 78 van toepassing worden. Dit betekent onder andere dat lidstaten voor die datum toezichthouders op de AI-verordening moeten aanwijzen en dat er regels rondom AI-toepassingen met een hoog risico gelden. Voor meer informatie kunt u kijken op onze Tijdlijn.

Het komende halfjaar krijgt de AI-verordening daardoor een steeds duidelijkere impact op en binnen de EU. Het doel is een bewustzijnsstandaard neer te leggen voor het veilig gebruik van AI. Alle mensen die bewust of onbewust met AI-systemen in aanraking komen, moeten controle houden over hun gegevens en de manier waarop AI toegepast wordt in hun leven. Dit vereist daarom ook dat aanbieders van AI-systemen hun aan de Verordening moeten houden. Aangezien een paar van de belangrijkste leveranciers van AI van buiten de EU komen, zal dit nog weer specifieke uitdagingen opleveren.

Decentrale relevantie

Veel decentrale overheden maken zelf gebruik van AI of hebben deze ambitie. Denk aan een chatbot op gemeentelijk websites om vragen van inwoners te beantwoorden. Het is voor hen belangrijk om in acht te nemen dat per 2 februari 2025 de bepalingen over de verboden praktijken van kracht zijn. Decentrale overheden moeten zich bewust zijn van de risico’s van AI zodat zij niet alsnog – bewust of onbewust – verboden toepassingen inzetten.  

Daarnaast worden er in de toekomst nieuwe stappen gezet met de AI-verordening, waar decentrale overheden stapsgewijs naar toe moetenwerken. Vroegtijdig rekening houden met de eisen die de AI-verordening stelt aan de inzet van bepaalde systemen voorkomt onnodige administratie.