Europa krijgt de komende jaren strengere regels voor kunstmatige intelligentie
Europa krijgt strengere regels voor het gebruik van kunstmatige intelligentie. Het Europees Parlement is vandaag akkoord gegaan met regels die risicovolle AI-software aan banden moeten leggen. In de komende maanden worden de regels stapsgewijs van kracht.
In het algemeen geldt: hoe hoger het risico van een bepaalde AI-toepassing, hoe strenger de regels. Met de AI Act (AI-verordening in het Nederlands) wil Europa voorkomen dat mensen de dupe worden van overheden en bedrijven die werken met algoritmes en grote hoeveelheden data. In december was er al een voorlopig akkoord.
In Nederland gebeurde dat bijvoorbeeld met de toeslagenaffaire. Daarbij bleek de Belastingdienst mensen met een tweede nationaliteit scherper te controleren op fraude. Burgerscores van deze aard worden in in de AI-wet expliciet verboden.
De roep om strengere regels werd groter met de komst van AI-programma's die tekst en afbeeldingen kunnen maken, zoals ChatGPT en Midjourney. Dit soort software gebruikt allerlei bestaand materiaal om iets nieuws te maken.
Verboden en strenge regels
Andere AI-toepassingen zijn onder de AI Act ook niet langer toegestaan, zoals het massaal verzamelen van gezichtsfoto's van het internet om een gezichtendatabase aan te leggen. Een Amerikaans bedrijf bleek dit jarenlang te doen - waarna er onder meer in Nederland onderzoek van de privacytoezichthouder volgde.
Bedrijven en scholen mogen ook niet aan de slag met emotieherkenning: het automatisch aflezen van een gezicht - bijvoorbeeld in de context van de zogenaamde leugendetector. En de politie mag alleen onder hele strenge voorwaarden gezichtsherkenning op straat inzetten.
Alle aanbieders van AI-systemen die door Europa als een 'hoog risico' worden gezien, moeten transparant zijn over de werking van de software. Wie vragen of klachten heeft over AI-systemen, heeft het recht om van de overheid of het bedrijf informatie daarover te krijgen.
De eerste verboden worden nog dit jaar van kracht. Over twee jaar gelden vrijwel alle regels. De verplichtingen rond AI-toepassingen die als hoog risico worden gezien, hebben drie jaar de tijd.
Het gaat bijvoorbeeld om AI-toepassingen die worden gebruikt bij sollicitaties, in de gezondheidszorg en bepaalde systemen van de politie en grensbewaking.