Weer een roep om strenge regels voor AI: dit is waarom
Voor de tweede keer in korte tijd pleiten experts voor strengere regels voor kunstmatige intelligentie (AI). Waar zijn zij bang voor en wat speelt er op dit moment?
Wat is er aan de hand?
Een groep van 50 AI-experts en instellingen wil dat Europese politici met extra regels komen voor 'general purpose AI' of GPAI. Onder die vage term valt kunstmatige intelligentie die zonder specifiek doel is gemaakt en voor meerdere dingen gebruikt kan worden.
Denk bijvoorbeeld aan de immens populaire chatbot ChatGPT: een generatief model dat zelf teksten kan produceren, maar ook programmeercode kan controleren op fouten. Of Dalle-E en Midjourney, die op basis van woorden kunstwerken of fotorealistische plaatjes kunnen maken. Denk aan de foto’s waarop het lijkt alsof de paus ineens in een witte puffer jacket rondloopt.
Je hebt niet alle cookies geaccepteerd. Om deze content te bekijken moet je deaanpassen.
Waar waarschuwen ze voor?
Dat de experts juist nu aan de bel trekken, is niet zomaar. De Europese Unie werkt al twee jaar aan regels voor AI en is nu aan het nadenken en onderhandelen over hoe streng de regels moeten worden en wat voor AI-toepassingen onder de regelgeving vallen.
Maar deze critici zijn bang dat Brussel een te smalle definitie hanteert voor de regels die nu op papier worden gezet.
Kunstmatige intelligentie-modellen die zonder specifiek doel zijn ontworpen, moeten wat hen betreft onderdeel worden van de regels. Ze waarschuwen dat wat we nu zien, nog maar het topje van de ijsberg is.
'Wees transparant'
De bedrijven die aan de basis van de AI-modellen staan, moeten transparant zijn en verantwoordelijk worden gehouden voor de data die ze gebruiken en de ontwerpkeuzes die zij maken, aldus de experts. Ze pleiten voor regels rond de ontwikkeling van de modellen, hoe gegevens zijn verzameld, wie daaraan hebben meegewerkt en hoe de modellen zijn getraind.
Regelgeving waarbij je vooraf vaststelt of iets risicovol is of niet, volstaat niet. Want toepassingen die in een beginfase geen risico vormen, kunnen dat later alsnog wel doen.
Tweesnijdend zwaard
Dat ziet ook Cynthia Liem, universitair hoofddocent informatica aan de TU Delft. Daar werkt zij ook aan verantwoorde AI. Ze noemt gezichtsherkenningssystemen als voorbeeld.
"Zowel wetenschappers als bedrijven hebben aan technologie gewerkt om gezichten te herkennen. Hierbij werd gezichtsherkenning vaak als een onafhankelijke en algemene component gezien, die je in heel verschillende toepassingen zou kunnen gebruiken. Bijvoorbeeld om je telefoon automatisch te ontgrendelen, om familieleden terug te vinden in privé-foto’s, maar ook in politiesurveillancesystemen", zegt Liem.
"Maar dat zijn wel echt verschillende toepassingen. Gaandeweg zijn we daarbij toch kritischer gaan nadenken over of je dezelfde component zomaar in dat alles wilt inpluggen."
Foto's gebruikt voor surveillance
Dit gebeurde bijvoorbeeld rond fotowebsite Flickr. Miljoenen foto’s van mensen werden gedeeld door moederbedrijf Yahoo, om zo een grote, openbare dataset te creëren om kunstmatige intelligentie mee te trainen. Deze dataset werd vervolgens voor verschillende toepassingen gebruikt, waaronder surveillance.
"En veel mensen vonden het achteraf oncomfortabel dat de foto’s van hun kinderen voor politiedoeleinden konden worden gebruikt. Ze hadden die foto’s zelf publiek online gezet, maar beseften niet dat ze niet alleen door andere liefhebbers van fotografie gezien zouden worden", legt Liem uit.
Zo zullen er volgens de universitair hoofddocent meer AI-toepassingen zijn die eerst onschuldig of neutraal lijken, maar toch tot ongewenste toepassingen kunnen leiden.
'Wees transparant en benoem risico's'
Dat zelfde ziet Liem nu ook gebeuren met generatieve AI. In de eerste concepten van de Europese regelgeving was dit nog niet zo prominent in beeld, zegt ze. "Dat is snel veranderd, dankzij de hype rond ChatGPT, DALL-E en Midjourney. Maar dit is dus inderdaad slechts het topje van de ijsberg."
"Sowieso is het goed om meer transparantie te geven over herkomst van data, en expliciet ook mogelijke risico’s van je technologie te kunnen benoemen, zonder erop afgerekend te worden als je daar eerlijk over bent, of meer tijd neemt om ook aan schadebeperking te doen. De AI Act kan dit helpen afdwingen.”
Het is niet voor het eerst dat er kritische geluiden vanuit wetenschappers worden geuit. Vorige maand riep een groep critici op tot het opleggen van een pauze in de ontwikkeling van AI, onder wie ook Tesla-baas Elon Musk en Steve Wozniak, de mede-oprichter van Apple.
Zij zijn bang voor een ongecontroleerde wedloop, zonder dat er gekeken wordt naar de langetermijngevolgen. De pauze zou dan gebruikt kunnen worden om grenzen af te spreken.
Europese regels op komst
In de voorstellen wil Europa regels opleggen aan AI-toepassingen die in potentie meer risico vormen. Hoe hoger het risico, des te meer verplichtingen overheden en bedrijven opgelegd krijgen.
Systemen die een onacceptabel risico vormen voor de veiligheid of een bedreiging van mensenrechten worden zelfs verboden. Zoals gezichtsherkenning in bepaalde gevallen of in systemen die burgers een sociale score toekennen, waarin je plus- en minpunten krijgt op basis van je gedrag.
De regels gaan gelden voor iedereen die een dienst of product levert waarin AI zit.
Veel oppositie
GroenLinks-Europarlementariër Kim van Sparrentak wil graag dat de 'general purpose AI-modellen' ook worden aangemerkt als hoog risico, zodat die ook onder de strenge regels vallen. "Maar er is veel oppositie van de rechtse partijen. En de grote techbedrijven lobbyen volop. Microsoft, OpenAI: de hele rambam komt vaak langs."
Het Europees Parlement zit nu in de laatste fase van onderhandelingen over welke regels zij graag zouden willen opleggen. Als zij hun positie hebben bepaald, moeten zij daar nog over onderhandelen met de EU-lidstaten en de Europese Commissie. De bedoeling is dat er eind dit jaar een akkoord is over de regels. De Europese Commissie deed zijn eerste voorstel in 2021.