Namaak-Santorini

Wat doen sociale netwerken tegen de verspreiding van deepfakes?

Door RTL Z··Aangepast:
© ANPWat doen sociale netwerken tegen de verspreiding van deepfakes?
RTL

Namaakfoto’s van toeristische steden, nep-pornobeelden van Taylor Swift en fragmenten waarin politici dingen zeggen die ze normaal gesproken nooit zouden doen. Sociale netwerken staan er vol mee. Wat doen Facebook, X en TikTok eigenlijk tegen de verspreiding van zulke nepvideo’s, afbeeldingen en geluidsfragmenten. die worden gemaakt met hulp van AI?

1. Allereerst, is het eigenlijk verboden om deepfakes te maken, of door AI-bewerkte foto's?

Nee, dat is op zich niet verboden, zegt ICT-jurist Peter Kager van ICTRecht. "Je mag alles maken en vinden tot op zekere hoogte." 

Totdat je iets doet dat wettelijk al verboden is. "Een nepvideo schendt op zichzelf geen grondrechten, tenzij je een deepfakepornovideo gaat maken waar iemand anders in is gefabriceerd. Daar heeft iemand last van."

Het andere voorbeeld uit het recente nieuws: het Griekse dorpje Santorini dat volgebouwd zou zijn met allerhande glijbanen. Hartstikke nep, maar het werd wel door veel mensen bekeken. De maker van het plaatje bleek een architect uit Canada, die aan het experimenteren was. Maar vervolgens maakte iemand anders er een Facebookpost van die veel aandacht trok.

"Het maken van een afbeelding van een idyllisch niet-bestaand dorpje: daar berokken je geen schade mee. Maar als iemand zegt: je kunt er een reis naartoe boeken en dat doe je hier, dan ga je mensen actief misleiden. En dat mag niet", aldus Kager.

2. Wat doen grote social mediabedrijven al om dit tegen te gaan?

Bij TikTok mag je video’s plaatsen die met AI zijn gemaakt. Daar moet je dan wel eerlijk over zijn door het duidelijk kenbaar te maken. TikTok voegt een AI-label zelf ook toe als hun systemen iets herkennen dat helemaal of gedeeltelijk met AI is gemaakt. 

Maar er mogen geen deepfakes worden gemaakt van betrouwbare bronnen of crisissituaties. En er mogen geen deepfakes verspreid worden van anderen zonder toestemming. 

Grote techbedrijven beloven om 'verantwoord' met AI om te gaan
Lees ook

Grote techbedrijven beloven om 'verantwoord' met AI om te gaan

Bij Meta - de eigenaar van Facebook en Instagram - gebeurt ongeveer hetzelfde. Door AI-gemaakt materiaal is op zich niet verboden. Maar ook zij gaan afbeeldingen, geluidsfragmenten en video’s automatisch labelen. Als de systemen van Meta herkennen dat iets is gemaakt met behulp van AI, bijvoorbeeld door zichtbare en onzichtbare watermerken, dan wordt het label 'Gemaakt met AI' daar automatisch aan toegevoegd. Gebruikers kunnen dat label zelf ook handmatig toevoegen.

Op het moment dat met AI-gemaakte content mogelijk misleidend is, dan komen daar duidelijkere labels voor, meldde Meta al. En als het niet in de haak is met gebruiksvoorwaarden, wordt het verwijderd. Bijvoorbeeld bij pesten, oproepen tot geweld of het beïnvloeden van stemgerechtigden. 

Bij X is het verboden om 'synthetische of gemanipuleerde media' te delen, zoals beelden die misleidend of verwarrend zijn en kunnen leiden tot schade. X kan die afbeeldingen verwijderen, maar ook labels toevoegen aan berichten. Daar lijkt het niet even succesvol. 

Want in januari werd X nog overspoeld door deepfakenaaktbeelden van zangeres Taylor Swift. X had zoveel moeite met het tegengaan van de verspreiding van die beelden, dat het zoeken naar de naam Taylor Swift tijdelijk werd uitgeschakeld.

3. De techbedrijven hebben toch beloofd dat ze dit zouden aanpakken?

Klopt. Dat doen de techbedrijven al langer. Zo werken ze al samen aan technische oplossingen voor het makkelijker herkennen van deepfakes, zoals die eerder genoemde watermerken. 

En in februari zeiden de bekendste en grootste techbedrijven dat zij allerlei maatregelen zouden nemen om te voorkomen dat AI-tools worden gebruikt om de Europese verkiezingen te beïnvloeden via hun platformen. Bijvoorbeeld door deepfakevideo’s op te sporen en een stokje te steken voor de verdere verspreiding. 

Nog een voorbeeld waaruit blijkt dat het ingezette beleid (nog) niet waterdicht is. Deze week plaatste BVNL-leider Wybren van Haga twee video’s op Instagram met deepfakes van Hugo de Jonge en Klaus Schwab. En BNR toonde aan dat advertenties met nepvideo’s gewoon geplaatst konden worden als advertenties op X en de platformen van Meta. TikTok weigerde de beelden wel. 

4. Aan welke regels moeten de techbedrijven zich in de EU houden?

De Europese Unie probeert de verspreiding van deepfakes en desinformatie op een aantal manieren aan te pakken. De techbedrijven die in de EU actief zijn, moeten een aantal regels volgen, zoals de Verordening Digitale Diensten. Die regels zijn vooral van belang voor de sociale netwerken, zoals Facebook, Instagram en TikTok. 

"Als ze zien dat er op hun platform illegale inhoud staat, dan moeten ze ingrijpen. Daar zijn ze wettelijk toe verplicht. Dat is de allerbelangrijkste stok om mee te slaan", zegt Kager. 

Houdt een platform zich daar niet aan, dan kan de Commissie optreden en kunnen er dikke boetes worden uitgedeeld. Maar dat wil nog niet zeggen dat iedereen daar naar luistert. 

Bekijk hieronder hoe makkelijk het is geworden om met AI realistische plaatjes te maken.

In die regels staat ook dat misleidende advertenties verboden zijn. De Europese Commissie denkt dat Meta niet genoeg doet tegen de verspreiding van dat soort advertenties, en kondigde in april een onderzoek aan

Dan zijn er nog de makers van de software waarmee jij en ik deepfakes kunnen maken. Die worden binnenkort ook aangepakt, met de komst van de Europese AI-verordening. "Die zegt: als je met AI content maakt die je naar buiten brengt, dan moet er een stempel zijn dat het door AI gemaakt is. Ongeacht wat voor deepfake of content het is."

Maar die regels worden pas op zijn vroegst over twee jaar gehandhaafd. Tot die tijd ligt het vooral aan hoe streng die andere Europese regels worden nageleefd.