Zorgen om AI van Sora: 'Golf aan desinformatie komt op ons af'
Een stijlvolle vrouw die wandelt door Tokio, terwijl neonlicht weerspiegeld wordt door plassen op de grond. Het is een van de video's die ChatGPT-maker OpenAI online heeft gezet. De video is gemaakt door kunstmatige intelligentie met een nieuw programma dat Sora heet. Knap, zeker. Maar niet zonder gevaar, waarschuwen experts. "Het was eerst best ingewikkeld om te maken. Maar de rem die er was, is er nu af."
Sora is een nieuw AI-model - een type generatieve kunstmatige intelligentie - dat tekst kan omzetten naar realistisch ogende video's. Je geeft het een opdracht, bijvoorbeeld om een video te maken met reflecties in het raam van een trein die door de buitenwijken van Tokio rijdt. En dan krijg je de onderstaande video als resultaat.
Het is een volgende belangrijke stap in wat generatieve kunstmatige intelligentie kan. Het programma van OpenAI is nu nog niet voor iedereen beschikbaar, maar wordt door een select groepje mensen getest. Er zijn al wel andere programma's die met een korte tekst een video kunnen maken, maar die lijken minder geavanceerd en fotorealistisch.
Golf aan desinformatie
Het grootste gevaar waar wetenschappers voor waarschuwen is dat het steeds moeilijker wordt om nep van echt te onderscheiden. En dat áls iedereen het kan gebruiken, we veel meer nepvideo's gaan zien. Dat zegt Linda Kool, onderzoekscoördinator digitale technologie van het Rathenau Instituut, dat onderzoek doet naar de maatschappelijke impact van opkomende technologie.
"Er was al een probleem. Als je al een deepfake had, kon die makkelijk verspreid worden via sociale media-platformen. De rem was nog dat het best ingewikkeld was om te maken. En juist daar zet generatieve AI de volgende stap."
Met één druk op de knop kun je nu zo'n video maken. "Denk aan meer deepfake pornografie, meer nepnieuws. Er staat ons een golf aan desinformatie te wachten", verwacht ze.
Desinformatie is moeilijk te bestrijden
Terwijl de huidige golf aan desinformatie al ingewikkeld genoeg blijkt om aan te pakken. Denk aan de misleidende beelden over de oorlog tussen Israël en Gaza. Of zoals in Spanje, waar door AI gemaakte naaktfoto's van minderjarige meisjes rondgingen.
Het probleem is niet nieuw. Want ook zes jaar geleden ging er al een deepfakevideo rond van de toenmalige Amerikaanse president Donald Trump, waarin hij België op lijkt te roepen uit het klimaatakkoord van Parijs te stappen. Overduidelijk nep, maar die video had wel resultaat. Want er waren genoeg mensen die zich genoodzaakt voelden te reageren.
"We zien dat deepfakes en desinformatie al een hardnekkig probleem waren, waar we als samenleving een antwoord op moeten hebben. Dat wordt erger. En we hebben een scala aan maatregelen nodig", zegt Kool.
AI-video's laten maken is ingewikkeld
Piek Vossen, hoogleraar Computationele Lexicologie aan de Vrije Universiteit Amsterdam, legt uit waarom de techniek om zo'n video te maken zo ingewikkeld is. Want alleen al het maken van een realistische afbeelding is voor sommige AI-modellen al een uitdaging.
Soms hebben ze bijvoorbeeld moeite met handen. "Dan zitten er ineens zeven vingers aan een hand. Die uitdaging wordt alleen maar groter bij een video." In de video hieronder bijvoorbeeld verdwijnen mensen ineens uit beeld, terwijl ze eerder nog op straat liepen.
Je hebt niet alle cookies geaccepteerd. Om deze content te bekijken moet je deaanpassen.
Dat komt onder meer doordat een video bestaat uit veel verschillende stilstaande beelden. Bij televisie-uitzendingen gaat dat doorgaans om 25 beelden per seconde.
"Je moet dus een hele reeks beelden maken, waar een verhaal achter zit. Je moet dus foutloos heel veel data genereren", zegt hij.
'OpenAI doet iets knaps'
Andere bedrijven, zoals Runway, werken al langer aan een tekst-naar-video-model. En hoewel dat er mooi uitziet, gaat OpenAI nu verder, met langere video's die er ogenschijnlijk realistischer uitzien. "Dat die anderen er al zo lang mee bezig waren en OpenAI dit nu voor elkaar krijgt, is toch een knap stukje engineering", zegt Vossen.
Je hebt niet alle cookies geaccepteerd. Om deze content te bekijken moet je deaanpassen.
Zo was het nog geen jaar geleden dat een door AI gemaakte video viraal ging van Will Smith die spaghetti aan het eten was, maar dat was lang nog niet perfect.
"Die ogen waren niet goed, het haperde en het zag er bijna alien-achtig uit", aldus Kool.
"Nu heeft het nog wel wat moeite met bepaalde natuurkundige zaken. Of als iemand een hap uit een koekje neemt, dat het koekje daarna weer heel is. Maar in een half jaar tijd is het echt een stuk vloeiender en kwalitatief beter geworden", zegt Kool.
Hoe kunnen we deepfakes bestrijden?
De grote techbedrijven die werken aan kunstmatige intelligentie, zoals OpenAI, Alphabet, Microsoft en Amazon, hebben onlangs nog een samenwerkingsverband aangekondigd. Samen willen ze misbruik van AI bij verkiezingen tegengaan.
Dat komt niet uit de lucht vallen, want dit jaar mag bijna de helft van de wereldbevolking naar de stembus. De belangen zijn dus groot om te voorkomen dat buitenlandse machten met desinformatie invloed uit proberen te oefenen op die verkiezingen.
Er wordt ook al langer door de techbedrijven zelf geroepen om meer regulering. Dat lijkt behoorlijk tegenstrijdig met de belangen van de makers van generatieve AI.
Nog steeds 'move fast, break things'
"Want de ontwikkelaars zijn ook verwikkeld in een race om zo snel mogelijk te zijn. Het credo 'move fast, break things' lijkt nog steeds in leven te zijn", zegt Kool. Wat zou betekenen dat er eerst dingen mis gaan, die achteraf bijgestuurd moeten worden, door de makers van dit soort applicaties of door overheden.
De technische oplossingen die door OpenAI en anderen worden doorgevoerd zijn watermerken in afbeeldingen en in de zogeheten metadata. Maar zo'n watermerk is niet waterdicht, omdat dat makkelijk omzeild kan worden.
Wet- en regelgeving moet gevaar AI beteugelen
Dus komt het aan op wet- en regelgeving, waar Europa hard aan werkt. Daarin staat onder meer dat het maken van een deepfake mag, maar dat wel duidelijk moet zijn dat het gaat om een deepfake.
En met de Europese techregels, de Digitaledienstenverordening, krijgen platformen meer verantwoordelijkheden om op te treden tegen desinformatie.
Soms ook nee zeggen tegen AI
We zitten nu in een tussenstadium. Wat Kool betreft is de nieuwe Europese wetgeving met regels voor AI niet genoeg.
"We moeten het beleid kritisch evalueren. Moet je deepfakes as hoog-risico reguleren of bepaalde verboden overwegen? In de tussentijd zal elke organisatie, bedrijf en individu zich moeten afvragen: kun je generatieve AI verantwoord inzetten? Soms zal het antwoord ook gewoon nee zijn."