'Onvoldoende bewust'

Privacywaakhond: AI-chatbots risicovol voor kinderen

Door RTL Nieuws / ANP··Aangepast:
© ANP / Hollandse Hoogte / Robin UtrechtPrivacywaakhond: AI-chatbots risicovol voor kinderen
RTL

De Autoriteit Persoonsgegevens, de toezichthouder voor privacy, maakt zich zorgen om apps die kunstmatige intelligentie (AI) gebruiken. Het gaat daarbij vooral om apps die op kinderen zijn gericht.

Een techbedrijf is door de organisatie gevraagd om te vertellen wat zijn chatbot doet met de informatie die mensen delen. Het is niet bekend om welk bedrijf het gaat.

De AI-chatbots brengen veel risico's met zich mee voor kinderen, stelt de Autoriteit Persoonsgegevens. "Zij zijn zich onvoldoende bewust van deze risico's. Het is belangrijk dat zij bijvoorbeeld weten wat er gebeurt met hun chatberichten en of ze praten met een chatbot of met een echt persoon", zegt de organisatie.

Eerder stelde de Autoriteit vragen aan OpenAI, het bedrijf achter de veelgebruikte chatbot ChatGPT. De toezichthouder wilde bijvoorbeeld weten hoe persoonsgegevens worden gebruikt om de kunstmatige intelligentie te trainen en te verbeteren.

Gevaren AI

Er wordt regelmatig gewaarschuwd voor de risico's van AI. In april kwam nog een groep van 50 AI-experts en instellingen bij elkaar om te vragen om strengere regels voor de ontwikkeling van AI.

Zij maken zich zorgen om de potentiële risico's van nieuwe AI-software, bijvoorbeeld bij gezichtsherkenning. Sommige systemen vormen een onacceptabel risico voor de veiligheid of bedreigen zelfs mensenrechten, stelden de experts in april.

Weer een roep om strenge regels voor AI: dit is waarom
Lees ook

Weer een roep om strenge regels voor AI: dit is waarom

Ook de Europese Unie houdt zich bezig met de regulering van kunstmatige intelligentie. De EU werkt al twee jaar aan regels voor AI en probeert vast te stellen hoe streng die regels moeten worden.

Lees meer over
Autoriteit PersoonsgegevensPrivacyKunstmatige intelligentieChatbotNederland