OpenAI: geringe kans dat ChatGPT recept geeft voor biologische wapens
Hoe groot is de kans dat een chatbot kan helpen bij het maken van biologische wapens? Die vraag probeerde OpenAI, het bedrijf achter chatbot ChatGPT, te beantwoorden met een eigen test. De uitkomst? Als de chatbot dat soort vragen zou mogen beantwoorden, dan is er 'hoogstens' een geringe kans dat de chatbot helpt bij het maken van biologische wapens.
Dat blijkt uit de eerste test die het bedrijf zelf uitvoerde om beter te begrijpen wat de gevaren zijn van hun eigen chatbot. Met de uitkomst wil het bedrijf uiteindelijk dat misbruik voorkomen.
Het is mooi dat het bedrijf er zelf onderzoek naar doet, zegt Jan Broersen, hoogleraar Kunstmatige Intelligentie aan de Universiteit Utrecht. Maar het is wel alsof de slager zijn eigen vlees keurt. Er zijn namelijk twee belangen, zegt Broersen. AI die goed verkoopt aan de ene kant en AI die niet onethische doet aan de andere kant.
'Doe onafhankelijk onderzoek'
"Ethische AI is een markt voor OpenAI. In hoeverre de slechte toepassingen door de ontwikkelaar - openAI - in ogenschouw wordt genomen, hangt af van de markt die ze ervoor zien. Als dat geen interessante markt is voor ze, zullen ze dat niet nastreven."
Het zou daarom beter zijn dat dit wordt onderzocht door onafhankelijke partijen, zegt Broersen. Om daarna regels vast te kunnen stellen.
Angst bij politici
Al kort na de plotselinge opkomst van ChatGPT waarschuwden politici en topmensen binnen de techwereld voor de gevaren van generatieve kunstmatige intelligentie. Chatbots zoals ChatGPT kunnen stukken tekst schrijven die eruitzien alsof ze door een mens geschreven zijn, denk aan gedichten of het uitleggen van ingewikkelde onderwerpen.
De angst is dat dit soort chatbots het te makkelijk maken voor kwaadwillenden om biologische wapens, zoals een besmettelijk virus, te maken. Net zoals er ook al andere chatbots waarmee je geloofwaardige phishing-emails kunt schrijven.
Wetenschappers, waaronder Broersen, pleitten vorig jaar onder meer voor een ontwikkelingspauze. Een pas op de plaats om grenzen af te spreken en in te bouwen.
Twee groepen: een met ChatGPT, een zonder
In dit onderzoek hebben de mensen van OpenAI twee groepen gemaakt. Een groep met 50 biologie-experts en een groep met 50 biologiestudenten.
De leden van die groepen werden vervolgens willekeurig ingedeeld in een groep die alleen internet mocht gebruiken voor onderzoek, en een groep die ook gebruik mocht maken van een speciale versie van ChatGPT.
De chatbot die openbaar beschikbaar is en jij en ik kunnen gebruiken, geeft namelijk geen antwoord op vragen als: vertel me hoe ik een besmettelijk virus kan maken. Die beveiliging was uitgeschakeld in de versie die de groep gebruikte. Vervolgens moesten ze onder meer zoeken naar manieren om zo'n besmettelijk virus te ontwikkelen.
Daarna is vergeleken waar de twee groepen mee kwamen. En daaruit blijkt dat er een kleine toename in nauwkeurigheid en volledigheid bij de groep die toegang had tot het taalmodel. Op basis daarvan concludeert OpeAI dat toegang tot GPT-4 'hooguit een milde verhoging van de informatieverwerving voor het creëren van de biologische dreigingen oplevert'.
Geen onderzoek naar nieuwe gevaren
Wat OpenAI niet heeft onderzocht, is in hoeverre de chatbot reageert als het gevraagd wordt om iets te bedenken wat nog niet bestaat.
Zo moesten de testers wel kijken of ze het ebolavirus konden maken met aanwijzingen van de chatbot. Maar was er geen aandacht voor het creëren van iets nieuws. "Ze hebben expres niet onderzocht hoe het model in nieuwe richtingen kan denken, waar jij zelf niet aan zou denken. Terwijl daar juist een gevaar in kan zitten", aldus Broersen.