Lijm op je pizza? Google zoekt oplossing voor bizarre AI-antwoorden
Google is 'druk bezig' om een oplossing te vinden voor bizarre antwoorden van de nieuwe AI-functie van de zoekmachine. Op sociale media verschijnt de afgelopen dagen de ene na de andere absurde suggestie die de nieuwe tool doet. Volgens Google zijn niet alle sterke verhalen die je daar leest ook echt waar.
Sinds kort heeft Google in de Verenigde Staten een nieuwe functie: met kunstmatige intelligentie (AI) wordt bij sommige vragen automatisch een antwoord gegenereerd. In Nederland werkt de functie nog niet, maar in de VS gaat het ook niet helemaal zonder slag of stoot, zo bleek de afgelopen dagen.
Op sociale media delen gebruikers talloze vragen - met bizarre antwoorden van Google.
Viral vragen
"Wat te doen als kaas niet op de pizza blijft zitten?", was een van de vragen die de afgelopen dagen viral ging. Het antwoord van Google: "Voeg lijm aan de saus toe om te voorkomen dat de kaas eraf glijdt." Dat kan natuurlijk niet de bedoeling zijn.
Het antwoord lijkt afkomstig van het forum Reddit. Daar werd meer dan tien jaar geleden eens voor de grap gezegd dat je met lijm kan voorkomen dat kaas van je pizza glijdt. Google betaalt Reddit sinds begin dit jaar tientallen miljoenen om informatie van het platform te gebruiken voor de AI-functie.
Je hebt niet alle cookies geaccepteerd. Om deze content te bekijken moet je deaanpassen.
De vraag over pizzakaas was slechts één voorbeeld. Zo adviseerde Google ook om stenen te eten 'voor een goede gezondheid' en zou de AI-functie hebben gezegd dat het 'heel normaal' is dat er ieder jaar een paar kakkerlakken in je geslachtsdeel kruipen.
Gevaarlijk chloorgas
Verschillende gebruikers melden dat Google ze adviseerde om hun wasmachine schoon te maken met bleekmiddel en witte azijn. Dat kan levensgevaarlijk zijn: de twee stoffen samen vormen het schadelijke chloorgas, bekend van de Eerste Wereldoorlog.
"Het lijkt er wel op of gebruikers op sociale media elkaar proberen te overtreffen om het bizarste antwoord van de AI-tool te vinden", schrijft The New York Times.
Een woordvoerder van Google laat aan techwebsite The Verge weten dat het 'druk bezig' is om handmatig alle bizarre antwoorden uit de tool te halen. "Veel van de ongebruikelijke voorbeelden die we hebben gezien, kwamen voort uit ongebruikelijke vragen", legde de woordvoerder verder uit.
Bovendien is het niet zeker dat alles wat de afgelopen dagen op sociale media verscheen, ook echt waar was: "Een aantal antwoorden kwam bij ons niet uit de tool".
Volgens The New York Times verscheen op sociale media bijvoorbeeld dat mensen die last hebben van depressies van de Golden Gate Bridge kunnen springen. Dat antwoord bleek gemanipuleerd, het ging volgens de krant om een bewerkt screenshot.