AI Porno: Bedrog of niet?
De Metagids #64: Ja, het is heus WEL een probleem dat het pornokijkers niet uitmaakt dat de AI-gegenereerde dames waar ze naar loeren niet bestaan.
Een blanke huid, ravenzwart haar, amandelvormige ogen en een laag uitgesneden topje. Ze ziet er bloedmooi uit. Claudia is haar naam. Online verdient ze haar geld met de verkoop van naaktfoto’s van haar lichaam. Alleen ze bestaat niet. Ze is compleet gefabriceerd met kunstmatige intelligentie. Maakt het uit dat ze in werkelijkheid niet bestaat?
Overspoeld met hyperrealistische nepbeelden
De afgelopen weken zijn we overspoeld met hyperrealistische nepbeelden: de paus in een witte pufferjas, de arrestatie van Donald Trump en een foto van Julian Assange vanuit zijn cel. Het laat zien hoe krachtig AI beeldgeneratoren zoals Midjourney, Dall-E en Stable Diffusion in korte tijd zijn geworden. De beeltenis van Claudia laat een andere, meer expliciete, kant van deze technologie zien. De tools kunnen ook gebruikt worden om nep naaktbeelden te produceren. Net zoals je met ChatGPT een tekst in de stijl van de schrijver Hemingway kunt laten genereren, kun je met Midjourney foto’s laten maken in een realistische stijl. Door de democratisering van AI is iedereen in staat om deze nepfoto’s te maken. Het verandert de manier waarop porno wordt gemaakt en geconsumeerd.
Op internetforum Reddit bestaan er zelfs diverse subgroepen die geheel aan dit nieuwe fenomeen zijn gewijd. Op r/unstable_diffusion/ zijn naaktfoto’s te zien en op /r/diffusedbeauties zijn zelfs bewegende beelden te zien. Alle beelden worden gegenereerd met behulp van Unstable Diffusion, een variant van AI-beeldgenerator Stable Diffusion maar dan voor perverselingen, die gespecialiseerd is in dit soort hyperrealistische beelden.
Interessant is dat zelfs na bekendmaking dat het om een door AI gegenereerde beeltenis gaat, het veel gebruikers niet uitmaakt dat Claudia in werkelijkheid niet bestaat. Bij een dame van vlees en bloed hebben ze immers ook alleen een foto op het scherm om naar te kijken. Dichterbij dan dat komen ze niet. Dus wat maakt het dan nog uit? Zo komen ze ook hun trekken.
“The average person who’s looking at this stuff, I don’t think they care, I don’t expect the person I’m looking at online to be the person they say they are. I’m not going to meet this person in real life. … At the end of the day, if they’re not real, who really cares?”
Ja, het maakt WEL uit
Maar het maakt wel degelijk uit. De gegenereerde beelden zijn gemaakt op basis van bestaande foto’s. Mensen kunnen zichzelf in de beelden herkennen met alle gevolgen van dien: “privacy, reputatieschade en emotionele impact”. Ook is het mogelijk om te doen alsof het om echt bestaande vrouwen gaat, met de technologie kun je heel gemakkelijk een bestaand gezicht “inpainten” op een niet bestaand lichaam. En daarbij komt nog eens de snelheid waarmee dit soort beelden te genereren en te delen zijn.
Vorig jaar publiceerde Europol een rapport waarin staat dat in 2026 meer dan 90% van alle informatie op het internet door kunstmatige intelligentie gegenereerd zal zijn. Het is vanuit hun oogpunt een waarschuwing voor de naderende synthetische infocalypse, voor een internet zonder mensen. Ook deze door AI gegenereerde naaktbeelden vallen hieronder, ze dragen bij aan de enorme hoeveelheid aan mis- en desinformatie die zo wordt verspreid.
Techbedrijven laten regulering aan overheid terwijl AI-trein doordendert
Techbedrijven zouden hier hun verantwoordelijkheid in moeten nemen en proactief maatregelen moeten nemen om de verspreiding van dergelijke beelden te beperken en misbruikers te identificeren en te straffen. Maar deze techbedrijven schuiven maar al te gemakkelijk hun verantwoordelijkheid af, zoals dit weekend te zien was in een aflevering van “60 Minutes“. Alhoewel ze met hun AI-toepassingen een wereldwijd experiment zijn gestart waarbij wij mensen het proefkonijn zijn, dienen overheden met wet- en regelgeving paal en perk te stellen aan de vele mogelijkheden en die lopen uiteraard hopeloos achter. En ondertussen dendert de AI-trein voort…