‘Deepfakes’, een krachtig middel voor complotbedenkers

‘Deepfakes’, een krachtig middel voor complotbedenkers

Deepfakes worden steeds beter en geavanceerder. Door deze videomanipulatie-technologie kunnen echte beelden als nep worden gezien en vervalste beelden bestempeld als echt. Deepfakes zijn daarom het perfecte cement in een rammelend, gefragmenteerd en incompleet samenzweringsverhaal.

Wie het nieuws een beetje volgt, ziet steeds vaker melding van ‘deepfake’-video’s. Dat zijn nepvideo’s, gecreëerd met behulp van kunstmatig intelligente systemen, waarop mensen dingen doen die ze in werkelijkheid niet hebben gedaan, of dingen zeggen die ze in werkelijkheid niet hebben gezegd. Het bekendste voorbeeld van deepfake-technologie zijn de zogenaamde ‘face-swapping’-video’s waarbij het gezicht van een persoon wordt verwisseld met dat van een ander. De bewegingen van het gezicht worden daarbij een-op-een overgenomen.

Donkere kant van deepfakes

In een begin dit jaar gepubliceerd rapport over deepfake-technologie signaleerde ik dat deze videomanipulatietechnologie steeds geavanceerder wordt en gemakkelijker om in te zetten. Deze ontwikkeling vraagt dus een kritische blik.

Er zijn namelijk tal van manieren waarop deepfake-technologie kan leiden tot geopolitieke spanningen, sociale onrust, reputatieschade, haatverspreiding en identiteitsfraude. Door deze intelligente video-software kunnen we online immers nauwelijks onze eigen ogen en oren nog geloven.

Recent was nog in het nieuws dat kwaadwilligen gezichten van pornoactrices in seksvideo’s hadden vervangen door het gezicht van beroemde vrouwen zoals Chantal Janzen, Annechien Steenhuizen en Dionne Stax. Voor deze vrouwen bijzonder vervelend, omdat de beelden niet van echt te onderscheiden zijn en ook omdat dit soort video’s nauwelijks van het internet te verwijderen zijn.

Voordeel voor de leugenaar

Maar een onderbelicht risico van deze technologie is het ‘liar’s dividend’. Dat is het voordeel van de twijfel dat een leugenaar in dit geval bijzonder goed uitkomt. Anders gezegd: vermeende criminele daders kunnen dan bewijsmateriaal gewoonweg afdoen als een deepfake-video, zelfs wanneer deze video 100 procent betrouwbaar is. Bewijslast tegen criminelen, bedrijven of overheid wordt in het tijdperk van deepfake dus steeds minder waard. Iedere video kan immers worden afgedaan als een deepfake exemplaar.

Bewijslast tegen bedrijven wordt in het tijdperk van deepfake steeds minder waard

 

En sinds kort heeft dit ‘liars’s dividend’ een extra dimensie gekregen. Het blijkt namelijk een bijzonder krachtig middel te zijn om onzinnige samenzweringstheorieën geloofwaardiger te maken. Een geschenk uit de hemel voor wie ze wil verspreiden en voor wie er in wil geloven.

Recent heeft bijvoorbeeld een Republikeinse politica een rapport gepubliceerd met de theorie dat de dood van George Floyd een deepfake-video is. Een nepvideo geënsceneerd om rassenspanningen op te stoken, met als doel de kwakkelende Black Lives Matter-beweging nieuw leven in te blazen. Volgens deze bizarre samenzweringstheorie zou George Floyd al in 2016 overleden zijn.

De video van de dood van George Floyd zou een deepfake zijn om de kwakkelende BLM-beweging nieuw leven in te blazen

In het rapport wordt dus beweerd dat de inmiddels beruchte arrestatievideo gemanipuleerd is en dat zowel Floyd als de betrokken agent Derek Chauvin digitale deepfake samenstellingen zijn van twee of meer echte mensen. Het rapport pretendeert in eerste instantie zelfs dat Derek Chauvin, de agent die Floyd om het leven bracht, de bekende acteur en stand-up comedian Benjamin Bailey is.

Maar nu komt het: wanneer een extern deskundige in het rapport vervolgens zegt dat de Chauvin in de video met  99 procent zekerheid de echte Chauvin is en niet de acteur Bailey, wordt door de politica de deepfake-kaart getrokken. Volgens haar zou het vervolgens wél de acteur Bailey kunnen zijn, maar is zijn gezicht wellicht digitaal gemodificeerd om het te laten lijken op Chauvin.

Lijkt iets niet te kloppen? Dan is het vast deepfake

Deepfake fungeert daarmee dus als opvulling van de leegte tussen de verschillende samenzweringspuzzelstukjes. Lijkt iets niet te kloppen? Dan is het vast deepfake.

Deepfake-samenzweringstheorieën

Complotbedenkers grijpen het deepfake-verschijnsel dus aan om echte gebeurtenissen te classificeren als nep. Het zal de kracht van samenzweringstheorieën verder doen laten toenemen en het nog lastiger maken ertegen op te treden.

Het fenomeen deepfake zorgt bij complotbedenkers immers voor de ontbrekende verklaringen waar ze in hun samenzweringstheorieën naar op zoek zijn. Deepfakes blijken het perfecte cement te zijn in een rammelend, gefragmenteerd en incompleet samenzweringsverhaal.

Dit is een nieuwe invalshoek dat het potentiële gevaar van deze nieuwe technologie nog duidelijker blootlegt. Want wanneer echte beelden worden bestempeld als nep en vervalste beelden worden bestempeld als echt kan, iedereen vervolgens geloven wat hij of zij wil, met alle gevolgen van dien.

Credits afbeelding: 123RF, licentie: Alle rechten voorbehouden

Geplaatst in

Delen



Er zijn 2 reacties op dit artikel

  • Dank voor je artikel. Maar waarom zouden alleen 'complotdenkers' deepfake gebruiken? In een tijd waar zelfs regeringen (WHO/RIVM) dubbele agenda's hebben, is deepfake net zozeer te gebruiken door de gevestigde orde om onwaarheden te verspreiden. Vind het oprecht jammer dat dit onder belicht is in jouw artikel.

    geplaatst op
  • Hallo Richard, ik heb al veel artikelen (+ een rapport) geschreven over deepfakes. Meerdere risico's heb ik daarbij voor het voetlicht gebracht. Dit (bovenstaande artikel) is een nieuwe invalshoek (complotbedenkers) die interessant is om op deze wijze te verkennen. Het risico dat jij hier noemt heb ik nog niet eerder beschreven.
    Ik denk namelijk dat het 'liar's dividend' in dit licht een veel belangrijker risico is van deepfakes dan dat 'de gevestigde orde' deze software daadwerkelijk zelf gaat gebruiken. (Tenminste, wanneer je daar bijv. de Nederlandse overheid mee bedoelt). Ik zie ook het RIVM of WHO niet zo snel een deepfake video maken om hun doelstellingen te behalen. Maar mocht jij daarvan voorbeelden tegenkomen, dan hoor ik het graag. Je weet me te vinden!

    geplaatst op

Plaats zelf een reactie

Log in zodat je (in het vervolg) nóg sneller kunt reageren

Vul jouw naam in.
Vul jouw e-mailadres in. Vul een geldig e-mailadres in.
Vul jouw reactie in.

Herhaal de tekens die je ziet in de afbeelding hieronder


Let op: je reactie blijft voor altijd staan. We verwijderen deze dus later niet als je op zoek bent naar een nieuwe werkgever (of schoonmoeder). Reacties die beledigend zijn of zelfpromotioneel daarentegen, verwijderen we maar al te graag. Door te reageren ga je akkoord met onze voorwaarden.