Vragen? Bel 06 – 160 749 53 of mail mij info@jarnoduursma.nl

Vragen? Bel of mail mij

Deepfakes en complotdenkers

Deepfakes worden steeds beter en geavanceerder. Door deze videomanipulatie-technologie kunnen echte beelden als nep worden gezien en vervalste beelden bestempeld als echt. Deepfakes zijn daarom een krachtig middel voor complotdenkers. Deepfakes zijn het perfecte cement in een rammelend, gefragmenteerd en incompleet samenzweringsverhaal.

Wie het nieuws een beetje volgt, ziet steeds vaker melding van deepfake-video’s. Dat zijn nepvideo’s, gecreëerd met behulp van kunstmatig intelligente systemen, waarop mensen dingen doen die ze in werkelijkheid niet hebben gedaan. Of waarin ze dingen zeggen die ze in werkelijkheid niet hebben gezegd. Het bekendste voorbeeld van deepfake-technologie zijn de zogenaamde face-swapping-video’s waarbij het gezicht van een persoon wordt verwisseld met dat van een ander. De bewegingen van het gezicht worden daarbij een-op-een overgenomen.

Donkere kant van deepfakes

Begin dit jaar publiceerde ik een rapport over deepfake-technologie waarin ik signaleerde dat deze videomanipulatietechnologie steeds geavanceerder en eenvoudiger wordt om in te zetten. Deze ontwikkeling vraagt dus een kritische blik.

Er zijn namelijk tal van manieren waarop deepfake-technologie kan leiden tot geopolitieke spanningen, sociale onrust, reputatieschade, haatverspreiding en identiteitsfraude. Door deze intelligente video-software kunnen we online immers nauwelijks onze eigen ogen en oren nog geloven.

Recent was nog in het nieuws dat kwaadwilligen gezichten van pornoactrices in seksvideo’s hadden vervangen door het gezicht van beroemde vrouwen zoals Chantal Janzen, Annechien Steenhuizen en Dionne Stax. Voor deze vrouwen bijzonder vervelend, omdat de beelden niet van echt te onderscheiden zijn en ook omdat dit soort video’s nauwelijks van het internet verwijderen.

Deepfakes en complotdenkers: voordeel voor de leugenaar

Maar een onderbelicht risico van deze technologie is het ‘liar’s dividend’. Dat is het voordeel van de twijfel dat een leugenaar in dit geval bijzonder goed uitkomt. Anders gezegd: vermeende criminele daders doen bewijsmateriaal af als een deepfake-video. Zelfs wanneer deze video 100 procent betrouwbaar is. Bewijslast tegen criminelen, bedrijven of overheid wordt dus steeds minder waard. Iedere video kan immers worden afgedaan als een deepfake exemplaar.

Het liars’s dividend

En sinds kort heeft dit ‘liars’s dividend’ een extra dimensie gekregen. Het is namelijk een bijzonder krachtig middel om onzinnige samenzweringstheorieën geloofwaardiger te maken. Een geschenk uit de hemel voor wie ze wil verspreiden en voor wie er in wil geloven.

Recent heeft bijvoorbeeld een Republikeinse politica een rapport gepubliceerd met de theorie dat de dood van George Floyd een deepfake-video is. Een nepvideo geënsceneerd om rassenspanningen op te stoken, met als doel de kwakkelende Black Lives Matter-beweging nieuw leven in te blazen. Volgens deze bizarre samenzweringstheorie zou George Floyd al in 2016 overleden zijn.

In het rapport wordt dus beweerd dat de inmiddels beruchte arrestatievideo gemanipuleerd is en dat zowel Floyd als de betrokken agent Derek Chauvin digitale deepfake samenstellingen zijn van twee of meer echte mensen. Het rapport pretendeert in eerste instantie zelfs dat Derek Chauvin, de agent die Floyd om het leven bracht, de bekende acteur en stand-up comedian Benjamin Bailey is.

Maar nu komt het: wanneer een extern deskundige in het rapport zegt dat de Chauvin in de video met 99 procent zekerheid de echte Chauvin is en niet de acteur Bailey, wordt door de politica de deepfake-kaart getrokken. Volgens haar zou het vervolgens wél de acteur Bailey kunnen zijn, maar is zijn gezicht wellicht digitaal gemodificeerd om het te laten lijken op Chauvin.

Deepfake fungeert daarmee dus als opvulling van de leegte tussen de verschillende samenzweringspuzzelstukjes. Lijkt iets niet te kloppen? Dan is het vast deepfake.

Deepfake-samenzweringstheorieën

Complotbedenkers grijpen het deepfake-verschijnsel aan om echte gebeurtenissen te classificeren als nep. Hierdoor neemt de kracht van samenzweringstheorieën verder toe. En wordt het nog lastiger om ertegen op te treden.

Het fenomeen deepfake zorgt bij complotbedenkers immers voor de ontbrekende verklaringen waar ze in hun samenzweringstheorieën naar op zoek zijn. Deepfakes blijken het perfecte cement te zijn in een rammelend, gefragmenteerd en incompleet samenzweringsverhaal.

Dit is een nieuwe invalshoek dat het potentiële gevaar van deze nieuwe technologie nog duidelijker blootlegt. Want wanneer echte beelden worden bestempeld als nep en vervalste beelden worden bestempeld als echt, kan iedereen geloven wat hij wil. Met alle gevolgen van dien.

Wat klanten zeggen

"Jarno’s lezing hielp ons de impact te snappen van kunstmatige intelligentie op mensen, bedrijven en zelfs de hele samenleving. Zijn frisse kijk op de digitale toekomst inspireerde ons team maar waarschuwde ons ook niet de menselijke factor te vergeten. Want juist die menselijke factor zal in de toekomst voornamelijk hetgeen zijn waarmee je je als bedrijf kunt onderscheiden."
Rudy Kempe
KONE
Rudy Kempe
"Spreken over nieuwe technologie is een vak apart. Je moet écht weten waarover je het hebt, en dat tegelijkertijd toegankelijk kunnen uitleggen. Jarno heeft dat vak echt onder controle en doet dat met een heerlijke guy-next-door mentaliteit. Een genot om naar te kijken en te luisteren!"
Martijn Aslander
Spreker, Auteur.
Martijn Aslander
"Jarno heeft bij de HKU een lezing verzorgd over Synthetische Media: Kunstmatige creativiteit. Jarno liet aan de hand van vele voorbeelden zien wat er in de fascinerende wereld van deepfakes allemaal mogelijk is. Interessant en beangstigend tegelijkertijd, en genoeg stof tot nadenken. Zijn lezing werd met veel enthousiasme ontvangen."
Marjoleine Gadella
Coördinator Evenementen bij HKU
Marjoleine Gadella