Het kan een serieuze strategie zijn van het ene land om in een ander, vijandig land verdeeldheid te zaaien. Door te polariseren ontstaat steeds minder saamhorigheid en daardoor verzwakking omdat de besluitvorming minder effectief wordt. Het fundament van een democratische staat is immers een gedeelde perceptie van de werkelijkheid en een bijbehorende overeenstemming over feitelijkheden. Wanneer dat ontbreekt, kunnen nationale problemen ontstaan die zich naderhand zeer lastig laten oplossen.
Ook kunnen regimes deepfake-technologie gaan inzetten voor hun eigen propaganda, zowel om politieke tegenstanders zwart te maken als om de eigen politici en leiders op een positieve manier af te schilderen. Nepvideo’s laten dan bijvoorbeeld zien hoe die leiders aanwezig waren in penibele situaties en zich gedroegen als ware helden. Internationaal gezien lijken overigens vooral Iran, China, Noord-Korea, de VS en Rusland erg actief te zijn in de ontwikkeling van deze deepfake-videotechnologie.
2. Chantage
Het is niet ondenkbaar dat politici, journalisten, buitenlandse militairen, directeuren van grote bedrijven , klokkenluiders en financieel verantwoordelijken in de toekomst te maken krijgen met chantage met deepfake-video’s. Op een dag kunnen ze dan onderstaande e-mail in hun inbox aantreffen:
“Hallo, dit is een link naar een online video waarin jij de hoofdrol speelt. Je vindt het vast onprettig wanneer jouw seksuele escapades te zien zijn voor de buitenwereld. Wat zouden je familie en je vrienden ervan vinden? Dit is vast niet goed voor je reputatie. Ik denk dat het goed is dat je (vul hier de wens van de crimineel in) dus ik ga er vanuit dat je aan onze wensen tegemoet komt.”
Zelfs wanneer de deepfake-video een matige kwaliteit heeft, wil de hoofdrolspeler vanzelfsprekend niet dat die wordt verspreid. Alleen al de suggestie van onethisch, crimineel, afwijkend seksueel gedrag kan flink wat reputatieschade en -schande tot gevolg hebben. Om je vervolgens van alle blaam te zuiveren, kost vervolgens enorm veel tijd en energie, want suggesties zijn hardnekkig en kunnen iemand jarenlang achtervolgen. Buitenstaanders denken immers, dat waar rook is, ook vuur moet zijn. Met deepfake-technologie hebben kwaadwilligen een erg krachtig chantagemiddel in handen.

3. Reputatieschade
Een van de meest vanzelfsprekende effecten van deepfake-technologie is het toebrengen van reputatieschade. Activistische milieugroeperingen zouden daarmee directeuren van biotechnologiebedrijven in een kwaad daglicht kunnen stellen. Commerciële bedrijven zouden met de technologie een concurrent ten val kunnen brengen. Op de avond vóór een beursgang kan een filmpje van een financieel directeur opduiken, waarin hij zogenaamd toegeeft dat er veel minder liquide middelen op de balans staan dan de officiële papieren vermelden. Aan de vooravond van een verkiezing kan een filmpje opduiken waarin een politicus seksistische, racistische of agressieve taal uitslaat. Als er al eerherstel komt, is dat te laat om de eventuele electorale schade te repareren.
Zeker mensen voor wie reputatie erg belangrijk is, zullen op korte termijn de gevaren en oplossingen van deze technologie onder ogen moeten zien. Overigens manifesteerde zich in het begin van de ontwikkeling van deepfake-technologie op het Reddit-forum al een zeer venijnige vorm van reputatieschade: deepfakeporno. Met die toepassing werd het gezicht van vrouwen geplakt op dat van een porno actrice. Reddit greep in en verwijderde dit ‘non-consensual pornography’-onderdeel , maar dat betekent niet dat de toepassing niet meer bestaat. Wanneer het gebruik van dergelijke deepfake-technologie zich verder verspreidt, zullen meer en meer vrouwen slachtoffer worden. Er zijn al websites waarop vrouwelijke beroemdheden in een pornografische setting worden gemanipuleerd. In de recente Nederlandse geschiedenis werd ex-NOS-nieuwslezeres Dionne Stax slachtoffer van een gemanipuleerde pornografische video .
Een ander voorbeeld betreft de Indiase journaliste Rana Ayyub. Nadat ze campagne voerde voor een verkrachtingsslachtoffer, verscheen ze als hoofdrolspeelster in een pornografische deepfake-nepvideo. Die werd vele tienduizenden keer gedeeld en dat had een forse impact, zowel op haar professionele functioneren als op haar als mens. De video was bedoeld om haar reputatie-schade toe te brengen vanwege haar persoonlijke overtuigingen.

4. Liars’ dividend/ Apathie
Het is helder waar zich de risico’s van de deepfake-technologie ongeveer bevinden. En omdat deze technologie steeds gemakkelijker in gebruik wordt, zal het algemene publiek steeds meer gewend raken aan gemanipuleerde beelden, teksten en stemmen. Aan de ene kant is dat goed: wanneer u een geluidsopname ontvangt van een bekende die u vraagt om geld over te maken, is het goed als u beseft dat die stem nep kan zijn. De gewenning aan deepfake-technologie kan echter ook een keerzijde hebben. Die keerzijde kan zijn dat we, door de golf van nepvideo’s, nepartikelen en nep geluidsopnamen, kwaadwillenden ongewild een troef in handen geven. Vermeende daders kunnen dan bewijsmateriaal, verzameld door journalisten, burgers of onderzoeksbureaus, gewoonweg afdoen als deepfake-video. Het fenomeen dat iedere belastende informatie kan worden geframed als een synthetisch gecreëerde nepvideo of -geluidsopname staat onder meer bekend als het liars’ dividend.
De tweede keerzijde van een mogelijke golf van nepvideo’s, nepartikelen en nepgeluidopnamen is dat we als samenleving apathisch worden voor nieuws. Dat er zo veel mogelijke leugens zijn, dat het publiek zijn schouders ophaalt voor elke video of geluidsopname die iets onthult, ook als die op waargebeurde feiten berust.
Zodra er apathie optreedt jegens alle content, verliest de journalistiek haar belangrijke rol als luis in de pels van het bedrijfsleven en de overheid. Het meest krachtige journalistieke wapen, het blootstellen aan het daglicht, verliest dan zijn kracht. Dat zou de democratie en het collectieve morele kompas ernstig kunnen bedreigen.
Een nieuwe realiteit
Hoewel deepfake-technologie veel kan, staat het nog in de kinderschoenen. Dat geeft ons lucht. We kunnen wennen aan het idee dat niet alle informatie betrouwbaar is. Dat we gemanipuleerd worden met soorten content. Er is een wedloop op gang gekomen tussen echt en nep. Daarmee zullen we moeten leren leven. Deepfake is een nieuwe realiteit.
Meer weten?
Meer weten over deepfakes, synthetische media en kunstmatige intelligentie? Lees dan het rapport “Deepfake technologie: The Infocalypse” of boek een lezing van Jarno Duursma over dit onderwerp.
- Luister hier naar mijn interview met 3FM hierover.
- Luister hier naar mijn interview net NPO Radio 1 erover.
- Luister hier naar mijn interview met BNR hierover.
- Lees hier mijn rapport “Deepfake technologie: The Infocalypse”.
- Luister hier naar mijn interview voor de podcast van Biohacking hierover.
Mijn drie publicaties over kunstmatige intelligentie.